• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

打印scrapy蜘蛛的抓取树结构

python 水墨上仙 2020次浏览

通过这段代码可以一目了然的知道scrapy的抓取页面结构,调用也非常简单


# This is a script to print the crawl tree of spider run.
# 
# 使用方法:
# 
#     $ python ctree.py myspider.log
#     None
#       http://www.example.com/start_page1
#         http://www.example.com/second_page
#         http://www.example.com/another_page
#     None
#       http://www.example.com/start_page2
#         http://www.example.com/yet_another_page
 
#!/usr/bin/env python
 
import fileinput, re
from collections import defaultdict
 
def print_urls(allurls, referer, indent=0):
    urls = allurls[referer]
    for url in urls:
        print ' '*indent + referer
        if url in allurls:
            print_urls(allurls, url, indent+2)
 
def main():
    log_re = re.compile(r'<GET (.*?)> \(referer: (.*?)\)')
    allurls = defaultdict(list)
    for l in fileinput.input():
        m = log_re.search(l)
        if m:
            url, ref = m.groups()
            allurls[ref] += [url]
    print_urls(allurls, 'None')
 
main()


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明打印scrapy蜘蛛的抓取树结构
喜欢 (0)
加载中……