一、简介
什么是分布式爬虫?
分布式爬虫就是把一个爬虫任务放到多台机器上去运行,提高爬取效率
但是每台机器运行同一套代码,都在各自的任务和去重队列,等于各爬各的,最终爬的数据是相同的
因此需要提供一个公共的去重队列和公共的任务队列,多台机器都在共用的队列中去调度和去重,然后分别爬取
原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址)
实现分布式的关键就是三点:
1、共享队列
2、重写Scheduler(调度器),让其无论去重还是任务都访问共享队列
3、为Scheduler定制去重规则(利用redis的集合类型)
以上三点便是scrapy-redis组件的核心功能
二、scrapy-redis实现分布式爬虫1 scrapy-redis架构
scrapy-redis整体运行流程如下:核心就是把Scheduler(调度器)放到redis当中去
源码位置
2 scrapy-redis共享队列
3 使用scrapy-redis组件
1 pip3 install scrapy-redis 安装2 原来继承Spider,现在继承RedisSpider源码spiders.py中,RedisSpider(RedisMixin, Spider)类,继承了原来的Spider,并继承了扩展类RedisMixin3 不能写start_urls = ['https:/www.cnblogs.com/'] 需要写redis_key = 'myspider:start_urls' 统一管理起始的爬取地址,redis的name对应的是一个列表放一个起始url,启动爬虫后,返回来的url也是丢到这个列表中,每台机器都是从这个列表中取地址爬取,共享一个队列class ChoutiSpider(RedisSpider): name = 'cnblog' allowed_domains = ['cnblogs.com'] redis_key = 'myspider:start_urls'
4 setting中配置
redis连接
# redis的连接, 默认配置本地+6379REDIS_HOST = 'localhost' # 主机名REDIS_PORT = 6379 # 端口REDIS_USER = # 用户名REDIS_PASSWORD = # 密码REDIS_URL = 'redis://user:pass@hostname:port' # 支持直接链接REDIS_PARAMS = {} # Redis连接参数REDIS_PARAMS['redis_cls'] = 'myproject.RedisClient' # 指定连接Redis的Python模块REDIS_ENCODING = "utf-8" # redis编码类型 REDIS_ITEMS_KEY = '%(spider)s:items' # 将item持久化到redis时,指定的nameREDIS_ITEMS_SERIALIZER = 'json.dumps' # 将item持久化到redis时,指定序列化函数
重点配置
1、DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" # 使用scrapy-redis的去重 源码dupefilter.py中,RFPDupeFilter类重写了request_seen()方法 def request_seen(self, request): fp = self.request_fingerprint(request) # self.server是redis连接,sadd表示向集合中add数据 added = self.server.sadd(self.key, fp) return added == 02、SCHEDULER = "scrapy_redis.scheduler.Scheduler" # 使用scrapy-redis的Scheduler, 分布式爬虫的配置3、持久化配置,配了都走公共的,存在redis中,如果不配,各自存各自的库,当然Mysql也是共用的一个库ITEM_PIPELINES = {'scrapy_redis.pipelines.RedisPipeline': 299} 源码pipelines.py中,RedisPipeline类,_process_item()方法,就是把item对象转成pickle,再存入redis def _process_item(self, item, spider): key = self.item_key(item, spider) data = self.serialize(item) self.server.rpush(key, data) return item
其他配置
# 调度器将不重复的任务用pickle序列化后放入共享任务队列,默认使用优先级队列,其他PriorityQueue(有序集合),FifoQueue(列表)、LifoQueue(列表) SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue' # 对保存到redis中的request对象进行序列化,默认使用pickleSCHEDULER_SERIALIZER = "scrapy_redis.picklecompat" # 调度器中请求任务序列化后存放在redis中的name SCHEDULER_QUEUE_KEY = '%(spider)s:requests' # 去重队列(用的指纹去重,放在集合中),在redis中保存时对应的name SCHEDULER_DUPEFILTER_KEY = '%(spider)s:dupefilter'# 去调度器中获取数据时,如果为空,最多等待时间(最后没数据,未获取到)。如果没有则立刻返回会造成空循环次数过多,cpu占用率飙升 SCHEDULER_IDLE_BEFORE_CLOSE = 10 # 是否在关闭时候保留原来的调度器和去重记录,True=保留,False=清空 SCHEDULER_PERSIST = True # 是否在开始之前清空 调度器和去重记录,True=清空,False=不清空 SCHEDULER_FLUSH_ON_START = False
5 启动scrapy-redis
分布式爬虫部署在三台机器上,等于每台机器启一个爬虫进程,跟在一台机器上启动3个进程本质上一样的1 进程启动爬虫,启动后要等待从redis中拿出起始urlscrapy crawl cnblog_redis现在要让爬虫运行起来,需要去redis中以myspider:start_urls为key,插入一个起始地址cmd命令窗口输入:2 redis-cil # 启动redis3 lpush myspider:start_urls https://www.cnblogs.com/ # 插入起始地址···