目录
- 1. 线程池和进程池解决的是调度问题
- 2. 线程池
- 3. 线程池实战:爬取西游记的标题
- 总结
欢迎关注 『python爬虫』 专栏,持续更新中
欢迎关注 『python爬虫』 专栏,持续更新中
1. 线程池和进程池解决的是调度问题
⽹站的数据太多了,有⼀万多⻚,⼀万多个url.,我们设计多线程的时候如果每个url对应⼀个线程就,会浪费资源,可能2个url对应一个线程,可能有些url爬取的数据少,3个url对应一个线程,这种调度的问题很麻烦。
线程池: 一次性开辟一些线程. 我们用户直接给线程池子提交任务. 线程任务的调度交给线程池来完成。
进程池的内容和线程池类似,下面只介绍线程池。
2. 线程池
# 线程池: 一次性开辟一些线程. 我们用户直接给线程池子提交任务. 线程任务的调度交给线程池来完成from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutordef fn(name):for i in range(1000):print(name, i)if __name__ == '__main__':# 创建线程池with ThreadPoolExecutor(50) as t:#50个线程for i in range(100):#100个任务由线程池分配给50个线程执行t.submit(fn, name=f"线程{i}")#把任务提交给线程池t# 等待线程池中的任务全部执行完毕. 才继续执行(守护)print("执行结束")
3. 线程池实战:爬取西游记的标题
其实这种有先后顺序要求的内容,线程池无法保证正确序列,还需要一些方法保证顺序,其实这里用线程池有点不恰当,仅供学习参考。
# 1. 如何提取单个页面的数据# 2. 上线程池,多个页面同时抓取import codecsimport requestsfrom lxml import etreeimport csvfrom concurrent.futures import ThreadPoolExecutorf = open("data.csv", mode="w", encoding="gbk")#gbk防止乱码中文csvwriter = csv.writer(f)def download_one_page(url):# 拿到页面源代码resp = requests.get(url)#print(resp.apparent_encoding)#utf-8resp.encoding = "utf-8"#解析时得到的数据是utf-8html = etree.HTML(resp.text)title = html.xpath("/html/body/div[2]/div[1]/main/section/header/h2/text()")print(title)csvwriter.writerow(title)print(url, "提取完毕!")if __name__ == '__main__':# for i in range(1, 14870):# 效率及其低下# download_one_page(f"http://www.xinfadi.com.cn/marketanalysis/0/list/{i}.shtml")# 创建线程池with ThreadPoolExecutor(50) as t:for i in range(0, 100):# 199 * 20 = 3980# 把下载任务提交给线程池t.submit(download_one_page, f"https://xiyouji.5000yan.com/{19830+i}.html")print("全部下载完毕!")
总结
大家喜欢的话,给个,点个关注!给大家分享更多计算机专业学生的求学之路!
版权声明:
发现你走远了@mzh原创作品,转载必须标注原文链接
Copyright 2023 mzh
Crated:2023-3-1
欢迎关注 『python爬虫』 专栏,持续更新中
欢迎关注 『python爬虫』 专栏,持续更新中
『未完待续』