Requests模块get请求与实战
- requests简介:
- 检查数据
- 请求数据
- 保存数据
前言: 前两章我们介绍了爬虫和HTML的组成,方便我们后续爬虫学习,今天就教大家怎么去爬取一个网站的源代码(后面学习中就能从源码中找到我们想要的数据)。
此专栏文章是专门针对Python零基础爬虫,欢迎免费订阅!
第一篇文章获得全站热搜第一,python领域热搜第一,欢迎阅读!
欢迎大家一起学习,一起成长!!
urllib模块:
urllib是python的内置HTTP请求库,包含4个模块
request: http的请求模块,传入UPL及额外的参数,就模拟发送请求
error 异常处理模块,确保程序不会意外终止
parse : 一个工具模块,提供了许多URL处理方法。
robotparser : 用来识别robots.txt文件,判断那些网站可以爬
pycharm外部库的urilib下:
requests简介:
requests是一个Python第三方库,用于发送
上面这就表示安装成功。
然后接下来安装requests镜像源:
如图所示,在终端输入代码,出现下面情况就代表安装完成。
检查数据
检查数据是否在链接里
1.数据不在链接中:打开网页,右键点击检查,然后点击网络,刷新,接着选择第一个文档,点击预览,这个时候我们发现,左边的照片或者其他信息不在预览里面,这个时候我们就无法获得想要的数据了。这种数据就属于
2.数据在链接中:
打开网页,点击右键,点击检查,然后点击左上角的小箭头,移动到左边我们需要的数据上面,如果右边代码中出现相应的代码,就说明数据就在代码中,接着我们就开始后面的操作,方便获取我们需要的数据。
请求数据
浏览器页面的网址一定是qet请求
举个栗子:(如何查看请求头,请求体,以及响应体,在第二节里面有详细介绍,此处以及后面就不在过多介绍,以免让文章太繁琐)
现在我们知道数据在链接中,我们就要通过链接去获取他:
import requestsurl = 'http://slide.news.sina.com.cn' # 我们需要数据的链接(就是我们需要爬取的链接,因为数据就在链接里面)# 确认请求,get请求html = requests.get(url)print(html.text) # 打印网页源代码print(html.status_code) # 状态码if html.status_code == 200: print('数据访问成功')else: print('请求失败了')
这段代码使用了Python第三方库requests,发送了一个HTTP GET请求,并获取了HTTP响应的正文和状态码,并根据状态码判断请求是否成功。其中,url是一个字符串类型的参数,表示要发送HTTP请求的URL地址。
使用requests.get()函数发送HTTP GET请求,并将HTTP响应对象赋值给变量html。
使用text属性获取HTTP响应正文,并将其打印出来。此外,使用status_code属性获取HTTP响应状态码,并将其打印出来。
根据HTTP响应import requestsurl = 'http://slide.news.sina.com.cn' # 我们需要数据的链接(就是我们需要爬取的链接,因为数据就在链接里面)# 确认请求,get请求html = requests.get(url)print(html.text) # 打印网页源代码print(html.status_code) # 状态码if html.status_code == 200: print('数据访问成功')else: print('请求失败了')print(html.url) # 访问的网址print(html.request.headers) # 输出请求头信息
使用url属性获取HTTP请求的URL地址,并将其打印出来。
然后,使用request.headers属性获取HTTP请求的请求头信息,并将其打印出来。request属性是HTTP响应对象的一个属性,表示该HTTP响应对象对应的HTTP请求对象。因此,html.request.headers表示HTTP请求的请求头信息。在网页源代码中也能查看请求头,但是没有代码运行来的方便快捷。
请求头的作用
请求头是HTTP协议中的一个重要部分,它包含了HTTP请求的一些元信息,比如请求方法、请求地址、协议版本、请求头、请求体等。请求头可以帮助服务器理解客户端发送的HTTP请求,以便正确处理HTTP请求。请求头的作用主要有以下几点:
指定请求方法和请求地址:请求头中包含了HTTP请求的方法(GET、POST、PUT、DELETE等)和请求地址,告诉服务器要执行哪种操作。
指定请求体和请求参数:请求头中还可以包含请求体和请求参数,用于向服务器传递数据。
指定请求头信息:请求头中还包含了一些元信息,比如用户代理、Cookie、Referer等,用于告诉服务器一些附加信息,以便服务器做出更好的响应。
安全性:请求头中可以包含一些安全相关的信息,比如身份验证、防止跨站点请求伪造(CSRF)等。
请求头对爬虫来说,就好像一个面具,去模仿人去浏览网站,就不会被网站发现,也可以理解为打开网站的钥匙,上面我们知道,数据在链接中,但是我们申请后,返回状态码是418,请求失败,所有我们现在戴上面具,或者说,拿着钥匙再去申请,看看能不能成功打开。
import requestsimport chardeturl = 'http://slide.news.sina.com.cn/c/slide_1_86058_567500.html#p=1'headers = { 'User-Agent': 'python-requests/2.28.2', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive'}html = requests.get(url, headers=headers).contentencoding = chardet.detect(html)['encoding']html = html.decode(encoding)# 将网页内容写入文件中with open('example.html', 'w', encoding='utf-8') as f: f.write(html)
现在就好比我们成功的进入到别人家里面,然后我们将要拿数据,现在先看一下代码里面的东西。
运行成功后,我们大概看一下,数据较多,不做过多展示,截取部分内容:
接着我们在里搜索我们想要的数据,例如:
红色方框里面就是我们需要的东西,我们可以点击查看一下:
现在我们找到了我们需要的数据,因为我们还没有学会数据解析,暂时不能提取,无法精确的获取想要的东西,今天就不在这里讲解,后面章节会讲怎么精确的拿取我们想要的数据
保存数据
输入文件保存的代码:
import requestsimport chardeturl = 'http://slide.news.sina.com.cn/c/slide_1_86058_567500.html#p=1'headers = { 'User-Agent': 'python-requests/2.28.2', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive'}html = requests.get(url, headers=headers).contentencoding = chardet.detect(html)['encoding']html = html.decode(encoding)print(html)# 将网页内容写入文件中with open('example.html', 'w', encoding='utf-8') as f: f.write(html)
这段代码可以将
html
变量中的网页内容写入到名为example.html
的文件中。具体来说,open()
函数用于打开文件,'w'
参数表示以写入模式打开文件,encoding='utf-8'
参数表示指定编码格式为 UTF-8。然后使用write()
方法将网页内容写入文件中。with
语句用于自动关闭文件。需要注意的是,如果该文件不存在,则会自动创建该文件;如果该文件已经存在,则会覆盖原文件中的内容。如果要在已经存在的文件中追加内容,可以将
'w'
参数改为'a'
。我们的文件就会保存到文件中(仅展示部分代码):
今天知识分享就到此结束,欲知后续如何,请听下回分析。
悲索之人烈焰加身,堕落者不可饶恕。永恒燃烧的羽翼,带我脱离凡间的沉沦。