日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

瀏覽:150日期:2022-07-02 08:14:28
requests庫

利用pip安裝:pip install requests

基本請求

req = requests.get('https://www.baidu.com/')req = requests.post('https://www.baidu.com/')req = requests.put('https://www.baidu.com/')req = requests.delete('https://www.baidu.com/')req = requests.head('https://www.baidu.com/')req = requests.options(https://www.baidu.com/)1.get請求

參數是字典,我們可以傳遞json類型的參數:

import requestsfrom fake_useragent import UserAgent#請求頭部庫headers = {'User-Agent':UserAgent().random}#獲取一個隨機的請求頭url = 'https://www.baidu.com/s'#網址params={ 'wd':'豆瓣' #網址的后綴}requests.get(url,headers=headers,params=params)

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

返回了狀態碼,所以我們要想獲取內容,需要將其轉成text:

#get請求headers = {'User-Agent':UserAgent().random}url = 'https://www.baidu.com/s'params={ 'wd':'豆瓣'}response = requests.get(url,headers=headers,params=params)response.text2.post 請求

參數也是字典,也可以傳遞json類型的參數:

import requests from fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().random}url = 'https://www.baidu.cn/index/login/login' #登錄賬號密碼的網址params = { 'user':'1351351335',#賬號 'password':'123456'#密碼}response = requests.post(url,headers=headers,data=params)response.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

因為這里需要一個登錄的網頁,我這里就隨便用了一個,沒有登錄,所以顯示的結果是這樣的,如果想要測試登錄的效果,請找一個登錄的頁面去嘗試一下。

3.IP代理

采集時為避免被封IP,經常會使用代理,requests也有相應 的proxies屬性。

#IP代理import requests from fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().random}url = 'http://httpbin.org/get' #返回當前IP的網址proxies = { 'http':'http://yonghuming:123456@192.168.1.1:8088'#http://用戶名:密碼@IP:端口號 #'http':'https://182.145.31.211:4224'# 或者IP:端口號}requests.get(url,headers=headers,proxies=proxies)

代理IP可以去:快代理去找,也可以去購買。http://httpbin.org/get。這個網址是查看你現在的信息:

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

4.設置訪問超時時間

可以通過timeout屬性設置超時時間,一旦超過這個時間還沒獲取到響應內容,就會提示錯誤。

#設置訪問時間requests.get('http://baidu.com/',timeout=0.1)

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

5.證書問題(SSLError:HTTP)

ssl驗證。

import requests from fake_useragent import UserAgent #請求頭部庫url = 'https://www.12306.cn/index/' #需要證書的網頁地址headers = {'User-Agent':UserAgent().random}#獲取一個隨機請求頭requests.packages.urllib3.disable_warnings()#禁用安全警告response = requests.get(url,verify=False,headers=headers)response.encoding = 'utf-8' #用來顯示中文,進行轉碼response.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

6.session自動保存cookies

import requestsfrom fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().chrome}login_url = 'https://www.baidu.cn/index/login/login' #需要登錄的網頁地址params = { 'user':'yonghuming',#用戶名 'password':'123456'#密碼}session = requests.Session() #用來保存cookie#直接用session 歹意requests response = session.post(login_url,headers=headers,data=params)info_url = 'https://www.baidu.cn/index/user.html' #登錄完賬號密碼以后的網頁地址resp = session.get(info_url,headers=headers)resp.text

因為我這里沒有使用需要賬號密碼的網頁,所以顯示這樣:

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

我獲取了一個智慧樹的網頁

#cookie import requestsfrom fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().chrome}login_url = 'https://passport.zhihuishu.com/login?service=https://onlineservice.zhihuishu.com/login/gologin' #需要登錄的網頁地址params = { 'user':'12121212',#用戶名 'password':'123456'#密碼}session = requests.Session() #用來保存cookie#直接用session 歹意requests response = session.post(login_url,headers=headers,data=params)info_url = 'https://onlne5.zhhuishu.com/onlinWeb.html#/stdetInex' #登錄完賬號密碼以后的網頁地址resp = session.get(info_url,headers=headers)resp.encoding = 'utf-8'resp.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

7.獲取響應信息

代碼 含義 resp.json() 獲取響應內容 (以json字符串) resp.text 獲取相應內容(以字符串) resp.content 獲取響應內容(以字節的方式) resp.headers 獲取響應頭內容 resp.url 獲取訪問地址 resp.encoding 獲取網頁編碼 resp.request.headers 請求頭內容 resp.cookie 獲取cookie

到此這篇關于python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)的文章就介紹到這了,更多相關python爬蟲requests庫用法內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
亚洲欧美日本国产| 国产福利一区二区三区在线播放| 精品一区二区三区亚洲| 欧美日韩亚洲一区| 日本午夜精品| 日韩高清不卡在线| 日本高清久久| 日韩一区二区三区在线看| 中文字幕亚洲在线观看| 亚洲乱码久久| 久久国产乱子精品免费女| 日本特黄久久久高潮| 久久国产麻豆精品| 免费精品一区| 给我免费播放日韩视频| 精品美女在线视频| 国产在线看片免费视频在线观看| 肉色欧美久久久久久久免费看| 免费高潮视频95在线观看网站| 日本高清不卡一区二区三区视频| 欧美韩一区二区| 国产精品成人a在线观看| 亚洲午夜天堂| 黑丝美女一区二区| 亚洲一区二区小说| 国产精品美女在线观看直播| 国产成人精品一区二区三区视频| 日韩在线中文| 亚洲一区二区成人| 日韩av一级片| 国产精品国产三级在线观看| 日韩成人免费| 国产精品嫩草99av在线| 日韩有码av| 国产一区二区三区亚洲综合| 韩国精品主播一区二区在线观看 | 久久国产影院| 噜噜噜躁狠狠躁狠狠精品视频| 日本在线不卡视频一二三区| 另类欧美日韩国产在线| 99久久精品国产亚洲精品| 蜜桃久久久久久| 日韩精彩视频在线观看| 欧美1区2区3| 国产99亚洲| 四虎在线精品| 日韩av专区| 六月婷婷一区| 久久精品五月| av不卡在线| 国产精品igao视频网网址不卡日韩| 日韩欧美三级| 婷婷视频一区二区三区| 成人欧美一区二区三区的电影| 国产精品老牛| 久久中文字幕导航| 亚洲免费中文| 国产福利资源一区| 91精品91| 国产精品igao视频网网址不卡日韩 | 久久中文字幕二区| 综合亚洲视频| av免费不卡国产观看| 亚洲日产国产精品| 日韩免费看片| 欧美日本精品| 黑丝一区二区三区| 国产高清亚洲| 1024精品久久久久久久久| 国产精品亚洲人成在99www| 99精品电影| 91福利精品在线观看| 久久在线免费| 久久精品一区二区三区中文字幕| 狠狠干综合网| 国产aa精品| 午夜电影一区| 久久精品影视| 精品一区二区男人吃奶 | 国产欧美日韩一级| 欧美中文字幕一区二区| 国产精品久久久久77777丨| 午夜在线精品偷拍| 日韩精品欧美激情一区二区| 欧美激情一区| 日本视频在线一区| 国产偷自视频区视频一区二区| 97欧美在线视频| 国产日韩欧美一区在线| 亚洲综合日本| 99久久亚洲精品蜜臀| 久久久久黄色| 日韩和欧美一区二区三区| 在线亚洲国产精品网站| 久久精品欧美一区| 欧美激情视频一区二区三区免费 | 丝瓜av网站精品一区二区| 久久久成人网| 国内精品亚洲| 国产精品视频3p| 亚洲香蕉久久| 亚洲一区日韩| 国产精品7m凸凹视频分类| 正在播放日韩精品| 国产999精品在线观看| 国产极品模特精品一二| 日韩超碰人人爽人人做人人添| 久久亚洲一区| av成人国产| 99久久亚洲精品蜜臀| 欧美一级鲁丝片| 麻豆国产精品一区二区三区| 国产欧美一区二区精品久久久| 亚洲精品第一| 免费人成精品欧美精品 | 日本成人中文字幕在线视频| 蜜臀91精品一区二区三区| 天堂va蜜桃一区二区三区| 亚洲一区观看| 亚洲欧美网站| 老司机久久99久久精品播放免费| 婷婷激情综合| 激情婷婷综合| 女同性一区二区三区人了人一| 免费视频国产一区| 亚洲午夜精品久久久久久app| 激情欧美国产欧美| 欧美日韩三区| 玖玖玖国产精品| 亚洲精选久久| 日韩高清电影免费| 国产欧美日韩影院| 欧美激情99| www.九色在线| 999国产精品| 亚洲男女av一区二区| 红桃视频国产精品| 婷婷激情图片久久| 久久国产精品亚洲77777| 一二三区精品| 日韩一区二区三区免费视频| 日韩精品社区| 蜜臀av亚洲一区中文字幕| 日本亚洲视频在线| 国产伦精品一区二区三区千人斩| 久久精品国产福利| 日韩欧美字幕| 中文精品在线| 日韩激情视频网站| 久久精品国产999大香线蕉| 不卡福利视频| 中国女人久久久| 丝袜国产日韩另类美女| 日韩精品第一| 精品久久一区| 999久久久精品国产| 天堂av在线一区| 欧美一区自拍| 手机在线电影一区| 黄色欧美日韩| 日韩精品一级| 日产精品一区二区| 国产精品免费看| 欧美一区自拍| 在线看片福利| 日av在线不卡| 国产精品v日韩精品v欧美精品网站 | 精品久久一区| 九一成人免费视频| 日韩av黄色在线| 国产v日韩v欧美v| 香蕉久久夜色精品国产| 91国内精品| 日韩精品麻豆| 水野朝阳av一区二区三区| 国产精品激情| 亚洲国产综合在线看不卡| 日韩在线成人| 日韩大片在线播放| 亚洲精品韩国| 国产成人精品一区二区免费看京| 国产免费成人| 国产一区日韩| 免费成人av在线播放| 免费在线亚洲欧美| 午夜欧美精品| 老司机精品视频网| 国产精品成人国产| 少妇高潮一区二区三区99| 麻豆精品视频在线| 制服诱惑一区二区| 国产极品一区| 日韩avvvv在线播放| 九九久久国产| 欧美天堂一区| 免费一区二区三区在线视频| 国产一区二区三区久久久久久久久| av不卡免费看| 国产日韩一区| 亚洲精品极品少妇16p|