日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術(shù)文章
文章詳情頁

Python爬蟲獲取豆瓣電影并寫入excel

瀏覽:218日期:2022-07-15 17:07:55

豆瓣電影排行榜前250 分為10頁,第一頁的url為https://movie.douban.com/top250,但實(shí)際上應(yīng)該是https://movie.douban.com/top250?start=0 后面的參數(shù)0表示從第幾個開始,如0表示從第一(肖申克的救贖)到第二十五(觸不可及),https://movie.douban.com/top250?start=25表示從第二十六(蝙蝠俠:黑暗騎士)到第五十名(死亡詩社)。等等,

所以可以用一個步長為25的range的for循環(huán)參數(shù)

復(fù)制代碼 代碼如下:for i in range(0, 250, 25): print(i)

分析完頁面組成后,開始獲取頁面,直接request.get()發(fā)現(xiàn)沒有返回任何東西,輸出一下響應(yīng)碼

url = ’https://movie.douban.com/top250?start=0’res = request.get(url=url)print(res.status_code)

發(fā)現(xiàn)返回響應(yīng)碼418

以前沒見過這個,拉網(wǎng)線上網(wǎng)查一下,發(fā)現(xiàn)給get里面加一個header參數(shù)就行了

這里可以用自己瀏覽器的user-agent,如

headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}

或者用fake_agent(安裝直接用pip install fake_agent) 來為自己生成一個隨機(jī)的agent添加到header字典中

from fake_useragent import UserAgentheaders = {’User-Agent’: UserAgent().random}

之后就可以得到頁面源碼了。

然后使用lxml.etree,即xpath解析頁面源碼。用瀏覽器插件xpath finder快速定位到元素

Python爬蟲獲取豆瓣電影并寫入excel

import requestsimport lxml.etree as etreeurl = ’https://movie.douban.com/top250?start=0’headers = {’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’}res = requests.get(url=url, headers=headers)print(res.text)html = etree.HTML(res.text)name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]')print(name)

但是直接這樣子,解析到的是這樣的結(jié)果

[<Element span at 0x20b2f0cc488>]

Python爬蟲獲取豆瓣電影并寫入excel

關(guān)于這東西是什么,有文章寫的很好:https://www.jb51.net/article/132145.htm

這里我直接寫解決部分,在使用xpath解析時,后面加上/text()

name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]/text()')

解決后,再使用xpath finder插件,一步一步獲取到電影所有數(shù)據(jù)

最后把這個寫在函數(shù)里,外面再套上一開始說的循環(huán),就OK了

# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreedef get_source(page): url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) print(name[0]) print(info[0].replace(’ ’, ’’)) print(info[1].replace(’ ’, ’’)) print(score[0]) print(slogan[0])n = 1for i in range(0, 250, 25): print(’第%d頁’ % n) n += 1 get_source(i) print(’==========================================’)

在定位時,發(fā)現(xiàn)有4部電影介紹沒有slogan,導(dǎo)致獲取到的信息為空列表,也就導(dǎo)致了list.append()會出錯。所以我加上了幾個差錯處理,解決方式可能有點(diǎn)傻,如果有更好的解決辦法,洗耳恭聽

代碼在最后可以看到

Python爬蟲獲取豆瓣電影并寫入excel

EXCEL保存部分

這里我用的xlwt

book = xlwt.Workbook()

sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True)

創(chuàng)建一個sheet表單。

數(shù)據(jù)保存到一個大列表中,列表嵌套列表

再通過循環(huán)把數(shù)據(jù)導(dǎo)入到excel表單中

r = 1 for i in LIST: #有10頁 for j in i: #有25條數(shù)據(jù) c = 2 for x in j: #有5組數(shù)據(jù)print(x)sheet.write(r, c, x)c += 1 r += 1

最后在保存一下

book.save(r’douban.xls’)

注意文件后綴要用xls,用xlsx會導(dǎo)致文件打不開

然后就大功告成了

打開文件,手動加入排名,等部分信息(這些也可以在程序里完成,我嫌麻煩,就沒寫,直接手動來的快)

Python爬蟲獲取豆瓣電影并寫入excel

前面的✓是我自己整的,用于記錄那些看過,那些沒看過

這也是我寫這個東西的最初的目的

完整代碼在下面,僅用于參考

# -*- coding: utf-8 -*-import requestsimport lxml.etree as etreeimport xlwtdef get_source(page): List = [] url = ’https://movie.douban.com/top250?start={}’.format(page) headers = { ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36’} print(url) res = requests.get(url=url, headers=headers) print(res.status_code) html = etree.HTML(res.text) for i in range(1, 26): list = [] name = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()'.format(i)) info = html.xpath('/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()'.format(i)) score = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()'.format(i)) slogan = html.xpath( '/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()'.format(i)) try: list.append(name[0]) except: list.append(’----’) try: list.append(info[0].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(info[1].replace(’ ’, ’’).replace(’n’, ’’)) except: list.append(’----’) try: list.append(score[0]) except: list.append(’----’) try: list.append(slogan[0]) except: list.append(’----’) List.append(list) return Listn = 1LIST = []for i in range(0, 250, 25): print(’第{}頁’.format(n)) n += 1 List = get_source(i) LIST.append(List)def excel_write(LIST): book = xlwt.Workbook() sheet = book.add_sheet(u’sheetname’, cell_overwrite_ok=True) r = 1 for i in LIST: #有10頁 for j in i: #有25條數(shù)據(jù) c = 2 for x in j: #有5組數(shù)據(jù)print(x)sheet.write(r, c, x)c += 1 r += 1 book.save(r’douban1.xls’) #保存代碼excel_write(LIST)

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
久久国产尿小便嘘嘘| 免费黄网站欧美| 国产欧美日韩在线一区二区 | 精品三级av| 精品视频一二| 蜜桃成人精品| 亚洲欧洲美洲av| 欧美肉体xxxx裸体137大胆| 国户精品久久久久久久久久久不卡 | 夜夜精品视频| 中文一区一区三区免费在线观 | 最新亚洲一区| 久久国产精品毛片| 日韩精品免费一区二区夜夜嗨 | 国产亚洲精品美女久久| 欧美极品中文字幕| 夜鲁夜鲁夜鲁视频在线播放| 欧美亚洲精品在线| 蜜桃视频免费观看一区| 国产精品s色| 99成人超碰| 日本高清久久| 久久电影tv| 日韩精品一区第一页| 国产欧美日韩精品高清二区综合区| 国产成人在线中文字幕| 99日韩精品| 国产精品激情| 亚洲欧美日韩国产一区| 欧美日韩亚洲国产精品| 99热精品久久| 日本不卡的三区四区五区| 国产精品专区免费| 少妇高潮一区二区三区99| 亚洲永久av| 国产美女撒尿一区二区| 99久久久久| 久久精品伊人| 亚洲欧洲国产精品一区| 久久精品国产www456c0m| 国产精品久久久久久妇女 | 丰满少妇一区| 日韩福利视频导航| 久久精品电影| 国产不卡av一区二区| 午夜亚洲福利| 免费日韩一区二区| 日韩在线二区| 国产精品a级| 在线国产一区| 亚洲欧洲高清| 国产一区2区| 国产精品伦一区二区| 日韩三级一区| 伊人久久一区| 亚洲一卡久久| 黄色av一区| 欧美日韩国产亚洲一区| 国产一区清纯| 狠狠色狠狠色综合日日tαg| 天堂资源在线亚洲| 在线成人动漫av| 久久久精品五月天| 亚洲精品一区二区在线看| 日韩免费久久| 99热精品久久| 国产精品试看| 亚洲美女91| 久久丁香四色| 日韩亚洲一区在线| 日韩午夜av在线| 日本亚洲三级在线| 欧美aⅴ一区二区三区视频| 久久一区欧美| 日韩网站中文字幕| 自拍日韩欧美| 日本免费在线视频不卡一不卡二| 欧美一级二级三级视频| 日韩1区在线| а√天堂8资源在线| 99精品在线免费在线观看| 国产日韩欧美中文在线| 久久黄色影视| 国产精品一区二区精品| 国产极品模特精品一二| 国产精品第一| 亚洲激情中文在线| 国产精品三级| 91成人网在线观看| 欧美一级二级三级视频| 日韩精品一区二区三区免费观影| 人人爽香蕉精品| 精品国产精品久久一区免费式| 久久国产主播| 日韩国产精品久久久| 亚洲成av在线| 国产福利资源一区| 视频一区二区国产| 日韩成人精品一区| 日韩欧美三区| 日韩午夜电影| 国产 日韩 欧美一区| 欧美亚洲一区二区三区| 99精品美女| 欧美xxxx中国| 国产情侣一区在线| 亚洲人成毛片在线播放女女| 蜜桃视频在线网站| 久久99久久人婷婷精品综合| 国内精品福利| 国产va在线视频| 国产欧美激情| 亚洲毛片一区| 亚洲综合日本| 91精品啪在线观看国产18| 国产精品一区二区免费福利视频 | 欧美黄色一区| 欧美日韩伊人| 国产无遮挡裸体免费久久 | 国产99亚洲| 久久精品观看| 日韩黄色大片| 国产精品久久久久蜜臀| 免费日韩成人| 麻豆精品视频在线观看免费| 国产亚洲一区二区三区啪| 日韩精选在线| 久久国产精品色av免费看| 日韩成人av影视| 国产精品久久久久久久久久齐齐| 欧美永久精品| 国产调教一区二区三区| 国产精品亚洲欧美日韩一区在线 | 久久青草久久| 吉吉日韩欧美| av资源亚洲| 欧美一级精品| 亚洲视频国产精品| 国产精品一区毛片| 日本久久精品| 亚洲一区二区成人| 日韩国产欧美在线播放| **爰片久久毛片| 成人在线黄色| 婷婷亚洲五月色综合| 中文字幕一区二区三区四区久久| 日韩高清不卡一区二区| 成人日韩av| 日韩一级网站| 亚洲精一区二区三区| 欧美一区自拍| 99久久精品费精品国产| 热久久免费视频| 精品三级av在线导航| 中文亚洲免费| 久久99免费视频| 欧美色图国产精品| 国产欧美日韩视频在线| 久久九九电影| 久久不见久久见中文字幕免费 | 国产精品videosex极品| 欧美1区2区3区| 国产精品成人国产| 久久五月天小说| 日韩av网站免费在线| av资源中文在线| 日韩黄色免费网站| 久久人人88| 精品一区二区三区中文字幕| 伊人久久大香线蕉av超碰演员| 日本不卡一二三区黄网| 偷拍精品精品一区二区三区| 日韩在线成人| 美女久久一区| 999久久久亚洲| 大香伊人久久精品一区二区| 中文字幕亚洲在线观看| 日韩欧美网址| 狂野欧美性猛交xxxx| 亚洲影视一区二区三区| 136国产福利精品导航网址| 精品一区二区三区免费看| 日韩中文字幕一区二区高清99| 亚洲性视频h| 日韩1区在线| a国产在线视频| 国产一区二区三区免费在线| 日韩av网站免费在线| 亚洲理论在线| 日韩欧美在线精品| 亚洲精品在线国产| 日韩一区二区三免费高清在线观看| 国产一区视频在线观看免费| 91一区二区三区四区| 麻豆国产91在线播放| 久久精品三级| 国产aⅴ精品一区二区四区| 精品久久久久中文字幕小说| 麻豆国产欧美一区二区三区| 蜜桃久久久久|