日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python - scrapy中使用CrawlSpider,匹配不到urls

瀏覽:181日期:2022-07-18 10:45:15

問題描述

我的爬蟲代碼如下,其中rules無獲取,不知道是什么問題?

#encoding: utf-8import reimport requestsimport timefrom bs4 import BeautifulSoupimport scrapyfrom scrapy.http import Requestfrom craler.items import CralerItemimport urllib2from scrapy.spiders import CrawlSpider, Rulefrom scrapy.linkextractors import LinkExtractorfrom scrapy.contrib.linkextractors.sgml import SgmlLinkExtractorclass MoyanSpider(CrawlSpider): try:name = ’maoyan’allowed_domains = ['http://maoyan.com']start_urls = [’http://maoyan.com/films’]rules = ( Rule(LinkExtractor(allow=(r'films/d+.*')), callback=’parse_item’, follow=True),) except Exception, e:print e.message # # def start_requests(self): # for i in range(22863): # url = self.start_urls + str(i*30) # # yield Request(url,self.parse, headers=self.headers) def parse_item(self, response):item = CralerItem()# time.sleep(2)# moveis = BeautifulSoup(response.text, ’lxml’).find('p',class_='movies-list').find_all('dd') try: time.sleep(2) item[’name’] = response.find('p',class_='movie-brief-container').find('h3',class_='name').get_text() item[’score’] = response.find('p',class_='movie-index-content score normal-score').find('span',class_='stonefont').get_text() url = 'http://maoyan.com'+response.find('p',class_='channel-detail movie-item-title').find('a')['href'] #item[’url’] = url item[’id’] = response.url.split('/')[-1] # html = requests.get(url).content # soup = BeautifulSoup(html,’lxml’) temp= response.find('p','movie-brief-container').find('ul').get_text() temp = temp.split(’n’) #item[’cover’] = soup.find('p','avater-shadow').find('img')['src'] item[’tags’] = temp[1] item[’countries’] = temp[3].strip() item[’duration’] = temp[4].split(’/’)[-1] item[’time’] = temp[6] #print item[’name’] return itemexcept Exception, e: print e.message

運行報錯的提醒:

C:Python27python.exe 'C:Program Files (x86)JetBrainsPyCharm Community Edition 2016.2.2helperspydevpydevd.py' --multiproc --qt-support --client 127.0.0.1 --port 12779 --file D:/scrapy/craler/entrypoint.pypydev debugger: process 30468 is connectingConnected to pydev debugger (build 162.1967.10)D:/scrapy/cralercralerspidersmaoyan.py:12: ScrapyDeprecationWarning: Module `scrapy.contrib.linkextractors` is deprecated, use `scrapy.linkextractors` instead from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractorD:/scrapy/cralercralerspidersmaoyan.py:12: ScrapyDeprecationWarning: Module `scrapy.contrib.linkextractors.sgml` is deprecated, use `scrapy.linkextractors.sgml` instead from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor2017-05-08 21:58:14 [scrapy.utils.log] INFO: Scrapy 1.3.3 started (bot: craler)2017-05-08 21:58:14 [scrapy.utils.log] INFO: Overridden settings: {’NEWSPIDER_MODULE’: ’craler.spiders’, ’ROBOTSTXT_OBEY’: True, ’SPIDER_MODULES’: [’craler.spiders’], ’HTTPCACHE_ENABLED’: True, ’BOT_NAME’: ’craler’, ’COOKIES_ENABLED’: False, ’DOWNLOAD_DELAY’: 3}2017-05-08 21:58:14 [scrapy.middleware] INFO: Enabled extensions:[’scrapy.extensions.logstats.LogStats’, ’scrapy.extensions.telnet.TelnetConsole’, ’scrapy.extensions.corestats.CoreStats’]2017-05-08 21:58:14 [py.warnings] WARNING: D:/scrapy/cralercralermiddlewares.py:11: ScrapyDeprecationWarning: Module `scrapy.contrib.downloadermiddleware.useragent` is deprecated, use `scrapy.downloadermiddlewares.useragent` instead from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware2017-05-08 21:58:14 [scrapy.middleware] INFO: Enabled downloader middlewares:[’scrapy.downloadermiddlewares.retry.RetryMiddleware’, ’scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware’, ’craler.middlewares.RotateUserAgentMiddleware’, ’scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware’, ’scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware’, ’scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware’, ’scrapy.downloadermiddlewares.useragent.UserAgentMiddleware’, ’scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware’, ’scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware’, ’scrapy.downloadermiddlewares.redirect.RedirectMiddleware’, ’scrapy.downloadermiddlewares.stats.DownloaderStats’, ’scrapy.downloadermiddlewares.httpcache.HttpCacheMiddleware’]2017-05-08 21:58:15 [scrapy.middleware] INFO: Enabled spider middlewares:[’scrapy.spidermiddlewares.httperror.HttpErrorMiddleware’, ’scrapy.spidermiddlewares.offsite.OffsiteMiddleware’, ’scrapy.spidermiddlewares.referer.RefererMiddleware’, ’scrapy.spidermiddlewares.urllength.UrlLengthMiddleware’, ’scrapy.spidermiddlewares.depth.DepthMiddleware’]2017-05-08 21:58:15 [scrapy.middleware] INFO: Enabled item pipelines:[’craler.pipelines.CralerPipeline’]2017-05-08 21:58:15 [scrapy.core.engine] INFO: Spider opened2017-05-08 21:58:15 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)2017-05-08 21:58:15 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:60232017-05-08 21:58:15 [root] INFO: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)2017-05-08 21:58:15 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://maoyan.com/robots.txt> (referer: None) [’cached’]2017-05-08 21:58:15 [root] INFO: Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.502017-05-08 21:58:15 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://maoyan.com/films> (referer: None) [’cached’]2017-05-08 21:58:15 [scrapy.spidermiddlewares.offsite] DEBUG: Filtered offsite request to ’maoyan.com’: <GET http://maoyan.com/films/248683>2017-05-08 21:58:15 [scrapy.core.engine] INFO: Closing spider (finished)2017-05-08 21:58:15 [scrapy.statscollectors] INFO: Dumping Scrapy stats:{’downloader/request_bytes’: 534, ’downloader/request_count’: 2, ’downloader/request_method_count/GET’: 2, ’downloader/response_bytes’: 6913, ’downloader/response_count’: 2, ’downloader/response_status_count/200’: 2, ’finish_reason’: ’finished’, ’finish_time’: datetime.datetime(2017, 5, 8, 13, 58, 15, 357000), ’httpcache/hit’: 2, ’log_count/DEBUG’: 4, ’log_count/INFO’: 9, ’log_count/WARNING’: 1, ’offsite/domains’: 1, ’offsite/filtered’: 30, ’request_depth_max’: 1, ’response_received_count’: 2, ’scheduler/dequeued’: 1, ’scheduler/dequeued/memory’: 1, ’scheduler/enqueued’: 1, ’scheduler/enqueued/memory’: 1, ’start_time’: datetime.datetime(2017, 5, 8, 13, 58, 15, 140000)}2017-05-08 21:58:15 [scrapy.core.engine] INFO: Spider closed (finished)Process finished with exit code 0

問題解答

回答1:

主要是 allow_domains的問題,你的提取規則是沒問題的,代碼這樣寫就能抓鏈接了

# encoding: utf-8import timefrom tutorial.items import CrawlerItemfrom scrapy.spiders import CrawlSpider, Rulefrom scrapy.linkextractors import LinkExtractorclass MoyanSpider(CrawlSpider): name = ’maoyan’ allowed_domains = ['maoyan.com'] start_urls = [’http://maoyan.com/films’] rules = (Rule(LinkExtractor(allow=(r'films/d+.*')), callback=’parse_item’, follow=True), ) def parse_item(self, response):print(response.url)item = CrawlerItem()try: time.sleep(2) item[’name’] = response.text.find('p', class_='movie-brief-container').find('h3', class_='name').get_text() item[’score’] = response.text.find('p', class_='movie-index-content score normal-score').find('span', class_='stonefont').get_text() url = 'http://maoyan.com' + response.text.find('p', class_='channel-detail movie-item-title').find('a')['href'] item[’id’] = response.url.split('/')[-1] temp = response.text.find('p', 'movie-brief-container').find('ul').get_text() temp = temp.split(’n’) item[’tags’] = temp[1] item[’countries’] = temp[3].strip() item[’duration’] = temp[4].split(’/’)[-1] item[’time’] = temp[6] return itemexcept Exception as e: print(e)

主要就是allow_domain別帶上http://字符串。

另外,你的解析模塊有點問題,我沒給你修改,有數據了自己應該也能改。

另外,吐槽一下前面的同學,根本就沒調試人家的代碼,也這樣強答,明顯在誤導人嘛

回答2:

有幾個模塊組件已經棄用了,讓你換個別的相似模塊使用

回答3:

只是警告,沒有錯誤。可能你爬取的網站做了防爬蟲措施,導致你無法正常獲取。

標簽: Python 編程
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
免费成人在线观看| 在线亚洲国产精品网站| 国产一区久久| 亚洲免费播放| 日本成人在线视频网站| 美女精品视频在线| 日本久久一区| 久久99青青| 日韩欧美午夜| 国产午夜久久| 日韩激情av在线| 国模大尺度视频一区二区| 久久人人97超碰国产公开结果| 在线综合亚洲| 日韩av不卡一区二区| 久久91视频| 欧美成人亚洲| 免费在线观看视频一区| 你懂的国产精品| 成人在线视频免费看| 欧美1区免费| 欧美在线日韩| 麻豆网站免费在线观看| 九九久久电影| 午夜在线视频观看日韩17c| 亚洲免费影院| 亚洲黄色免费看| 日韩精品免费一区二区三区| 蜜臀久久99精品久久久画质超高清 | 伊人影院久久| 国产精品手机在线播放| 亚洲一区日本| 久久精品国产大片免费观看| 欧美日韩黄网站| 亚洲区第一页| 日韩在线观看一区二区| 91高清一区| 午夜av成人| 97精品97| 麻豆国产欧美日韩综合精品二区| 日韩超碰人人爽人人做人人添| 免费看欧美美女黄的网站| 国产亚洲永久域名| 欧美91精品| 亚洲精品网址| 久久精品国产亚洲夜色av网站| 欧美国产偷国产精品三区| 国产精品自拍区| 日本成人在线网站| 日韩欧乱色一区二区三区在线| 久久99伊人| 国产美女一区| 野花国产精品入口| 欧美日韩精品一本二本三本 | 亚洲国产专区校园欧美| 日韩和的一区二在线| 新版的欧美在线视频| 精品美女在线视频| 免费亚洲一区| 日韩1区2区| 久久影院午夜精品| 91综合网人人| 婷婷成人在线| 久久高清精品| 欧美成人久久| 国产精品嫩草99av在线| 国产亚洲网站| 一区二区电影在线观看| 蜜臀av性久久久久蜜臀aⅴ四虎| 美女精品在线| 亚洲开心激情| 欧美久久久网站| 国产精品一区二区三区av麻| 免费观看亚洲天堂| 四虎成人av| 日韩av首页| 伊人久久婷婷| 日本一不卡视频| 国产精品欧美日韩一区| 国产精选久久| 日韩伦理在线一区| 亚洲无线一线二线三线区别av| 亚洲精品午夜av福利久久蜜桃| 午夜宅男久久久| 午夜久久一区| 亚洲精品美女91| 国产精品美女在线观看直播| 精品视频在线一区二区在线| 国产精品13p| 五月婷婷亚洲| 婷婷综合电影| 精品三级在线| 久久久久久免费视频| 亚洲一区二区三区四区五区午夜| 亚洲欧洲免费| 欧美激情三区| 亚洲大片在线| 亚洲欧美专区| 精品国产中文字幕第一页| 亚洲va在线| 亚洲毛片在线免费| 麻豆久久一区| 亚洲精品一二三区区别| 日韩三级精品| 加勒比视频一区| 欧美日韩精品免费观看视频完整 | 亚洲精品在线国产| 高清一区二区三区av| 欧美一区久久| 亚洲女同av| 视频一区日韩| 亚洲天堂资源| 亚洲tv在线| 精品视频免费| 国产亚洲激情| 精品美女视频| 天堂成人国产精品一区| 久久不见久久见中文字幕免费| 91精品精品| 国产亚洲人成a在线v网站 | 亚洲一级少妇| 日韩av中文字幕一区二区三区| 中文字幕在线视频网站| 中文视频一区| 久久久久久久欧美精品| 天堂va蜜桃一区二区三区| 神马久久午夜| 在线视频亚洲欧美中文| 韩国女主播一区二区三区| 午夜国产欧美理论在线播放| 国产精品久久久久77777丨| 国产私拍福利精品视频二区| 999久久久91| 国产精品白丝一区二区三区| 亚洲国产日韩欧美在线| 国产福利一区二区精品秒拍| 中文久久精品| 亚洲欧美日本日韩| 国产成人免费精品| 中文字幕视频精品一区二区三区| 成人亚洲欧美| 国产精品一页| 亚洲欧洲免费| 黄色不卡一区| 91欧美国产| 国产日产精品_国产精品毛片 | 国产调教一区二区三区| 香蕉久久夜色精品国产| 国产va在线视频| 国产亚洲人成a在线v网站| 亚洲在线国产日韩欧美| 亚洲午夜天堂| 久久中文在线| 91午夜精品| 蜜桃伊人久久| 久久久久国产一区二区| 欧美精品1区| 日韩一区中文| 欧美一区=区| 99国产精品| 久久精品主播| sm捆绑调教国产免费网站在线观看| 欧美在线精品一区| 国产模特精品视频久久久久| 成人久久一区| 精品久久久久中文字幕小说| 欧美一区激情| 日韩激情啪啪| 亚洲精品在线国产| 三级亚洲高清视频| 在线亚洲激情| 欧美日韩三区| 91久久国产| 欧美不卡视频| 欧美成a人国产精品高清乱码在线观看片在线观看久 | 国产精品黄网站| 91精品美女| 在线观看一区| 午夜视频精品| 国产综合精品| 在线日韩一区| 免费观看不卡av| 国户精品久久久久久久久久久不卡 | www.九色在线| 成人三级高清视频在线看| 欧美交a欧美精品喷水| 国产香蕉精品| 久久爱www.| 国产极品嫩模在线观看91精品| 国产精品亚洲产品| 欧美亚洲免费| 久久国产麻豆精品| 国产精品超碰| 麻豆精品蜜桃视频网站| 一区二区小说| 美女精品在线| 日本一区二区中文字幕| 综合亚洲视频| 日韩精品久久久久久久软件91| 日本一区二区三区视频在线看|