日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python使用bs4爬取boss直聘靜態頁面

瀏覽:34日期:2022-07-08 16:47:30

思路:

1、將需要查詢城市列表,通過城市接口轉換成相應的code碼

2、遍歷城市、職位生成url

3、通過url獲取列表頁面信息,遍歷列表頁面信息

4、再根據列表頁面信息的job_link獲取詳情頁面信息,將需要的信息以字典data的形式存在列表datas里

5、判斷列表頁面是否有下一頁,重復步驟3、4;同時將列表datas一直傳遞下去

6、一個城市、職位url爬取完后,將列表datas接在列表datas_list后面,重復3、4、5

7、最后將列表datas_list的數據,遍歷寫在Excel里面

知識點:

1、將response內容以json形式輸出,解析json并取值

2、soup 的select()和find_all()和find()方法使用

3、異常Exception的使用

4、wldt創建編輯Excel的使用

import requests, time, xlwtfrom bs4 import BeautifulSoupclass MyJob(): def __init__(self, mycity, myquery): self.city = mycity self.query = myquery self.list_url = 'https://www.zhipin.com/job_detail/?query=%s&city=%s&industry=&position='%(self.query, self.city) self.datas = [] self.header = { ’authority’: ’www.zhipin.com’, ’method’: ’GET’, ’scheme’: ’https’, ’accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8’, ’accept-encoding’: ’gzip, deflate, br’, ’accept-language’: ’zh-CN,zh;q=0.9’, ’cache-control’: ’max-age=0’, ’cookie’: ’lastCity=101210100;uab_collina=154408714637849548916323;toUrl=/;c=1558272251;g=-;l=l=%2Fwww.zhipin.com%2Fuser%2Flogin.html&r=; Hm_lvt_194df3105ad7148dcf2b98a91b5e727a=1555852331,1556985726,1558169427,1558272251; __a=40505844.1544087205.1558169426.1558272251.41.14.4.31; Hm_lpvt_194df3105ad7148dcf2b98a91b5e727a=1558272385’, ’referer’: ’https://www.zhipin.com/?ka=header-logo’, ’upgrade-insecure-requests’: ’1’, ’user-agent’: ’Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36’ } #將城市轉化為code碼 def get_city(self,city_list): city_url = 'https://www.zhipin.com/wapi/zpCommon/data/city.json' #獲取城市 json = requests.get(city_url).json() zpData = json['zpData']['cityList'] list = [] for city in city_list : for data_sf in zpData:for data_dq in data_sf['subLevelModelList']: if city == data_dq['name']: list.append(data_dq['code']) return list #獲取所有頁內容 def get_job_list(self, url, datas): print(url) html = requests.get(url, headers=self.header).text soup = BeautifulSoup(html, ’html.parser’) jobs = soup.select('.job-primary') for job in jobs: data = {} # 招聘id data['job_id'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('a').get('data-jobid') # 招聘鏈接 data['job_link'] = 'https://www.zhipin.com' + job.find_all('div', attrs={'class': 'info-primary'})[0].find('a').get('href') # 招聘崗位 data['job_name'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-title'}).get_text() # 薪資 data['job_red'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('span', attrs={'class': 'red'}).get_text() # 地址 #工作年限 #學歷 data['job_address'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('p').get_text().split(' ') # 企業鏈接 data['job_company_link'] = job.find_all('div', attrs={'class': 'info-company'})[0].find('a').get('href') # 企業信息 data['job_company'] = job.find_all('div', attrs={'class': 'info-company'})[0].find('p').get_text().split(' ') # boss鏈接 data['job_publis_link'] = job.find_all('div', attrs={'class': 'info-publis'})[0].find('img').get('src') # boos信息 data['job_publis'] = job.find_all('div', attrs={'class': 'info-publis'})[0].find('h3').get_text().split(' ') time.sleep(5) self.get_job_detail(data) # 獲取job詳情頁內容 print(data) datas.append(data) # 將某條job添加到datas中,直到將當前頁添加完 try: next_url = soup.find('div', attrs={'class': 'page'}).find('a', attrs={'class': 'next'}).get('href') #if next_url[-1] =='3': # 第二頁自動拋異常 if next_url in 'javascript:;': # 最后一頁自動拋異常raise Exception() except Exception as e: print('最后一頁了;%s' % e) return datas # 返回所有頁內容 else: time.sleep(5) next_url = 'https://www.zhipin.com' + next_url self.get_job_list(next_url, datas) return datas # 返回所有頁內容 #獲取詳情頁內容 def get_job_detail(self, data): print(data['job_link']) html = requests.get(data['job_link'], headers=self.header).text soup = BeautifulSoup(html, ’html.parser’) # 招聘公司 data['detail_content_name'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'name'}).get_text() # 福利 data['detail_primary_tags'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-tags'}).get_text().strip() # 招聘崗位 data['detail_primary_name'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('h1').get_text() # 招聘狀態 data['detail_primary_status'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-status'}).get_text() # 薪資 data['detail_primary_salary'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('span', attrs={'class': 'salary'}).get_text() # 地址 #工作年限 #學歷 data['detail_primary_address'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('p').get_text() # 工作地址 data['detail_content_address'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'location-address'}).get_text() # 職位描述 data['detail_content_text'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'text'}).get_text().strip().replace(';', 'n') # boss名字 data['detail_op_name'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('h2', attrs={'class': 'name'}).get_text() # boss職位 data['detail_op_job'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('p', attrs={'class': 'gray'}).get_text().split('·')[0] # boss狀態 data['detail_op_status'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('p', attrs={'class': 'gray'}).get_text().split('·')[1] #將獲取的數據寫入Excel def setExcel(self, datas_list): book = xlwt.Workbook(encoding=’utf-8’) table = book.add_sheet('boss軟件測試') table.write(0, 0, '編號') table.write(0, 1, '招聘鏈接') table.write(0, 2, '招聘崗位') table.write(0, 3, '薪資') table.write(0, 4, '地址') table.write(0, 5, '企業鏈接') table.write(0, 6, '企業信息') table.write(0, 7, 'boss鏈接') table.write(0, 8, 'boss信息') table.write(0, 9, 'detail詳情') i = 1 for data in datas_list: table.write(i, 0, data['job_id']) table.write(i, 1, data['job_link']) table.write(i, 2, data['job_name']) table.write(i, 3, data['job_red']) table.write(i, 4, data['job_address']) table.write(i, 5, data['job_company_link']) table.write(i, 6, data['job_company']) table.write(i, 7, data['job_publis_link']) table.write(i, 8, data['job_publis']) table.write(i, 10, data['detail_content_name']) table.write(i, 11, data['detail_primary_name']) table.write(i, 12, data['detail_primary_status']) table.write(i, 13, data['detail_primary_salary']) table.write(i, 14, data['detail_primary_address']) table.write(i, 15, data['detail_content_text']) table.write(i, 16, data['detail_op_name']) table.write(i, 17, data['detail_op_job']) table.write(i, 18, data['detail_op_status']) table.write(i, 19, data['detail_primary_tags']) table.write(i, 20, data['detail_content_address']) i += 1 book.save(r’C:%s_boss軟件測試.xls’ % time.strftime(’%Y%m%d%H%M%S’)) print('Excel保存成功')if __name__ == ’__main__’: city_list = MyJob('','').get_city(['杭州']) query_list = ['軟件測試', '測試工程師'] datas_list = [] for city in city_list: for query in query_list: myjob = MyJob(city, query) datas = myjob.get_job_list(myjob.list_url, myjob.datas) datas_list.extend(datas) myjob.setExcel(datas_list)

以上就是python使用bs4爬取boss直聘靜態頁面的詳細內容,更多關于python 爬取boss直聘的資料請關注好吧啦網其它相關文章!

標簽: boss直聘 Python
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
日韩专区一卡二卡| 美女尤物久久精品| 日韩三区免费| 国产精品嫩草99av在线| 91久久中文| 青青久久av| 欧美~级网站不卡| 国产精品av久久久久久麻豆网| 精品国产免费人成网站| 婷婷激情一区| 伊人久久亚洲影院| 国产精品三上| 日韩有码av| 国产欧美日韩综合一区在线播放| 亚洲永久av| 亚洲国产综合在线看不卡| 亚洲精品一区三区三区在线观看| 久久中文字幕av一区二区不卡| 免费美女久久99| 欧美黑人做爰爽爽爽| 久久久精品日韩| 国产调教精品| 鲁鲁在线中文| 天海翼精品一区二区三区| 国产一区二区久久久久| 136国产福利精品导航网址| 日韩区欧美区| 亚洲成人精品| 精品国产亚洲日本| 成年男女免费视频网站不卡| 成人日韩在线观看| 亚洲欧洲一区二区天堂久久| 中文字幕中文字幕精品| 亚洲香蕉网站| 精品中文字幕一区二区三区四区| 国产高清久久| 久久精品理论片| 午夜精品福利影院| 鲁大师影院一区二区三区| 日韩伦理一区| 国产探花在线精品一区二区| 性色一区二区| 午夜久久福利| 免费黄网站欧美| 国产一区导航| 色综合视频一区二区三区日韩 | 亚洲特级毛片| 久久这里只有精品一区二区| 日韩中文字幕91| 久久高清免费| 久久99免费视频| 日韩欧美二区| 国产夫妻在线| 色爱综合av| 麻豆视频在线看| 久久99国产精品视频| 亚洲免费中文| 亚洲免费福利一区| 91九色精品| 久久一二三区| 中文亚洲欧美| 欧美日韩精品免费观看视频完整| 日韩黄色大片| 久久久一二三| 亚洲免费中文| 日本少妇精品亚洲第一区| 日韩国产欧美一区二区三区| 国产精品入口久久| 久久精品国产免费| 日本亚洲视频| 捆绑调教美女网站视频一区 | 蜜桃tv一区二区三区| 国产suv精品一区二区四区视频 | 啪啪亚洲精品| 青青青国产精品| 国产精品天天看天天狠| 国产一区二区三区网| 国产91欧美| 久久免费精品| 久久av免费看| 精品一区二区三区亚洲| 超碰在线99| 日本欧美在线看| 国产欧美综合一区二区三区| 欧美韩日一区| 日韩中文字幕一区二区三区| 国产精品17p| 欧美日中文字幕| 亚洲日本久久| 久久久久亚洲| 日韩欧美中文在线观看| 欧美国产小视频| 欧美天堂亚洲电影院在线观看| 亚洲自啪免费| 欧美aaaaaa午夜精品| 亚洲精品a级片| 国产日韩高清一区二区三区在线 | 国产成人久久| 国产精品99一区二区| 国产亚洲在线观看| 国产精品大片免费观看| 五月天久久久| 国产精品成人一区二区网站软件| 视频一区二区欧美| 国产自产自拍视频在线观看| 日韩一区二区三区精品| 精品理论电影在线| 免费观看在线色综合| 最近高清中文在线字幕在线观看1| 亚洲欧洲日韩精品在线| 欧美日韩一区二区三区视频播放| 国产亚洲观看| 99国产精品视频免费观看一公开 | 日韩一区二区三区精品视频第3页| 福利一区和二区| 免费在线观看成人| 四季av一区二区凹凸精品| 中文无码日韩欧| 国产中文一区| 欧美片第1页| 开心激情综合| 美日韩一区二区三区| 99精品99| 在线精品小视频| 合欧美一区二区三区| 欧美~级网站不卡| 综合一区av| 亚洲1区在线观看| 亚洲久久一区| 免费日韩av片| 免费亚洲婷婷| 亚洲特级毛片| 激情欧美一区| 午夜在线视频观看日韩17c| 米奇777超碰欧美日韩亚洲| 99久久久久| 激情久久久久久| 亚洲免费婷婷| 亚洲欧美日韩专区| 日韩制服丝袜av| 91亚洲精品在看在线观看高清| 蜜桃久久久久久久| 国产日韩免费| 麻豆视频在线看| 在线一区免费观看| 在线视频观看日韩| 欧美成人日韩| 亚洲精品四区| 久久99精品久久久野外观看| 久久久久免费| 天堂成人免费av电影一区| 日韩午夜视频在线| 亚洲国产福利| 日本成人精品| 捆绑调教美女网站视频一区 | 首页国产欧美久久| 日韩一区二区在线免费| 免费精品视频最新在线| 日韩不卡一区二区三区| 免费日韩成人| 欧美在线亚洲| 日韩欧美中文在线观看| 久久中文字幕一区二区三区| 日韩国产欧美一区二区| 日韩精品a在线观看91| 欧美激情精品| 亚洲视频二区| 久久狠狠婷婷| 国产精品hd| 日韩一区二区三区在线看| 久久久久久网| 亚洲欧美一级| 婷婷亚洲五月| 久久亚洲黄色| 麻豆视频在线观看免费网站黄| 精品一区免费| 成人在线视频免费看| 影音先锋久久精品| 午夜精品网站| 亚洲一级网站| 国产成人免费精品| 视频一区视频二区中文| 超碰成人av| 成人精品高清在线视频| 国产精品亚洲四区在线观看| 日韩午夜av| 日韩国产网站| 欧美一区在线观看视频| 欧美综合二区| 国产精品丝袜在线播放| 日韩欧美中文字幕一区二区三区| 欧美日韩少妇| 免费成人网www| 精品久久精品| 精品视频自拍| 美女av一区| 欧美日韩一视频区二区| 中文字幕一区二区av| 亚洲一区二区av| 只有精品亚洲|