日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
50行Python代碼獲取高考志愿信息,再也不用百度啦

 最近遇到個任務(wù),需要將高考志愿信息保存成Excel表格,BOSS丟給我一個網(wǎng)址表格之后就讓我自己干了。雖然我以前也學(xué)習(xí)過Python編寫爬蟲的知識,不過時間長了忘了,于是摸索了一天之后終于完成了任務(wù)。不得不說,Python干這個還是挺容易的,最后寫完一看代碼,只用了50行就完成了任務(wù)。

準(zhǔn)備工作

首先明確一下任務(wù)。首先我們要從網(wǎng)址表格中讀取到一大串網(wǎng)址,然后訪問每個網(wǎng)址,獲取到頁面上的學(xué)校信息,然后將它們在寫到另一個Excel中。顯然,我們需要一個爬蟲庫和一個Excel庫來幫助我們完成任務(wù)。

第一步自然是安裝它們,requests-html是一個非常好用的HTML解析庫,拿來做簡單的爬蟲非常優(yōu)雅;而openpyxl是一個Excel表格庫,可以輕松創(chuàng)建和處理Excel數(shù)據(jù)。

 
 
 
 
  1. pip install requests-html openpyxl 

然后就是網(wǎng)址表格,大概長這樣,總共大概一千七百多條數(shù)據(jù)。其中有少量網(wǎng)址是錯誤的,訪問會得到404錯誤,所以在編寫代碼的時候還要注意錯誤處理。

任務(wù)分析

任務(wù)的核心自然就是分析和獲取網(wǎng)頁內(nèi)容了。首先現(xiàn)在瀏覽器里面打開一個網(wǎng)址,看看網(wǎng)頁上的內(nèi)容是什么。

可以看到這個網(wǎng)頁格式很亂,學(xué)校名字什么的都是混在一起的,一點也不規(guī)整,這給我們提取數(shù)據(jù)造成了不少的麻煩。不過仔細(xì)分析之后,其實問題也并不難。

首先要提取的是學(xué)校名字,可以看到學(xué)校名字和其他文字混在一起,例如"本科一批普通文科627集美大學(xué)報考情況"。本來我準(zhǔn)備用正則表達(dá)式提取,然后發(fā)現(xiàn)用正則表達(dá)式好像很難。之后我多訪問了幾個網(wǎng)頁,發(fā)現(xiàn)學(xué)校代碼基本上都是數(shù)字,如果有字母的話也出現(xiàn)到第一位,所以我采用了以下的算法,首先將字符串從數(shù)字處分隔,右邊的一個部分就包含了學(xué)校名字和“報考情況”幾個字,然后刪除“報考情況”即可得到學(xué)校名字。這個算法唯一的缺點就是,假如出現(xiàn)了字母在中間的代號,就沒辦法獲取到學(xué)校名字了,不過實際運行之后,我幸運的發(fā)現(xiàn)并沒有出現(xiàn)這種情況。

之后要提取的就是專業(yè)信息了,在網(wǎng)頁源代碼中這部分使用tr和td標(biāo)簽來呈現(xiàn)的。一開始我用的是tr加上選擇器來提取,但是這個網(wǎng)頁生成的時候很有問題,每個tr標(biāo)簽的樣式居然還根據(jù)內(nèi)容的多少而不同,導(dǎo)致我寫死的選擇器沒法完美獲取所有行。不過后來我發(fā)現(xiàn)整個網(wǎng)頁內(nèi)容都是一個表格, 除去表頭和結(jié)尾的幾個固定行之外,剩下的恰好就是要提取的數(shù)據(jù)行,所以直接獲取tr標(biāo)簽,然后切片除去收尾即可。

網(wǎng)頁基本上分析完了,下面就是編寫代碼了。

編寫代碼

總共50行左右代碼,我添加了注釋,相信大家應(yīng)該很容易就可以看懂。

第一部分代碼是從網(wǎng)址表格讀取所有url,一開始編寫的時候,表格里的url是從另一個公式生成的,所以需要在加載的時候添加data_only=True才能讀取到公式的結(jié)果,否則只能讀取到公式本身。

第二部分是創(chuàng)建輸出文件,然后編寫表頭。順帶為了調(diào)試方便,我讓它如果檢測到已經(jīng)存在目標(biāo)文件的話就刪掉,在建立一個新的。

第三部分就是代碼的核心了。Python代碼看著可能有點奇怪,不過對照上面的分析,我想大家應(yīng)該很容易看懂。需要注意保存文件在最后,假如半路代碼出現(xiàn)異常,整個就白干了,而一千七百多條網(wǎng)址不可能保證都正常運行。由于輸出格式是“學(xué)校名+專業(yè)信息”這樣的格式,所以我獲取學(xué)校名之后,還要將學(xué)校插入到每行專業(yè)信息之前。所以我這里索性直接用try-except包起來,如果出錯的話只打印一下出錯的網(wǎng)址。

 
 
 
 
  1. import os 
  2. from requests_html import HTMLSession 
  3. from openpyxl import Workbook, load_workbook 
  4. # 從網(wǎng)址表格獲取urls 
  5. def get_urls(): 
  6.  input_file = 'source.xlsx' 
  7.  wb = load_workbook(input_file, data_only=True) 
  8.  ws = wb.active 
  9.  urls = [row[0] for row in ws.values] 
  10.  wb.close() 
  11.  return urls 
  12. # 輸出Excel文件,如果已存在則刪除已有的 
  13. out_file = 'data.xlsx' 
  14. if os.path.exists(out_file): 
  15.  os.remove(out_file) 
  16. wb = Workbook() 
  17. ws = wb.active  
  18. # 編寫第一行表頭 
  19. ws['a1'] = '學(xué)校' 
  20. ws['b1'] = '專業(yè)代號' 
  21. ws['c1'] = '專業(yè)名稱' 
  22. ws['d1'] = '計劃數(shù)' 
  23. ws['e1'] = '預(yù)計1:1錄取最低分(投檔分)' 
  24. ws['f1'] = '按院校投檔比例投檔線上已報人數(shù)' 
  25. ws['g1'] = '學(xué)費' 
  26. ws['h1'] = '辦學(xué)地點' 
  27. ws['i1'] = '專業(yè)備注'  
  28. # 發(fā)起網(wǎng)絡(luò)請求,解析網(wǎng)頁信息,并寫入文件 
  29. session = HTMLSession() 
  30. urls = get_urls() 
  31. for url in urls: 
  32.  import re 
  33.  page = session.get(url) 
  34.  page.html.encoding = 'gb2312' 
  35.  try: 
  36.  college_info = page.html.xpath('//td[@class="report1_1_1"]/text()', first=True) 
  37.  college = re.split('\d+', college_info)[1].replace('報考情況', '') 
  38.  rows = page.html.xpath('//tr')[3:-2] 
  39.  for r in rows: 
  40.  info = [x.text for x in r.xpath('//td')] 
  41.  info.insert(0, college) 
  42.  ws.append(info) 
  43.  print(info) 
  44.  except: 
  45.  print(url) 
  46.  
  47. # 保存文件 
  48. wb.save(out_file) 

運行結(jié)果

好了,費了大半天的勁,代碼終于完成了。讓我們運行一下看看結(jié)果。整個代碼大概需要運行7-8分鐘,最后完成之后得到了一個500多k的Excel文件。

打開之后,可以發(fā)現(xiàn)Excel文件填的滿滿的,最后總共獲取到了大約一萬多條數(shù)據(jù),任務(wù)圓滿完成。


本文題目:50行Python代碼獲取高考志愿信息,再也不用百度啦
網(wǎng)站地址:http://m.5511xx.com/article/dpsigpj.html