日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯(lián)網營銷解決方案
快速指南:如何創(chuàng)建基于Python的爬蟲

Web抓取的使用正在積極增加,特別是在大型電子商務公司中,Web抓取是一種收集數據以競爭,分析競爭對手和研究新產品的方式。Web抓取是一種從網站提取信息的方法。在本篇文章中,學習如何創(chuàng)建基于Python的刮板。深入研究代碼,看看它是如何工作的。

創(chuàng)新互聯(lián)專注為客戶提供全方位的互聯(lián)網綜合服務,包含不限于成都網站設計、成都做網站、上猶網絡推廣、微信平臺小程序開發(fā)、上猶網絡營銷、上猶企業(yè)策劃、上猶品牌公關、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運營等,從售前售中售后,我們都將竭誠為您服務,您的肯定,是我們最大的嘉獎;創(chuàng)新互聯(lián)為所有大學生創(chuàng)業(yè)者提供上猶建站搭建服務,24小時服務熱線:18980820575,官方網址:www.cdcxhl.com

在當今的大數據世界中,很難跟蹤正在發(fā)生的一切。對于需要大量信息才能取得成功的企業(yè)來說,情況變得更加復雜。但是首先,他們需要以某種方式收集此數據,這意味著他們必須處理數千個資源。

有兩種收集數據的方法。您可以使用API媒體網站提供的服務,這是獲取所有新聞的最佳方法。而且,API非常易于使用。不幸的是,并非每個網站都提供此服務。然后剩下第二種方法-網頁抓取。

什么是網頁抓?。?/strong>

這是一種從網站提取信息的方法。HTML頁面不過是嵌套標記的集合。標簽形成某種樹,其根在標簽中,并將頁面分成不同的邏輯部分。每個標簽可以有其自己的后代(子級)和父級。

例如,HTML頁面樹可以如下所示:

要處理此HTML,您可以使用文本或樹。繞過這棵樹是網頁抓取。我們只會在所有這些多樣性中找到我們需要的節(jié)點,并從中獲取信息!這種方法主要集中在將非結構化的HTML數據轉換成易于使用的結構化信息到數據庫或工作表中。數據抓取需要一個機器人來收集信息,并通過HTTP或Web瀏覽器連接到Internet。在本指南中,我們將使用Python創(chuàng)建刮板。

我們需要做什么:

  •  獲取我們要從中抓取數據的頁面的URL
  •  復制或下載此頁面的HTML內容
  •  處理此HTML內容并獲取所需的數據

此序列使我們可以彈出所需的URL,獲取HTML數據,然后對其進行處理以接收所需的數據。但是有時我們需要先進入網站,然后再轉到特定的網址以接收數據。然后,我們必須再增加一個步驟-登錄該網站。

配套

我們將使用Beautiful Soup庫來分析HTML內容并獲取所有必需的數據。這是抓取HTML和XML文檔的絕佳Python包。

Selenium庫將幫助我們在一個會話中使抓取器進入網站并轉到所需的URL地址。Selenium Python 可以幫助您執(zhí)行諸如單擊按鈕,輸入內容等操作。

讓我們深入研究代碼

首先,讓我們導入將要使用的庫。

 
 
 
 
  1. # 導入庫 
  2. from selenium import webdriver
  3. from bs4 import BeautifulSoup

然后,我們需要向瀏覽器的驅動程序展示Selenium啟動網絡瀏覽器的方式(我們將在這里使用Google Chrome)。如果我們不希望機器人顯示Web瀏覽器的圖形界面,則將在Selenium中添加“ headless”選項。

沒有圖形界面(無頭)的Web瀏覽器可以在與所有流行的Web瀏覽器非常相似的環(huán)境中自動管理網頁。但是在這種情況下,所有活動都通過命令行界面或使用網絡通信進行。

 
 
 
 
  1. # chrome驅動程序的路徑 
  2. chromedriver = '/usr/local/bin/chromedriver' 
  3. options = webdriver.ChromeOptions() 
  4. options.add_argument('headless') #open a headless browser  
  5. browser = webdriver.Chrome(executable_path=chromedriver,  
  6. chrome_options=options)

設置瀏覽器,安裝庫并創(chuàng)建環(huán)境之后,我們便開始使用HTML。讓我們進入輸入頁面,找到用戶必須在其中輸入電子郵件地址和密碼的標識符,類別或字段名稱。

 
 
 
 
  1. # 進入登錄頁面 
  2. browser.get('http://playsports365.com/default.aspx') 
  3. # 按姓名搜索標簽 
  4. email = 
  5. browser.find_element_by_name('ctl00$MainContent$ctlLogin$_UserName') 
  6. password =  
  7. browser.find_element_by_name('ctl00$MainContent$ctlLogin$_Password') 
  8. login =  
  9. browser.find_element_by_name('ctl00$MainContent$ctlLogin$BtnSubmit')

然后,我們會將登錄數據發(fā)送到這些HTML標簽中。為此,我們需要按下操作按鈕以將數據發(fā)送到服務器。

 
 
 
 
  1. # 添加登錄憑證 
  2. email.send_keys('********') 
  3. password.send_keys('*******') 
  4. # 點擊提交按鈕 
  5. login.click() 
  6. email.send_keys('********') 
  7. password.send_keys('*******') 
  8. login.click()

成功進入系統(tǒng)后,我們將轉到所需的頁面并收集HTML內容。

 
 
 
 
  1. # 成功登錄后,轉到“ OpenBets”頁面 
  2. browser.get('http://playsports365.com/wager/OpenBets.aspx') 
  3. # 獲取HTML內容 
  4. requiredHtml = browser.page_source

現在,當我們有了HTML內容時,剩下的唯一事情就是處理這些數據。我們將在Beautiful Soup和html5lib庫的幫助下做到這一點。

html5lib是一個Python軟件包,實現了受現代Web瀏覽器影響的HTML5抓取算法。一旦獲得了內容的標準化結構,就可以在HTML標記的任何子元素中搜索數據。我們正在尋找的信息在表格標簽中,因此我們正在尋找它。

 
 
 
 
  1. soup = BeautifulSoup(requiredHtml, 'html5lib') 
  2. table = soup.findChildren('table')
  3. my_table = table[0]

我們將找到父標記一次,然后遞歸地遍歷子標記并打印出值。

 
 
 
 
  1. # 接收標簽和打印值 
  2. rows = my_table.findChildren(['th', 'tr']) 
  3. for row in rows: 
  4.  cells = row.findChildren('td') 
  5.  for cell in cells: 
  6.  value = cell.text 
  7.  print (value)

要執(zhí)行此程序,您將需要使用pip安裝Selenium,Beautiful Soup和html5lib。安裝庫之后,命令如下:

 
 
 
 
  1. # python <程序名稱>

將把這些值打印到控制臺中,這就是您抓取任何網站的方式。

如果我們抓取經常更新內容的網站(例如,運動成績表),則應創(chuàng)建cron任務以在特定時間間隔啟動該程序。

非常好,一切正常,內容被抓取,數據被填充,除了這之外,其他一切都很好,這就是我們要獲取數據的請求數。

有時,服務器會厭倦同一個人發(fā)出一堆請求,而服務器禁止它。不幸的是,人們的耐心有限。

在這種情況下,您必須掩飾自己。禁止的最常見原因是403錯誤,以及在IP被阻止時向服務器發(fā)送的頻繁請求。服務器可用并能夠處理請求時,服務器會拋出403錯誤,但出于某些個人原因,拒絕這樣做。第一個問題已經解決了–我們可以通過使用html5lib生成偽造的用戶代理來偽裝成人類,并將操作系統(tǒng),規(guī)范和瀏覽器的隨機組合傳遞給我們的請求。在大多數情況下,這樣可以很好地準確地收集您感興趣的信息。

但是有時僅將time.sleep()放在正確的位置并填寫請求標頭是不夠的。因此,您需要尋找功能強大的方法來更改此IP。要抓取大量數據,您可以:

– 開發(fā)自己的IP地址基礎架構;

– 使用Tor –該主題可以專門討論幾篇大型文章,而實際上已經完成了;

– 使用商業(yè)代理網絡;

對于網絡抓取的初學者來說,最好的選擇是與代理提供商聯(lián)系,例如Infatica等,他們可以幫助您設置代理并解決代理服務器管理中的所有困難。收集大量數據需要大量資源,因此無需通過開發(fā)自己的內部基礎結構來進行代理來“重新發(fā)明輪子”。甚至許多最大的電子商務公司都使用代理網絡服務將代理管理外包,因為大多數公司的第一要務是數據,而不是代理管理。


名稱欄目:快速指南:如何創(chuàng)建基于Python的爬蟲
分享路徑:http://m.5511xx.com/article/dpdsgso.html