日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
想要學(xué)會Python爬蟲,就必須從零開始!

前言

簡單來說互聯(lián)網(wǎng)是由一個個站點(diǎn)和網(wǎng)絡(luò)設(shè)備組成的大網(wǎng),我們通過瀏覽器訪問站點(diǎn),站點(diǎn)把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經(jīng)過瀏覽器解析、渲染,將豐富多彩的網(wǎng)頁呈現(xiàn)我們眼前。 

創(chuàng)新互聯(lián)建站IDC提供業(yè)務(wù):香港機(jī)房服務(wù)器托管,成都服務(wù)器租用,香港機(jī)房服務(wù)器托管,重慶服務(wù)器租用等四川省內(nèi)主機(jī)托管與主機(jī)租用業(yè)務(wù);數(shù)據(jù)中心含:雙線機(jī)房,BGP機(jī)房,電信機(jī)房,移動機(jī)房,聯(lián)通機(jī)房。

一、爬蟲是什么?

如果我們把互聯(lián)網(wǎng)比作一張大的蜘蛛網(wǎng),數(shù)據(jù)便是存放于蜘蛛網(wǎng)的各個節(jié)點(diǎn),而爬蟲就是一只小蜘蛛,沿著網(wǎng)絡(luò)抓取自己的獵物(數(shù)據(jù))爬蟲指的是:向網(wǎng)站發(fā)起請求,獲取資源后分析并提取有用數(shù)據(jù)的程序;從技術(shù)層面來說就是通過程序模擬瀏覽器請求站點(diǎn)的行為,把站點(diǎn)返回的HTML代碼/JSON數(shù)據(jù)/二進(jìn)制數(shù)據(jù)(圖片、視頻) 爬到本地,進(jìn)而提取自己需要的數(shù)據(jù),存放起來使用。

二、爬蟲的基本流程:

用戶獲取網(wǎng)絡(luò)數(shù)據(jù)的方式:

方式1:瀏覽器提交請求--->下載網(wǎng)頁代碼--->解析成頁面

方式2:模擬瀏覽器發(fā)送請求(獲取網(wǎng)頁代碼)->提取有用的數(shù)據(jù)->存放于數(shù)據(jù)庫或文件中

爬蟲要做的就是方式2;

 

1、發(fā)起請求

使用http庫向目標(biāo)站點(diǎn)發(fā)起請求,即發(fā)送一個Request

Request包含:請求頭、請求體等

Request模塊缺陷:不能執(zhí)行JS 和CSS 代碼

2、獲取響應(yīng)內(nèi)容

如果服務(wù)器能正常響應(yīng),則會得到一個Response

Response包含:html,json,圖片,視頻等

3、解析內(nèi)容

解析html數(shù)據(jù):正則表達(dá)式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數(shù)據(jù):json模塊

解析二進(jìn)制數(shù)據(jù):以wb的方式寫入文件

4、保存數(shù)據(jù)

數(shù)據(jù)庫(MySQL,Mongdb、Redis)

文件

三、http協(xié)議 請求與響應(yīng) 

Request:用戶將自己的信息通過瀏覽器(socket client)發(fā)送給服務(wù)器(socketserver

Response:服務(wù)器接收請求,分析用戶發(fā)來的請求信息,然后返回數(shù)據(jù)(返回的數(shù)據(jù)中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會解析其內(nèi)容來顯示給用戶,而爬蟲程序在模擬瀏覽器發(fā)送請求然后接收Response后,是要提取其中的有用數(shù)據(jù)。

四、 request

1、請求方式:

常見的請求方式:GET / POST

2、請求的URL

url全球統(tǒng)一資源定位符,用來定義互聯(lián)網(wǎng)上一個***的資源 例如:一張圖片、一個文件、一段視頻都可以用url***確定

url編碼

https://www.baidu.com/s?wd=圖片

圖片會被編碼(看示例代碼)

網(wǎng)頁的加載過程是:

加載一個網(wǎng)頁,通常都是先加載document文檔,

在解析document文檔的時候,遇到鏈接,則針對超鏈接發(fā)起下載圖片的請求

3、請求頭

User-agent:請求頭中如果沒有user-agent客戶端配置,服務(wù)端可能將你當(dāng)做一個非法用戶host;

cookies:cookie用來保存登錄信息

注意: 一般做爬蟲都會加上請求頭

   

請求頭需要注意的參數(shù):

(1)Referrer:訪問源至哪里來(一些大型網(wǎng)站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)

(2)User-Agent:訪問的瀏覽器(要加上否則會被當(dāng)成爬蟲程序)

(3)cookie:請求頭注意攜帶

4、請求體

請求體

如果是get方式,請求體沒有內(nèi)容 (get請求的請求體放在 url后面參數(shù)中,直接能看到)

如果是post方式,請求體是format data

ps:

1、登錄窗口,文件上傳等,信息都會被附加到請求體內(nèi)

2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉(zhuǎn),無法捕捉到post

五、 響應(yīng)Response

1、響應(yīng)狀態(tài)碼

200:代表成功

301:代表跳轉(zhuǎn)

404:文件不存在

403:無權(quán)限訪問

502:服務(wù)器錯誤

2、respone header

響應(yīng)頭需要注意的參數(shù):

(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來

(2)Content-Location:服務(wù)端響應(yīng)頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個頁面

3、preview就是網(wǎng)頁源代碼

JSO數(shù)據(jù)

如網(wǎng)頁html,圖片

二進(jìn)制數(shù)據(jù)等

六、總結(jié)

1、總結(jié)爬蟲流程:

爬取--->解析--->存儲

2、爬蟲所需工具:

請求庫:requests,selenium(可以驅(qū)動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網(wǎng)頁都會加載);)

解析庫:正則,beautifulsoup,pyquery

存儲庫:文件,MySQL,Mongodb,Redis 


網(wǎng)頁題目:想要學(xué)會Python爬蟲,就必須從零開始!
網(wǎng)頁URL:http://m.5511xx.com/article/cdscppd.html