日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
爬蟲必學(xué)包lxml,搞個有趣的

你好,我是zhenguo,今天搞點有趣的。

專注于為中小企業(yè)提供成都做網(wǎng)站、網(wǎng)站制作服務(wù),電腦端+手機(jī)端+微信端的三站合一,更高效的管理,為中小企業(yè)桃山免費做網(wǎng)站提供優(yōu)質(zhì)的服務(wù)。我們立足成都,凝聚了一批互聯(lián)網(wǎng)行業(yè)人才,有力地推動了上千家企業(yè)的穩(wěn)健成長,幫助中小企業(yè)通過網(wǎng)站建設(shè)實現(xiàn)規(guī)模擴(kuò)充和轉(zhuǎn)變。

這篇文章講什么?

我們爬取網(wǎng)頁后,無非是先定位到html標(biāo)簽,然后取其文本。定位標(biāo)簽,最常用的一個包lxml。

在這篇文章,我會使用一個精簡后的html頁面,演示如何通過lxml定位并提取出想要的文本,包括:

  • html是什么?
  • 什么是lxml?
  • lxml例子,包括如何定位?如何取內(nèi)容?如何獲取屬性值?

html是什么?

html,全稱HyperText Markup Language,是超文本標(biāo)記結(jié)構(gòu)。

html組織結(jié)構(gòu)對應(yīng)數(shù)據(jù)結(jié)構(gòu)的樹模型。

因為是樹,所以只有一個根節(jié)點,即一對標(biāo)簽。一對<>和名稱組合稱為標(biāo)簽,例如,被稱為開始標(biāo)簽,被稱為結(jié)束標(biāo)簽。

開始標(biāo)簽中可以添加附加信息,風(fēng)格為屬性名=屬性值。

如下所示,選中的

就是一個開始標(biāo)簽,它有屬性id,值為content,還有屬性style等:

什么是lxml?

lxml官檔截圖如下,按照官檔的說法,lxml是Python語言中,處理XML和HTML,功能最豐富、最易于使用的庫。

不難猜想,lxml中一定實現(xiàn)了查詢樹中某個節(jié)點功能,并且應(yīng)該性能極好。

lxml例子

廢話不多說,舉例演示lxml超簡便的定位能力。

導(dǎo)入lxml中的etree:

from lxml import etree

my_page是html風(fēng)格的字符串,內(nèi)容如下所示:

my_page = '''

程序員zhenguo

我的文章

我的網(wǎng)站




從零學(xué)Python

大綱


更多詳情


Python包
Python小白
Python進(jìn)階


本站總訪問量159323次



Copyright ? 2019 - 2021 程序員zhenguo



'''

使用etree.fromstring轉(zhuǎn)化為可以使用xpath的對象。

html = etree.fromstring(my_page)

定位

接下來,就能方便的定位:

  1. 定位出所有div標(biāo)簽,寫法//div
# 定位
divs1 = html.xpath('//div')
  1. 定位出含有屬性名為id的所有標(biāo)簽,寫法為://div[@id]
divs2 = html.xpath('//div[@id]')
  1. 定位出含有屬性名class等于foot的所有div標(biāo)簽,寫法為://div[@class="foot"]
divs3 = html.xpath('//div[@class="foot"]')
  1. 定位出含有屬性名的所有div標(biāo)簽,寫法為://div[@*]
divs4 = html.xpath('//div[@*]')
  1. 定位出不含有屬性名的所有div標(biāo)簽,寫法為:not(@*)
divs5 = html.xpath('//div[not(@*)]')
  1. 定位出第一個div標(biāo)簽,寫法為://div[1]
divs6 = html.xpath('//div[1]')
  1. 定位出最后一個div標(biāo)簽,寫法為://div[last()]
divs7 = html.xpath('//div[last()]')
  1. 定位出前兩個div標(biāo)簽,寫法為//div[position()<3],注意從1開始:
divs8 = html.xpath('//div[position()<3]')
  1. 定位出所有div標(biāo)簽和h1標(biāo)簽,寫法為://div|//h1,使用|表達(dá):
divs9 = html.xpath('//div|//h1')

取內(nèi)容

取出一對標(biāo)簽中的內(nèi)容,使用text()方法。

如下所示,取出屬性名為foot的標(biāo)簽div中的text:

text1 = html.xpath('//div[@class="foot"]/text()')

取屬性

除了定位標(biāo)簽,獲取標(biāo)簽間的內(nèi)容外,也會需要提取屬性對應(yīng)值。

獲取標(biāo)簽a下所有屬性名為href的對應(yīng)屬性值,寫法為://a/@href

value1 = html.xpath('//a/@href')

得到結(jié)果:

['http://www.zglg.work', 'http://www.zglg.work/python-packages/', 'http://www.zglg.work/python-intro/', 'http://www.zglg.work/python-level/']

還可以做一些特殊的定制操作,如使用findall方法,定位到div標(biāo)簽下帶有a的標(biāo)簽。

使用text獲取內(nèi)容,a.attrib.get獲取對應(yīng)屬性值。

divs = html.xpath('//div[position()<3]')
for div in divs:
ass = div.findall('a') # div/a
for a in ass:
if a is not None:
# print(dir(a))
print(a.text, a.attrib.get('href'))

最后注意一個區(qū)別,a_href等于第二個div標(biāo)簽下的子標(biāo)簽a的href屬性值;

b_href等于第二個div標(biāo)簽下的子或所有后代標(biāo)簽下a的href屬性值:

a_href = html.xpath('//div[position()=2]/a/@href')
print(a_href)
b_href = html.xpath('//div[position()=2]//a/@href')
print(b_href)

新聞標(biāo)題:爬蟲必學(xué)包lxml,搞個有趣的
地址分享:http://m.5511xx.com/article/cddoshd.html