日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢(xún)
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷(xiāo)解決方案
創(chuàng)新互聯(lián)Python教程:python如何使用xpath

網(wǎng)站建設(shè)哪家好,找創(chuàng)新互聯(lián)公司!專(zhuān)注于網(wǎng)頁(yè)設(shè)計(jì)、網(wǎng)站建設(shè)、微信開(kāi)發(fā)、小程序定制開(kāi)發(fā)、集團(tuán)企業(yè)網(wǎng)站建設(shè)等服務(wù)項(xiàng)目。為回饋新老客戶(hù)創(chuàng)新互聯(lián)還提供了連平免費(fèi)建站歡迎大家使用!

一、簡(jiǎn)介

XPath 是一門(mén)在 XML 文檔中查找信息的語(yǔ)言。XPath 可用來(lái)在 XML 文檔中對(duì)元素和屬性進(jìn)行遍歷。XPath 是 W3C XSLT 標(biāo)準(zhǔn)的主要元素,并且 XQuery 和 XPointer 都構(gòu)建于 XPath 表達(dá)之上。

二、安裝

pip3 install lxml

三、使用

1、導(dǎo)入

from lxml import etree

2、基本使用

from lxml import etree
 
wb_data = """
        
            
                     
  • first item
  •                  
  • second item
  •                  
  • third item
  •                  
  • fourth item
  •                  
  • fifth item              
         
        """ html = etree.HTML(wb_data) print(html) result = etree.tostring(html) print(result.decode("utf-8"))

從下面的結(jié)果來(lái)看,我們打印機(jī)html其實(shí)就是一個(gè)python對(duì)象,etree.tostring(html)則是不全里html的基本寫(xiě)法,補(bǔ)全了缺胳膊少腿的標(biāo)簽。


            
                     
  • first item
  •                  
  • second item
  •                  
  • third item
  •                  
  • fourth item
  •                  
  • fifth item              
         
        

3、獲取某個(gè)標(biāo)簽的內(nèi)容(基本使用),注意,獲取a標(biāo)簽的所有內(nèi)容,a后面就不用再加正斜杠,否則報(bào)錯(cuò)。

寫(xiě)法一

html = etree.HTML(wb_data)
html_data = html.xpath('/html/body/div/ul/li/a')
print(html)
for i in html_data:
    print(i.text)
 
 

first item
second item
third item
fourth item
fifth item

寫(xiě)法二(直接在需要查找內(nèi)容的標(biāo)簽后面加一個(gè)/text()就行)

html = etree.HTML(wb_data)
html_data = html.xpath('/html/body/div/ul/li/a/text()')
print(html)
for i in html_data:
    print(i)
 

first item
second item
third item
fourth item
fifth item

4、打開(kāi)讀取html文件

#使用parse打開(kāi)html的文件
html = etree.parse('test.html')
html_data = html.xpath('//*')
#打印是一個(gè)列表,需要遍歷 print(html_data) for i in html_data:     print(i.text)
html = etree.parse('test.html')
html_data = etree.tostring(html,pretty_print=True)
res = html_data.decode('utf-8')
print(res)
 
打?。?
     
             
  • first item
  •          
  • second item
  •          
  • third item
  •          
  • fourth item
  •          
  • fifth item
  •      

5、打印指定路徑下a標(biāo)簽的屬性(可以通過(guò)遍歷拿到某個(gè)屬性的值,查找標(biāo)簽的內(nèi)容)

html = etree.HTML(wb_data)
html_data = html.xpath('/html/body/div/ul/li/a/@href')
for i in html_data:
    print(i)
 
打印:
link1.html
link2.html
link3.html
link4.html
link5.html

6、我們知道我們使用xpath拿到得都是一個(gè)個(gè)的ElementTree對(duì)象,所以如果需要查找內(nèi)容的話,還需要遍歷拿到數(shù)據(jù)的列表。

查到絕對(duì)路徑下a標(biāo)簽屬性等于link2.html的內(nèi)容。

html = etree.HTML(wb_data)
html_data = html.xpath('/html/body/div/ul/li/a[@href="link2.html"]/text()')
print(html_data)
for i in html_data:
    print(i)
 
打?。?['second item']
second item

7、上面我們找到全部都是絕對(duì)路徑(每一個(gè)都是從根開(kāi)始查找),下面我們查找相對(duì)路徑,例如,查找所有l(wèi)i標(biāo)簽下的a標(biāo)簽內(nèi)容。

html = etree.HTML(wb_data)
html_data = html.xpath('//li/a/text()')
print(html_data)
for i in html_data:
    print(i)
 
打?。?['first item', 'second item', 'third item', 'fourth item', 'fifth item']
first item
second item
third item
fourth item
fifth item

8、上面我們使用絕對(duì)路徑,查找了所有a標(biāo)簽的屬性等于href屬性值,利用的是/---絕對(duì)路徑,下面我們使用相對(duì)路徑,查找一下l相對(duì)路徑下li標(biāo)簽下的a標(biāo)簽下的href屬性的值,注意,a標(biāo)簽后面需要雙//。

html = etree.HTML(wb_data)
html_data = html.xpath('//li/a//@href')
print(html_data)
for i in html_data:
    print(i)
 
打?。?['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']
link1.html
link2.html
link3.html
link4.html
link5.html

9、相對(duì)路徑下跟絕對(duì)路徑下查特定屬性的方法類(lèi)似,也可以說(shuō)相同。

html = etree.HTML(wb_data)
html_data = html.xpath('//li/a[@href="link2.html"]')
print(html_data)
for i in html_data:
    print(i.text)
 
打?。?[]
second item

10、查找最后一個(gè)li標(biāo)簽里的a標(biāo)簽的href屬性

html = etree.HTML(wb_data)
html_data = html.xpath('//li[last()]/a/text()')
print(html_data)
for i in html_data:
    print(i)
 
打?。?['fifth item']
fifth item

11、查找倒數(shù)第二個(gè)li標(biāo)簽里的a標(biāo)簽的href屬性

html = etree.HTML(wb_data)
html_data = html.xpath('//li[last()-1]/a/text()')
print(html_data)
for i in html_data:
    print(i)
 
打?。?['fourth item']
fourth item

12、如果在提取某個(gè)頁(yè)面的某個(gè)標(biāo)簽的xpath路徑的話,可以如下圖:

//*[@id="kw"] 

解釋?zhuān)菏褂孟鄬?duì)路徑查找所有的標(biāo)簽,屬性id等于kw的標(biāo)簽。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
from scrapy.selector import Selector, HtmlXPathSelector
from scrapy.http import HtmlResponse
html = """

    
        
        
    
    
        
                
  • first item
  •             
  • first item
  •             
  • second itemvv
  •         
        
second item
     """ response = HtmlResponse(url='http://example.com', body=html,encoding='utf-8') # hxs = HtmlXPathSelector(response) # print(hxs) # hxs = Selector(response=response).xpath('//a') # print(hxs) # hxs = Selector(response=response).xpath('//a[2]') # print(hxs) # hxs = Selector(response=response).xpath('//a[@id]') # print(hxs) # hxs = Selector(response=response).xpath('//a[@id="i1"]') # print(hxs) # hxs = Selector(response=response).xpath('//a[@href="link.html"][@id="i1"]') # print(hxs) # hxs = Selector(response=response).xpath('//a[contains(@href, "link")]') # print(hxs) # hxs = Selector(response=response).xpath('//a[starts-with(@href, "link")]') # print(hxs) # hxs = Selector(response=response).xpath('//a[re:test(@id, "i\d+")]') # print(hxs) # hxs = Selector(response=response).xpath('//a[re:test(@id, "i\d+")]/text()').extract() # print(hxs) # hxs = Selector(response=response).xpath('//a[re:test(@id, "i\d+")]/@href').extract() # print(hxs) # hxs = Selector(response=response).xpath('/html/body/ul/li/a/@href').extract() # print(hxs) # hxs = Selector(response=response).xpath('//body/ul/li/a/@href').extract_first() # print(hxs)   # ul_list = Selector(response=response).xpath('//body/ul/li') # for item in ul_list: #     v = item.xpath('./a/span') #     # 或 #     # v = item.xpath('a/span') #     # 或 #     # v = item.xpath('*/a/span') #     print(v)

python學(xué)習(xí)網(wǎng),大量的免費(fèi)python視頻教程,歡迎在線學(xué)習(xí)!


名稱(chēng)欄目:創(chuàng)新互聯(lián)Python教程:python如何使用xpath
分享URL:http://www.dlmjj.cn/article/dpigjed.html