日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
詳解4種類型的爬蟲技術(shù)
  •  聚焦網(wǎng)絡(luò)爬蟲是“面向特定主題需求”的一種爬蟲程序,而通用網(wǎng)絡(luò)爬蟲則是捜索引擎抓取系統(tǒng)(Baidu、Google、Yahoo等)的重要組成部分,主要目的是將互聯(lián)網(wǎng)上的網(wǎng)頁下載到本地,形成一個(gè)互聯(lián)網(wǎng)內(nèi)容的鏡像備份。
  • 增量抓取意即針對某個(gè)站點(diǎn)的數(shù)據(jù)進(jìn)行抓取,當(dāng)網(wǎng)站的新增數(shù)據(jù)或者該站點(diǎn)的數(shù)據(jù)發(fā)生變化后,自動地抓取它新增的或者變化后的數(shù)據(jù)。
  • Web頁面按存在方式可以分為表層網(wǎng)頁(surface Web)和深層網(wǎng)頁(deep Web,也稱invisible Web pages或hidden Web)。
  • 表層網(wǎng)頁是指傳統(tǒng)搜索引擎可以索引的頁面,即以超鏈接可以到達(dá)的靜態(tài)網(wǎng)頁為主來構(gòu)成的Web頁面。
  • 深層網(wǎng)頁是那些大部分內(nèi)容不能通過靜態(tài)鏈接獲取的、隱藏在搜索表單后的,只有用戶提交一些關(guān)鍵詞才能獲得的Web頁面。

01 聚焦爬蟲技術(shù)

聚焦網(wǎng)絡(luò)爬蟲(focused crawler)也就是主題網(wǎng)絡(luò)爬蟲。聚焦爬蟲技術(shù)增加了鏈接評價(jià)和內(nèi)容評價(jià)模塊,其爬行策略實(shí)現(xiàn)要點(diǎn)就是評價(jià)頁面內(nèi)容以及鏈接的重要性。

創(chuàng)新互聯(lián)建站專注于雙塔網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠為您提供雙塔營銷型網(wǎng)站建設(shè),雙塔網(wǎng)站制作、雙塔網(wǎng)頁設(shè)計(jì)、雙塔網(wǎng)站官網(wǎng)定制、成都微信小程序服務(wù),打造雙塔網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供雙塔網(wǎng)站排名全網(wǎng)營銷落地服務(wù)。

基于鏈接評價(jià)的爬行策略,主要是以Web頁面作為半結(jié)構(gòu)化文檔,其中擁有很多結(jié)構(gòu)信息可用于評價(jià)鏈接重要性。還有一個(gè)是利用Web結(jié)構(gòu)來評價(jià)鏈接價(jià)值的方法,也就是HITS法,其通過計(jì)算每個(gè)訪問頁面的Authority權(quán)重和Hub權(quán)重來決定鏈接訪問順序。

而基于內(nèi)容評價(jià)的爬行策略,主要是將與文本相似的計(jì)算法加以應(yīng)用,提出Fish-Search算法,把用戶輸入查詢詞當(dāng)作主題,在算法的進(jìn)一步改進(jìn)下,通過Shark-Search算法就能利用空間向量模型來計(jì)算頁面和主題相關(guān)度大小。

面向主題爬蟲,面向需求爬蟲:會針對某種特定的內(nèi)容去爬取信息,而且會保證信息和需求盡可能相關(guān)。一個(gè)簡單的聚焦爬蟲使用方法的示例如下所示。

  • 【例1】一個(gè)簡單的爬取圖片的聚焦爬蟲

 

 
 
  1. import urllib.request 
  2.     # 爬蟲專用的包urllib,不同版本的Python需要下載不同的爬蟲專用包 
  3. import re 
  4.     # 正則用來規(guī)律爬取 
  5. keyname="" 
  6.     # 想要爬取的內(nèi)容 
  7. key=urllib.request.quote(keyname) 
  8.     # 需要將你輸入的keyname解碼,從而讓計(jì)算機(jī)讀懂 
  9. for i in range(0,5):   # (0,5)數(shù)字可以自己設(shè)置,是淘寶某產(chǎn)品的頁數(shù) 
  10.     url="https://s.taobao.com/search?q="+key+"&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20180815&ie=utf8&bcoffset=0&ntoffset=6&p4ppushleft=1%2C48&s="+str(i*44) 
  11. # url后面加上你想爬取的網(wǎng)站名,然后你需要多開幾個(gè)類似的網(wǎng)站以找到其規(guī)則 
  12. # data是你爬取到的網(wǎng)站所有的內(nèi)容要解碼要讀取內(nèi)容 
  13.     pat='"pic_url":"http://(.*?)"' 
  14. # pat使用正則表達(dá)式從網(wǎng)頁爬取圖片 
  15. # 將你爬取到的內(nèi)容放在一個(gè)列表里面 
  16.     print(picturelist) 
  17.     # 可以不打印,也可以打印下來看看 
  18.     for j in range(0,len(picturelist)): 
  19.         picture=picturelist[j] 
  20.         pictureurl="http://"+picture 
  21.         # 將列表里的內(nèi)容遍歷出來,并加上http://轉(zhuǎn)到高清圖片 
  22.         file="E:/pycharm/vscode文件/圖片/"+str(i)+str(j)+".jpg" 
  23.         # 再把圖片逐張編號,不然重復(fù)的名字將會被覆蓋掉 
  24.         urllib.request.urlretrieve(pictureurl,filename=file) 
  25.         # 最后保存到文件夾 

 

02 通用爬蟲技術(shù)

通用爬蟲技術(shù)(general purpose Web crawler)也就是全網(wǎng)爬蟲。其實(shí)現(xiàn)過程如下。

  • 第一,獲取初始URL。初始URL地址可以由用戶人為指定,也可以由用戶指定的某個(gè)或某幾個(gè)初始爬取網(wǎng)頁決定。
  • 第二,根據(jù)初始的URL爬取頁面并獲得新的URL。獲得初始的URL地址之后,需要先爬取對應(yīng)URL地址中的網(wǎng)頁,接著將網(wǎng)頁存儲到原始數(shù)據(jù)庫中,并且在爬取網(wǎng)頁的同時(shí),發(fā)現(xiàn)新的URL地址,并且將已爬取的URL地址存放到一個(gè)URL列表中,用于去重及判斷爬取的進(jìn)程。
  • 第三,將新的URL放到URL隊(duì)列中,在于第二步內(nèi)獲取下一個(gè)新的URL地址之后,會將新的URL地址放到URL隊(duì)列中。
  • 第四,從URL隊(duì)列中讀取新的URL,并依據(jù)新的URL爬取網(wǎng)頁,同時(shí)從新的網(wǎng)頁中獲取新的URL并重復(fù)上述的爬取過程。

第五,滿足爬蟲系統(tǒng)設(shè)置的停止條件時(shí),停止爬取。在編寫爬蟲的時(shí)候,一般會設(shè)置相應(yīng)的停止條件。如果沒有設(shè)置停止條件,爬蟲便會一直爬取下去,一直到無法獲取新的URL地址為止,若設(shè)置了停止條件,爬蟲則會在停止條件滿足時(shí)停止爬取。詳情請參見圖2-5中的右下子圖。

通用爬蟲技術(shù)的應(yīng)用有著不同的爬取策略,其中的廣度優(yōu)先策略以及深度優(yōu)先策略都是比較關(guān)鍵的,如深度優(yōu)先策略的實(shí)施是依照深度從低到高的順序來訪問下一級網(wǎng)頁鏈接。

關(guān)于通用爬蟲使用方法的示例如下。

  • 【例2】爬取京東商品信息

 

 
 
  1. ''' 
  2. 爬取京東商品信息: 
  3.     請求url:https://www.jd.com/ 
  4.     提取商品信息: 
  5.         1.商品詳情頁 
  6.         2.商品名稱 
  7.         3.商品價(jià)格 
  8.         4.評價(jià)人數(shù) 
  9.         5.商品商家 
  10. ''' 
  11. from selenium import webdriver    # 引入selenium中的webdriver 
  12. from selenium.webdriver.common.keys import Keys 
  13. import time 
  14.  
  15. def get_good(driver): 
  16.     try: 
  17.  
  18.         # 通過JS控制滾輪滑動獲取所有商品信息 
  19.         js_code = ''' 
  20.             window.scrollTo(0,5000); 
  21.         ''' 
  22.         driver.execute_script(js_code)  # 執(zhí)行js代碼 
  23.  
  24.         # 等待數(shù)據(jù)加載 
  25.         time.sleep(2) 
  26.  
  27.         # 查找所有商品div 
  28.         # good_div = driver.find_element_by_id('J_goodsList') 
  29.         good_list = driver.find_elements_by_class_name('gl-item') 
  30.         n = 1 
  31.         for good in good_list: 
  32.             # 根據(jù)屬性選擇器查找 
  33.             # 商品鏈接 
  34.             good_url = good.find_element_by_css_selector( 
  35.                 '.p-img a').get_attribute('href') 
  36.  
  37.             # 商品名稱 
  38.             good_name = good.find_element_by_css_selector( 
  39.                 '.p-name em').text.replace("\n", "--") 
  40.  
  41.             # 商品價(jià)格 
  42.             good_price = good.find_element_by_class_name( 
  43.                 'p-price').text.replace("\n", ":") 
  44.  
  45.             # 評價(jià)人數(shù) 
  46.             good_commit = good.find_element_by_class_name( 
  47.                 'p-commit').text.replace("\n", " ") 
  48.  
  49.             good_content = f''' 
  50.                         商品鏈接: {good_url} 
  51.                         商品名稱: {good_name} 
  52.                         商品價(jià)格: {good_price} 
  53.                         評價(jià)人數(shù): {good_commit} 
  54.                         \n 
  55.                         ''' 
  56.             print(good_content) 
  57.             with open('jd.txt', 'a', encoding='utf-8') as f: 
  58.                 f.write(good_content) 
  59.  
  60.         next_tag = driver.find_element_by_class_name('pn-next') 
  61.         next_tag.click() 
  62.  
  63.         time.sleep(2) 
  64.  
  65.         # 遞歸調(diào)用函數(shù) 
  66.         get_good(driver) 
  67.  
  68.         time.sleep(10) 
  69.  
  70.     finally: 
  71.         driver.close() 
  72.  
  73.  
  74. if __name__ == '__main__': 
  75.  
  76.     good_name = input('請輸入爬取商品信息:').strip() 
  77.  
  78.     driver = webdriver.Chrome() 
  79.     driver.implicitly_wait(10) 
  80.     # 往京東主頁發(fā)送請求 
  81.     driver.get('https://www.jd.com/') 
  82.  
  83.     # 輸入商品名稱,并回車搜索 
  84.     input_tag = driver.find_element_by_id('key') 
  85.     input_tag.send_keys(good_name) 
  86.     input_tag.send_keys(Keys.ENTER) 
  87.     time.sleep(2) 
  88.  
  89.     get_good(driver) 

 

03 增量爬蟲技術(shù)

某些網(wǎng)站會定時(shí)在原有網(wǎng)頁數(shù)據(jù)的基礎(chǔ)上更新一批數(shù)據(jù)。例如某電影網(wǎng)站會實(shí)時(shí)更新一批最近熱門的電影,小說網(wǎng)站會根據(jù)作者創(chuàng)作的進(jìn)度實(shí)時(shí)更新最新的章節(jié)數(shù)據(jù)等。在遇到類似的場景時(shí),我們便可以采用增量式爬蟲。

增量爬蟲技術(shù)(incremental Web crawler)就是通過爬蟲程序監(jiān)測某網(wǎng)站數(shù)據(jù)更新的情況,以便可以爬取到該網(wǎng)站更新后的新數(shù)據(jù)。

關(guān)于如何進(jìn)行增量式的爬取工作,以下給出三種檢測重復(fù)數(shù)據(jù)的思路:

  1. 在發(fā)送請求之前判斷這個(gè)URL是否曾爬取過;
  2. 在解析內(nèi)容后判斷這部分內(nèi)容是否曾爬取過;
  3. 寫入存儲介質(zhì)時(shí)判斷內(nèi)容是否已存在于介質(zhì)中。
  • 第一種思路適合不斷有新頁面出現(xiàn)的網(wǎng)站,比如小說的新章節(jié)、每天的實(shí)時(shí)新聞等;
  • 第二種思路則適合頁面內(nèi)容會定時(shí)更新的網(wǎng)站;
  • 第三種思路則相當(dāng)于最后一道防線。這樣做可以最大限度地達(dá)到去重的目的。

不難發(fā)現(xiàn),實(shí)現(xiàn)增量爬取的核心是去重。目前存在兩種去重方法。

  • 第一,對爬取過程中產(chǎn)生的URL進(jìn)行存儲,存儲在Redis的set中。當(dāng)下次進(jìn)行數(shù)據(jù)爬取時(shí),首先在存儲URL的set中對即將發(fā)起的請求所對應(yīng)的URL進(jìn)行判斷,如果存在則不進(jìn)行請求,否則才進(jìn)行請求。
  • 第二,對爬取到的網(wǎng)頁內(nèi)容進(jìn)行唯一標(biāo)識的制定(數(shù)據(jù)指紋),然后將該唯一標(biāo)識存儲至Redis的set中。當(dāng)下次爬取到網(wǎng)頁數(shù)據(jù)的時(shí)候,在進(jìn)行持久化存儲之前,可以先判斷該數(shù)據(jù)的唯一標(biāo)識在Redis的set中是否存在,從而決定是否進(jìn)行持久化存儲。

關(guān)于增量爬蟲的使用方法示例如下所示。

  • 【例3】爬取4567tv網(wǎng)站中所有的電影詳情數(shù)據(jù)

 

 
 
  1. import scrapy 
  2. from scrapy.linkextractors import LinkExtractor 
  3. from scrapy.spiders import CrawlSpider, Rule 
  4. from redis import Redis 
  5. from incrementPro.items import IncrementproItem 
  6. class MovieSpider(CrawlSpider): 
  7.     name = 'movie' 
  8.     # allowed_domains = ['www.xxx.com'] 
  9.     start_urls = ['http://www.4567tv.tv/frim/index7-11.html'] 
  10.     rules = ( 
  11.         Rule(LinkExtractor(allow=r'/frim/index7-\d+\.html'), callback='parse_item', follow=True), 
  12.     ) 
  13.     # 創(chuàng)建Redis鏈接對象 
  14.     conn = Redis(host='127.0.0.1', port=6379) 
  15.     def parse_item(self, response): 
  16.         li_list = response.xpath('//li[@class="p1 m1"]') 
  17.         for li in li_list: 
  18.             # 獲取詳情頁的url 
  19.             detail_url = 'http://www.4567tv.tv' + li.xpath('./a/@href').extract_first() 
  20.             # 將詳情頁的url存入Redis的set中 
  21.             ex = self.conn.sadd('urls', detail_url) 
  22.             if ex == 1: 
  23.                 print('該url沒有被爬取過,可以進(jìn)行數(shù)據(jù)的爬取') 
  24.                 yield scrapy.Request(url=detail_url, callback=self.parst_detail) 
  25.             else: 
  26.                 print('數(shù)據(jù)還沒有更新,暫無新數(shù)據(jù)可爬??!') 
  27.  
  28.     # 解析詳情頁中的電影名稱和類型,進(jìn)行持久化存儲 
  29.     def parst_detail(self, response): 
  30.         item = IncrementproItem() 
  31.         item['name'] = response.xpath('//dt[@class="name"]/text()').extract_first() 
  32.         item['kind'] = response.xpath('//div[@class="ct-c"]/dl/dt[4]//text()').extract() 
  33.         item['kind'] = ''.join(item['kind']) 
  34.         yield it 

 

管道文件:

 
 
  1. from redis import Redis 
  2. class IncrementproPipeline(object): 
  3.     conn = None 
  4.     def open_spider(self,spider): 
  5.         self.conn = Redis(host='127.0.0.1',port=6379) 
  6.     def process_item(self, item, spider): 
  7.         dic = { 
  8.             'name':item['name'], 
  9.             'kind':item['kind'] 
  10.             } 
  11.         print(dic) 
  12.         self.conn.push('movieData',dic)     
  13.         # 如果push不進(jìn)去,那么dic變成str(dic)或者改變r(jià)edis版本    
  14.         pip install -U redis==2.10.6 
  15.         return item 

 

04 深層網(wǎng)絡(luò)爬蟲技術(shù)

在互聯(lián)網(wǎng)中,網(wǎng)頁按存在方式可以分為表層網(wǎng)頁和深層網(wǎng)頁兩類。

所謂的表層網(wǎng)頁,指的是不需要提交表單,使用靜態(tài)的鏈接就能夠到達(dá)的靜態(tài)頁面;而深層網(wǎng)頁則隱藏在表單后面,不能通過靜態(tài)鏈接直接獲取,是需要提交一定的關(guān)鍵詞后才能夠獲取到的頁面,深層網(wǎng)絡(luò)爬蟲(deep Web crawler)最重要的部分即為表單填寫部分。

在互聯(lián)網(wǎng)中,深層網(wǎng)頁的數(shù)量往往要比表層網(wǎng)頁的數(shù)量多很多,故而,我們需要想辦法爬取深層網(wǎng)頁。

深層網(wǎng)絡(luò)爬蟲的基本構(gòu)成:URL列表、LVS列表(LVS指的是標(biāo)簽/數(shù)值集合,即填充表單的數(shù)據(jù)源)、爬行控制器、解析器、LVS控制器、表單分析器、表單處理器、響應(yīng)分析器。

深層網(wǎng)絡(luò)爬蟲的表單填寫有兩種類型:

  • 基于領(lǐng)域知識的表單填寫(建立一個(gè)填寫表單的關(guān)鍵詞庫,在需要的時(shí)候,根據(jù)語義分析選擇對應(yīng)的關(guān)鍵詞進(jìn)行填寫);
  • 基于網(wǎng)頁結(jié)構(gòu)分析的表單填寫(一般在領(lǐng)域知識有限的情況下使用,這種方式會根據(jù)網(wǎng)頁結(jié)構(gòu)進(jìn)行分析,并自動地進(jìn)行表單填寫)。

本文名稱:詳解4種類型的爬蟲技術(shù)
URL網(wǎng)址:http://www.dlmjj.cn/article/dpscdds.html