日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
20行Python代碼批量抓取免費高清圖片!

相信在你的工作中可能會經(jīng)常用到PPT吧,你在PPT制作過程中有沒有這樣的困惑,就是可以到哪里找到既高清又無版權(quán)爭議的圖片素材呢?這里強烈推薦ColorHub,這是一個允許個人和商業(yè)用途的免費圖片網(wǎng)站,真的很贊!從她的主頁界面來看,也許你就會愛上她。

那么,如何將網(wǎng)站中的圖片存儲到本地呢(例如比較關(guān)心跟數(shù)據(jù)相關(guān)的素材)?如果做到了,就可以在沒有網(wǎng)絡(luò)的情況下,隨心所欲的選擇精美圖片制作PPT,隨時隨地的查看自己的圖片庫。而本文所要跟大家分享的就是這個問題的解決方案。

爬蟲思路

我們知道,對于圖片網(wǎng)站的抓取,往往需要經(jīng)過三層網(wǎng)頁鏈接,為了能夠直觀地理解這三層鏈接,可以查看下圖:

頂層頁:是指通過網(wǎng)站主頁的搜索欄,搜索出感興趣的圖片方向,便進入到的圖片列表頁,它的樣子是這樣的:

次層頁:是指點擊圖片列表頁中的某張圖片,轉(zhuǎn)而對應(yīng)到的圖片詳情頁,它的樣子是這樣的:

目標(biāo)頁:最后就是為了抓取圖片詳情頁中的那張高清圖片,而這張圖片在網(wǎng)頁源代碼中就是一個圖片鏈接,它的樣子是這樣的:

所以,爬蟲抓取圖片的最終目的就是找到高清圖片所對應(yīng)的鏈接。接下來將通過代碼的介紹,呈現(xiàn)三層鏈接的尋找和請求過程。

 
 
 
 
  1.  1# 導(dǎo)入第三方包  
  2.  2import requests  
  3.  3from bs4 import BeautifulSoup  
  4.  4import random  
  5.  5import time  
  6.  6from fake_useragent import UserAgent  
  7.  7  
  8.  8# 通過循環(huán)實現(xiàn)多頁圖片的抓取  
  9.  9for page in range(1,11):  
  10. 10    # 生成頂層圖片列表頁的鏈接  
  11. 11    fst_url = r https://colorhub.me/search?tag=data&page={} .format(page)     
  12. 12    # 生成UA,用于爬蟲請求頭的設(shè)置  
  13. 13    UA = UserAgent()  
  14. 14    # 向頂層鏈接發(fā)送請求  
  15. 15    fst_response = requests.get(fst_url, headers = { User-Agent :UA.random})     
  16. 16    # 解析頂層鏈接的源代碼  
  17. 17    fst_soup = BeautifulSoup(fst_response.text)  
  18. 18    # 根據(jù)HTML的標(biāo)記規(guī)則,返回次層圖片詳情頁的鏈接和圖片名稱  
  19. 19    sec_urls = [i.find( a )[ href ] for i in fst_soup.findAll(name =  div , attrs = { class : card })]  
  20. 20    pic_names = [i.find( a )[ title ] for i in fst_soup.findAll(name =  div , attrs = { class : card })]  
  21. 21    # 對每一個次層鏈接做循環(huán)  
  22. 22    for sec_url,pic_name in zip(sec_urls,pic_names):  
  23. 23        # 生成UA,用于爬蟲請求頭的設(shè)置  
  24. 24        UA = UserAgent()  
  25. 25        ua = UA.random  
  26. 26        # 向次層鏈接發(fā)送請求  
  27. 27        sec_response = requests.get(sec_url, headers = { User-Agent :ua})      
  28. 28        # 解析次層鏈接的源代碼  
  29. 29        sec_soup = BeautifulSoup(sec_response.text)  
  30. 30        # 根據(jù)HTML的標(biāo)記規(guī)則,返回圖片鏈接  
  31. 31        pic_url =  https:  + sec_soup.find( img ,{ class : card-img-top })[ src ]  
  32. 32        # 對圖片鏈接發(fā)送請求  
  33. 33        pic_response = requests.get(pic_url, headers = { User-Agent :ua})  
  34. 34        # 將二進制的圖片數(shù)據(jù)寫入到本地(即存儲圖片到本地)         
  35. 35        with open(pic_name+ .jpg , mode =  wb ) as fn:  
  36. 36            fn.write(pic_response.content)       
  37. 37        # 生成隨機秒數(shù),用于也沒的停留  
  38. 38        seconds = random.uniform(1,3)  
  39. 39        time.sleep(seconds) 

不難發(fā)現(xiàn),代碼的核心部分就16行,還是很簡單的吧。還不趕快去測試一下這里的代碼哦(如果你對某個方面感興趣,如商務(wù)、建筑、植物等,通過搜索,找到頂層頁鏈接,替換代碼中的fst_url值即可)。

在運行完如上代碼后,將會抓取ColorHub網(wǎng)站中的10頁圖片,一共包含325張高清圖片,展示如下:


分享題目:20行Python代碼批量抓取免費高清圖片!
當(dāng)前URL:http://www.dlmjj.cn/article/cdjpodc.html