日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
拒絕低效!Python教你爬蟲公眾號(hào)文章和鏈接

 前言

上一篇文章整理了的公眾號(hào)所有文章的導(dǎo)航鏈接,其實(shí)如果手動(dòng)整理起來的話,是一件很費(fèi)力的事情,因?yàn)楣娞?hào)里添加文章的時(shí)候只能一篇篇的選擇,是個(gè)單選框。

面對(duì)幾百篇的文章,這樣一個(gè)個(gè)選擇的話,是一件苦差事。

pk哥作為一個(gè) Pythoner,當(dāng)然不能這么低效,我們用爬蟲把文章的標(biāo)題和鏈接等信息提取出來。

抓包

我們需要通過抓包提取公眾號(hào)文章的請(qǐng)求的 URL,參考之前寫過的一篇抓包的文章 Python爬蟲APP前的準(zhǔn)備,pk哥這次直接抓取 PC 端微信的公眾號(hào)文章列表信息,更簡(jiǎn)單。

我以抓包工具 Charles 為例,勾選容許抓取電腦的請(qǐng)求,一般是默認(rèn)就勾選的。

為了過濾掉其他無關(guān)請(qǐng)求,我們?cè)谧笙路皆O(shè)置下我們要抓取的域名。

打開 PC 端微信,打開 「Python知識(shí)圈」公眾號(hào)文章列表后,Charles 就會(huì)抓取到大量的請(qǐng)求,找到我們需要的請(qǐng)求,返回的 JSON 信息里包含了文章的標(biāo)題、摘要、鏈接等信息,都在 comm_msg_info 下面。

這些都是請(qǐng)求鏈接后的返回,請(qǐng)求鏈接 url 我們可以在 Overview 中查看。

通過抓包獲取了這么多信息后,我們可以寫爬蟲爬取所有文章的信息并保存了。

初始化函數(shù)

公眾號(hào)歷史文章列表向上滑動(dòng),加載更多文章后發(fā)現(xiàn)鏈接中變化的只有 offset 這個(gè)參數(shù),我們創(chuàng)建一個(gè)初始化函數(shù),加入代理 IP,請(qǐng)求頭和信息,請(qǐng)求頭包含了 User-Agent、Cookie、Referer。

這些信息都在抓包工具可以看到。

請(qǐng)求數(shù)據(jù)

通過抓包分析出來了請(qǐng)求鏈接,我們就可以用 requests 庫來請(qǐng)求了,用返回碼是否為 200 做一個(gè)判斷,200 的話說明返回信息正常,我們?cè)贅?gòu)建一個(gè)函數(shù) parse_data() 來解析提取我們需要的返回信息。

 
 
 
 
  1. def request_data(self):
  2.     try:
  3.         response = requests.get(self.base_url.format(self.offset), headers=self.headers, proxies=self.proxy)
  4.         print(self.base_url.format(self.offset))
  5.         if 200 == response.status_code:
  6.            self.parse_data(response.text)
  7.     except Exception as e:
  8.         print(e)
  9.         time.sleep(2)
  10.         pass

提取數(shù)據(jù)

通過分析返回的 Json 數(shù)據(jù),我們可以看到,我們需要的數(shù)據(jù)都在 app_msg_ext_info 下面。

我們用 json.loads 解析返回的 Json 信息,把我們需要的列保存在 csv 文件中,有標(biāo)題、摘要、文章鏈接三列信息,其他信息也可以自己加。

 
 
 
 
  1. def parse_data(self, responseData):
  2.             all_datas = json.loads(responseData)
  3.             if 0 == all_datas['ret'] and all_datas['msg_count']>0:
  4.                 summy_datas = all_datas['general_msg_list']
  5.                 datas = json.loads(summy_datas)['list']
  6.                 a = []
  7.                 for data in datas:
  8.                     try:
  9.                         title = data['app_msg_ext_info']['title']
  10.                         title_child = data['app_msg_ext_info']['digest']
  11.                         article_url = data['app_msg_ext_info']['content_url']
  12.                         info = {}
  13.                         info['標(biāo)題'] = title
  14.                         info['小標(biāo)題'] = title_child
  15.                         info['文章鏈接'] = article_url
  16.                         a.append(info)
  17.                     except Exception as e:
  18.                         print(e)
  19.                         continue
  20.                 print('正在寫入文件')
  21.                 with open('Python公眾號(hào)文章合集1.csv', 'a', newline='', encoding='utf-8') as f:
  22.                     fieldnames = ['標(biāo)題', '小標(biāo)題', '文章鏈接']  # 控制列的順序
  23.                     writer = csv.DictWriter(f, fieldnames=fieldnames)
  24.                     writer.writeheader()
  25.                     writer.writerows(a)
  26.                     print("寫入成功")
  27.                 print('----------------------------------------')
  28.                 time.sleep(int(format(random.randint(2, 5))))
  29.                 self.offset = self.offset+10
  30.                 self.request_data()
  31.             else:
  32.                 print('抓取數(shù)據(jù)完畢!')

這樣,爬取的結(jié)果就會(huì)以 csv 格式保存起來。

運(yùn)行代碼時(shí),可能會(huì)遇到 SSLError 的報(bào)錯(cuò),最快的解決辦法就是 base_url 前面的 https 去掉 s 再運(yùn)行。

保存markdown格式的鏈接

經(jīng)常寫文章的人應(yīng)該都知道,一般寫文字都會(huì)用 Markdown 的格式來寫文章,這樣的話,不管放在哪個(gè)平臺(tái),文章的格式都不會(huì)變化。

在 Markdown 格式里,用 [文章標(biāo)題](文章url鏈接) 表示,所以我們保存信息時(shí)再加一列信息就行,標(biāo)題和文章鏈接都獲取了,Markdown 格式的 url 也就簡(jiǎn)單了。

 
 
 
 
  1. md_url = '[{}]'.format(title) + '({})'.format(article_url)

爬取完成后,效果如下。

我們把 md鏈接這一列全部粘貼到 Markdown 格式的筆記里就行了,大部分的筆記軟件都知道新建 Markdown 格式的文件的。

這樣,這些導(dǎo)航文章鏈接整理起來就是分類的事情了。


文章名稱:拒絕低效!Python教你爬蟲公眾號(hào)文章和鏈接
標(biāo)題鏈接:http://www.dlmjj.cn/article/djdsess.html