日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Python小白都會的如何生成詞云圖片

很早之前寫過一篇怎么利用微博數(shù)據(jù)制作詞云圖片出來,之前的寫得不完整,而且只能使用自己的數(shù)據(jù),現(xiàn)在重新整理了一下,任何的微博數(shù)據(jù)都可以制作出來,放在今天應(yīng)該比較應(yīng)景。

成都創(chuàng)新互聯(lián)公司主營榮縣網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,app開發(fā)定制,榮縣h5小程序開發(fā)搭建,榮縣網(wǎng)站營銷推廣歡迎榮縣等地區(qū)企業(yè)咨詢

一年一度的虐汪節(jié),是繼續(xù)蹲在角落默默吃狗糧還是主動出擊告別單身汪加入撒狗糧的行列就看你啦,七夕什么樣的禮顯得特別,程序猿可以試試用一種特別的方式來表達你對女神的心意,有一個創(chuàng)意是把她過往發(fā)的微博整理后用詞云展示出來發(fā)給她。本文教你怎么用Python快速創(chuàng)建出有心意詞云,Python小白也能分分鐘做出來。

準(zhǔn)備工作

本環(huán)境基于Python3,理論上Python2.7也是可行的,先安裝必要的第三方依賴包:

 
 
 
 
  1. # requirement.txt
  2. jieba==0.38
  3. matplotlib==2.0.2
  4. numpy==1.13.1
  5. pyparsing==2.2.0
  6. requests==2.18.4
  7. scipy==0.19.1
  8. wordcloud==1.3.1

requirement.txt 文件中包含上面的幾個依賴包,如果用 pip 方式安裝失敗,推薦使用 Anaconda 安裝

 
 
 
 
  1. pip install -r requirement.txt

第一步:分析網(wǎng)址

打開微博移動端網(wǎng)址 https://m.weibo.cn/searchs ,找到女神的微博ID,進入她的微博主頁,分析瀏覽器發(fā)送請求的過程

打開 Chrome 瀏覽器的調(diào)試功能,選擇 Network 菜單,觀察到獲取微博數(shù)據(jù)的的接口是 https://m.weibo.cn/api/container/getIndex ,后面附帶了一連串的參數(shù),這里面有些參數(shù)是根據(jù)用戶變化的,有些是固定的,先提取出來。

 
 
 
 
  1. uid=1192515960&
  2. luicode=10000011&
  3. lfid=100103type%3D3%26q%3D%E6%9D%8E%E5%86%B0%E5%86%B0&
  4. featurecode=20000320&
  5. type=user&
  6. containerid=1076031192515960

再來分析接口的返回結(jié)果,返回數(shù)據(jù)是一個JSON字典結(jié)構(gòu),total 是微博總條數(shù),每一條具體的微博內(nèi)容封裝在 cards 數(shù)組中,具體內(nèi)容字段是里面的 text 字段。很多干擾信息已隱去。

 
 
 
 
  1. {
  2.     "cardlistInfo": {
  3.         "containerid": "1076031192515960",
  4.         "total": 4754,
  5.         "page": 2
  6.     },
  7.     "cards": [
  8.         {
  9.             "card_type": 9,
  10.             "mblog": {
  11.                 "created_at": "08-26",
  12.                 "idstr": "4145069944506080",
  13.                 "text": "瑞士一日游圓滿結(jié)束...",
  14.             }
  15.         }]
  16. }

第二步:構(gòu)建請求頭和查詢參數(shù)

分析完網(wǎng)頁后,我們開始用 requests 模擬瀏覽器構(gòu)造爬蟲獲取數(shù)據(jù),因為這里獲取用戶的數(shù)據(jù)無需登錄微博,所以我們不需要構(gòu)造 cookie信息,只需要基本的請求頭即可,具體需要哪些頭信息也可以從瀏覽器中獲取,首先構(gòu)造必須要的請求參數(shù),包括請求頭和查詢參數(shù)。

 
 
 
 
  1. headers = {
  2.     "Host": "m.weibo.cn",
  3.     "Referer": "https://m.weibo.cn/u/1705822647",
  4.     "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) "
  5.                   "Version/9.0 Mobile/13B143 Safari/601.1",
  6. }
  7. params = {"uid": "{uid}",
  8.           "luicode": "20000174",
  9.           "featurecode": "20000320",
  10.           "type": "uid",
  11.           "value": "1705822647",
  12.           "containerid": "{containerid}",
  13.           "page": "{page}"}
  • uid是微博用戶的id
  • containerid雖然不什么意思,但也是和具體某個用戶相關(guān)的參數(shù)
  • page 分頁參數(shù)

第三步:構(gòu)造簡單爬蟲

通過返回的數(shù)據(jù)能查詢到總微博條數(shù) total,爬取數(shù)據(jù)直接利用 requests 提供的方法把 json 數(shù)據(jù)轉(zhuǎn)換成 Python 字典對象,從中提取出所有的 text 字段的值并放到 blogs 列表中,提取文本之前進行簡單過濾,去掉無用信息。順便把數(shù)據(jù)寫入文件,方便下次轉(zhuǎn)換時不再重復(fù)爬取。

 
 
 
 
  1. def fetch_data(uid=None, container_id=None):
  2.     """
  3.     抓取數(shù)據(jù),并保存到CSV文件中
  4.     :return:
  5.     """
  6.     page = 0
  7.     total = 4754
  8.     blogs = []
  9.     for i in range(0, total // 10):
  10.         params['uid'] = uid
  11.         params['page'] = str(page)
  12.         params['containerid'] = container_id
  13.         res = requests.get(url, params=params, headers=HEADERS)
  14.         cards = res.json().get("cards")
  15.         for card in cards:
  16.             # 每條微博的正文內(nèi)容
  17.             if card.get("card_type") == 9:
  18.                 text = card.get("mblog").get("text")
  19.                 text = clean_html(text)
  20.                 blogs.append(text)
  21.         page += 1
  22.         print("抓取第{page}頁,目前總共抓取了 {count} 條微博".format(page=page, count=len(blogs)))
  23.         with codecs.open('weibo1.txt', 'w', encoding='utf-8') as f:
  24.             f.write("\n".join(blogs))

第四步:分詞處理并構(gòu)建詞云

爬蟲了所有數(shù)據(jù)之后,先進行分詞,這里用的是結(jié)巴分詞,按照中文語境將句子進行分詞處理,分詞過程中過濾掉停止詞,處理完之后找一張參照圖,然后根據(jù)參照圖通過詞語拼裝成圖。

 
 
 
 
  1. def generate_image():
  2.     data = []
  3.     jieba.analyse.set_stop_words("./stopwords.txt")
  4.     with codecs.open("weibo1.txt", 'r', encoding="utf-8") as f:
  5.         for text in f.readlines():
  6.             data.extend(jieba.analyse.extract_tags(text, topK=20))
  7.         data = " ".join(data)
  8.         mask_img = imread('./52f90c9a5131c.jpg', flatten=True)
  9.         wordcloud = WordCloud(
  10.             font_path='msyh.ttc',
  11.             background_color='white',
  12.             mask=mask_img
  13.         ).generate(data)
  14.         plt.imshow(wordcloud.recolor(color_func=grey_color_func, random_state=3),
  15.                    interpolation="bilinear")
  16.         plt.axis('off')
  17.         plt.savefig('./heart2.jpg', dpi=1600)

簡單四步就完成了,最終效果圖:

完整代碼可以回復(fù)“qixi”獲取,對了,還有上周的送書活動已經(jīng)結(jié)束,明天會公布獲獎的朋友們。


分享名稱:Python小白都會的如何生成詞云圖片
轉(zhuǎn)載注明:http://www.dlmjj.cn/article/djgesph.html