日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
李鬼見(jiàn)李逵,用Python“死磕”翟天臨的博士論文

都說(shuō)今年的瓜特別多(葫蘆娃的那種),但是過(guò)年期間最甜的我想非翟天臨的“知網(wǎng)是什么?”莫屬了吧。

網(wǎng)站建設(shè)公司,為您提供網(wǎng)站建設(shè),網(wǎng)站制作,網(wǎng)頁(yè)設(shè)計(jì)及定制網(wǎng)站建設(shè)服務(wù),專注于企業(yè)網(wǎng)站建設(shè),高端網(wǎng)頁(yè)制作,對(duì)混凝土攪拌機(jī)等多個(gè)行業(yè)擁有豐富的網(wǎng)站建設(shè)經(jīng)驗(yàn)的網(wǎng)站建設(shè)公司。專業(yè)網(wǎng)站設(shè)計(jì),網(wǎng)站優(yōu)化推廣哪家好,專業(yè)seo優(yōu)化排名優(yōu)化,H5建站,響應(yīng)式網(wǎng)站。

近期,翟天臨因“論文抄襲、學(xué)術(shù)造假”被推上風(fēng)口浪尖,甚至連自己參演并準(zhǔn)備播出的六部電視劇,也被央視要求全部刪減,至此人設(shè)徹底崩塌,輿論嘩然。

我平常不怎么關(guān)注娛樂(lè)圈,所以剛開(kāi)始并沒(méi)有把這件事放在心上,直到網(wǎng)上爆出翟的論文大篇幅抄襲陳坤論文的消息,我才對(duì)這位娛樂(lè)圈博士的文章起了興趣。

目前北京電影學(xué)院已經(jīng)撤銷翟天臨博士學(xué)位,取消陳浥博士研究生導(dǎo)師資格。

接下來(lái)就讓我們以一個(gè) Coder 的角度來(lái)硬核分析下翟的論文吧。

實(shí)驗(yàn)環(huán)境

工欲善其事,必先利其器,在開(kāi)始分析之前,我先說(shuō)明此次分析所處的實(shí)驗(yàn)環(huán)境,以免出現(xiàn)異常:

  • MacOS 10.14.3
  • Python 3.6.8(Anaconda)
  • Visual Studio Code
  • 使用的包有:
  • pkuseg(分詞)
  • matplotlib(繪圖)
  • wordcloud(詞云)
  • numpy(數(shù)學(xué)計(jì)算)
  • Sklearn(機(jī)器學(xué)習(xí))

數(shù)據(jù)獲取

說(shuō)實(shí)話,起初我以為就算翟不知“知網(wǎng)”為何物,“知網(wǎng)”也該收錄翟的文章吧,可我在知網(wǎng)搜了好久也沒(méi)能找到翟的論文,好在我在今日頭條上找到了他的文章,保存在 data/zhai.txt 中。

說(shuō)到這,還真要感謝翟天臨啊,都是因?yàn)樗?,大家才變得這么有學(xué)術(shù)精神,開(kāi)始研究起本科碩士博士論文了。

數(shù)據(jù)清理

上一節(jié)我們已經(jīng)將他的論文保存到一個(gè) txt 中了,所以我們需要先將文章加載到內(nèi)存中:

 
 
 
 
  1. # 數(shù)據(jù)獲?。◤奈募凶x?。?/li>
  2. def readFile(file_path):
  3.     content = []
  4.     with open(file_path, encoding="utf-8") as f:
  5.         content = f.read()
  6.     return content

我統(tǒng)計(jì)了下,除去開(kāi)頭的標(biāo)題和末尾的致謝,總共 25005 個(gè)字。接下來(lái)我們來(lái)進(jìn)行數(shù)據(jù)清理,在這里我用了 pkuseg 對(duì)內(nèi)容進(jìn)行分詞處理,同時(shí)去掉停用詞后輸出分詞的結(jié)果。

所謂停用詞就是在語(yǔ)境中沒(méi)有具體含義的文字,例如這個(gè)、那個(gè),你我他,的得地,以及標(biāo)點(diǎn)符合等等。

因?yàn)闆](méi)人在搜索的時(shí)候去用這些沒(méi)意義的停用詞搜索,為了使得分詞效果更好,我就要把這些停用詞過(guò)濾掉。

 
 
 
 
  1. # 數(shù)據(jù)清理(分詞和去掉停用詞)
  2. def cleanWord(content):
  3.     # 分詞
  4.     seg = pkuseg.pkuseg()
  5.     text = seg.cut(content)
  6.     # 讀取停用詞
  7.     stopwords = []
  8.     with open("stopwords/哈工大停用詞表.txt", encoding="utf-8") as f:
  9.         stopwords = f.read()
  10.     new_text = []
  11.     # 去掉停用詞
  12.     for w in text:
  13.         if w not in stopwords:
  14.             new_text.append(w)
  15.     return new_text

執(zhí)行結(jié)果如下:

這里我提兩點(diǎn),為什么分詞工具用的是 pkuseg 而不是 jieba?pkuseg 是北大推出的一個(gè)分詞工具。官方地址是:

 
 
 
 
  1. https://github.com/lancopku/pkuseg-python

它的 README 中說(shuō)它是目前中文分詞工具中效果***的。

為什么用哈工大的停用詞表?停用詞表的下載地址在:

 
 
 
 
  1. https://github.com/YueYongDev/stopwords

以下是幾個(gè)常用停用詞表的對(duì)比:

參考文獻(xiàn):官琴, 鄧三鴻, 王昊. 中文文本聚類常用停用詞表對(duì)比研究[J]. 數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn), 2006, 1(3).

停用詞表對(duì)比研究:

 
 
 
 
  1. https://github.com/YueYongDev/stopwords

數(shù)據(jù)統(tǒng)計(jì)

說(shuō)是數(shù)據(jù)統(tǒng)計(jì),其實(shí)也沒(méi)什么好統(tǒng)計(jì)的,這里簡(jiǎn)單化一下,就是統(tǒng)計(jì)下各個(gè)詞出現(xiàn)的頻率,然后輸出詞頻***的 15 個(gè)詞:

 
 
 
 
  1. # 數(shù)據(jù)整理(統(tǒng)計(jì)詞頻)
  2. def statisticalData(text):
  3.     # 統(tǒng)計(jì)每個(gè)詞的詞頻
  4.     counter = Counter(text)
  5.     # 輸出詞頻***的15個(gè)單詞
  6.     pprint.pprint(counter.most_common(15))

打印的結(jié)果如下:

真的是個(gè)***的“好演員”啊,能將角色帶入生活,即使肚中無(wú)貨卻仍用自己的表演能力為自己設(shè)立一個(gè)“學(xué)霸”人設(shè),人物形象如此飽滿,興許這就是創(chuàng)作的藝術(shù)吧!

文章中說(shuō)的最多的就是生活、角色、人物、性格這些詞,這些正是一個(gè)好演員的精神所在,如果我們將這些詞做成詞云的話,可能效果會(huì)更好。

生成詞云

詞云生成這個(gè)部分我采用的是 wordcloud 庫(kù),使用起來(lái)非常簡(jiǎn)單,網(wǎng)上教程也有很多。

這里需要提一點(diǎn)的就是:為了防止中文亂碼情況的發(fā)生,需要配置 font_path 這個(gè)參數(shù)。

中文字體可以選用系統(tǒng)的,也可以網(wǎng)上找,這里我推薦一個(gè)免費(fèi)的中文字體下載的網(wǎng)址:

 
 
 
 
  1. http://www.lvdoutang.com/zh/0/0/1/1.html

下面是生成詞云的代碼:

 
 
 
 
  1. # 數(shù)據(jù)可視化(生成詞云)
  2. def drawWordCloud(text, file_name):
  3.     wl_space_split = " ".join(text)
  4.     # 設(shè)置詞云背景圖
  5.     b_mask = plt.imread('assets/img/bg.jpg')
  6.     # 設(shè)置詞云字體(若不設(shè)置則無(wú)法顯示中文)
  7.     font_path = 'assets/font/FZZhuoYTJ.ttf'
  8.     # 進(jìn)行詞云的基本設(shè)置(背景色,字體路徑,背景圖片,詞間距)
  9.     wc = WordCloud(background_color="white",font_path=font_path, mask=b_mask, margin=5)
  10.     # 生成詞云
  11.     wc.generate(wl_space_split)
  12.     # 顯示詞云
  13.     plt.imshow(wc)
  14.     plt.axis("off")
  15.     plt.show()
  16.     # 將詞云圖保存到本地
  17.     path = os.getcwd()+'/output/'
  18.     wc.to_file(path+file_name)

真假李逵(文章對(duì)比)

分析完了“李鬼”,我們有必要請(qǐng)出他的真身“李逵”兄弟了,同樣還是和之前一樣的套路,先找到數(shù)據(jù),然后分詞統(tǒng)計(jì)詞頻,這里就不重復(fù)操作了,直接放出詞云圖。

看到這圖是不是覺(jué)得和翟的詞云圖異常相似,那么,這“真假李逵”之間到底有多像呢?接下來(lái)我們來(lái)計(jì)算下兩篇文章的相似度吧。

TF-IDF

文章相似度的比較有很多種方法,使用的模型也有很多類別,包括 TF-IDF、LDA、LSI 等,這里方便起見(jiàn),就只使用 TF-IDF 來(lái)進(jìn)行比較了。

TF-IDF 實(shí)際上就是在詞頻 TF 的基礎(chǔ)上再加入 IDF 的信息,IDF 稱為逆文檔頻率。

不了解的可以看下阮一峰老師的講解,里面對(duì) TFIDF 的講解也是十分透徹的。

 
 
 
 
  1. https://www.ruanyifeng.com/blog/2013/03/tf-idf.html

Sklearn

Scikit-Learn 也簡(jiǎn)稱 Sklearn,是機(jī)器學(xué)習(xí)領(lǐng)域當(dāng)中最老牌的 Python 模塊之一,官方地址為:

 
 
 
 
  1. https://github.com/scikit-learn/scikit-learn

其包含了很多種機(jī)器學(xué)習(xí)的方式,下面我們借助于 Sklearn 中的模塊 TfidfVectorizer 來(lái)計(jì)算兩篇文章之間的相似度。

代碼如下:

 
 
 
 
  1. # 計(jì)算文本相似度
  2. def calculateSimilarity(s1, s2):
  3.     def add_space(s):
  4.             return ' '.join(cleanWord(s))
  5.     # 將字中間加入空格
  6.     s1, s2 = add_space(s1), add_space(s2)
  7.     # 轉(zhuǎn)化為TF矩陣
  8.     cv = TfidfVectorizer(tokenizer=lambda s: s.split())
  9.     corpus = [s1, s2]
  10.     vectors = cv.fit_transform(corpus).toarray()
  11.     # 計(jì)算TF系數(shù)
  12.     return np.dot(vectors[0], vectors[1]) / (norm(vectors[0]) * norm(vectors[1]))

除了 Sklearn,我們還可以使用 gensim 調(diào)用一些模型進(jìn)行計(jì)算,考慮到文章篇幅,就由讀者自己去搜集資料實(shí)現(xiàn)吧。

我們將翟的論文和陳的論文分別傳入該函數(shù)后,輸出結(jié)果為:

 
 
 
 
  1. 兩篇文章的相似度為:
  2. 0.7074857881770839

其實(shí)這個(gè)結(jié)果我還是挺意外的,只知道這“李鬼”長(zhǎng)得像,卻沒(méi)想到相似度竟然高達(dá) 70.7%。

當(dāng)然,作為弟弟,翟的這個(gè)事和吳秀波的事比起來(lái),那都不是個(gè)事。


網(wǎng)站題目:李鬼見(jiàn)李逵,用Python“死磕”翟天臨的博士論文
本文地址:http://www.dlmjj.cn/article/cogphcg.html