大家好!我是進階者。
前言
前幾天一個在校大學生問了一些關于詞頻、分詞和可視化方面的問題,結合爬蟲,確實可以做點東西出來,可以玩玩,還是蠻不錯的,這里整理成一篇文章文本出現(xiàn)代碼怎么辦,分享給大家。
本文主要涉及的庫有爬蟲庫、詞頻統(tǒng)計庫、數(shù)據(jù)處理庫numpy、結巴分詞庫jieba 、可視化庫等等。
一、數(shù)據(jù)來源
關于數(shù)據(jù)方面,這里直接是從新聞平臺上進行獲取的文本信息,其實這個文本文件可以拓展開來,你可以自定義文本,也可以是報告,商業(yè)報告,政治報告等,也可以是新聞平臺,也可以是論文,也可以是微博熱評,也可以是網(wǎng)易云音樂熱評等等,只要涉及到大量文本的,都可以引用本文的代碼,進行詞頻分詞、統(tǒng)計、可視化等。
二、數(shù)據(jù)獲取
數(shù)據(jù)獲取十分簡單文本出現(xiàn)代碼怎么辦,一個簡單的爬蟲和存儲就可以搞定,這里以一篇新聞為例進行演示,代碼如下:
代碼運行之后,在本地會得到一個【報告.txt】文件,文件內容就是網(wǎng)站上的文本信息。如果你想獲取其他網(wǎng)站上的文本,需要更改下鏈接和提取規(guī)則。
三、詞頻統(tǒng)計
接下來就是詞頻統(tǒng)計了,代碼如下所示。
首先讀取文本信息,之后對文本進行預處理,提取文字信息,并且可以自定義詞庫,作為停用詞,之后將獲取到的詞頻做詞頻統(tǒng)計,獲取前30最高頻的詞,并進行打印,輸出結果如下圖所示。
四、可視化
接下來就是可視化部分了,這里直接上代碼,如下所示。
輸出結果是一個線圖,看上去還不錯。
五、總結
本文基于網(wǎng)絡爬蟲獲取到的文本文件,通過詞頻、分詞和可視化等處理,完成一個較為簡單的項目,歡迎大家積極嘗試。