我們都知道進行自然語言處理的第一步就是分詞,下面使用jieba模塊對最近比較熱的電視劇《人民的名義》進行分詞,并對它進行一些簡單的文本分析。
一、jieba模塊中常用的方法說明(github):
1.分詞:
jieba.cut
方法接受三個輸入?yún)?shù): 需要分詞的字符串;cut_all 參數(shù)用來控制是否采用全模式;HMM 參數(shù)用來控制是否使用 HMM 模型jieba.cut_for_search
方法接受兩個參數(shù):需要分詞的字符串;是否使用 HMM 模型。該方法適合用于搜索引擎構建倒排索引的分詞,粒度比較細待分詞的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建議直接輸入 GBK 字符串,可能無法預料地錯誤解碼成 UTF-8
jieba.cut
以及jieba.cut_for_search
返回的結構都是一個可迭代的 generator,可以使用 for 循環(huán)來獲得分詞后得到的每一個詞語(unicode),或者用jieba.lcut
以及jieba.lcut_for_search
直接返回 listjieba.Tokenizer(dictionary=DEFAULT_DICT)
新建自定義分詞器,可用于同時使用不同詞典。jieba.dt
為默認分詞器,所有全局分詞相關函數(shù)都是該分詞器的映射。
最近學習python爬蟲,為了練習一下,在
延伸閱讀
學習是年輕人改變自己的最好方式