新聞中心
最近一段時(shí)間Python已經(jīng)成為數(shù)據(jù)科學(xué)行業(yè)中大火的編程語(yǔ)言,今天技術(shù)學(xué)派收集了一些較為高效的語(yǔ)言處理Python庫(kù)。下面分享給大家。

我們提供的服務(wù)有:成都做網(wǎng)站、成都網(wǎng)站制作、成都外貿(mào)網(wǎng)站建設(shè)、微信公眾號(hào)開(kāi)發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、孟州ssl等。為近1000家企事業(yè)單位解決了網(wǎng)站和推廣的問(wèn)題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的孟州網(wǎng)站制作公司
1.NLTK
NLTK是構(gòu)建Python程序以處理人類語(yǔ)言數(shù)據(jù)的領(lǐng)先平臺(tái)。它提供了易于使用的界面,以及用于分類、標(biāo)記化、詞干化、標(biāo)記、分析和語(yǔ)義推理的一套文本處理庫(kù)。用于工業(yè)強(qiáng)度NLP庫(kù)的包裝器。
項(xiàng)目地址:http://www.nltk.org/
2.Pattern
Pattern是Python編程語(yǔ)言的Web挖掘模塊。它多有用于數(shù)據(jù)挖掘、自然語(yǔ)言處理、機(jī)器學(xué)習(xí)網(wǎng)絡(luò)分析和
項(xiàng)目地址:https://pypi.org/project/pattern3/3.0.0/
3.Jieba
“結(jié)巴”中文分詞:做***的 Python 中文分詞組件。精確模式,試圖將句子最精確地切開(kāi),適合文本分析;全模式,把句子中所有的可以成詞的詞語(yǔ)都掃描出來(lái), 速度非???,但是不能解決歧義;搜索引擎模式,在精確模式的基礎(chǔ)上,對(duì)長(zhǎng)詞再次切分,提高召回率,適合用于搜索引擎分詞。
項(xiàng)目地址:https://github.com/fxsjy/jieba
4.TextBlob
TextBlob是一個(gè)用于處理文本數(shù)據(jù)的Python庫(kù)。它提供了一個(gè)簡(jiǎn)單的API用于常見(jiàn)的自然語(yǔ)言處理(NLP)任務(wù),如詞性標(biāo)注,名詞短語(yǔ)提取,情感分析,分類,翻譯等。
項(xiàng)目地址:http://textblob.readthedocs.io/en/dev/
5.SnowNLP
SnowNLP是一個(gè)python寫的類庫(kù),可以方便的處理中文文本內(nèi)容,是受到了TextBlob的啟發(fā)而寫的,由于現(xiàn)在大部分的自然語(yǔ)言處理庫(kù)基本都是針對(duì)英文的,于是寫了一個(gè)方便處理中文的類庫(kù),并且和TextBlob不同的是,這里沒(méi)有用NLTK,所有的算法都是自己實(shí)現(xiàn)的,并且自帶了一些訓(xùn)練好的字典。注意本程序都是處理的unicode編碼,所以使用時(shí)請(qǐng)自行decode成unicode。
項(xiàng)目地址:https://github.com/isnowfy/snownlp
6.TextGrocery
TextGrocery是一個(gè)基于LibLinear和結(jié)巴分詞的短文本分類工具,特點(diǎn)是高效易用,同時(shí)支持中文和英文語(yǔ)料。
項(xiàng)目地址:https://github.com/2shou/TextGrocery
網(wǎng)頁(yè)名稱:6個(gè)高效的語(yǔ)言處理Python庫(kù),你用過(guò)幾個(gè)?
文章轉(zhuǎn)載:http://m.5511xx.com/article/dhsciod.html


咨詢
建站咨詢
