分词

自然语言处理之小明NLP

最近在盘点Python下的自然语言处理包,今天发现的这个小明NLP,本身这个工具算是一个比较普通的工具,但中间
标点符
7 sec read

自然语言处理工具包之NLTK

NLTK简介 NLTK(Natural Language Toolkit)是由宾夕法尼亚大学计算机和信息科学使
标点符
1 min read

中文分词工具盘点之SnowNLP

SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由
标点符
8 sec read

中文分词工具盘点:FoolNLTK

FoolNLTK简介 FoolNLTK是一个使用双向 LSTM (BiLSTM 模型)构建的便捷的中文处理工具
标点符
27 sec read

中文分词工具之哈工大LTP

LTP是哈工大出品的自然语言处理工具箱, LTP提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文
标点符
9 sec read

清华大学的分词工具THULAC

THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与社会人
标点符
24 sec read

北大开源分词工具pkuseg

pkuseg简介 pkuseg是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。pkus
标点符
16 sec read

细说中文分词

完整的中文自然语言处理过程一般包括以下五种中文处理核心技术:分词、词性标注、命名实体识别、依存句法分析、语义分
标点符
2 min read

Python分词模块推荐:结巴中文分词

就是前面说的中文分词,这里需要介绍的是一个分词效果较好,使用起来像但方便的Python模块:结巴。 一、结巴中
标点符
10 sec read

再说中文分词技术

一、什么是中文分词 众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连
标点符
1 sec read

PHP中文高速分词的原理和源码

一、正向最大匹配算法和反向最大匹配算法的缺点 正向最大匹配算法:从左到右将待分词文本中的几个连续字符与词表匹配
标点符
3 sec read