搜索资源列表
V3.Freeff
- 是一个不错的分词工具,听说比中科院的分的好.
neucsp
- 很好的分词工具,能对文本进行分词,标注词性,是进行文本聚类不可或缺的工具
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
lunce-IKAnalyzer
- 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快
fenci_ICTCLAS
- 基于中科院计算所的ICTCLAS系统开发的分词工具,只有一个类,上手最快,功能强大
庖丁分词工具
- 一个流行的java分词程序。
java编写的分词和分类工具
- 这是一个用java编写的分词和分类工具,很不错的,值得很多初学者借鉴
participle.rar
- 分词系统,包括linux和window环境下,分词准确,实用工具之一,Segmentation systems, including linux and window environment, the sub-word accurate, and practical tools
Codes_and_Application
- 中科院的的分词工具,应该是分中文用的,效率不错-Chinese Academy of Sciences of the sub-word tools, should be used at the Chinese, the efficiency of a good
NLuke0.12
- 这是一个基于网络的,扩展了lunce的一个搜索分词工具-This is a web-based, expanded lunce participle of a search tool
NewsCluster
- 一个新闻聚类工具,其中包括了新闻采集、新闻分词与特征向量计算,新闻聚类,显示界面共4个组件-A news clustering tools, including news gathering, news Segmentation and feature vector computing, information clustering, display interface, a total of four components
ICTCLAS 中科院分词工具
- ICTCLAS是中科院的中文分词工具,是目前国内最好的中文分词工具。进行文本分析的必备工具
NLpirTest
- 使用中文信息处理的开源工具包NLpir完成分词工作(Use the Open Source Toolkit NLpir to do word segmentation)
fenci
- 用NLPIR工具包实现中文分词,很用的中文分词工具。(Implementation of Chinese word segmentation with NLPIR Toolkit.)
coreseek
- 非常好用的中文分词工具,在网上找了好久才找到的非常好的工具(very good Chinese languag participle tool;I Looking for a very good tool on the Internet for a long time)
汉语分词20140928
- cltclas中文分词工具包,可以进行分词,词性标注等等(Cltclas Chinese word segmentation kit, can be participle, part of speech tagging, and so on)
ansj_seg-master
- 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)
jieba-jieba3k
- MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)
20180306142010_ICTCLAS2016分词系统下载包
- 供中文文本挖掘程序员使用,训练文本挖掘能力(Chinese Corpus, used to exercise and test your ability of digging in Chinese Text)
chatbot
- 聊天机器人 原理: 严谨的说叫 ”基于深度学习的开放域生成对话模型“,框架为Keras(Tensorflow的高层包装),方案为主流的RNN(循环神经网络)的变种LSTM(长短期记忆网络)+seq2seq(序列到序列模型),外加算法Attention Mechanism(注意力机制),分词工具为jieba,UI为Tkinter,基于”青云“语料(10万+闲聊对话)训练。 运行环境:python3.6以上,Tensorflow,pandas,numpy,jieba。(Chat Robot