搜索资源列表
分词器
- 迷你分词器,解压缩后,在java环境下运行使用。
CutWordApp
- csharp实现的分词器,完整可以运行!结合正向逆向匹配法,效率较高-csharp device to achieve the sub-word, complete run! Forward Reverse with matching, more efficient
svmcls-(2)
- 李荣陆老师做的文本分类器,用中科院分词系统做的,分类方法用的是SVM和K-Rong Lu teachers do text classification, word segmentation system with the Chinese Academy of Sciences to do, classification using a SVM and KNN
finallyliuyuClassifier
- 文本分类软件c++(中科大分词软件+knn分类器)-Text classification software c++ (USTC segmentation software+ knn classifier)
svmcls
- 基于KNN+SVM算法的文本分类器,附带权威的分词词库及算法,有界面,程序可正常使用-KNN+ SVM-based text classification algorithm, with the authority of the sub-word thesaurus and algorithm, a interface, the program can be used normally
Bayes
- 这是一个利用C#编写的贝叶斯中文文本分类器,分词器使用了ICTCLAS分词器。-failed to translate
tmsvm_src_v1.1.0
- SVM中文分词分类器的python实现,在LINUX环境下运行不需太多配置和代码修改。-SVM for Chinese word classification python implementation running under LINUX environment without too much configuration and code changes.
SSE
- SSE === small search engine implement ----2013.01.17---- 补充第一份说明,这个项目是三四个月前写的基于Lucene.Net的一个小型通用搜索引擎, 稍迟会补上Demo, 当时的目标是一个通用的索引跟检索架构。 索引方面: 每增加一种需要索引的文档类型,都只需要新建一个类,在类的各个字段上标注上索引信息(如是否需要存储,是否需要分词等)然后又数据源提供实体信息给索引器即可自动索引。
lexical-analyzer
- c语言VC平台下的词法和语法分词器。可以正常编译运行。-c language under the VC platform morphology and syntax segmentation. You can compile and run properly.
divide
- 基于最大概率和正向匹配的中文分词器,自然语言处理-Based on the maximum probability of the Chinese sentence divide
ikanalyzer
- 测试IKAnalyzer分词器 读取txt文件方法 -Test IKAnalyzer word read txt file method
ICTCLAS50_Windows_64_JNI
- 中科院ictclas中文分词器 中科院ictclas中文分词器-CAS ictclas Chinese word segment CAS ictclas Chinese word segment
apache-cxf-3.0.9
- 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
work
- 贝叶斯下文本分类器,python语言,包括中文分词和英文分词(Bias's lower text classifier, python language, including Chinese participle and English participle)
IK Analyzer 2012FF_hf1
- ik分词器源码,非常的好用,能够智能分词,检索命中率比较高的。(ik analyse code,it is useful)
课程设计作业
- 用分词包进行分词,并通过分词统计每个词频出现次数(use to seperate an article, and use the dictionary to find the frequency of each word)