搜索资源列表
svmcls-(2)
- 李荣陆老师做的文本分类器,用中科院分词系统做的,分类方法用的是SVM和K-Rong Lu teachers do text classification, word segmentation system with the Chinese Academy of Sciences to do, classification using a SVM and KNN
tmsvm_src_v1.1.0
- SVM中文分词分类器的python实现,在LINUX环境下运行不需太多配置和代码修改。-SVM for Chinese word classification python implementation running under LINUX environment without too much configuration and code changes.
SSE
- SSE === small search engine implement ----2013.01.17---- 补充第一份说明,这个项目是三四个月前写的基于Lucene.Net的一个小型通用搜索引擎, 稍迟会补上Demo, 当时的目标是一个通用的索引跟检索架构。 索引方面: 每增加一种需要索引的文档类型,都只需要新建一个类,在类的各个字段上标注上索引信息(如是否需要存储,是否需要分词等)然后又数据源提供实体信息给索引器即可自动索引。
divide
- 基于最大概率和正向匹配的中文分词器,自然语言处理-Based on the maximum probability of the Chinese sentence divide
ikanalyzer
- 测试IKAnalyzer分词器 读取txt文件方法 -Test IKAnalyzer word read txt file method
ICTCLAS50_Windows_64_JNI
- 中科院ictclas中文分词器 中科院ictclas中文分词器-CAS ictclas Chinese word segment CAS ictclas Chinese word segment
apache-cxf-3.0.9
- 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
work
- 贝叶斯下文本分类器,python语言,包括中文分词和英文分词(Bias's lower text classifier, python language, including Chinese participle and English participle)
IK Analyzer 2012FF_hf1
- ik分词器源码,非常的好用,能够智能分词,检索命中率比较高的。(ik analyse code,it is useful)
课程设计作业
- 用分词包进行分词,并通过分词统计每个词频出现次数(use to seperate an article, and use the dictionary to find the frequency of each word)