搜索资源列表
IKAnalyzer3.2.8-source
- IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
sourceParserDemo
- 1. 识别java源码的语法结构,生成结点类型为具体源码成份的结点树。 2. 解析Java源码并从指定的方法入口处开始执行,在执行的过程中可以执行外部插入的执行逻辑。类似于AOP,但所截获的目标可以是方法也可以是任意细粒度的代码。 3. 解析Java源码并从指定的方法入口处开始执行,在执行过程中对不合理的代码进行预警。预警功能是我兴趣所在,亦将得到大力加强。 4. 静态处理: ① 对源码进行合法性检查,以保证其符合具体项目中的要求。类似于Java代码缺陷自
HLSeg_JAVA_Example
- 中文分词 支持对输出颗粒的控制,可以输出普通颗粒与用于检索的小颗粒;同时输出词串所在句号、段号、词号、词性等信息。 关于分词输出颗粒,我们认为各种应用对分词要求的颗粒度是不同的. 比如自动分类、关键词抽取比搜索需要的分词颗粒度要大, 因为这样表示文本语义特征时效果会更好, 而检索有一个查全率的要求, 就需要把分词单位做的更为细致, 不然就会造成漏查。 海量系统现在提供了两种颗粒的规则, 其中, 默认的为大颗粒接口, 主要用于自动分类、信息挖潜、机器翻译、语音合成、人工智能等领域,