CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 中文 分词 java

搜索资源列表

  1. Xerdoc XDMF

    0下载:
  2. 一个比较好用的中文分词模块,是车东等人开发的,比较有名,java语言实现-a better quality of the Chinese word module, East cars were developed, more famous, java language!
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:2387709
    • 提供者:王国金
  1. nlu_project

    0下载:
  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:2006356
    • 提供者:lipeng
  1. FreeICTCLAS

    0下载:
  2. 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
  3. 所属分类:Algorithm

    • 发布日期:2017-05-12
    • 文件大小:2717670
    • 提供者:静静
  1. IKAnalyzer

    0下载:
  2. JAVA实现简单客服的机器人系统,分词用系统用IK分词,机器人语言用AIML。程序已经实现java socket服务的建立。实现了中文分词,同义词输出,答案匹配。用到的库有IK、program-ab。搞了一个月的小成果,希望大家能用到。-JAVA simple customer service robotic systems, word by word IK systems, robot language with AIML. Procedures have been implemented t
  3. 所属分类:AI-NN-PR

    • 发布日期:2016-04-14
    • 文件大小:5376000
    • 提供者:su
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. HanLP-1.2.7

    0下载:
  2. HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
  3. 所属分类:Algorithm

    • 发布日期:2017-06-14
    • 文件大小:22308798
    • 提供者:黄灿奕
搜珍网 www.dssz.com