CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词工具

搜索资源列表

  1. V3.Freeff

    0下载:
  2. 是一个不错的分词工具,听说比中科院的分的好.
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:1976654
    • 提供者:lwt
  1. neucsp

    2下载:
  2. 很好的分词工具,能对文本进行分词,标注词性,是进行文本聚类不可或缺的工具
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1988265
    • 提供者:冀振兴
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
  3. 所属分类:.net编程

    • 发布日期:2008-10-13
    • 文件大小:1905346
    • 提供者:Jingtian Jiang
  1. lunce-IKAnalyzer

    0下载:
  2. 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:868585
    • 提供者:xielang
  1. fenci_ICTCLAS

    0下载:
  2. 基于中科院计算所的ICTCLAS系统开发的分词工具,只有一个类,上手最快,功能强大
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:2234296
    • 提供者:xielang
  1. 庖丁分词工具

    0下载:
  2. 一个流行的java分词程序。
  3. 所属分类:搜索引擎

    • 发布日期:2010-11-10
    • 文件大小:6109005
    • 提供者:gjf_matt
  1. java编写的分词和分类工具

    1下载:
  2. 这是一个用java编写的分词和分类工具,很不错的,值得很多初学者借鉴
  3. 所属分类:JSP源码/Java

    • 发布日期:2011-04-01
    • 文件大小:6877581
    • 提供者:sha1985123
  1. participle.rar

    0下载:
  2. 分词系统,包括linux和window环境下,分词准确,实用工具之一,Segmentation systems, including linux and window environment, the sub-word accurate, and practical tools
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-19
    • 文件大小:6143472
    • 提供者:hlg
  1. Codes_and_Application

    0下载:
  2. 中科院的的分词工具,应该是分中文用的,效率不错-Chinese Academy of Sciences of the sub-word tools, should be used at the Chinese, the efficiency of a good
  3. 所属分类:Search Engine

    • 发布日期:2017-05-11
    • 文件大小:2740161
    • 提供者:chanfangliang
  1. NLuke0.12

    0下载:
  2. 这是一个基于网络的,扩展了lunce的一个搜索分词工具-This is a web-based, expanded lunce participle of a search tool
  3. 所属分类:Search Engine

    • 发布日期:2017-04-25
    • 文件大小:218334
    • 提供者:elvin
  1. NewsCluster

    0下载:
  2. 一个新闻聚类工具,其中包括了新闻采集、新闻分词与特征向量计算,新闻聚类,显示界面共4个组件-A news clustering tools, including news gathering, news Segmentation and feature vector computing, information clustering, display interface, a total of four components
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-26
    • 文件大小:9509072
    • 提供者:chensd
  1. ICTCLAS 中科院分词工具

    0下载:
  2. ICTCLAS是中科院的中文分词工具,是目前国内最好的中文分词工具。进行文本分析的必备工具
  3. 所属分类:文档资料

    • 发布日期:2013-11-22
    • 文件大小:9080291
    • 提供者:mstony@126.com
  1. NLpirTest

    0下载:
  2. 使用中文信息处理的开源工具包NLpir完成分词工作(Use the Open Source Toolkit NLpir to do word segmentation)
  3. 所属分类:Java编程

    • 发布日期:2017-12-25
    • 文件大小:11508736
    • 提供者:zzzz与kkkk
  1. fenci

    0下载:
  2. 用NLPIR工具包实现中文分词,很用的中文分词工具。(Implementation of Chinese word segmentation with NLPIR Toolkit.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-29
    • 文件大小:10413056
    • 提供者:VincentLiu
  1. coreseek

    0下载:
  2. 非常好用的中文分词工具,在网上找了好久才找到的非常好的工具(very good Chinese languag participle tool;I Looking for a very good tool on the Internet for a long time)
  3. 所属分类:Windows编程

    • 发布日期:2018-01-01
    • 文件大小:5941248
    • 提供者:木头人xxx
  1. 汉语分词20140928

    0下载:
  2. cltclas中文分词工具包,可以进行分词,词性标注等等(Cltclas Chinese word segmentation kit, can be participle, part of speech tagging, and so on)
  3. 所属分类:其他

    • 发布日期:2018-01-10
    • 文件大小:66960384
    • 提供者:萧铁
  1. ansj_seg-master

    0下载:
  2. 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-22
    • 文件大小:25285632
    • 提供者:Xxxl
  1. jieba-jieba3k

    1下载:
  2. MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-30
    • 文件大小:10193920
    • 提供者:啦丿啦
  1. 20180306142010_ICTCLAS2016分词系统下载包

    0下载:
  2. 供中文文本挖掘程序员使用,训练文本挖掘能力(Chinese Corpus, used to exercise and test your ability of digging in Chinese Text)
  3. 所属分类:其他

    • 发布日期:2018-05-01
    • 文件大小:67431424
    • 提供者:耀完蛋
  1. chatbot

    2下载:
  2. 聊天机器人 原理: 严谨的说叫 ”基于深度学习的开放域生成对话模型“,框架为Keras(Tensorflow的高层包装),方案为主流的RNN(循环神经网络)的变种LSTM(长短期记忆网络)+seq2seq(序列到序列模型),外加算法Attention Mechanism(注意力机制),分词工具为jieba,UI为Tkinter,基于”青云“语料(10万+闲聊对话)训练。 运行环境:python3.6以上,Tensorflow,pandas,numpy,jieba。(Chat Robot
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2021-03-23
    • 文件大小:57974784
    • 提供者:白子画灬
« 12 3 4 5 6 »
搜珍网 www.dssz.com