CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 其它 中文信息处理 搜索资源 - segmentation-based

搜索资源列表

  1. mlct_public

    0下载:
  2. 这是一个基于Java的分词、N-gram统计、分段 、分句等功能的程序,支持多种语言-This is a Java-based segmentation, N-gram statistics, the sub-clause of the function procedures, multilingual support
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:362375
    • 提供者:张雨
  1. xdgf

    0下载:
  2. 字符处理这是一个基于Java的分词、N-gram统计、分段 、分句等功能的程序,支持多种语-characters to deal with this is a Java-based segmentation, N-gram to statistics, subparagraph Clauses function procedures, multiple language support
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1884
    • 提供者:丽丽
  1. ictclas10

    0下载:
  2. 基于中科院的ICTCLAS实现中文分词系统 开发工具是JAVA.经测试,效果很好.-ICTCLAS based on the realization of the Chinese Academy of Sciences Chinese word segmentation system is the Java development tools. Tested, good results.
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1049435
    • 提供者:木鱼
  1. mmseg-v0.1

    0下载:
  2. 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:607478
    • 提供者:binger
  1. pymmseg-cpp-win32-1.0.1.tar.gz

    0下载:
  2. 基于python的中文分词程序,易用性高,可以作为接口直接在python程序中使用,Python-based Chinese word segmentation process, ease of use high, can be used as interface directly in the python program to use
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-24
    • 文件大小:829114
    • 提供者:Jing
  1. ChineseSplit

    0下载:
  2. 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-21
    • 文件大小:6472935
    • 提供者:张莉娟
  1. segmentation

    0下载:
  2. 基于hashmap的首字哈希查找法,正向最大匹配法分词系统。代码用c++编写,本系统很好的实现了分词功能。-Based on the first word hash hashmap Find law, being the largest sub-word matching system. Code using c++ development, the system achieved a very good word function.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-11
    • 文件大小:3018678
    • 提供者:杨小鹏
  1. VIPS

    0下载:
  2. 基于视觉的web页面分割算法(vips)-VIPSa Vision-based Page Segmentation Algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-14
    • 文件大小:3770915
    • 提供者:王大鹏
  1. parser

    0下载:
  2. 基于条件随机场的汉语自动分词系统。把句子划分成一个一个的词-Based on the conditions of the airport with Chinese automatic segmentation system. The sentence was divided into an a word
  3. 所属分类:MultiLanguage

    • 发布日期:2017-06-02
    • 文件大小:15022966
    • 提供者:moses kang
  1. random_walker_matlab_code

    0下载:
  2. The random walker algorithm was introduced in the paper: Leo Grady and Gareth Funka-Lea, "Multi-Label Image Segmentation for Medical Applications Based on Graph-Theoretic Electrical Potentials", in Proceedings of the 8th ECCV04, Workshop on Compute
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-22
    • 文件大小:32927
    • 提供者:qozm
  1. V1.4

    0下载:
  2. 由KaiToo搜索开发的一款基于字典的简单中英文分词算法-Search by KaiToo developed a simple dictionary based on English and Chinese word segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-11
    • 文件大小:2582966
    • 提供者:王友进
  1. HMM

    0下载:
  2. 基于统计的分词,采用隐马尔可夫模型,并有实验报告-Based on statistics segmentation using hidden Markov models, and there is experimental report
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-24
    • 文件大小:3781539
    • 提供者:崇丽岩
  1. beiyes

    0下载:
  2. 贝叶斯网络概率中文分词算法,基于概率的分词算法-Bayesian network probability of Chinese word segmentation algorithm, based on the probability of word segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-09
    • 文件大小:1139205
    • 提供者:wangzhen
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2016-07-06
    • 文件大小:3255959
    • 提供者:王同
  1. KAV7key-2009.10.01-05CBA02F

    0下载:
  2. 这是一个基于lucene接口的一个中文分析器,他采用的是双向切分的方法-This is an interface based on a lucene analyzer in Chinese, he used a two-way method of segmentation
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-28
    • 文件大小:4837
    • 提供者:zengyufei
  1. pp

    0下载:
  2. 基于机械分词的中文分词技术代码,使用最大概率法去歧义。词典很全。-Chinese word segmentation based on mechanical technology code word, using the maximum probability method to ambiguity. Dictionary is full.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:32254
    • 提供者:刘谋鑫
  1. fenci

    0下载:
  2. 基于VC++的中文分词代码。程序编码基本正确,实现了程序设计中提到的两种分词策略,分词结果就在预料之中。-Chinese word segmentation based on VC++ code
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-31
    • 文件大小:1652
    • 提供者:duosdf
  1. IKAnalyzer2012

    0下载:
  2. IKAnalyzer2012,一个以lucene为基础的非常好用的中文分词器,有两种分词模式,智能分词模式和最细粒度分词模式。-IKAnalyzer2012 very easy to use a lucene-based Chinese Word Breaker, there are two sub-word mode, intelligent word patterns and most fine-grained segmentation model.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-09
    • 文件大小:2085460
    • 提供者:王刚
  1. wordmark

    0下载:
  2. 通过一个已经标号词性的训练集来得到训练数据,再根据训练数据对需要进行分词的数据进行分词,采用概率最高的分词情况为最后结果。-By a label the parts of speech training set training data to get the need segmentation data based on the training data segmentation with the highest probability of segmentation for the fin
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-15
    • 文件大小:5274570
    • 提供者:小鑫猪
搜珍网 www.dssz.com