基于Lucene的中文分词器的设计与实现
所属分类:技术论文
上传者:aet
文档大小:352 K
所需积分:0分积分不够怎么办?
文档介绍:针对Lucene自带中文分词器分词效果差的缺点,在分析现有分词词典机制的基础上,设计了基于全哈希整词二分算法的分词器,并集成到Lucene中,算法通过对整词进行哈希,减少词条匹配次数,提高分词效率。该分词器词典文件维护方便,可以根据不同应用的要求进行定制,从而提高了检索效率。
现在下载
VIP会员,AET专家下载不扣分;重复下载不扣分,本人上传资源不扣分。