首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于Lucene的中文字典分词模块的设计与实现
引用本文:向晖,郭一平,王亮.基于Lucene的中文字典分词模块的设计与实现[J].现代图书情报技术,2006,1(8):46-50.
作者姓名:向晖  郭一平  王亮
作者单位:1. 华中科技大学控制科学与工程系,武汉,430074
2. 华中科技大学图书馆,武汉,430074
摘    要:在分析Lucene语言分析器结构的基础上,采用基于中文字典的正向最大匹配分词算法,设计实现能够在基于Lucene的搜索引擎中处理中文信息的中文分词模块。

关 键 词:Lucene  中文分词  正向最大匹配算法
收稿时间:2006-05-19
修稿时间:2006年5月19日

Design and Implementation of Chinese Words Dictionary Segmentation Module Based on Lucene
Xiang Hui,Guo Yiping,Wang Liang.Design and Implementation of Chinese Words Dictionary Segmentation Module Based on Lucene[J].New Technology of Library and Information Service,2006,1(8):46-50.
Authors:Xiang Hui  Guo Yiping  Wang Liang
Institution:1Department of Control Science and Engineering, Huazhong University of Science and Technology, Wuhan 430074, China;2Huazhong University of Science and Technology Library, Wuhan 430074, China
Abstract:This paper introduces the construction of language analyzer in Lucene, designs and implements Chinese words segmentation module which uses forwards maximum match algorithm (FMM). This module can disposes Chinese information well and efficiently in the search engine based on Lucene.
Keywords:Lucene
本文献已被 CNKI 维普 万方数据 等数据库收录!
点击此处可从《现代图书情报技术》浏览原始摘要信息
点击此处可从《现代图书情报技术》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号