网站首页 > 开源技术 正文
前面讲了Solr搜索引擎的使用和系统架构,今天要来说一说搜索引擎中重要的部分:中文分词。
有的时候,用户搜索的关键字,可能是一个词语,也可能是一句话,不是很规范。那么怎么识别出来用户真正想要查询的是什么呢?怎么在一句话中找出关键的词呢? 这里就需要用到中文分词,将用户输入的关键字进行分词。
目前有很多优秀的中文分词组件。本篇就以 IKAnalyzer 分词为例,讲解如何在 solr 中及集成中文分词,使用 IKAnalyzer的原因 IK 比其他中文分词维护的勤快,和 Solr 集成也相对容易。具体就不多介绍,这里直接solr 集成 IK 的方法。
1、下载IKAnalyzer
下载地址:http://files.cnblogs.com/files/zhangweizhong/ikanalyzer-solr5.zip
注意:以前老的IK 不支持Solr 5.3的版本 ,请注意下载最新的。
2、集成到Solr系统
将下载下来的IKAnalyzer 解压,然后拷贝到 webapps\solr\WEB-INF\lib 目录下。
3、增加自定义字段类型
增加自定义的fildType 字段类型,该字段类型使用IK解析,具体配置如下:
在 solr_home\mycore1\conf\schema.xml 增加如下配置
         <!-- 我添加的IK分词 -->
         <fieldType name="text_ik" class="solr.TextField">   
                   <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
                   <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
         </fieldType>同时,把需要分词的字段,设置为text_ik,
  <field name="id" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="name" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="title" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="category" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="content" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="price" type="double" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="color" type="string" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="orderBy" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="updatetime" type="date" indexed="true" stored="true" required="true" multiValued="false" />4、重启服务
注意:如果之前已经创建了索引,需要将之前的索引删掉,重新创建分词后的索引。
5、在admin后台, analysis 下查看分词效果
1. 中文分词效果
2. 索引查询效果
6、配置IKAnalyzer分词器的扩展词典,停止词词典
1. 将 文件夹下的IKAnalyzer.cfg.xml , ext.dic和stopword.dic 三个文件 复制到/webapps/solr/WEB-INF/classes 目录下,并修改IKAnalyzer.cfg.xml
    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">  
    <properties>  
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 -->
        <entry key="ext_dict">ext.dic;</entry> 
        <!--用户可以在这里配置自己的扩展停止词字典-->
        <entry key="ext_stopwords">stopword.dic;</entry> 
    </properties>2. 在ext.dic 里增加自己的扩展词典,例如,婴儿奶粉3段
注意: 记得将stopword.dic,ext.dic的编码方式为UTF-8 无BOM的编码方式。
最后
以上就把solr中文分词介绍完了,如有不足或不正确之处,欢迎大家批评指正,相互交流。
这个系列课程的完整源码,也会提供给大家。大家关注我的头条号(章为忠学架构)。获取这个系列课程的完整源码。
推荐阅读:
猜你喜欢
- 2024-10-23 ES 基本知识(es基本介绍)
 - 2024-10-23 maven打包jar包时如何打包本地jar文件
 - 2024-10-23 记录自己搭建solr配置中文分词的过程供大家参考
 - 2024-10-23 springboot整合websocket、solr(springboot整合rocketMQ)
 - 2024-10-23 ElasticSearch安装ik分词插件(elasticsearch 安装ik分词器)
 - 2024-10-23 12K的码农怎样蜕变为30k的架构师?找准方向,拒绝迷茫
 - 2024-10-23 Lucene就是这么简单(好儿子今天妈妈就是你的女人了)
 - 2024-10-23 5分钟带你了解Lucene全文索引(lucene索引原理)
 - 2024-10-23 在.net core中进行中文分词方法(.net core hangfire)
 - 2024-10-23 Elasticsearch-通过外网访问加入kibana,head「002」
 
欢迎 你 发表评论:
- 1589℃北京那些看上去很牛的车牌们!(北京厉害车牌)
 - 1107℃2025年度视频去水印软件TOP5对比:哪款最值得用
 - 683℃《我的世界》不同版本的差异 ——新手向
 - 595℃新疆话里的“虫子”
 - 515℃中兴光猫 Telnet下设置大全(中兴光猫命令大全)
 - 513℃蓝牙设备配对失败的系统性解决方案与技术解析
 - 509℃未备份电脑文件数据恢复的七种方法
 - 488℃工艺管道常用英文缩写 英汉对照
 
- 最近发表
 
- 标签列表
 - 
- jdk (81)
 - putty (66)
 - rufus (78)
 - 内网穿透 (89)
 - okhttp (70)
 - powertoys (74)
 - windowsterminal (81)
 - netcat (65)
 - ghostscript (65)
 - veracrypt (65)
 - asp.netcore (70)
 - wrk (67)
 - aspose.words (80)
 - itk (80)
 - ajaxfileupload.js (66)
 - sqlhelper (67)
 - express.js (67)
 - phpmailer (67)
 - xjar (70)
 - redisclient (78)
 - wakeonlan (66)
 - tinygo (85)
 - startbbs (72)
 - webftp (82)
 - vsvim (79)
 
 

本文暂时没有评论,来添加一个吧(●'◡'●)