原创

Elasticsearch 安装中文分词插件IK

        Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,比如我们更希望 “中国人”,“中国”,“我”这样的分词,因此需要安装中文分词插件IK来实现此功能。


elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库,具体安装步骤如下:

1、从github上下载最新的IK分词源码到本地

方式1)可以通过git命令下载,代码如下:

git clone https://github.com/medcl/elasticsearch-analysis-ik

方式2)手动下载

到github网站下载源代码,地址为:https://github.com/medcl/elasticsearch-analysis-ik,右侧下方有一个按钮“Download ZIP",点击下载源代码elasticsearch-analysis-ik-master.zip


2、解压文件elasticsearch-analysis-ik.zip,执行命令:

unzip elasticsearch-analysis-ik.zip

将elasticsearch-analysis-ik-master目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下,之后再将elasticsearch-analysis-ik-master目录下config文件中elasticsearch.yml文件覆盖Elasticsearch安装目录下的config目录中的elasticsearch.yml文件。


3、进入到解压后的文件夹目录中,因为是源代码需要使用maven命令打包,执行命令如下:

mvn clean package

如果没有安装maven工具的话,需要先安装一下maven工具,具体参考地址:  

http://blog.yoodb.com/yoodb/article/detail/340


执行上述命令之后,IK的分词包已经准备就绪。


4、运行Elasticsearch安装路径下的bin目录中的plugin命令安装刚刚编译好的分词包,命令如下:

plugin —install analysis-ik —url file:///#{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-1.4.0.zip

关注下方微信公众号“Java精选”(w_z90110),回复关键字领取资料:如HadoopDubboCAS源码等等,免费领取资料视频和项目。 

涵盖:程序人生、搞笑视频、算法与数据结构、黑客技术与网络安全、前端开发、Java、Python、Redis缓存、Spring源码、各大主流框架、Web开发、大数据技术、Storm、Hadoop、MapReduce、Spark、elasticsearch、单点登录统一认证、分布式框架、集群、安卓开发、iOS开发、C/C++、.NET、Linux、Mysql、Oracle、NoSQL非关系型数据库、运维等。

评论

分享:

支付宝

微信