docker安装ES的IK分词器(下)

独家、原创

ik

上篇完成了es和kabana 的挂载搭建、今天需要搭建一个中文分词器、

1、下载中文分词器

解压包——需要需要支付两元,因为在我的阿里云存

2、解压IK执行授权

chmod -R  777 ik/

3、分词器需要安装Nginx、前面教你安装过、在这里我在演示一下

3.1、docker pull nginx:1.10

3.2、先创建nginx目录

mider -p /mydata/nginx

3.3、创建个最简单的 nginx 目的是为了复制里面的配置文件

docker run -p 80:80 --name nginx -d nginx:1.10

3.4、复制容器的到宿主机

docker container cp nginx:/etc/nginx .

3.5、安装挂载到外面

docker run -p 80:80 --name nginx \
-v /mydata/nginx/html:/usr/share/nginx/html \
-v /mydata/nginx/logs:/rar/log/nginx \
-v /mydata/nginx/conf:/etc/nginx \
-d mydata:1.10

3.5.1、创建几个目录

1)在 mydata/nginx/html 创建了index.html 外网访问测试一下

2)然后在html 里面创建 es目录、在vi fenci.txt 加入自己的特殊词语

特殊词语:我爱乔碧萝

3.5.2、配置分词路径

1)自定义分词路径下IKAnalyzer.cfg.xml

 /mydata/elasticsearch/plugins/ik/config #在elasticsearch的目录插件里面新建ik文件夹、把下载的包放进来

2) vi IKAnalyzer.cfg.xml 修改下面的用户可以在这里配置远程扩展字典访问ip

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict"></entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<entry key="remote_ext_dict">http://47.101.179.26/es/fenci.txt</entry>
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
下载密码:(访问密码:2822)
下载地址1立即下载
本站源码仅供个人兴趣学习
QQ: 3586696355
Q群: 530383698
资源下载
下载价格2 积分
本站源码仅供个人兴趣学习
QQ: 3586696355
Q群: 530383698
原文链接:https://www.e404e.cn/docker%e5%ae%89%e8%a3%85elasticsearch%e7%9a%84ik%e5%88%86%e8%af%8d%e5%99%a8%e4%b8%8b.html,转载请注明出处。
0

评论0

请先

站点提示

小坏说Java,因本站资源都是站长亲自录制的资源,或者网上收集、如侵犯了您的权益、请联系站长删除、为了保证大家使用没有任何问题,更新有点慢、如遇到不可下载的、请加群下载 Q群:530383698
没有账号?注册  忘记密码?

社交账号快速登录

微信扫一扫关注
如已关注,请回复“登录”二字获取验证码