elasticsearch安装ik中文分词器

阅读数:104 评论数:0

跳转到新版页面

分类

应用软件

正文

一、elasticsearch分词模式

1、Standard Analyzer(标准分词器)

这是 Elasticsearch 默认的分词器,通过 Unicode 字符类别进行分词,应用小写转换。

2、Whitespace Analyzer(空格分词器)

该分词器只将文本按空格(空白字符)进行分词。它不会做任何字符处理或小写转换。

3、Keyword Analyzer(关键字分词器)

该分词器将整个文本作为一个单独的词项。不会对文本进行分词或转换。

4、Simple Analyzer(简单分词器)

该分析器会将文本中的字母和数字作为一个单独的词项,并忽略其他的标点符号和空格。它会将文本转换为小写。

5、Pattern Analyzer(模式分词器)

该分析器使用正则表达式来分词,可以根据自定义的正则表达式定义分词的规则。

6、Stop Analyzer(停用词分词器)

该分析器会根据停用词列表来过滤掉常见的无意义词语(如“a”,“the”,“and”)。它是基于标准分析器,并且去除了停用词。

二、安装ik分词器

1、下载

https://github.com/medcl/elasticsearch-analysis-ik/tree/v7.6.2

下载与自己es版本相一致的zip包。

2、上传并解压到${es_home}/plugins/ik下

unzip elasticseach-an*.zip -d ${es_home}/plugin/ik

3、重启es




相关推荐

原文:https://blog.csdn.net/laoy

一、基本概念 Elasticsearch是面向文档型数据库,一条数据在这里就是一个文档,比如下面这条用户数据: <pre class=

1、下载https://mirrors.huaweicloud.com/elasticsearch/ 根据自已的机器型号,连接对应的cpu架构,是x64、还是arm 2、安装 tar -zxvf el

一、简介 logstash是一款轻量级的日志搜集处理框架,可以方便把分散的。多样化的日志搜集起来,并进行自定义处理,传输到指定的位置,比如某个服务器或者文件。

SearchQuery searchQuery = new NativeSearchQueryBuilder()

一、下载 es需要java运行环境,可以自行安装JDK,参考:http://1024s.top/blog/detail?blogId=42577 当然,es自带jdk环境目录,也可以使用这个目录为ja