ElasticSearch 详解(二)

发布于 2021-10-17  100 次阅读


核心概念

elasticsearch 是面向文档的关系行数据库,在 elasticsearch 中一切都是 JSON。elasticsearch(集群)中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包含多个文档(行),每个文档中又包含多个字段(列)。

Relational DBElasticsearch
数据库(database)索引(indexes)
表(tables)文档类型(types)
行(rows)文档(documents)
列(columns)字段(fields)

物理设计

elasticsearch 在后台把每个索引划分成多个分片,每个分片可以在集群中的不同服务器间迁移。

逻辑设计

一个索引类型中,包含多个文档,比如说文档1和文档2。 当我们索引一个文档时,可以通过这样的一个顺序找到它:索引 -> 类型 -> 文档 ID,通过这个组合我们就能索引到某个具体的文档。注意:ID 不必是整数,实际上它是个字符串。

文档

索引数据的最小单位是文档,elasticsearch 中的文档有几个特点:

  • 一个文档中同时包含字段和对应的值,也就是同时包含 key:value。
  • 一个文档中能够包含自文档,复杂的逻辑实体就是这么来的。
  • 文档不依赖预先定义的模型。关系型数据库中,需要提前定义字段才能使用。在 elasticsearch 中,对于字段是非常灵活的,有时候我们可以忽略该字段或者动态地添加一个新的字段。尽管我们可以随意地新增或者忽略某个字段,但是,每个字段的类型非常重要,比如一个年龄字段类型,可以是字符串也可以是整形。elasticsearch 会保存字段和类型之间的映射及其它的设置。

类型

类型是文档的逻辑容器。类型中对于字段的定义称为映射,比如 name 映射为字符串类型。文档是无模型的,它们不需要拥有映射中所定义的所有字段,比如新增一个字段,elasticsearch 会自动得将新字段加入映射,但是这个字段不确定它是什么类型, 所以最安全的方式就是提前定义好所需要的映射,这点跟关系型数据库殊途同归了。

索引

索引是映射类型的容器,elasticsearch 中的索引是一个非常大的文档集合。索引存储了映射类型的字段和其它设置,然后它们被存储到各个分片上。

一个集群至少有一个节点,而一个节点就是一个 elasricsearch 进程,节点可以有多个索引。默认的,如果你创建索引,将会有5个分片(primary shard,又称主分片)构成的,每一个主分片会有一个副本(replica shard,又称复制分片)。

ElasticSearch 详解(二)插图

上图是一个有3个节点的集群,可以看到主分片和对应的复制分片分布在多个节点内,这样有利于某个节点挂掉了,数据也不至于丢失。实际上,一个分片是一个 Lucene 索引,一个包含倒排索引的文件目录,倒排索引的结构使得 elasticsearch 在不扫描全部文档的情况下,就能告诉你哪些文档包含特定的关键字。一个 elasticsearch 索引是由多个 Lucene 索引组成的。

倒排索引

倒排索引适用于快速的全文搜索,一个索引由文档中所有不重复的列表构成,对于每一个词,都有一个包含它的文档列表。 例如,现在有两个文档,每个文档包含如下内容:

Study every day, good good up to forever      #文档1的内容
To forever, study every day, good good up     #文档2的内容

为了创建倒排索引,我们首先要将每个文档拆分成独立的词或称为词条或者 tokens,然后创建一个包含所有不重复的词条的排序列表,然后列出每个词条出现在哪个文档。

termdoc_1doc_2
Study×
Tox×
every
forever
day
study×
good
to×
up

现在,我们试图搜索 to forever,只需要查看包含每个词条的文档 score。

termdoc_1doc_2
to×
forever
total21

两个文档都匹配,但是第一个文档比第二个匹配程度更高。如果没有别的条件,现在,这两个包含关键字的文档都将返回。相对于查找所有原始数据而言,查找倒排索引后的数据将会快的多。完全过滤掉无关的所有数据,提高效率。

IK 分词器插件

分词:即把一段文字划分成一个个的关键字,在搜索时会把信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,这显然是不符合我们的要求的,所以我们需要安装中文分词器 IK 来解决这个问题。IK 提供了两个分词算法:ik_smart 和 ik_max_word,其中 ik_smart 为最少切分,ik_max_word 为最细粒度切分。

安装

只需要下载并解压到 es 的 plugins 目录下,就会跟随 es 一起加载启动了。(可以查看 es 的启动过程,会有提示信息;也可以通过命令 elasticsearch-plugin list 查看加载的插件)

测试两种分词算法

最少切分

ElasticSearch 详解(二)插图1

最细粒度切分

ElasticSearch 详解(二)插图2

自定义词条

假如我们使用一个自定的词条:郑亿朋,看下效果如何。

ElasticSearch 详解(二)插图3

可以从结果看出,郑亿朋 被拆分开来了,这就需要我们自己添加词条到分词器的字典中。新建 myword.dic 文件到 ik 分词器目录下的 config 文件夹下。文件内容如下:(以后想加自定的词条只需要在下一行继续加即可)

郑亿朋

然后就是在 IKAnalyzer.cfg.xml 配置文件中加入自己的字典。

<entry key="ext_dict">myword.dic</entry>

最后重启 es 和 kibana 再进行测试。(可以查看 es 的启动过程,会有提示信息)

ElasticSearch 详解(二)插图4