elastricsearch学习笔记
发布日期:2021-08-21 02:35:06 浏览次数:22 分类:技术文章

本文共 6892 字,大约阅读时间需要 22 分钟。

一、基础概念

    Elasticsearch有几个核心概念。从一开始理解这些概念会对整个学习过程有莫大的帮助。

    接近实时(NRT)

         Elasticsearch是一个接近实时的搜索平台。这意味着,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒)。
       
     集群(cluster)
         一个集群就是由一个或多个节点组织在一起,它们共同持有你整个的数据,并一起提供索引和搜索功能。一个集群由一个唯一的名字标识,这个名字默认就是“elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入这个集群。在产品环境中显式地设定这个名字是一个好习惯,但是使用默认值来进行测试/开发也是不错的。
        
     节点(node)
         一个节点是你集群中的一个服务器,作为集群的一部分,它存储你的数据,参与集群的索引和搜索功能。和集群类似,一个节点也是由一个名字来标识的,默认情况下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启动的时候赋予节点。这个名字对于管理工作来说挺重要的,因为在这个管理过程中,你会去确定网络中的哪些服务器对应于Elasticsearch集群中的哪些节点。
        
         一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫做“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中。
        
         在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运行任何Elasticsearch节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的集群。
        
     索引(index)
         一个索引就是一个拥有几分相似特征的文档的集合。比如说,你可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的索引。一个索引由一个名字来标识(必须全部是小写字母的),并且当我们要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字。
        
         在一个集群中,如果你想,可以定义任意多的索引。
        
     类型(type)
         在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定。通常,会为具有一组共同字段的文档定义一个类型。比如说,我们假设你运营一个博客平台并且将你所有的数据存储到一个索引中。在这个索引中,你可以为用户数据定义一个类型,为博客数据定义另一个类型,当然,也可以为评论数据定义另一个类型。
        
     文档(document)
        
         一个文档是一个可被索引的基础信息单元。比如,你可以拥有某一个客户的文档,某一个产品的一个文档,当然,也可以拥有某个订单的一个文档。文档以JSON(Javascript Object Notation)格式来表示,而JSON是一个到处存在的互联网数据交互格式。
        
         在一个index/type里面,只要你想,你可以存储任意多的文档。注意,尽管一个文档,物理上存在于一个索引之中,文档必须被索引/赋予一个索引的type。
        
     分片和复制(shards & replicas)
        
         一个索引可以存储超出单个结点硬件限制的大量数据。比如,一个具有10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的磁盘空间;或者单个节点处理搜索请求,响应太慢。
        
         为了解决这个问题,Elasticsearch提供了将索引划分成多份的能力,这些份就叫做分片。当你创建一个索引的时候,你可以指定你想要的分片的数量。每个分片本身也是一个功能完善并且独立的“索引”,这个“索引”可以被放置到集群中的任何节点上。
        
         分片之所以重要,主要有两方面的原因:
        
             - 允许你水平分割/扩展你的内容容量
             - 允许你在分片(潜在地,位于多个节点上)之上进行分布式的、并行的操作,进而提高性能/吞吐量
        
         至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这些都是透明的。
        
         在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了,这种情况下,有一个故障转移机制是非常有用并且是强烈推荐的。为此目的,Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做复制分片,或者直接叫复制。
        
         复制之所以重要,有两个主要原因:
             - 在分片/节点失败的情况下,提供了高可用性。因为这个原因,注意到复制分片从不与原/主要(original/primary)分片置于同一节点上是非常重要的。
             - 扩展你的搜索量/吞吐量,因为搜索可以在所有的复制上并行运行
            
         总之,每个索引可以被分成多个分片。一个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和复制的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变复制的数量,但是你事后不能改变分片的数量。
        
         默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个复制,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外5个复制分片(1个完全拷贝),这样的话每个索引总共就有10个分片。
        
         这些问题搞清楚之后,我们就要进入好玩的部分了...
        
二、安装

    Elasticsearch依赖Java 7。在本文写作的时候,推荐使用Oracle JDK 1.7.0_55版本。Java的安装,在各个平台上都有差异,所以我们不想在这里深入太多细节。我只想说,在你安装Elasticsearch之前,你可以通过以下命令来检查你的Java版本(如果有需要,安装或者升级):

        java -version

         echo $JAVA_HOME
     一旦我们将Java安装完成,我们就可以下载并安装Elasticsearch了。其二进制文件可以从www.elasticsearch.org/download这里下载,你也可以从这里下载以前发布的版本。对于每个版本,你可以在zip、tar、DEB、RPM类型的包中选择下载。简单起见,我们使用tar包。

    我们像下面一样下载Elasticsearch 1.1.1 tar包(Windows用户应该下载zip包):

        
         curl -L -O

    然后,如下将其解压(Windows下需要unzip响应的zip包):

        tar -xzvf elasticsearch-1.1.1.tar.gz

        
     这将在你的当前目录下创建很多文件和目录。然后,我们进入到bin目录下:
        
         cd elasticsearch-1.1.1/bin

     至此,我们已经准备好开启我们的节点和单节点集群(Windows用户应该运行elasticsearch.bat文件):
        
         ./elasticsearch
        
     如果一切顺利,你将看到大量的如下信息:

         ./elasticsearch
         [2014-03-13 13:42:17,218][INFO ][node           ] [New Goblin] version[1.1.1], pid[2085], build[5c03844/2014-02-25T15:52:53Z]
         [2014-03-13 13:42:17,219][INFO ][node           ] [New Goblin] initializing ...
         [2014-03-13 13:42:17,223][INFO ][plugins        ] [New Goblin] loaded [], sites []
         [2014-03-13 13:42:19,831][INFO ][node           ] [New Goblin] initialized
         [2014-03-13 13:42:19,832][INFO ][node           ] [New Goblin] starting ...
         [2014-03-13 13:42:19,958][INFO ][transport      ] [New Goblin] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/192.168.8.112:9300]}
         [2014-03-13 13:42:23,030][INFO ][cluster.service] [New Goblin] new_master [New Goblin][rWMtGj3dQouz2r6ZFL9v4g][mwubuntu1][inet[/192.168.8.112:9300]], reason: zen-disco-join (elected_as_master)
         [2014-03-13 13:42:23,100][INFO ][discovery      ] [New Goblin] elasticsearch/rWMtGj3dQouz2r6ZFL9v4g
         [2014-03-13 13:42:23,125][INFO ][http           ] [New Goblin] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/192.168.8.112:9200]}
         [2014-03-13 13:42:23,629][INFO ][gateway        ] [New Goblin] recovered [1] indices into cluster_state
         [2014-03-13 13:42:23,630][INFO ][node           ] [New Goblin] started
        
     不去涉及太多细节,我们可以看到,一叫做“New Goblin”(你会见到一个不同的漫威漫画角色)的节点启动并且将自己选做单结点集群的master。现在不用关心master是什么东西。这里重要的就是,我们在一个集群中开启了一个节点。

     正如先前提到的,我们可以覆盖集群或者节点的名字。我们可以在启动Elasticsearch的时候通过命令行来指定,如下:
        
         ./elasticsearch --cluster.name my_cluster_name --node.name my_node_name
        
     也要注意一下有http标记的那一行,它提供了有关HTTP地址(192.168.8.112)和端口(9200)的信息,通过这个地址和端口我们就可以访问我们的节点了。默认情况下,Elasticsearch使用9200来提供对其REST API的访问。如果有必要,这个端口是可以配置的。

附1:一个真实es的安装过程:

    1、下载es安装文件:

    
    
     2、检查java运行环境
     $ java -version
     java version "1.8.0_151"
     Java(TM) SE Runtime Environment (build 1.8.0_151-b12)
     Java HotSpot(TM) 64-Bit Server VM (build 25.151-b12, mixed mode)
    
     3、解压es安装文件并更改目录权限
     tar -zxvf /opt/software/elasticsearch-6.0.1.tar.gz -C /opt/cdh5/
     chown -R hadoop:hadoop /opt/cdh5/elasticsearch-6.0.1/
    
     4、编辑配置文件
     vim elasticsearch.yml
    
     cluster.name: chavinking
     node.name: node-1
     network.host: 192.168.0.150
     http.port: 9200
    
     5、启动es集群
     bin/elasticsearch -d
    
     6、通过http://192.168.0.150:9200/测试
    
     出现:
     {
     "name" : "node-1",
     "cluster_name" : "chavinking",
     "cluster_uuid" : "9cJXaGAFTTGIo-y7VoiHNQ",
     "version" : {
         "number" : "6.0.1",
         "build_hash" : "601be4a",
         "build_date" : "2017-12-04T09:29:09.525Z",
         "build_snapshot" : false,
         "lucene_version" : "7.0.1",
         "minimum_wire_compatibility_version" : "5.6.0",
         "minimum_index_compatibility_version" : "5.0.0"
     },
     "tagline" : "You Know, for Search"
     }
     表示安装成功。
    
三、安装配置elastricsearch head插件

    yum -y install nodejs npm

     git clone git://github.com/mobz/elasticsearch-head.git
     cd elasticsearch-head
     npm install
     npm run start
    
     es配置修改elasticsearch-head插件源码修改,修改elasticsearch.yml,增加跨域的配置(需要重启es才能生效):
    
     http.cors.enabled: true
     http.cors.allow-origin: "*"
    
     编辑head/Gruntfile.js,修改服务器监听地址,增加hostname属性,将其值设置为*。

        以下两种配置都是OK的

     # Type1
     connect: {
             hostname: '*',
             server: {
                     options: {
                             port: 9100,
                             base: '.',
                             keepalive: true
                     }
             }
     }
  

    # Type 2

     connect: {
             server: {
                     options: {
                             hostname: '*',
                             port: 9100,
                             base: '.',
                             keepalive: true
                     }
             }
     }
    
     编辑_site/app.js,修改head连接es的地址,将localhost修改为es的IP地址:

    # 原配置

     this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "
    
     # 将localhost修改为ES的IP地址
     this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "
    
     重启elastricsearch和elastricsearch head。
    
     启动elastricsearch head命令:
    
     npm run start
     ./node_modules/grunt/bin/grunt server
    
     注意:在非elasticsearch-head目录中启动server会失败!因为grunt需要读取目录下的Gruntfile.js。
    
     登录http://chavin.king:9100/测试配置是否生效。
    
四、安装IK分词法

    IK Analyzer是一个开源的,基于Java语言开发的轻量级的中文分词工具包,最初的时候,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的中文分词组件,从3.0版本之后,IK逐渐成为面向java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。

  当安装完Elasticsearch之后,默认已经含有一个分词法,就是standard,这个分词法对英文的支持还可以,但是对中文的支持非常差劲。

    方法1:github上搜索elasticsearch-analysis-ik代码路径,通过如下方式下载elasticsearch-analysis-ik源代码,并编译安装:

    
     git clone
     cd elasticsearch-analysis-ik/
     mvn clean package
     cd target/releases
    
     $ll
     elasticsearch-analysis-ik-6.0.0.zip
    
     方法2:es version > v5.5.1,可以采用如下方法进行安装。
     ./bin/elasticsearch-plugin install

    重启elastricsearch。

转载地址:https://blog.csdn.net/weixin_33708432/article/details/86254544 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:go 实现用户特权判断的例子
下一篇:EJB2.0教程 详解EJB技术及实现原理

发表评论

最新留言

路过按个爪印,很不错,赞一个!
[***.219.124.196]2024年03月21日 14时05分33秒