[ES]两分钟了解ElasticSearch的索引重建
大熊•
前言
在5.x版本之后ElasticSearch新增了索引重建功能,可以直接在ES集群里面对数据进行重建并且支持跨集群间的数据迁移。
1、什么是索引重建
在保证数据的一致性和可用性情况下,使用一个新的索引替换掉旧的索引。如下是索引重建的常见场景:
- 
- 索引的分片发生了改变。 从3个变成了4个
 
 - 
- 文档结构的变更。 text类型的变成了keyword
ES中一个字段的mapping在定义并且导入数据之后就不能在修改,此时可以使用索引重建。 
 - 文档结构的变更。 text类型的变成了keyword
 - 
- ES版本升级
 
 
2、索引重建的实现过程
源端索引的结构:
PUT longxia_item
{
    "mappings": {
        "_doc": {
            "properties": {
              "item_id": {
                    "type": "integer"
                },
                "item_name": {
                    "type": "text",
                    "fields": {
                        "raw": {
                            "ignore_above": 256,
                            "type": "keyword"
                        }
                    }
                }
            }
        }
    }
}
同步数据到longxia_item2索引中
POST _reindex                   
{
  "source": {
    "index": "longxia_item"
  },
  "dest": {
    "index": "longxia_item2"
  }
}
删除源索引的数据
delete longxia_item
将目标索引更名为源索引的名称
POST /_aliases
  {
        "actions": [
            {"add": {"index": "longxia_item2", "alias": "longxia_item"}}
        ]
  }
使用Reindex的注意点:
- 
要求源端索引的元字段_source是打开的,默认是打开的
 - 
Reindex过程并不会自动将源端索引的设置拷贝到目标索引,所以需要事先在目标集群中按照源端索引的表结构建立好目标索引。
 
3、索引重建过程很慢的解决方案
- 
修改批次数据的大小
 - 
借助Scroll并行优化方式
 
Reindex的底层是是Scroll实现,对每个Scroll请求分成多个Slice请求,让各Slice独立并行,以此来提升效率。
slices大小设置注意事项:
slices大小的设置可以手动指定,或者设置slices设置为auto。auto针对单索引,slices大小=分片数;针对多索引,slices等于分片的最小值。
- 当slices的数量等于索引中的分片数量时,查询性能最高效。slices大小大于分片数,非但不会提升效率,反而会增加开销、影响性能。
 
- es副本设置成0
 
PUT /longxia_item2/_settings
{
    "number_of_replicas": 0
}
这样设置之后暂时不会同步es副本数据,等到数据同步完成后启用副本,再去同步副本数据,从而提高同步索引重建的速度。
- 禁用或者增加refresh间隔
 
PUT /longxia_item2/_settings
{ 
  "refresh_interval": -1    #禁用
}
针对不需要实时获取结果的业务场景,可以先不要索引刷新refresh(默认值是1s)。在做Reindex时可以将每个索引的refresh_interval到60s或禁用,等到数据同步完成之后再恢复refresh。
