[面试高频]Redis与MySQL双写一致性如何保证?

前言

Redis 与 MySQL 双写一致性如何保证?这道题其实就是在问缓存和数据库在双写场景下,一致性是如何保证的?本文将跟大家一起来探讨如何回答这个问题。

双写一致性

谈谈一致性

一致性就是数据保持一致,在分布式系统中,可以理解为多个节点中数据的值是一致的。

强一致性:这种一致性级别是最符合用户直觉的,它要求系统写入什么,读出来的也会是什么,用户体验好,但实现起来往往对系统的性能影响大。
弱一致性:这种一致性级别约束了系统在写入成功后,不承诺立即可以读到写入的值,也不承诺多久之后数据能够达到一致,但会尽可能地保证到某个时间级别(比如秒级别)后,数据能够达到一致状态。
最终一致性:最终一致性是弱一致性的一个特例,系统会保证在一定时间内,能够达到一个数据一致的状态。这里之所以将最终一致性单独提出来,是因为它是弱一致性中非常推崇的一种一致性模型,也是业界在大型分布式系统的数据一致性上比较推崇的模型。

三个经典的缓存模式

缓存可以提升性能、缓解数据库压力,但是使用缓存也会导致数据不一致性的问题。一般我们是如何使用缓存呢?有三种经典的缓存使用模式:

  • Cache-Aside Pattern
  • Read-Through/Write-through
  • Write-behind

Cache-Aside Pattern

Cache-Aside Pattern,即旁路缓存模式,它的提出是为了尽可能地解决缓存与数据库的数据不一致问题。
Cache-Aside 读流程:
Cache-Aside Pattern 的读请求流程如下:

  1. 读的时候,先读缓存,缓存命中的话,直接返回数据
  2. 缓存没有命中的话,就去读数据库,从数据库取出数据,放入缓存后,同时返回响应。(先取的数据库,然后放入缓存,同时返回请求)。

Cache-Aside 写流程:
更新的时候,先更新数据库,然后再删除缓存。

一些思考

为什么是删除缓存,而不是更新缓存?主要基于以下两点考量:

  1. 数据更新后,可能不会有大量的访问。如果每次更新数据后都更新缓存,可能会造成大量不必要的计算开销。因此,这里采用一种 lazy 的思想,每次更新数据时仅仅是删除缓存,只有在真正读请求到来时才进行缓存的更新。
  2. 在高并发场景下,并发地更新缓存可能会造成缓存可数据库中数据不一致的问题。
    写操作的流程十分关键!一定要先更新数据库,再删除缓存。如果先删除缓存,就会存在一个很小的窗口期,使得客户端查询时无法命中缓存,而去读数据库,然而此时数据库中的数据还未更新,就会从数据库中加载到旧的数据并放入缓存中,最终导致缓存数据被污染。

缓存的过期策略
许多缓存系统都会对缓存数据设置一定的过期策略。使用 Cache-Aside Pattern 时,一定要合理地设置过期策略。如果过期时间太短,可能导致大量请求涌入数据库。相反,如果过期时间太长,有可能导致缓存中数据的大量失效。使用缓存的一个原则,就是尽量缓存那些相对静态的、频繁被读取的数据。

Cache-Aside Pattern 并无法完全保证数据库和缓存的数据一致性。
当某条数据被修改时,在数据库中会立即更新,但是缓存中的更新会在下次读取数据时才会发生。

应用场景

应用程序所使用的缓存系统并没有提供前文所述的缓存系统的那些功能。加载资源的需求是不可预测的。该模式使得系统可以按需加载数据,而不需提前预设哪些数据可能需要被获取。
P.s. 缓存的数据具有随机性,不能是例如配置这些的热数据。

不适用场景:

所缓存的数据集是静态的。

Read-Through/Write-Through(读写穿透)

Read/Write-Through 模式中,服务端把缓存作为主要数据存储。应用程序跟数据库缓存交互,都是通过抽象缓存层完成的。(相当于做了一个代理)

Read-Through
Read-Through 的简要流程如下:

  1. 从缓存读取数据,读到直接返回
  2. 如果读取不到的话,从数据库加载,写入缓存后,再返回响应。

这个简要流程是不是跟 Cache-Aside 很像呢?其实 Read-Through 就是多了一层 Cache-Provider 而已,流程如下:
Cache-ReadThrough流程

Read-Through 实际只是在Cache-Aside之上进行了一层封装,它会让程序代码变得更简洁,同时也减少数据源上的负载。

Write-Through
Write-Through 模式下,当发生写请求时,也是由缓存抽象层完成数据源和缓存数据的更新,流程如下:
Cache-WriteThrough流程

Write-behind (异步缓存写入)

Write-behindRead-Through/Write-Through有相似的地方,都是由Cache Provider来负责缓存和数据库的读写。它们又有个很大的不同:Read/Write-Through是同步更新缓存和数据的,Write-Behind则是只更新缓存,不直接更新数据库,通过批量异步的方式来更新数据库。

Write behind流程

这种方式下,缓存和数据库的一致性不强,对一致性要求高的系统要谨慎使用。但是它适合频繁写的场景,MySQLInnoDB Buffer Pool机制就使用到这种模式。

操作缓存的时候,到底是删除缓存呢,还是更新缓存?

日常开发中,我们一般使用的就是 Cache-Aside 模式。有些小伙伴可能会问, Cache-Aside 在写入请求的时候,为什么是删除缓存而不是更新缓存呢?

看下面的这个场景:

  1. 线程 A 先发起一个写操作,第一步先更新数据库
  2. 线程 B 再发起一个写操作,第二步更新了数据库
  3. 由于网络等原因,线程 B 先更新了缓存
  4. 线程 A 更新缓存。

这时候,缓存保存的是 A 的数据(老数据),数据库保存的是 B 的数据(新数据),数据不一致了,脏数据出现啦。如果是删除缓存取代更新缓存则不会出现这个脏数据问题。

更新缓存相对于删除缓存,还有两点劣势:

如果你写入的缓存值,是经过复杂计算才得到的话。更新缓存频率高的话,就浪费性能啦。
在写数据库场景多,读数据场景少的情况下,数据很多时候还没被读取到,又被更新了,这也浪费了性能呢(实际上,写多的场景,用缓存也不是很划算的,哈哈)

双写的情况下,先操作数据库还是先操作缓存?

Cache-Aside 缓存模式中,有些小伙伴还是会有疑问,在写请求过来的时候,为什么是先操作数据库呢?为什么不先操作缓存呢?

假设有 A、B 两个请求,请求 A 做更新操作,请求 B 做查询读取操作。

  1. 线程 A 发起一个写操作,第一步 del cache
  2. 此时线程 B 发起一个读操作,cache miss
  3. 线程 B 继续读 DB,读出来一个老数据
  4. 然后线程 B 把老数据设置入 cache
  5. 线程 A 写入 DB 最新的数据

酱紫就有问题啦,缓存和数据库的数据不一致了。缓存保存的是老数据,数据库保存的是新数据。 因此,Cache-Aside 缓存模式,选择了先操作数据库而不是先操作缓存。

个别小伙伴可能会问,先操作数据库再操作缓存,不一样也会导致数据不一致嘛?它俩又不是原子性操作的。这个是会的,但是这种方式,一般因为删除缓存失败等原因,才会导致脏数据,这个概率就很低。小伙伴们可以画下操作流程图,自己先分析下哈。接下来我们再来分析这种删除缓存失败的情况,如何保证一致性。

数据库和缓存数据保持强一致,可以嘛?

实际上,没办法做到数据库与缓存绝对的一致性

加锁可以嘛?并发写期间加锁,任何读操作不写入缓存?
缓存及数据库封装 CAS 乐观锁,更新缓存时通过 lua 脚本?
分布式事务,3PC?TCC?
其实,这是由 CAP 理论决定的。缓存系统适用的场景就是非强一致性的场景,它属于 CAP 中的 AP。个人觉得,追求绝对一致性的业务场景,不适合引入缓存。

CAP 理论,指的是在一个分布式系统中, Consistency(一致性)、 Availability(可用性)、Partition tolerance(分区容错性),三者不可得兼。

3 种方案保证数据库与缓存的一致性

缓存延时双删

有些小伙伴可能会说,并不一定要先操作数据库呀,采用缓存延时双删策略,就可以保证数据的一致性啦。什么是延时双删呢?

  1. 先删除缓存
  2. 再更新数据库
  3. 休眠一会(比如 1 秒),再次删除缓存。
  4. 这个休眠一会,一般多久呢?都是 1 秒?

这个休眠时间 = 读业务逻辑数据的耗时 + 几百毫秒。

为了确保读请求结束,写请求可以删除读请求可能带来的缓存脏数据。
这种方案还算可以,只有休眠那一会(比如就那 1 秒),可能有脏数据,一般业务也会接受的。但是如果第二次删除缓存失败呢?缓存和数据库的数据还是可能不一致,对吧?给 Key 设置一个自然的 expire 过期时间,让它自动过期怎样?那业务要接受过期时间内,数据的不一致咯?还是有其他更佳方案呢?

删除缓存重试机制

不管是延时双删还是 Cache-Aside 的先操作数据库再删除缓存,都可能会存在第二步的删除缓存失败,导致的数据不一致问题。可以使用这个方案优化:删除失败就多删除几次呀,保证删除缓存成功就可以了呀~ 所以可以引入删除缓存重试机制。
删除

  1. 写请求更新数据库
  2. 缓存因为某些原因,删除失败
  3. 把删除失败的 key 放到消息队列
  4. 消费消息队列的消息,获取要删除的 key
  5. 重试删除缓存操作

读取 biglog 异步删除缓存

重试删除缓存机制还可以吧,就是会造成好多业务代码入侵。其实,还可以这样优化:通过数据库的 binlog 来异步淘汰 key。
异步删除策略

以 mysql 为例吧.
可以使用阿里的 canal 将 binlog 日志采集发送到 MQ 队列里面。
然后通过 ACK 机制确认处理这条更新消息,删除缓存,保证数据缓存一致性。

关于我
loading