本文将从redis的高可用性引出哨兵机制,详细讲解哨兵的原理和作用,希望读者看完能对哨兵原理有比较深入的了解。
适用读者:使用过redis开发应用程序的同学,了解redis主从架构更佳
思考一个问题
Redis主从架构下如何做到高可用?
首先需要解释什么是高可用?
高可用性:如果你的系统在全年当中99.99%的时间内都是出于可用的状态,那么称为高可用性。
既然我们说了高可用这个概念,那么必然就有不可用这个词语。
不可用是指种种原因使得你的系统挂掉了,无法对外提供服务。
常见原因:
- JVM OOM
- 服务器挂了
- CPU 100%
- 。。。
redis主从架构下的不可用是指master宕机(redis进程挂掉/redis进程所在机器宕机)后,客户端数据无法写入redis中,redis就不可用了
在redis主从架构下,master负责写,并将写的数据同步给slave中,slave只能读
此时数据无法写入redis中,因为slave只能同步master的数据,我们的系统事实上已经不可用了,都不能写数据到redis中了。
我们再分析一下,如果是一台slave挂掉,不会影响可用性,因为还有其他的slave处理读请求,整个redis主从还是可以写入数据的,所以一个slave挂掉,是不会影响主从架构的可用性的。
但是master宕机,整个主从架构的主心骨、灵魂宕机了,那还玩个毛啊!
假如我们的系统使用redis来实现缓存架构,此时master节点挂掉了,我们去获取比如说商品信息,发现缓存中没有,就从数据库查出来,想要把商品信息写入redis中,但是master挂掉了,无法写入,那么我们查询商品信息的请求只能永远打到mysql上面去,一时间,因为你的master节点挂掉了,导致mysql承受了大量的请求,那还不把mysql打崩了,那么你的系统也就崩了啊。
redis作为缓存使用时,不但提升了查询的速度(纯内存),并且抗住了高并发,大大缓解了mysql的压力。
尴尬:redis master node挂掉 -> redis主从不可用 -> 系统不可用
那么我们该如何保证redis主从的高可用性呢,避免说master节点挂掉,整个redis不可用,进而系统也不可用的尴尬场面呢?答案是使用哨兵。
下面我们就来探讨一下,redis哨兵支撑redis主从架构高可用性的原理。
哨兵架构的基础知识
什么是哨兵
sentinel ,中文名是哨兵
哨兵是redis集群架构中非常重要的一个组件,主要功能如下
- 集群监控,负责监控redis master和slave进程是否正常工作
- 消息通知,如果某个redis实例有故障,那么哨兵负责发送消息作为报警通知给管理员
- 故障转移,如果master node挂掉了,会自动转移到slave node上
- 配置中心,如果故障转移发生了,通知client客户端新的master地址
哨兵本身也是分布式的,作为一个哨兵集群去运行,互相协同工作
故障转移时,判断一个master node是宕机了,需要大部分的哨兵都同意才行,涉及到了分布式选举的问题
即使部分哨兵节点挂掉了,哨兵集群还是能正常工作的,因为如果一个作为高可用机制重要组成部分的故障转移系统本身是单点的,那就很坑了
支撑高可用的组件,自身也要实现高可用
目前采用的是sentinel 2版本,sentinel 2相对于sentinel 1来说,重写了很多代码,主要是让故障转移的机制和算法变得更加健壮和简单
哨兵的核心知识
- 哨兵至少需要3个实例,来保证自己的健壮性
- 哨兵 + redis主从的部署架构,是不会保证数据零丢失的,只能保证redis集群的高可用性
- 对于哨兵 + redis主从这种复杂的部署架构,尽量在测试环境和生产环境,都进行充足的测试和演练
为什么redis哨兵集群只有2个节点无法正常工作?
哨兵集群必须部署2个以上节点
如果哨兵集群仅仅部署了个2个哨兵实例,quorum=1
quorum表示大多数
+----+ +----+ | M1 |---------| R1 | | S1 | | S2 | +----+ +----+
Configuration(配置): quorum = 1
master宕机,s1和s2中只要有1个哨兵认为master宕机就可以进行切换,同时s1和s2中会选举出一个哨兵来执行故障转移
同时这个时候,需要majority,也就是大多数哨兵都是运行的,2个哨兵的majority就是2(2的majority=2,3的majority=2,5的majority=3,4的majority=2),2个哨兵都运行着,就可以允许执行故障转移
但是如果整个M1和S1运行的机器宕机了,那么哨兵只有1个了,此时就没有majority来允许执行故障转移,虽然另外一台机器还有一个R1,但是故障转移不会执行
总结一下,就是两个哨兵节点无法达到majority,无法执行故障转移。
经典的3节点哨兵集群
+----+ | M1 | | S1 | +----+ | +----+ | +----+ | R2 |----+----| R3 | | S2 | | S3 | +----+ +----+
Configuration: quorum = 2,majority=2
如果M1所在机器宕机了,那么三个哨兵还剩下2个,S2和S3可以一致认为master宕机,然后选举出一个来执行故障转移
同时3个哨兵的majority是2,所以还剩下的2个哨兵运行着,就可以允许执行故障转移
redis哨兵主备切换的数据丢失问题
redis哨兵主备切换的过程,可能会导致数据丢失。
异步复制引起的数据丢失
因为master -> slave的复制是异步的,所以可能有部分数据还没复制到slave,master就宕机了,此时这些部分数据就丢失掉了。
集群脑裂导致的数据丢失
脑裂,指的是某个master所在机器突然脱离了正常的网络,跟其他slave机器不能连接,但是实际上master还运行着。
此时哨兵可能就会认为master宕机了,然后开启选举,将其他slave切换成了master
这个时候,集群里就会有两个master,也就是所谓的脑裂。
此时虽然某个slave被切换成了master,但是可能client还没来得及切换到新的master,还继续写向旧master的数据可能也丢失了。
因此旧master再次恢复的时候,会被作为一个slave挂到新的master上去,自己的数据会清空,重新从新的master复制数据。
解决异步复制和脑裂导致的数据丢失
min-slaves-to-write 1
min-slaves-max-lag 10
要求至少有1个slave,数据复制和同步的延迟不能超过10秒。
如果至少有
min-slaves-to-write个从服务器, 并且这些服务器的延迟值都少于min-slaves-max-lag秒, 那么主服务器就会执行客户端请求的写操作。
如果说一旦所有的slave,数据复制和同步的延迟都超过了10秒钟,那么这个时候,master就不会再接收任何请求了
上面两个配置可以减少异步复制和脑裂导致的数据丢失
减少异步复制的数据丢失
有了min-slaves-max-lag这个配置,就可以确保说,一旦slave复制数据和ack延时太长,就认为可能master宕机后损失的数据太多了,那么就拒绝写请求,这样可以把master宕机时由于部分数据未同步到slave导致的数据丢失降低的可控范围内。
其实是要求slave跟上master的数据
减少脑裂的数据丢失
如果一个master出现了脑裂,跟其他slave丢了连接,上面两个配置可以确保说,如果不能继续给指定数量的slave发送数据,而且slave超过10秒没有给自己ack消息,那么就直接拒绝客户端的写请求。
这样脑裂后的旧master就不会接受client的新数据,也就避免了数据丢失(旧的master和那些slave不通信了,它就觉得不对劲了,就不接受客户端的写请求了)
上面的配置就确保了,如果跟任何一个slave丢了连接,在10秒后发现没有slave给自己ack,那么就拒绝新的写请求
因此在脑裂场景下,最多就丢失10秒的数据
redis哨兵核心底层原理的深入解析
sdown和odown转换机制
sdown和odown两种失败状态
sdown是主观宕机,就一个哨兵如果自己觉得一个master宕机了,那么就是主观宕机
odown是客观宕机,如果quorum数量的哨兵都觉得一个master宕机了,那么就是客观宕机
sdown达成的条件很简单,如果一个哨兵ping一个master,超过了
is-master-down-after-milliseconds指定的毫秒数之后,就主观认为master宕机
sdown到odown转换的条件很简单,如果一个哨兵在指定时间内,收到了quorum指定数量的其他哨兵也认为那个master是sdown了,那么就认为是odown了,客观认为master宕机
哨兵集群的自动发现机制
哨兵互相之间的发现,是通过redis的pub/sub系统实现的,每个哨兵都会往__sentinel__:hello这个channel里发送一个消息,这时候所有其他哨兵都可以消费到这个消息,并感知到其他的哨兵的存在
每隔两秒钟,每个哨兵都会往自己监控的某个master+slaves对应的__sentinel__:hello channel里发送一个消息,内容是自己的host、ip和runid还有对这个master的监控配置
每个哨兵也会去监听自己监控的每个master+slaves对应的__sentinel__:hello channel,然后去感知到同样在监听这个master+slaves的其他哨兵的存在
每个哨兵还会跟其他哨兵交换对master的监控配置,互相进行监控配置的同步
slave配置的自动纠正
哨兵会负责自动纠正slave的一些配置,比如slave如果要成为潜在的master候选人,哨兵会确保slave在复制现有master的数据; 如果slave连接到了一个错误的master上,比如故障转移之后,那么哨兵会确保它们连接到正确的master上。
slave->master选举算法(分布式选举)
如果一个master被认为odown了,而且majority哨兵都允许了主备切换,那么某个哨兵就会执行主备切换操作,此时首先要选举一个slave来。
此时,会考虑slave的一些信息
- 跟master断开连接的时长
- slave优先级
- 复制
offset run id
如果一个slave跟master断开连接已经超过了
down-after-milliseconds的10倍,外加master宕机的时长,那么slave就被认为不适合选举为master(down-after-milliseconds * 10) + milliseconds_since_master_is_in_SDOWN_state
接下来会对slave进行排序
- 按照slave优先级进行排序,slave priority越低,优先级就越高
- 如果slave priority相同,那么看replica offset,哪个slave复制了越多的数据,offset越靠后,优先级就越高
- 如果上面两个条件都相同,那么选择一个run id比较小的那个slave
quorum和majority
每次一个哨兵要做主备切换,首先需要quorum数量的哨兵认为odown,然后选举出一个哨兵来做切换,这个哨兵还得得到majority哨兵的授权,才能正式执行切换。
如果quorum < majority,比如5个哨兵,majority就是3,quorum设置为2,那么就3个哨兵授权就可以执行切换
但是如果quorum >= majority,那么必须quorum数量的哨兵都授权,比如5个哨兵,quorum是5,那么必须5个哨兵都同意授权,才能执行切换
configuration epoch
哨兵会对一套redis master+slave进行监控,有相应的监控的配置
执行切换的那个哨兵,会从要切换到的新master(salve->master)那里得到一个configuration epoch,这就是一个version号,每次切换的version号都必须是唯一的
如果第一个选举出的哨兵切换失败了,那么其他哨兵,会等待failover-timeout时间,然后接替继续执行切换,此时会重新获取一个新的configuration epoch,作为新的version号
configuraiton传播
哨兵完成切换之后,会在自己本地更新生成最新的master配置,然后同步给其他的哨兵,就是通过pub/sub消息机制
这里之前的
version号就很重要了,因为各种消息都是通过一个channel去发布和监听的,所以一个哨兵完成一次新的切换之后,新的master配置是跟着新的version号的。其他的哨兵都是根据版本号的大小来更新自己的master配置的
参考内容
很诚恳得说,本文关于哨兵原理的很多内容,参考了中华石杉老师的亿级流量课程中关于redis哨兵原理的讲解,特此说明,希望随着后面的学习能够将redis的原理和实践都掌握得很好,不负老师用心的讲解!同时也希望可以和读者共同进步,谢谢!
本文使用 mdnice 排版