集群角色

角色 描述领导者
(Leader) 领导者 领导者负责进行投票的发起和决议,更新系统状态跟随者
学习者(Learner) 跟随者(Follower) Follower 用于接收客户请求并向客户端返回结果,主过程中参与投票。
学习者(Learner) 观察者(observer) Observer可以接收客户端连接,将写请求转发给 leader,但observer 不参加投票过程,只同步 leader的状态。observer的目的是为了扩展系统,提高读取速度。
(client) 客户端 请求发起方

Paxos 算法概述(ZAB 协议)

Paxos 算法是莱斯利•兰伯特(英语:Leslie Lamport)于 1990 年提出的一种基于消息传递且
具有高度容错特性的一致性算法

分布式系统中的节点通信存在两种模型:共享内存(Shared memory)和消息传递(Messages passing)。基于消息传递通信模型的分布式系统,不可避免的会发生以下错误:进程可能会慢. 被杀死或者重启,消息可能会延迟. 丢失. 重复,在基础 Paxos 场景中,先不考虑可能出现消息篡改即拜占庭错误(Byzantine failure,即虽然有可能一个消息被传递了两次,但是绝对不会出现错误的消息)的情况。Paxos 算法解决的问题是在一个可能发生上述异常的分布式系统中如何就某个值达成一致,保证不论发生以上任何异常,都不会破坏决议一致性。

Paxos 算法使用一个希腊故事来描述,在 Paxos 中,存在三种角色,分别为

  • Proposer(提议者,用来发出提案 proposal),
  • Acceptor(接受者,可以接受或拒绝提案),
  • Learner(学习者,学习被选定的提案,当提案被超过半数的 Acceptor 接受后为被批准)。

下面更精确的定义 Paxos 要解决的问题:

  1. 决议(value)只有在被 proposer 提出后才能被批准
  2. 在一次 Paxos 算法的执行实例中,只批准(chose)一个 value
  3. learner 只能获得被批准(chosen)的 value

ZooKeeper 的选举算法有两种:一种是基于 Basic Paxos(Google Chubby 采用)实现的,另外一种是基于 Fast Paxos(ZooKeeper 采用)算法实现的。系统默认的选举算法为 Fast Paxos。并且 ZooKeeper 在 3.4.0 版本后只保留了 FastLeaderElection 算法。

ZooKeeper 的核心是原子广播,这个机制保证了各个 Server 之间的同步。实现这个机制的协议叫做 ZAB 协议(Zookeeper Atomic BrodCast)。ZAB 协议有两种模式,它们分别是崩溃恢复模式(选主)和原子广播模式(同步)。

  • 当服务启动或者在领导者崩溃后,ZAB 就进入了恢复模式,当领导者被选举出来,且大多数 Server 完成了和 leader 的状态同步以后,恢复模式就结束了。状态同步保证了 leader和 follower 之间具有相同的系统状态。

  • 当 ZooKeeper 集群选举出 leader 同步完状态退出恢复模式之后,便进入了原子广播模式。所有的写请求都被转发给 leader,再由 leader 将更新 proposal 广播给 follower为了保证事务的顺序一致性, 事务是指能够改变Zookeeper服务器状态的操作,一般包括数据节点的创建与删除、数据节点内容更新和客户端会话创建与失效等操作。 zookeeper 采用了递增的事务 id 号(zxid)来标识事务。所有的提议(proposal)都在被提出的时候加上了 zxid。实现中 zxid 是一个 64 位的数字,它高32 位是 epoch 用来标识 leader 关系是否改变,每次一个 leader 被选出来,它都会有一个新的 epoch,标识当前属于那个 leader 的统治时期。低 32 位用于递增计数。

  • 过半:所谓“过半”是指大于集群机器数量的一半,即大于或等于(n/2+1),此处的“集群机器数量”不包括observer角色节点。leader广播一个事务消息后,当收到半数以上的ack信息时,就认为集群中所有节点都收到了消息,然后leader就不需要再等待剩余节点的ack,直接广播commit消息,提交事务。选举中的投票提议及数据同步时,也是如此,leader不需要等到所有learner节点的反馈,只要收到过半的反馈就可进行下一步操作。

Basic Paxos 流程

  1. 选举线程由当前 Server 发起选举的线程担任,其主要功能是对投票结果进行统计,并选出推荐的 Server。

  2. 选举线程首先向所有 Server 发起一次询问(包括自己)选举线程收到回复后,验证是否是自己发起的询问(验证 zxid 是否一致),然后获取对方的 serverid(myid),并存储到当前询问对象列表中,最后获取对方提议的 leader 相关信息(serverid,zxid),并将这些信息存储到当次选举的投票记录表中

  3. 收到所有 Server 回复以后,就计算出 id 最大的那个 Server,并将这个 Server 相关信息设置成下一次要投票的 Server

  4. 线程将当前 id 最大的 Server 设置为当前 Server 要推荐的 Leader,如果此时获胜的 Server获得 n/2 + 1 的 Server 票数, 设置当前推荐的 leader 为获胜的 Server,将根据获胜的 Server相关信息设置自己的状态,否则,继续这个过程,直到 leader 被选举出来。

通过流程分析我们可以得出:要使 Leader 获得多数 Server 的支持,则 Server 总数必须是奇数 2n+1,且存活的 Server 的数目不得少于 n+1。

每个 Server 启动后都会重复以上流程。在恢复模式下,如果是刚从崩溃状态恢复的或者刚启动的 server 还会从磁盘快照中恢复数据和会话信息,zk 会记录事务日志并定期进行快照,方便在恢复时进行状态恢复。

Fast Paxos 流程是在选举过程中,某 Server 首先向所有 Server 提议自己要成为 leader,当其它 Server 收到提议以后,解决 epoch 和 zxid 的冲突,并接受对方的提议,然后向对方发送接受提议完成的消息,重复这个流程,最后一定能选举出 Leader。

ZooKeeper 的全新集群选主

以一个简单的例子来说明整个选举的过程:假设有五台服务器组成的 zookeeper 集群,它们的 serverid 从 1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器依序启动,来看看会发生什么

  1. 服务器 1 启动,此时只有它一台服务器启动了,它发出去的报没有任何响应,所以它的选举状态一直是 。LOOKING 状态。
  2. 服务器 2 启动,它与最开始启动的服务器 1 进行通信,互相交换自己的选举结果,由于两者都没有历史数据,所以 id 值较大的服务器 2 胜出,但是由于没有达到超过半数以上的服务器都同意选举它(这个例子中的半数以上是 3),所以服务器 1. 2 还是继续保持 LOOKING状态。
  3. 服务器 3 启动,根据前面的理论分析,服务器 3 成为服务器 1,2,3 中的老大,而与上面不同的是,此时有三台服务器(超过半数)选举了它,所以它成为了这次选举的 leader。
  4. 服务器 4 启动,根据前面的分析,理论上服务器 4 应该是服务器 1,2,3,4 中最大的,但是由于前面已经有半数以上的服务器选举了服务器 3,所以它只能接收当小弟的命了5. 服务器 5 启动,同 4 一样,当小弟。

总结:zookeeper server 的三种工作状态

  • LOOKING:当前 Server 不知道 leader 是谁,正在搜寻,正在选举
  • LEADING:当前 Server 即为选举出来的 leader,负责协调事务
  • FOLLOWING:leader 已经选举出来,当前 Server 与之同步,服从 leader 的命令

ZooKeeper 的非全新集群选主

那么,初始化的时候,是按照上述的说明进行选举的,但是当 zookeeper 运行了一段时间之后,有机器 down 掉,重新选举时,选举过程就相对复杂了。需要加入数据 version. serverid 和逻辑时钟。

  • 数据 version:数据新的 version 就大,数据每次更新都会更新 version
  • server id:就是我们配置的 myid 中的值,每个机器一个
  • 逻辑时钟:这个值从 0 开始递增,每次选举对应一个值,也就是说:如果在同一次选举中,那么这个值应该是一致的;逻辑时钟值越大,说明这一次选举 leader 的进程更新,也就是每次选举拥有一个 zxid,投票结果只取 zxid 最新的。
  • ZXID 被推举的leader的事务ID ,该值是从机器DataTree内存中取的,即事务已经在机器上被commit过了。

选举的标准就变成:

  1. 逻辑时钟小的选举结果被忽略,重新投票
  2. 统一逻辑时钟后,数据 version 大的胜出
  3. 数据 version 相同的情况下,server id 大的胜出

根据这个规则选出 leader。

数据同步

选完 leader 以后,zk 就进入状态同步过程。

  1. leader 等待 server 连接;
  2. follower 连接 leader,将最大的 zxid (zxid是从内存数据库中取的最新事务id )发送给 leader;
  3. leader 根据 follower 的 zxid 确定同步点;
  4. 完成同步后通知 follower 已经成为 uptodate 状态;
  5. follower 收到 uptodate 消息后,又可以重新接受 client 的请求进行服务了。

选主后,节点需要切换状态,leader切换成LEADING状态后的流程如下:
(1)重新加载本地磁盘上的数据快照至内存,并从日志文件中取出快照之后的所有事务操作,逐条应用至内存,并添加到已提交事务缓存commitedProposals。这样能保证日志文件中的事务操作,必定会应用到leader的内存数据库中。
(2)获取learner发送的FOLLOWERINFO/OBSERVERINFO信息,并与自身commitedProposals比对,确定采用哪种同步方式,不同的learner可能采用不同同步方式(DIFF同步、TRUNC+DIFF同步、SNAP同步)。这里是拿learner内存中的zxid与leader内存中的commitedProposals(min、max)比对,如果zxid介于min与max之间,但又不存在于commitedProposals中时,说明该zxid对应的事务需要TRUNC回滚;如果 zxid 介于min与max之间且存在于commitedProposals中,则leader需要将zxid+1~max 间所有事务同步给learner,这些内存缺失数据,很可能是因为leader切换过程中造成commit消息丢失,learner只完成了事务日志写入,未完成提交事务,未应用到内存。
(3)leader主动向所有learner发送同步数据消息,每个learner有自己的发送队列,互不干扰。同步结束时,leader会向learner发送NEWLEADER指令,同时learner会反馈一个ACK。当leader接收到来自learner的ACK消息后,就认为当前learner已经完成了数据同步,同时进入“过半策略”等待阶段。当leader统计到收到了一半已上的ACK时,会向所有已经完成数据同步的learner发送一个UPTODATE指令,用来通知learner集群已经完成了数据同步,可以对外服务了。
细节可参照Leader.lead() 、Follower.followLeader()及LearnerHandler类。

Follower 工作流程

Follower 主要有四个功能:

  1. 向 Leader 发送请求(PING 消息. REQUEST 消息. ACK 消息. REVALIDATE 消息);
  2. 接收 Leader 消息并进行处理;
  3. 接收 Client 的请求,如果为写请求,则转发给 Leader;
  4. 返回 Client 结果。
    Follower 的消息循环处理如下几种来自 Leader 的消息:
  5. PING 消息: 心跳消息;
  6. PROPOSAL 消息:Leader 发起的提案,要求 Follower 投票;
  7. COMMIT 消息:服务器端最新一次提案的信息;
  8. UPTODATE 消息:表明同步完成;
  9. REVALIDATE 消息:根据 Leader 的 REVALIDATE 结果,关闭待 revalidate 的 session 还是允
    许其接受消息;
  10. SYNC 消息:返回 SYNC 结果到客户端,这个消息最初由客户端发起,用来强制得到最新
    的更新。

Observer 工作流程

Observer 流程和 Follower 的唯一不同的地方就是 Observer 不会参加 Leader 发起的投票,也
不会被选举为 Leader,所以不重复描述了。

事务操作

ZAB协议对于事务操作的处理是一个类似于二阶段提交过程。针对客户端的事务请求。

  • 提交事务请求

    1. leader服务器会为其生成对应的事务proposal,
    2. 将其发送给集群中所有follower机器,然后收集各自的选票,最后进行事务提交。流程如下图。
  • 执行事务请求

    ZAB协议的二阶段提交过程中,移除了中断逻辑(事务回滚),所有follower服务器要么正常反馈leader提出的事务proposal,要么就抛弃leader服务器。

    1. follower收到proposal后的处理很简单,将该proposal写入到事务日志
    2. 然后立马反馈ACK给leader
      • 也就是说如果不是网络、内存或磁盘等问题,follower肯定会写入成功,并正常反馈ACK。
    3. leader收到过半follower的ACK后,会广播commit消息给所有learner,并将事务应用到内存;
    4. learner收到commit消息后会将事务应用到内存。

ZAB协议中多次用到“过半”设计策略 ,该策略是zk在A(可用性)与C(一致性)间做的取舍,也是zk具有高容错特性的本质。相较分布式事务中的2PC(二阶段提交协议)的“全量通过”,ZAB协议可用性更高(牺牲了部分一致性),能在集群半数以下服务宕机时正常对外提供服务。