如何实现一个分布式RPC框架
远程过程调用(Remote Procedure Call
,RPC
)是一个计算机通信协议。该协议允许运行于一台计算机的程序调用另一台计算机的子程序,而程序员无需额外地为这个交互作用编程。RPC
的主要目标是让构建分布式应用更加容易,在提供强大的远程调用能力的同时不损失本地调用的语义的简洁性。
趁实习前的这段业余时间,我实现了一个轻量级的分布式RPC
框架,名字叫做 buddha,代码量不大,但是麻雀虽小却五脏俱全。本篇文章将一步步阐明buddha
的设计、框架组件的拆解以及需要考虑的因素。
序列化与反序列化
在网络中,所有的数据都将会被转化为字节进行传送,所以在代码层面上,一个RPC
框架需要实现特定格式的数据与字节数组之间的相互转化。像Java
已经提供了默认的序列化方式,但是如果是在高并发的场景下,使用Java
原生的序列化方式可能会遇到性能瓶颈。于是,出现了许多开源的、高效的序列化框架:如Kryo
、fastjson
和Protobuf
等。buddha
目前支持Kryo
和fastjson
两种序列化框架。
TCP拆包、粘包
由于TCP
只关心字节流,并不知晓上层的数据格式。如果客户端应用层一次要发送的数据过大时,TCP
会将该数据进行分解传送,因此在服务端需要进行粘包处理(由TCP
来保证数据的有序性);如果客户端一次要发送的数据量很小时,TCP
并不会马上把数据发送出去,而是将其存储在缓冲区,当达到某个阈值的时候再发送出去,因此在服务端需要进行拆包的工作。
通过以上分析,我们了解了TCP
粘包或者拆包的原因,解决这个问题的关键在于向数据包添加边界信息,常用的方法有如下三个。
- 发送端给每个数据包添加包首部,首部中至少包含数据包的长度,这样在接收端接收到数据时,通过读取首部的长度信息得到该数据包有效数据的长度。
- 发送端将每个数据包封装为固定长度(多余用
0
填充),这样接收端在接收到数据后根据约定好的固定长度读取每个数据包的数据。 - 使用特殊符号将每个数据包区分开来,接收端也是通过该特殊符号的划分数据包的边界。
buddha
采用第一种方式来解决TCP
拆包、粘包的问题。
BIO与NIO
BIO
往往用于经典的每连接每线程模型,之所以使用多线程,是因为像accept()
、read()
和write()
等函数都是同步阻塞的,这意味着当应用为单线程且进行IO
操作时,如果线程阻塞那么该应用必然会进入挂死状态,但是实际上此时CPU
是处于空闲状态的。开启多线程,就可以让CPU
去为更多的线程服务,提高CPU
的利用率。但是在活跃线程数较多的情况下,采用多线程模型回带来如下几个问题。
- 线程的创建和销毁代价颇高,在
Linux
操作系统中,线程本质上就是一个进程,创建和销毁线程属于重量级的操作。 - 在
JVM
中,每个线程会占用固定大小的栈空间,而JVM
的内存空间是有限的,因此如果线程数量过多那么线程本身就会占据过多的资源。 - 线程的切换成本较高,每次线程切换需要涉及上下文的保存、恢复以及用户态和内核态的切换。如果线程数过多,那么会有较大比例的
CPU
时间花费在线程切换上。
使用线程池的方式解决前两个问题,但是线程切换带来的开销还是存在。所以在高并发的场景下,传统的BIO
是无能为力的。而NIO
的重要特点是:读、写、注册和接收函数,在等待就绪阶段都是非阻塞的,可以立即返回,这就允许我们不使用多线程充分利用CPU
。如果一个连接不能读写,可以把这个事件记录下来,然后切换到别的就绪的连接进行数据读写。在buddha
中,Netty
被用来编写结构更加清晰的NIO
程序。
服务注册与发现
在实际应用中,RPC
服务的提供者往往需要使用集群来保证服务的稳定性与可靠性。因此需要实现一个服务注册中心,服务提供者将当前可用的服务地址信息注册至注册中心,而客户端在进行远程调用时,先通过服务注册中心获取当前可用的服务列表,然后获取具体的服务提供者的地址信息(该阶段可以进行负载均衡),根据地址信息向服务提供者发起调用。客户端可以缓存可用服务列表,当注册中心的服务列表发生变更时需要通知客户端。同时,当服务提供者变为不可用状态时也需要通知注册中心服务不可用。buddha
使用ZooKeeper
实现服务注册与发现功能。
代码实现
buddha
是我学习验证RPC
过程中诞生的一个轻量级分布式RPC
框架,代码放在了 GitHub。