理解Redis网络模型
1. 用户空间和内核态空间
1.1 为什么要区分用户和内核
任何 Linux 发行版,其系统内核都是 Linux,所有的应用都需要通过 Linux 内核(操作系统)与硬件交互。如redis,pgsql等其实是没有办法去执行访问我们操作系统的硬件的,所以要通过操作系统内核去访问计算机硬件。计算机硬件包括,如cpu、内存、网卡等等,内核(通过寻址空间)可以操作硬件的,但是内核需要不同设备的驱动,有了这些驱动之后,内核就可以去对计算机硬件去进行内存管理,文件系统管理,进程管理等等。

用户的应用来访问时,计算机就必须要通过对外暴露的一些接口才能被访问到;内核本身上来说也是一个应用,所以其本身也需要一些内存,cpu 等设备资源,用户应用本身也在消耗这些资源,如果不加任何限制,用户去操作随意的去操作相关的资源,就有可能导致一些冲突,甚至有可能导致系统出现无法运行的问题,因此需要把用户和内核隔离开。
1.2 进程寻址空间
进程的寻址空间划分成两部分:内核空间、用户空间。
什么是寻址空间呢?应用程序或内核都是没有办法直接去物理内存的,而是通过分配一些虚拟内存映射到物理内存中,内核和应用程序去访问虚拟内存的时候,就需要一个虚拟地址,这个地址是一个无符号的整数。比如一个 32 位的操作系统,其带宽就是 32 位,虚拟地址就是 2 的 32 次方,也就是说寻址的范围就是 0~2 的 32 次方, 这片寻址空间对应的就是 2 的 32 个字节,就是 4GB;这个 4GB,会有 3 个 GB 分给用户空间,会有 1GB 给内核系统。
在 linux 中的权限分成两个等级,0 和 3,用户空间只能执行受限的命令(Ring3);而且不能直接调用系统资源,必须通过内核提供的接口来访问内核空间可以执行特权命令(Ring0),调用一切系统资源。所以一般情况下,用户的操作是运行在用户空间,而内核运行的数据是在内核空间的,在有的情况下一个应用程序需要去调用一些特权资源,去调用一些内核空间的操作,此时需要在用户态和内核态之间进行切换。如Linux 系统为了提高 IO 效率,会在用户空间和内核空间都加入缓冲区:
1).写数据时,要把用户缓冲数据拷贝到内核缓冲区,然后写入设备;
2).读数据时,要从设备读取数据到内核缓冲区,然后拷贝到用户缓冲区。
针对这个操作:用户在写读数据时,会去向内核态申请,想要读取内核的数据,而内核数据要去等待驱动程序从硬件上读取数据,当从磁盘上加载到数据之后,内核会将数据写入到内核的缓冲区中,然后再将数据拷贝到用户态的 buffer 中,然后再返回给应用程序。整体而言,速度较慢,为了加速,read或wait for data也最好都不要等待,或者时间尽量的短。

2. 网络模型
2.1 阻塞IO
过程1:应用程序想要去读取数据,是无法直接去读取磁盘数据的,需要先到内核里边去等待内核操作硬件拿到数据,这个过程是需要等待的,等到内核从磁盘上把数据加载出来之后,再把这个数据写给用户的缓存区。
过程 2:如果是阻塞 IO,那么整个过程中,用户从发起读请求开始,一直到读取到数据,都是一个阻塞状态。
用户去读取数据时,会去先发起 recvform 一个命令,去尝试从内核上加载数据,如果内核没有数据,那么进程就会等待,此时内核会去从硬件上读取数据,内核读取数据之后,会把数据拷贝到用户态,并且返回 ok,整个过程,都是阻塞等待的,这就是阻塞 IO。
总结如下:顾名思义,阻塞 IO 就是两个阶段都必须阻塞等待:
阶段一:
用户进程尝试读取数据(比如网卡数据)
此时数据尚未到达,内核需要等待数据
此时用户进程也处于阻塞状态
阶段二:
数据到达并拷贝到内核缓冲区,代表已就绪
将内核数据拷贝到用户缓冲区
拷贝过程中,用户进程依然阻塞等待
拷贝完成,用户进程解除阻塞,处理数据
可以看到,阻塞 IO 模型中,用户进程在两个阶段都是阻塞状态。

2.2 非阻塞 IO
顾名思义,非阻塞 IO 的 recvfrom 操作会立即返回结果而不是阻塞用户进程
阶段一:
用户进程尝试读取数据(比如网卡数据)
此时数据尚未到达,内核需要等待数据
返回异常给用户进程
用户进程拿到 error 后,再次尝试读取
循环往复,直到数据就绪
阶段二:
将内核数据拷贝到用户缓冲区
拷贝过程中,用户进程依然阻塞等待
拷贝完成,用户进程解除阻塞,处理数据
可以看到,非阻塞 IO 模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致 CPU 空转,CPU 使用率暴增。

2.3 信号驱动
信号驱动 IO 是与内核建立 SIGIO 的信号关联并设置回调,当内核有 FD 就绪时,会发出 SIGIO 信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
阶段一:
用户进程调用 sigaction ,注册信号处理函数
内核返回成功,开始监听 FD
用户进程不阻塞等待,可以执行其它业务
当内核数据就绪后,回调用户进程的 SIGIO 处理函数
阶段二:
收到 SIGIO 回调信号
调用 recvfrom ,读取
内核将数据拷贝到用户空间
用户进程处理数据
当有大量 IO 操作时,信号较多,SIGIO 处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。
2.4 异步 IO
这种方式,不仅仅是用户态在试图读取数据后,不阻塞,而且当内核的数据准备完成后,也不会阻塞。会由内核将所有数据处理完成后,由内核将数据写入到用户态中,然后才算完成,所以性能极高,不会有任何阻塞,全部都由内核完成,可见异步 IO 模型中,用户进程在两个阶段都是非阻塞状态。

2.5 IO 多路复用场景引入
为了更好的理解 IO,现在假设这样一种场景:众人在一家餐厅前点餐。
情况A:这家餐厅中现在只有一位服务员,并且采用客户排队点餐的方式,就像这样:
每排到一位客户要吃到饭,都要经过两个步骤:
思考要吃什么;顾客开始点餐,厨师开始炒菜。
由于餐厅只有一位服务员,因此一次只能服务一位客户,并且还需要等待当前客户思考出结果,这浪费了后续排队的人非常多的时间,效率极低。这就是阻塞 IO。当然,为了缓解这种情况,老板完全可以多雇几个人,但这也会增加成本,而在极大客流量的情况下,仍然不会有很高的效率提升。
情况B: 这家餐厅中现在只有一位服务员,并且采用客户排队点餐的方式。
每排到一位客户要吃到饭,都要经过两个步骤:
思考要吃什么
顾客开始点餐,厨师开始炒菜
与 A 情况不同的是,此时服务员会不断询问顾客:“你想吃x1吗?那x2呢?那x3呢?……”
虽然服务员在不停的问,但是在网络中,这并不会增加数据的就绪速度,主要还是等顾客自己确定。所以这并不会提高餐厅的效率,说不定还会招来更多差评。这就是非阻塞 IO。
情况C: 这家餐厅中现在只有一位服务员,但是不再采用客户排队的方式,而是顾客自己获取菜单并点餐,点完后通知服务员,就像这样:
每排到一位客户要吃到饭,还是都要经过两个步骤:
看着菜单,思考要吃什么
通知服务员,我点好了
与 A B 不同的是,这种情况服务员不必再等待顾客思考吃什么,只需要在收到顾客通知后,去接收菜单就好。这样相当于餐厅在只有一个服务员的情况下,同时服务了多个人,而不像 A B,同一时刻只能服务一个人。此时餐厅的效率自然就提高了很多。
映射到我们的网络服务中,就是这样:
客人:客户端请求
点餐内容:客户端发送的实际数据
老板:操作系统
人力成本:系统资源
菜单:文件状态描述符。操作系统对于一个进程能够同时持有的文件状态描述符的个数是有限制的,在 linux 系统中 ulimit -n 查看这个限制值,当然也是可以 (并且应该) 进行内核参数调整的。
服务员:操作系统内核用于 IO 操作的线程 (内核线程)
厨师:应用程序线程 (当然厨房就是应用程序进程咯)
餐单传递方式:包括了阻塞式和非阻塞式两种。
方法 A: 阻塞 IO,方法 B: 非阻塞 IO,方法 C: 多路复用 IO。
2.6 多路复用 IO 的实现
目前流程的多路复用 IO 实现主要包括四种: select、poll、epoll、kqueue。下表是他们的一些重要特性的比较:
IO 模型 相对性能 关键思路 操作系统 JAVA 支持情况
select 较高 Reactor windows/Linux
支持,Reactor 模式 (反应器设计模式)。Linux 操作系统的 kernels 2.4 内核版本之前,默认使用 select;而目前 windows 下对同步 IO 的支持,都是 select 模型
poll 较高 Reactor Linux
Linux 下的 JAVA NIO 框架,Linux kernels 2.6 内核版本之前使用 poll 进行支持。也是使用的 Reactor 模式
epoll Reactor/Proactor Linux
Linux kernels 2.6 内核版本及以后使用 epoll 进行支持;Linux kernels 2.6 内核版本之前使用 poll 进行支持;另外一定注意,由于 Linux 下没有 Windows 下的 IOCP 技术提供真正的 异步 IO 支持,所以 Linux 下使用 epoll 模拟异步 IO
kqueue Proactor Linux
目前 JAVA 的版本不支持
多路复用 IO 技术最适用的是 “高并发” 场景,所谓高并发是指 1 毫秒内至少同时有上千个连接请求准备好。其他情况下多路复用 IO 技术发挥不出来它的优势。另一方面,使用 JAVA NIO 进行功能实现,相对于传统的 socket 套接字实现要复杂一些,所以实际应用中,需要根据自己的业务需求进行技术选择。
2.6.1 select
select 是 Linux 最早是由的 I/O 多路复用技术:在linux 中一切皆文件,socket 也不例外,把需要处理的数据封装成 FD,然后在用户态时创建一个 fd_set 的集合(这个集合的大小是要监听的那个 FD 的最大值 + 1,但是大小整体是有限制的 ),这个集合的长度大小是有限制的,同时在这个集合中,标明出来要控制哪些数据。
其内部流程
用户态下:
创建 fd_set 集合,包括要监听的 读事件、写事件、异常事件 的集合
确定要监听的 fd_set 集合
将要监听的集合作为参数传入 select () 函数中,select 中会将 集合复制到内核 buffer 中
内核态:
内核线程在得到 集合后,遍历该集合
没数据就绪,就休眠
当数据来时,线程被唤醒,然后再次遍历集合,标记就绪的 fd 然后将整个集合,复制回用户 buffer 中
用户线程遍历 集合,找到就绪的 fd ,再发起读请求。

不足之处:
集合大小固定为 1024 ,也就是说最多维持 1024 个 socket,在海量数据下,不够用
集合需要在 用户 buffer 和内核 buffer 中反复复制,涉及到 用户态和内核态的切换,非常影响性能
2.6.2 poll
poll 模式对 select 模式做了简单改进,但性能提升不明显。
IO 流程:
创建 pollfd 数组,向其中添加关注的 fd 信息,数组大小自定义
调用 poll 函数,将 pollfd 数组拷贝到内核空间,转链表存储,无上限
内核遍历 fd ,判断是否就绪
数据就绪或超时后,拷贝 pollfd 数组到用户空间,返回就绪 fd 数量 n
用户进程判断 n 是否大于 0, 大于 0 则遍历 pollfd 数组,找到就绪的 fd
与 select 对比:
select 模式中的 fd_set 大小固定为 1024,而 pollfd 在内核中采用链表,理论上无上限,但实际上不能这么做,因为的监听 FD 越多,每次遍历消耗时间也越久,性能反而会下降。

2.6.3 epoll
epoll 模式是对 select 和 poll 的改进,它提供了三个函数:eventpoll 、epoll_ctl 、epoll_wait。
eventpoll 函数内部包含了两个东西 :红黑树 :用来记录所有的 fd链表 : 记录已就绪的 fd
epoll_ctl 函数 ,将要监听的 fd 添加到 红黑树 上去,并且给每个 fd 绑定一个监听函数,当 fd 就绪时就会被触发,这个监听函数的操作就是 将这个 fd 添加到 链表中去。
epoll_wait 函数,就绪等待。一开始,用户态 buffer 中创建一个空的 events 数组,当就绪之后,我们的回调函数会把 fd 添加到链表中去,当函数被调用的时候,会去检查链表(当然这个过程需要参考配置的等待时间,可以等一定时间,也可以一直等),如果链表中没有有 fd 则 fd 会从红黑树被添加到链表中,此时再将链表中的的 fd 复制到 用户态的空 events 中,并且返回对应的操作数量,用户态此时收到响应后,会从 events 中拿到已经准备好的数据,在调用 读方法 去拿数据。
2.6.4 小结
select 模式存在的三个问题:
能监听的 FD 最大不超过 1024
每次 select 都需要把所有要监听的 FD 都拷贝到内核空间
每次都要遍历所有 FD 来判断就绪状态
poll 模式的问题:其利用链表解决了 select 中监听 FD 上限的问题,但依然要遍历所有 FD,如果监听较多,性能会下降。
epoll 模式中如何解决这些问题的?
基于 epoll 实例中的红黑树保存要监听的 FD,理论上无上限,而且增删改查效率都非常高;每个 FD 只需要执行一次 epoll_ctl 添加到红黑树,以后每次 epol_wait 无需传递任何参数,无需重复拷贝 FD 到内核空间;利用 ep_poll_callback 机制来监听 FD 状态,无需遍历所有 FD,因此性能不会随监听的 FD 数量增多而下降。
2.7 基于 epoll 的服务器端流程
一图千言:

服务器启动以后,服务端会去调用 epoll_create,创建一个 epoll 实例,epoll 实例中包含两个数据:
红黑树(为空):rb_root 用来去记录需要被监听的 FD
链表(为空):list_head,用来存放已经就绪的 FD
创建好了之后,会去调用 epoll_ctl 函数,此函数会会将需要监听的 fd 添加到 rb_root 中去,并且对当前这些存在于红黑树的节点设置回调函数。当这些被监听的 fd 一旦准备就绪,与之相关联的回调函数就会被调用,而调用的结果就是将红黑树的 fd 添加到 list_head 中去 (但是此时并没有完成)。fd 添加完成后,就会调用 epoll_wait 函数,这个函数会去校验是否有 fd 准备就绪(因为 fd 一旦准备就绪,就会被回调函数添加到 list_head 中),在等待了一段时间(可以进行配置)。如果等够了超时时间,则返回没有数据,如果有则进一步判断当前是什么事件,如果是建立连接事件,则调用 accept () 接受客户端 socket ,拿到建立连接的 socket ,然后建立起来连接,如果是其他事件,则把数据进行写出。
2.8 五种网络模型对比
最后用一幅图来说明他们之间的区别:

3. redis 通信协议
3.1 RESP 协议
Redis 是一个 CS 架构的软件,通信一般分两步(不包括 pipeline 和 PubSub):
客户端(client)向服务端(server)发送一条命令,服务端解析并执行命令;返回响应结果给客户端,因此客户端发送命令的格式、服务端响应结果的格式必须有一个规范,这个规范就是通信协议。而在 Redis 中采用的是 RESP(Redis Serialization Protocol)协议:
Redis 1.2 版本引入了 RESP 协议;
Redis 2.0 版本中成为与 Redis 服务端通信的标准,称为 RESP2;
Redis 6.0 版本中,从 RESP2 升级到了 RESP3 协议,增加了更多数据类型并且支持 6.0 的新特性–客户端缓存。
目前默认使用的依然是 RESP2 协议。在 RESP 中通过首字节的字符来区分不同数据类型,常用的数据类型包括 5 种:

单行字符串:首字节是 ‘+’ ,后面跟上单行字符串,以 CRLF( “\r\n” )结尾。例如返回“OK”: “+OK\r\n”
错误(Errors):首字节是 ‘-’ ,与单行字符串格式一样,只是字符串是异常信息,例如:“-Error message\r\n”
数值:首字节是 ‘:’ ,后面跟上数字格式的字符串,以 CRLF 结尾。例如:“:10\r\n”
多行字符串:首字节是 ‘$’ ,表示二进制安全的字符串,最大支持 512MB:如果大小为 0,则代表空字符串:“$0\r\n\r\n”如果大小为 - 1,则代表不存在:“$-1\r\n”
数组:首字节是 ‘*’,后面跟上数组元素个数,再跟上元素,元素数据类型不限。
本节转自互联网,原始出处已不可考,感谢原作者。
1.1 为什么要区分用户和内核
任何 Linux 发行版,其系统内核都是 Linux,所有的应用都需要通过 Linux 内核(操作系统)与硬件交互。如redis,pgsql等其实是没有办法去执行访问我们操作系统的硬件的,所以要通过操作系统内核去访问计算机硬件。计算机硬件包括,如cpu、内存、网卡等等,内核(通过寻址空间)可以操作硬件的,但是内核需要不同设备的驱动,有了这些驱动之后,内核就可以去对计算机硬件去进行内存管理,文件系统管理,进程管理等等。

用户的应用来访问时,计算机就必须要通过对外暴露的一些接口才能被访问到;内核本身上来说也是一个应用,所以其本身也需要一些内存,cpu 等设备资源,用户应用本身也在消耗这些资源,如果不加任何限制,用户去操作随意的去操作相关的资源,就有可能导致一些冲突,甚至有可能导致系统出现无法运行的问题,因此需要把用户和内核隔离开。
1.2 进程寻址空间
进程的寻址空间划分成两部分:内核空间、用户空间。
什么是寻址空间呢?应用程序或内核都是没有办法直接去物理内存的,而是通过分配一些虚拟内存映射到物理内存中,内核和应用程序去访问虚拟内存的时候,就需要一个虚拟地址,这个地址是一个无符号的整数。比如一个 32 位的操作系统,其带宽就是 32 位,虚拟地址就是 2 的 32 次方,也就是说寻址的范围就是 0~2 的 32 次方, 这片寻址空间对应的就是 2 的 32 个字节,就是 4GB;这个 4GB,会有 3 个 GB 分给用户空间,会有 1GB 给内核系统。
在 linux 中的权限分成两个等级,0 和 3,用户空间只能执行受限的命令(Ring3);而且不能直接调用系统资源,必须通过内核提供的接口来访问内核空间可以执行特权命令(Ring0),调用一切系统资源。所以一般情况下,用户的操作是运行在用户空间,而内核运行的数据是在内核空间的,在有的情况下一个应用程序需要去调用一些特权资源,去调用一些内核空间的操作,此时需要在用户态和内核态之间进行切换。如Linux 系统为了提高 IO 效率,会在用户空间和内核空间都加入缓冲区:
1).写数据时,要把用户缓冲数据拷贝到内核缓冲区,然后写入设备;
2).读数据时,要从设备读取数据到内核缓冲区,然后拷贝到用户缓冲区。
针对这个操作:用户在写读数据时,会去向内核态申请,想要读取内核的数据,而内核数据要去等待驱动程序从硬件上读取数据,当从磁盘上加载到数据之后,内核会将数据写入到内核的缓冲区中,然后再将数据拷贝到用户态的 buffer 中,然后再返回给应用程序。整体而言,速度较慢,为了加速,read或wait for data也最好都不要等待,或者时间尽量的短。

2. 网络模型
2.1 阻塞IO
过程1:应用程序想要去读取数据,是无法直接去读取磁盘数据的,需要先到内核里边去等待内核操作硬件拿到数据,这个过程是需要等待的,等到内核从磁盘上把数据加载出来之后,再把这个数据写给用户的缓存区。
过程 2:如果是阻塞 IO,那么整个过程中,用户从发起读请求开始,一直到读取到数据,都是一个阻塞状态。
用户去读取数据时,会去先发起 recvform 一个命令,去尝试从内核上加载数据,如果内核没有数据,那么进程就会等待,此时内核会去从硬件上读取数据,内核读取数据之后,会把数据拷贝到用户态,并且返回 ok,整个过程,都是阻塞等待的,这就是阻塞 IO。
总结如下:顾名思义,阻塞 IO 就是两个阶段都必须阻塞等待:
阶段一:
用户进程尝试读取数据(比如网卡数据)
此时数据尚未到达,内核需要等待数据
此时用户进程也处于阻塞状态
阶段二:
数据到达并拷贝到内核缓冲区,代表已就绪
将内核数据拷贝到用户缓冲区
拷贝过程中,用户进程依然阻塞等待
拷贝完成,用户进程解除阻塞,处理数据
可以看到,阻塞 IO 模型中,用户进程在两个阶段都是阻塞状态。

2.2 非阻塞 IO
顾名思义,非阻塞 IO 的 recvfrom 操作会立即返回结果而不是阻塞用户进程
阶段一:
用户进程尝试读取数据(比如网卡数据)
此时数据尚未到达,内核需要等待数据
返回异常给用户进程
用户进程拿到 error 后,再次尝试读取
循环往复,直到数据就绪
阶段二:
将内核数据拷贝到用户缓冲区
拷贝过程中,用户进程依然阻塞等待
拷贝完成,用户进程解除阻塞,处理数据
可以看到,非阻塞 IO 模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致 CPU 空转,CPU 使用率暴增。

2.3 信号驱动
信号驱动 IO 是与内核建立 SIGIO 的信号关联并设置回调,当内核有 FD 就绪时,会发出 SIGIO 信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
阶段一:
用户进程调用 sigaction ,注册信号处理函数
内核返回成功,开始监听 FD
用户进程不阻塞等待,可以执行其它业务
当内核数据就绪后,回调用户进程的 SIGIO 处理函数
阶段二:
收到 SIGIO 回调信号
调用 recvfrom ,读取
内核将数据拷贝到用户空间
用户进程处理数据
当有大量 IO 操作时,信号较多,SIGIO 处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。
2.4 异步 IO
这种方式,不仅仅是用户态在试图读取数据后,不阻塞,而且当内核的数据准备完成后,也不会阻塞。会由内核将所有数据处理完成后,由内核将数据写入到用户态中,然后才算完成,所以性能极高,不会有任何阻塞,全部都由内核完成,可见异步 IO 模型中,用户进程在两个阶段都是非阻塞状态。

2.5 IO 多路复用场景引入
为了更好的理解 IO,现在假设这样一种场景:众人在一家餐厅前点餐。
情况A:这家餐厅中现在只有一位服务员,并且采用客户排队点餐的方式,就像这样:
每排到一位客户要吃到饭,都要经过两个步骤:
思考要吃什么;顾客开始点餐,厨师开始炒菜。
由于餐厅只有一位服务员,因此一次只能服务一位客户,并且还需要等待当前客户思考出结果,这浪费了后续排队的人非常多的时间,效率极低。这就是阻塞 IO。当然,为了缓解这种情况,老板完全可以多雇几个人,但这也会增加成本,而在极大客流量的情况下,仍然不会有很高的效率提升。
情况B: 这家餐厅中现在只有一位服务员,并且采用客户排队点餐的方式。
每排到一位客户要吃到饭,都要经过两个步骤:
思考要吃什么
顾客开始点餐,厨师开始炒菜
与 A 情况不同的是,此时服务员会不断询问顾客:“你想吃x1吗?那x2呢?那x3呢?……”
虽然服务员在不停的问,但是在网络中,这并不会增加数据的就绪速度,主要还是等顾客自己确定。所以这并不会提高餐厅的效率,说不定还会招来更多差评。这就是非阻塞 IO。
情况C: 这家餐厅中现在只有一位服务员,但是不再采用客户排队的方式,而是顾客自己获取菜单并点餐,点完后通知服务员,就像这样:
每排到一位客户要吃到饭,还是都要经过两个步骤:
看着菜单,思考要吃什么
通知服务员,我点好了
与 A B 不同的是,这种情况服务员不必再等待顾客思考吃什么,只需要在收到顾客通知后,去接收菜单就好。这样相当于餐厅在只有一个服务员的情况下,同时服务了多个人,而不像 A B,同一时刻只能服务一个人。此时餐厅的效率自然就提高了很多。
映射到我们的网络服务中,就是这样:
客人:客户端请求
点餐内容:客户端发送的实际数据
老板:操作系统
人力成本:系统资源
菜单:文件状态描述符。操作系统对于一个进程能够同时持有的文件状态描述符的个数是有限制的,在 linux 系统中 ulimit -n 查看这个限制值,当然也是可以 (并且应该) 进行内核参数调整的。
服务员:操作系统内核用于 IO 操作的线程 (内核线程)
厨师:应用程序线程 (当然厨房就是应用程序进程咯)
餐单传递方式:包括了阻塞式和非阻塞式两种。
方法 A: 阻塞 IO,方法 B: 非阻塞 IO,方法 C: 多路复用 IO。
2.6 多路复用 IO 的实现
目前流程的多路复用 IO 实现主要包括四种: select、poll、epoll、kqueue。下表是他们的一些重要特性的比较:
IO 模型 相对性能 关键思路 操作系统 JAVA 支持情况
select 较高 Reactor windows/Linux
支持,Reactor 模式 (反应器设计模式)。Linux 操作系统的 kernels 2.4 内核版本之前,默认使用 select;而目前 windows 下对同步 IO 的支持,都是 select 模型
poll 较高 Reactor Linux
Linux 下的 JAVA NIO 框架,Linux kernels 2.6 内核版本之前使用 poll 进行支持。也是使用的 Reactor 模式
epoll Reactor/Proactor Linux
Linux kernels 2.6 内核版本及以后使用 epoll 进行支持;Linux kernels 2.6 内核版本之前使用 poll 进行支持;另外一定注意,由于 Linux 下没有 Windows 下的 IOCP 技术提供真正的 异步 IO 支持,所以 Linux 下使用 epoll 模拟异步 IO
kqueue Proactor Linux
目前 JAVA 的版本不支持
多路复用 IO 技术最适用的是 “高并发” 场景,所谓高并发是指 1 毫秒内至少同时有上千个连接请求准备好。其他情况下多路复用 IO 技术发挥不出来它的优势。另一方面,使用 JAVA NIO 进行功能实现,相对于传统的 socket 套接字实现要复杂一些,所以实际应用中,需要根据自己的业务需求进行技术选择。
2.6.1 select
select 是 Linux 最早是由的 I/O 多路复用技术:在linux 中一切皆文件,socket 也不例外,把需要处理的数据封装成 FD,然后在用户态时创建一个 fd_set 的集合(这个集合的大小是要监听的那个 FD 的最大值 + 1,但是大小整体是有限制的 ),这个集合的长度大小是有限制的,同时在这个集合中,标明出来要控制哪些数据。
其内部流程
用户态下:
创建 fd_set 集合,包括要监听的 读事件、写事件、异常事件 的集合
确定要监听的 fd_set 集合
将要监听的集合作为参数传入 select () 函数中,select 中会将 集合复制到内核 buffer 中
内核态:
内核线程在得到 集合后,遍历该集合
没数据就绪,就休眠
当数据来时,线程被唤醒,然后再次遍历集合,标记就绪的 fd 然后将整个集合,复制回用户 buffer 中
用户线程遍历 集合,找到就绪的 fd ,再发起读请求。

不足之处:
集合大小固定为 1024 ,也就是说最多维持 1024 个 socket,在海量数据下,不够用
集合需要在 用户 buffer 和内核 buffer 中反复复制,涉及到 用户态和内核态的切换,非常影响性能
2.6.2 poll
poll 模式对 select 模式做了简单改进,但性能提升不明显。
IO 流程:
创建 pollfd 数组,向其中添加关注的 fd 信息,数组大小自定义
调用 poll 函数,将 pollfd 数组拷贝到内核空间,转链表存储,无上限
内核遍历 fd ,判断是否就绪
数据就绪或超时后,拷贝 pollfd 数组到用户空间,返回就绪 fd 数量 n
用户进程判断 n 是否大于 0, 大于 0 则遍历 pollfd 数组,找到就绪的 fd
与 select 对比:
select 模式中的 fd_set 大小固定为 1024,而 pollfd 在内核中采用链表,理论上无上限,但实际上不能这么做,因为的监听 FD 越多,每次遍历消耗时间也越久,性能反而会下降。

2.6.3 epoll
epoll 模式是对 select 和 poll 的改进,它提供了三个函数:eventpoll 、epoll_ctl 、epoll_wait。
eventpoll 函数内部包含了两个东西 :红黑树 :用来记录所有的 fd链表 : 记录已就绪的 fd
epoll_ctl 函数 ,将要监听的 fd 添加到 红黑树 上去,并且给每个 fd 绑定一个监听函数,当 fd 就绪时就会被触发,这个监听函数的操作就是 将这个 fd 添加到 链表中去。
epoll_wait 函数,就绪等待。一开始,用户态 buffer 中创建一个空的 events 数组,当就绪之后,我们的回调函数会把 fd 添加到链表中去,当函数被调用的时候,会去检查链表(当然这个过程需要参考配置的等待时间,可以等一定时间,也可以一直等),如果链表中没有有 fd 则 fd 会从红黑树被添加到链表中,此时再将链表中的的 fd 复制到 用户态的空 events 中,并且返回对应的操作数量,用户态此时收到响应后,会从 events 中拿到已经准备好的数据,在调用 读方法 去拿数据。
2.6.4 小结
select 模式存在的三个问题:
能监听的 FD 最大不超过 1024
每次 select 都需要把所有要监听的 FD 都拷贝到内核空间
每次都要遍历所有 FD 来判断就绪状态
poll 模式的问题:其利用链表解决了 select 中监听 FD 上限的问题,但依然要遍历所有 FD,如果监听较多,性能会下降。
epoll 模式中如何解决这些问题的?
基于 epoll 实例中的红黑树保存要监听的 FD,理论上无上限,而且增删改查效率都非常高;每个 FD 只需要执行一次 epoll_ctl 添加到红黑树,以后每次 epol_wait 无需传递任何参数,无需重复拷贝 FD 到内核空间;利用 ep_poll_callback 机制来监听 FD 状态,无需遍历所有 FD,因此性能不会随监听的 FD 数量增多而下降。
2.7 基于 epoll 的服务器端流程
一图千言:

服务器启动以后,服务端会去调用 epoll_create,创建一个 epoll 实例,epoll 实例中包含两个数据:
红黑树(为空):rb_root 用来去记录需要被监听的 FD
链表(为空):list_head,用来存放已经就绪的 FD
创建好了之后,会去调用 epoll_ctl 函数,此函数会会将需要监听的 fd 添加到 rb_root 中去,并且对当前这些存在于红黑树的节点设置回调函数。当这些被监听的 fd 一旦准备就绪,与之相关联的回调函数就会被调用,而调用的结果就是将红黑树的 fd 添加到 list_head 中去 (但是此时并没有完成)。fd 添加完成后,就会调用 epoll_wait 函数,这个函数会去校验是否有 fd 准备就绪(因为 fd 一旦准备就绪,就会被回调函数添加到 list_head 中),在等待了一段时间(可以进行配置)。如果等够了超时时间,则返回没有数据,如果有则进一步判断当前是什么事件,如果是建立连接事件,则调用 accept () 接受客户端 socket ,拿到建立连接的 socket ,然后建立起来连接,如果是其他事件,则把数据进行写出。
2.8 五种网络模型对比
最后用一幅图来说明他们之间的区别:

3. redis 通信协议
3.1 RESP 协议
Redis 是一个 CS 架构的软件,通信一般分两步(不包括 pipeline 和 PubSub):
客户端(client)向服务端(server)发送一条命令,服务端解析并执行命令;返回响应结果给客户端,因此客户端发送命令的格式、服务端响应结果的格式必须有一个规范,这个规范就是通信协议。而在 Redis 中采用的是 RESP(Redis Serialization Protocol)协议:
Redis 1.2 版本引入了 RESP 协议;
Redis 2.0 版本中成为与 Redis 服务端通信的标准,称为 RESP2;
Redis 6.0 版本中,从 RESP2 升级到了 RESP3 协议,增加了更多数据类型并且支持 6.0 的新特性–客户端缓存。
目前默认使用的依然是 RESP2 协议。在 RESP 中通过首字节的字符来区分不同数据类型,常用的数据类型包括 5 种:

单行字符串:首字节是 ‘+’ ,后面跟上单行字符串,以 CRLF( “\r\n” )结尾。例如返回“OK”: “+OK\r\n”
错误(Errors):首字节是 ‘-’ ,与单行字符串格式一样,只是字符串是异常信息,例如:“-Error message\r\n”
数值:首字节是 ‘:’ ,后面跟上数字格式的字符串,以 CRLF 结尾。例如:“:10\r\n”
多行字符串:首字节是 ‘$’ ,表示二进制安全的字符串,最大支持 512MB:如果大小为 0,则代表空字符串:“$0\r\n\r\n”如果大小为 - 1,则代表不存在:“$-1\r\n”
数组:首字节是 ‘*’,后面跟上数组元素个数,再跟上元素,元素数据类型不限。
本节转自互联网,原始出处已不可考,感谢原作者。