一、困惑很多人的并发问题
在网络开发中,我发现有很多同学对一个基础问题始终是没有彻底搞明白。那就是一台服务器最大究竟能支持多少个网络连接?我想我有必要单独发一篇文章来好好说一下这个问题。
很多同学看到这个问题的第一反应是 65535。原因是:“ 听说端口号最多有 65535 个,那长连接就最多保持 65535 个了”。是这样的吗?还有的人说:“应该受 TCP 连接里四元组的空间大小限制,算起来是 200 多万亿个!”
如果你对这个问题也是理解的不够彻底,那么今天讲个故事讲给你听!
二、一次关于服务器端并发的聊天
"TCP 连接四元组是源 IP 地址、源端口、目的 IP 地址和目的端口。任意一个元素发生了改变,那么就代表的是一条完全不同的连接了。拿我的 Nginx 举例,它的端口是固定使用 80。另外我的 IP 也是固定的,这样目的 IP 地址、目的端口都是固定的。剩下源 IP 地址、源端口是可变的。所以理论上我的 Nginx 上最多可以建立 2 的 32 次方(ip数)×2 的 16 次方(port数)个连接。这是两百多万亿的一个大数字!!"
"进程每打开一个文件( linux 下一切皆文件,包括 socket),都会消耗一定的内存资源。如果有不怀好心的人启动一个进程来无限的创建和打开新的文件,会让服务器崩溃。所以 linux 系统出于安全角度的考虑,在多个位置都限制了可打开的文件描述符的数量,包括系统级、用户级、进程级。这三个限制的含义和修改方式如下:"
- 系统级:当前系统可打开的最大数量,通过 fs.file-max 参数可修改
- 用户级:指定用户可打开的最大数量,修改 /etc/security/limits.conf
- 进程级:单个进程可打开的最大数量,通过 fs.nr_open 参数可修改
"我的接收缓存区大小是可以配置的,通过sysctl命令就可以查看。"
$ sysctl -a | grep rmem
net.ipv4.tcp_rmem = 4096 87380 8388608
net.core.rmem_default = 212992
net.core.rmem_max = 8388608
"其中在tcp_rmem"中的第一个值是为你们的TCP连接所需分配的最少字节数。该值默认是4K,最大的话8MB之多。也就是说你们有数据发送的时候我需要至少为对应的socket再分配4K内存,甚至可能更大。"
"TCP分配发送缓存区的大小受参数 net.ipv4.tcp_wmem 配置影响。"
$ sysctl -a | grep wmem
net.ipv4.tcp_wmem = 4096 65536 8388608
net.core.wmem_default = 212992
net.core.wmem_max = 8388608
"在net.ipv4.tcp_wmem"中的第一个值是发送缓存区的最小值,默认也是4K。当然了如果数据很大的话,该缓存区实际分配的也会比默认值大。"
三、服务端百万连接达成记
“准备啥呢,还记得前面说过Linux对最大文件对象数量有限制,所以要想完成这个实验,得在用户级、系统级、进程级等位置把这个上限加大。我们实验目的是100W,这里都设置成110W,这个很重要!因为得保证做实验的时候其它基础命令例如ps,vi等是可用的。“
活动连接数量确实达到了100W:
$ ss -n | grep ESTAB | wc -l
1000024
当前机器内存总共是3.9GB,其中内核 Slab 占用了 3.2GB 之多。MemFree 和 Buffers 加起来也只剩下 100 多MB了:
$ cat /proc/meminfo
MemTotal: 3922956 kB
MemFree: 96652 kB
MemAvailable: 6448 kB
Buffers: 44396 kB
......
Slab: 3241244KB kB
通过 slabtop 命令可以查看到 densty、flip、sock_inode_cache、TCP 四个内核对象都分别有 100W 个:
图文全部选自:https://mp.weixin.qq.com/s/1xLjUUNKWOPQVDukrhqNaA 此微信公众号
评论区