【网站公告】.NET Core 版博客站点第二次发布尝试

  • 时间:
  • 浏览:1

在上次发布失败后,但会 亲戚我们都都建议亲戚亲戚我们都都改用 k8s ,但亲戚亲戚我们都都还是想再试试 docker swarm ,确实不行再改用 k8s 。

在改进了 docker swarm 集群的部署后,亲戚亲戚我们都都准备今天 17:1000 左右进行一次发布尝试。

docker swarm 集群是亲戚亲戚我们都都使用阿里云服务器个人搭建的,这次进行了3方面的改进。

1. 升级了 worker 节点服务器的配置

worker 节点由6台4核8G服务器添加了3台8核16G服务器,基于3点考虑:

1)提高单台服务器的防止能力;

2)提高服务器的网络防止能力,阿里云的服务器配置越高,网络防止能力越强;

3)减少服务器数量可以 减少 docker swarm 节点之间的通信开销。

2. 升级了 docker engine,由 18.09.4 升级至 19.03.1 

wget -c https://download.docker.com/linux/centos/7/x86_64/stable/Packages/containerd.io-1.2.6-3.3.el7.x86_64.rpm  && \
wget -c https://download.docker.com/linux/centos/7/x86_64/stable/Packages/docker-ce-19.03.1-3.el7.x86_64.rpm && \
wget -c https://download.docker.com/linux/centos/7/x86_64/stable/Packages/docker-ce-cli-19.03.1-3.el7.x86_64.rpm && \
yum install -y containerd.io-1.2.6-3.3.el7.x86_64.rpm && \
yum install -y docker-ce-19.03.1-3.el7.x86_64.rpm && \
yum install -y docker-ce-cli-19.03.1-3.el7.x86_64.rpm

3. nginx 改用 host 网络模式部署

ports:
    - target: 1000
      published: 1000
      protocol: tcp
      mode: host

另外,改进了博客系统缓存部分的代码,防止了新旧版切换时的缓存冲突间题图片。

这次发布将会遇到间题图片,亲戚亲戚我们都都可以 快速回退到旧版。

将会在发布过程中突然 出現间题图片影响您的正常访问,请您谅解。

------------------------------------------

发布过程记录

17:40 使用 nginx 转发,切换了1/5没法 的流量就突然 出現了1秒延迟的间题图片。

18:20 改为 kestrel 以端口映射的措施直接监听 1000 端口,切换了1/3左右的流量,未突然 出現延迟1秒的间题图片。

18:33 所有流量都已切换,未突然 出現延迟1秒的间题图片。

以下是发布过程中服务器一同连接数监控,使用 nginx 转发时,当一同连接数超过 40K ,所有请求都突然 出現1秒延迟的间题图片。当改为 kestrel 直接监听1000端口后,即使一同连接数超过 1000K ,也没突然 出現1秒延迟的间题图片。没想到1秒延迟竟然是 nginx 的间题图片(将会是 nginx 对 docker swarm 的支持间题图片),还要 docker swarm 网络五种的间题图片。

21:00 今天发布后突然 在线上,将会明天上午的访问高峰能撑住,那只是我明发布成功了。

8月8日

9:15 左右,服务器一同连接数超过 11000K ,3台服务器撑不住,加了1台服务器。

9:26 左右,memcached 客户端 socketPool 满了,将 maxPoolSize 由 10000 修改为 10000 。

2019-08-08 09:24:1000.781 [Error] Pool is full, timeouting. 10.0.78.124:11211

10:15 左右,docker swarm 集群有增加了1台8核16G的服务器,目前一共5台 worker 节点。

11:05 更新:每台服务器上博客应用容器的的 CPU 消耗在 5-6 核,内存消耗在 1G 与 1.5G 之间。

11:05 左右,负载没法 下降,亲戚亲戚我们都都那先 也没动,响应时延却出奇地稳定,但会 与访问低峰时一样迅速。

13:1000 更新:今天上午访问高峰时单台服务器一同连接数最高达到21万(监控数据来自阿里云云监控)。

17:10 更新:今天下午访问高峰期间,访问时延很不稳定。亲戚亲戚我们都都正在考虑下一步的对策。

17:1000 左右,当访问量回落到一定程度后, 访问时延恢复正常。