2024-1-30 myluzh
NOTE
0x01 关于微服务血崩问题
什么是微服务血崩:
微服务调用链路中的某个服务器故障,引起整个链路中所有微服务不可用,这就是血崩。
解决微服务血崩问题常见方式有四种:
1、超时处理:设定超时时间,请求超过一定时间没有响应就返回错误信息,不会无休止等待。
2、舱壁模式:限定每个业务能使用的线程数,避免耗尽整个tomcat的资源,因此也线程隔离。
3、熔断降级:由断路器统计业务执行的异常比例,如果超出阈值则会熔断该业务,拦截该业务的一切请求。
4、流量控制:限制业务访问的QPS,避免服务因流量的突增而故障。
0x02 安装Sentinel
# web端口8090 账号 sentinel 密码xMbiP1d5e5R4R52C
java -Dserver.port=8090 \
-Dproject.name=sentinel-dashboard \
-Dcsp.sentinel.dashboard.server=localhost:8090 \
-Dsentinel.dashboard.auth.password=xMbiP1d5e5R4R52C \
-jar /data/sentinel-das...
阅读全文>>
评论(0)
(404)
2024-1-28 myluzh
VMware
0x01 注意事项
回收磁盘磁盘类型必须为精简置备(thin)
回收前最好先备份
0x02 空间回收
1、打开ESXi,服务里面开启SSH
2、连接SSH,进入虚拟机所在磁盘
# 进去虚拟机所在磁盘,切换到需要回收的虚拟机目录
[root@ESXi:~] cd /vmfs/volumes/NAS-iSCSI/
[root@ESXi:/vmfs/volumes/65b3d3e4-bbc82bfd-c13e-e86a64d30a91/]cd CentOS
# 查看当前占用大小
[root@ESXi:/vmfs/volumes/65b3d3e4-bbc82bfd-c13e-e86a64d30a91/CentOS] du -sh *.vmdk
4.0M CentOS-ctk.vmdk
50.0G CentOS-flat.vmdk
0 CentOS.vmdk
# 使用vmkfstools -K 空间回收,等待100% done.
[root@ESXi:/vmfs/volumes/65b3d3e4-bbc82bfd-c13e-e86a64d30a91/CentOS] vmkfstools -K CentOS.vmdk
Hole ...
阅读全文>>
标签: vmware esxi 硬盘 精简置备 空间回收 thin
评论(0)
(513)
2024-1-23 myluzh
Kubernetes
0x00 关于Rook
Rook 是一款云原生存储编排服务工具,Ceph 是一种广泛使用的开源分布式存储方案,通过 Rook 可以大大简化 Ceph 在 Kubernetes 集群中的部署和维护工作。
Rook 由云原生计算基金会( CNCF )孵化,且于2020 年 10 月正式进入毕业阶段。Rook 并不直接提供数据存储方案,而是集成了各种存储解决方案,并提供一种自管理、自扩容、自修复的云原生存储服务。社区官方资料显示, Rook 目前最新的稳定版本中,只有 Rook +Ceph 存储集成方案处于 stable 状态,版本升级较平滑。
Ceph 是一种广泛使用的开源分布式存储方案,通过 Rook 则可以大大简化 Ceph 在 Kubernetes 集群中的部署和维护工作。基于 Rook+Ceph 的存储方案,能为云原生环境提供文件、块及对象存储服务。
建立Ceph集群不仅需要大量的服务器资源,本身的复杂度也需要人力成本。但是在企业内部使用Kubemetes时,无论是在部署业务服务还是中间件服务,都能很明显地体会到Kubernetes的便利性和强大之处,所以我们在企业内部使用Kubernetes时,同时也会把中间件...
阅读全文>>
标签: k8s ceph rook
评论(0)
(684)
2024-1-18 myluzh
NOTE
0x01 RAID 2.0简介
RAID 2.0的基本概念是将磁盘空间分成小块,称为Chunk(CK),然后将不同的Chunk组成Chunk Group(CKG)。Chunk Group可以进一步分割成更小的容量单位,称为Extend。这些Extend可以根据需求组成存储池。RAID 2.0的设计旨在提供更高的数据冗余和更好的性能。
0x02 RAID 2.0原理图
下面画的一个raid2.0的总结,如有错误请指正。raid2.0.eddx
阅读全文>>
标签: 存储 raid raid2.0 虚拟化
评论(0)
(247)
2024-1-16 myluzh
Kubernetes
0x01 前言
今天发现后端获取到的用户客户端ip都是内网地址 172.29.241.163。
访问逻辑为:用户访问->nginx->k8s-ingress->后端pod。
但是后端pod获取客户端的ip一直是172.29.241.163,原来这个ip的ingress的上游nginx的ip。
# nginx节点
root@iZbp12bkuvg20e1j3y9gtvZ:/etc/nginx/conf.d# ifconfig | grep 172
inet 172.29.241.163 netmask 255.255.240.0 broadcast 172.29.255.255
# nginx反向代理到k8s-ingress的配置文件
root@iZbp12bkuvg20e1j3y9gtvZ:/etc/nginx/conf.d# cat prd-all.conf
upstream prd-nginx-server {
server 172.29.241.160:80;
server 172.30.82.215:80;
keepalive 10;
...
阅读全文>>
标签: k8s nginx Ingress ip use-forwarded-headers X-Real-IP X-Forwarded-For
评论(0)
(533)
2024-1-14 myluzh
NETWORK
/30 255.255.255.252 0.0.0.3
/29 255.255.255.248 0.0.0.7
/28 255.255.255.240 0.0.0.15
/27 255.255.255.224 0.0.0.31
/26 255.255.255.192 0.0.0.63
/25 255.255.255.128 0.0.0.127
/24 255.255.255.0 0.0.0.255
/23 255.255.254.0 0.0.1.255
/22 255.255.252.0 0.0.3.255
/21 255.255.248.0 0.0.7.255
/20 255.255.240.0 0.0.15.255
/19 255.255.224.0 0.0.31.255
/18 255.255.192.0 0.0.63.255
/17 255.255.128.0 0.0.127.255
/16 255.255.0.0 0.0.255.255
/1...
阅读全文>>
标签: 子网掩码 反掩码
评论(0)
(247)