Myluzh Blog

记录一次星际蜗牛黑群晖从6.2升级到7.2

2024-9-23 myluzh NOTE

0x00 前言     好久没折腾家里的黑群晖了,黑群晖的配置是星际蜗牛B款、J1900、4G内存,原来装的是DS918+-6.2.3的引导,稳定的跑了快2年了,现在RR引导的7版本比较方便,所以看了几篇教程就开始折腾了。     arpl是GitHub上一位巴西作者,制作的黑群晖7的引导工具,安装十分的方便。在GitHub上有基于arpl做的中文项目(https://github.com/fbelavenuto/arpl),原版项目目前作者不更新了。国内由wjz304(https://github.com/wjz304/arpl-zh_CN)汉化,arpl-i18n改名Redpill Recovery 简称RR,RR镜像下载地址:https://github.com/RROrg/rr/releases 注意:数据无价,升级前请备份好里面的所有数据。 0x01 制作引导镜像 1、下载镜像:https://github.com/RROrg/rr/releases/download/24.9.1/rr-24.9.1.img.zip 2、下载U盘引导镜像烧录工具balenaE...

阅读全文>>

标签: 黑群晖 群辉 nas 6.2 升级 7.2 rr arpl 星际蜗牛 ds918+ DSM7 DSM6

评论(0) (864)

K8S部署Kibana

2024-9-14 myluzh Kubernetes

0x01 部署Kibana 1、编写yaml文件 apiVersion: v1 kind: Service metadata: name: kibana namespace: elastic-worker labels: k8s-app: kibana kubernetes.io/cluster-service: "true" addonmanager.kubernetes.io/mode: Reconcile kubernetes.io/name: "Kibana" srv: srv-kibana spec: type: NodePort ports: - port: 5601 nodePort: 30000 protocol: TCP targetPort: ui selector: k8s-app: kibana --- apiVersion: apps/v1 kind: Deployment metadata: name: kibana namespace: elastic-worker ...

阅读全文>>

标签: k8s kibana k8s部署 apply

评论(0) (121)

K8S部署Elasticsearch 并开启X-Pack安全认证

2024-9-14 myluzh Kubernetes

0x00 制作带有证书的镜像 基于 Elasticsearch 的官方镜像创建一个新的自定义镜像,将证书文件包含在内。 1、生成证书 # 创建一个es-temp容器,生成elastic-certificates.p12 docker run -it --name es-temp elasticsearch:7.17.24 bash -c "bin/elasticsearch-certutil cert -out config/elastic-certificates.p12 -pass '' && ls -l config/elastic-certificates.p12" # 把es-temp里面的elastic-certificates.p12复制到本地来 docker cp es-temp:/usr/share/elasticsearch/config/elastic-certificates.p12 ./elastic-certificates.p12 2、构建镜像 FROM elasticsearch:7.17.24 LABEL maintainer="myluzh <...

阅读全文>>

标签: k8s 部署 k8s部署 apply elasticsearch elasticsearch7 es 单节点

评论(0) (176)

K8S 命名空间资源配额 (ResourceQuota) 和资源限制 (LimitRange)

2024-9-6 myluzh Kubernetes

0x00 概述 在 Kubernetes 中,ResourceQuota 和 LimitRange 是两种用于管理命名空间资源使用的重要机制。它们帮助确保集群资源的有效分配,防止资源过度消耗。下面将介绍如何配置这两种机制,并解释它们的相互作用。 ResourceQuota: 适用于整个命名空间,限制命名空间中所有 Pod 的总资源使用量。 如果命名空间中的资源总使用量超出配额,则无法创建新的资源(例如,Pod、服务等)。 LimitRange: 适用于命名空间中的单个 Pod 和容器,确保它们的资源请求和限制在指定的范围内。 如果容器的资源请求或限制超出 LimitRange 定义的范围,Kubernetes 将拒绝 Pod 的创建。 0x01 使用 ResourceQuota 限制命名空间的总资源 ResourceQuota 用于设置一个命名空间中所有资源的总量上限。这包括 CPU、内存、存储、Pod 数量等。它确保命名空间中的资源使用不会超出指定的配额。 apiVersion: v1 kind: ResourceQuota metadata: name: example-quota ...

阅读全文>>

标签: k8s kubernetes Namespace ResourceQuota LimitRange 资源限制

评论(0) (203)

K8S部署单节点Redis & 高可用Redis集群

2024-9-4 myluzh Kubernetes

0x01 部署单节点redis 注意:如果需要持久化就把容器的/data目录挂载出来。 apiVersion: v1 kind: ConfigMap metadata: name: redis-config namespace: test # 根据实际情况调整 data: redis.conf: | # 监听所有网络接口 bind 0.0.0.0 # 设置Redis密码 requirepass qwer1234 # 关闭保护模式,允许远程连接 protected-mode no # 配置内存使用最大量 maxmemory 2147483648 # 内存满时的淘汰策略为volatile-lru,即仅对设置了过期时间的键使用LRU淘汰策略。 maxmemory-policy volatile-lru # 设置日志文件路径 logfile "/data/redis.log" # RDB快照,每 600 秒(10 分钟)和至少 120 个键被修改时执行持久化操作。 ...

阅读全文>>

标签: k8s redis k8s部署 redis集群 redis-operater operater operater.io

评论(0) (242)

Nginx性能优化笔记

2024-9-3 myluzh NOTE

0x01 Nginx 工作进程数量 Nginx 的 worker_processes 参数设置了工作进程的数量。通常建议将其设置为 CPU 核心数的数量或核心数的两倍。可以使用以下命令查看 CPU 核心数: grep ^processor /proc/cpuinfo | wc -l 配置示例: worker_processes 4; 0x02 CPU 亲和力设置 worker_cpu_affinity 参数用于指定每个工作进程绑定的 CPU 核心。根据 CPU 核心数进行配置: 对于 4 核 CPU: worker_cpu_affinity 0001 0010 0100 1000; 对于 8 核 CPU: worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000; 注: worker_processes 最多设置为 8,超过这个数值可能不会带来性能提升。 0x03 最大打开文件数 worker_rlimit_nofile 用于设置 Nginx 进程可以打开的最大文件数。通常设置为 ulimit -...

阅读全文>>

标签: nginx 性能优化笔记

评论(0) (158)