2024-11-19 myluzh Kubernetes
0x01 概述 Local Path Provisioner 是 Kubernetes 社区支持的解决方案,允许使用节点上的本地磁盘。使用 Local Path Storage(本地路径存储)通过将本地目录(如节点的磁盘目录)用作存储池,可以创建一个基础存储类。Local Path Storage(本地路径存储)是一种轻量级存储方案,通过将节点的本地磁盘目录(如 /mnt/data 等)作为存储池来实现持久化存储。这类存储通常被用作 Kubernetes 集群的基础存储类,特别适合测试环境或轻量级生产场景。它为 Pod 提供了一种简单的持久化存储方式,但由于数据存储在节点本地,并未实现分布式存储,因此不适合高可用或大规模生产环境。 0x02 安装 Local Path Provisioner 1、安装 Local Path Provisioner root@k8s-master:~# kubectl apply -f https://raw.githubusercontent.com/rancher/local-path-provisioner/master/deploy/local-path-st...2024-11-19 myluzh Kubernetes
0x01 alertmanager.yml配置 参数介绍: wechat_api_url:api地址,默认就是https://qyapi.weixin.qq.com/cgi-bin/ wechat_api_secret:创建应用后,在应用管理里面,获取到的应用的Secret wechat_api_corp_id:企业ID,在【我的企业】【企业信息】【企业ID】。 agent_id:创建应用后,在应用管理里面,获取到的应用的AgentId to_party:用于定义要接收告警通知的部门 ID global: resolve_timeout: 5m # wechat wechat_api_url: 'https://qyapi.weixin.qq.com/cgi-bin/' wechat_api_secret: '3uxxxxxxxxxxxxxxxxxxxxxxxxWv4' wechat_api_corp_id: 'wwxxxxxxxxb1' inhibit_rules: - source_match: severity: critical target_match_re: ...2024-11-18 myluzh Kubernetes
0x01 修改alertmanager.yaml配置文件 我的alertmanager是kube-prometheus部署,alertmanager.yaml是通过secrets挂载到alertmanager的。 # 创建一个带有邮件告警信息的配置 root@iZbp1bddlmdujngbc11omnZ:~/prom# vi alertmanager.yaml global: resolve_timeout: 5m smtp_smarthost: 'smtp.exmail.qq.com:465' smtp_hello: 'itho.cn' smtp_from: 'support@itho.cn' smtp_auth_username: 'support@itho.cn' smtp_auth_password: 'xxxxxxxxx' smtp_require_tls: true inhibit_rules: - equal: - namespace - alertname sourc...2024-11-7 myluzh Kubernetes
0x00 关于ECK 对于 Elasticsearch 应用,官方也推出了基于 Kubernetes Operator 的应用:Elastic Cloud on Kubernetes (ECK),用户可使用该产品在 Kubernetes 上配置、管理和运行 Elasticsearch 集群。 0x01 在K8S中部署ECK 由于我这边k8s版本是1.20,所以兼容ECK的版本是2.4.0 root@k8s-master:~# kubectl create -f https://download.elastic.co/downloads/eck/2.4.0/crds.yaml customresourcedefinition.apiextensions.k8s.io/agents.agent.k8s.elastic.co created customresourcedefinition.apiextensions.k8s.io/apmservers.apm.k8s.elastic.co created customresourcedefinition.apiextensions.k8s.io/beats.beat.k8s.e...标签: k8s 集群 部署 k8s部署 apply elasticsearch elasticsearch7 es ECK Elasticsearch Operator es cluster
2024-10-29 myluzh Kubernetes
0x01 前言 在使用blackbox-exporter进行黑盒监控地址的时候,请求的URL被WAF拦截下来了,原因是blackbox-exporter请求时候UA太像扫描器了,"User-Agent: Go-http-client/1.1",导致被waf拦截了请直接返回403,实际状态码应该是200。 可以修改blackbox-exporter的请求UA,然后在waf上放行UA白名单。 0x02 修改blackbox-exporter请求的UA 1. 找到配置文件 blackbox-exporter 的配置文件通常名为 config.yml,可以在安装目录下找到。该文件定义了不同的探测模块及其相关参数。 2. 编辑配置文件 使用文本编辑器打开 config.yml 文件。您需要找到或添加 modules 部分,然后在其中定义 http_2xx 模块的配置。 3. 修改 http_2xx 模块的配置 在 http_2xx 模块中,您可以添加或修改 http 请求的 headers 字段,以设置自定义的 User-Agent。以下是修改后的示例配置: "modules": "http_2xx": "http"...2024-10-28 myluzh Kubernetes
0x00 前言 白盒监控:主要通过应用程序内部的指标(如 Prometheus 的 /metrics 接口)监测系统性能,提供深入的技术洞察。 黑盒监控:主要通过 HTTP 请求、TCP 测试等外部监控手段获取数据,关注系统外部行为和功能,往往不需要访问应用程序的内部结构。 --- 通过kube-prometheus方式部署,默认就有blackbox-exporter,如果没有的话手动部署下。 0x01 手动部署 blackbox_exporter github地址:https://github.com/prometheus/blackbox_exporter 下面的 blackbox.yml 也可以直接下载下来导入 # curl -o blackbox.yml https://raw.githubusercontent.com/prometheus/blackbox_exporter/master/blackbox.yml # kubectl get configmap blackbox-exporter-config --namespace=monitoring apiVersion: apps/v1 kind: De...