Myluzh Blog

在Nginx和Ingress-Nginx中配置WebSocket(WS/WSS)

2025-2-26 myluzh Kubernetes

0x01 Nginx server { listen 443 ssl; server_name example.com; ssl_certificate /path/to/your/certificate.crt; ssl_certificate_key /path/to/your/private.key; location /ws/ { proxy_pass http://backend_server; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "Upgrade"; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; ...

阅读全文>>

标签: k8s nginx ingress-nginx ws wss

评论(0) (27)

基于 Rocky Linux 9.5 安装 Zabbix 7.2 脚本

2025-2-12 myluzh Zabbix

脚本来自何老师虚拟化技术交流群-无锡-老杨,已在rocky9.0跟9.5版本进行测试 建议逐行贴命令,这样报不报错,遇到什么问题你也知道。 等有空再把这个脚本改成一键安装脚本...其实我现在部署zabbix都偏向于直接docker拉起一套来。 zabbix 7.2 官方教程:https://www.zabbix.com/download?zabbix=7.2&os_distribution=rocky_linux&os_version=9&components=server_frontend_agent&db=mysql&ws=nginx #基于RockyLinux最小安装环境,需要联网状态!!! #修改脚本里的数据库密码root密码Mydb@888,zabbix数据库密码Zbxlp@888 #建议逐行复制并执行命令,不要一次帖太多行,避免报错 #====RockyLinux 9.5最小安装下Zabbix 7.2+MySQL+Nginx一键安装脚本===== # 修改主机名 hostnamectl set-hostname Zbx-Srv && b...

阅读全文>>

标签: zabbix zabbix7.2 zabbix_lts rocky9 rocky9.5

评论(0) (224)

通过elasticdump迁移ElasticSearch数据

2025-2-10 myluzh NOTE

0x01 前言 有一台日志es,需要把旧的es数据迁移到新的es上。 在迁移Elasticsearch (ES) 数据时,使用 elasticdump 是一个常见的方法。elasticdump 是一个开源工具,用于将 Elasticsearch 集群中的数据导出和导入。 0x02 部署elasticdump 1、由于我这边是k8s集群,直接跑一个pod起来即可。镜像是node:14,自带npm。方便安装elasticdump。 apiVersion: apps/v1 kind: Deployment metadata: name: es-migration namespace: default spec: replicas: 1 selector: matchLabels: app: es-migration template: metadata: labels: app: es-migration spec: containers: - name: es-migration image: 1...

阅读全文>>

标签: elastic es elasticdump

评论(0) (190)

通过LLaMA-Factory微调ChatGLM3模型笔记

2025-2-7 myluzh NOTE

0x01 下载ChatGLM3大模型 # 创建存放模型的文件夹 mkdir -p /mnt/workspace/models && cd /mnt/workspace/models # 下载大模型 https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files git lfs install git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git 0x02 运行调试模型 下载ChatGLM3 web demo项目,用来运行调试调试模型 1、安装 mkdir -p /mnt/workspace/webcodes && cd /mnt/workspace/webcodes git clone https://github.com/THUDM/ChatGLM3.git # 如果报错就重新执行一次 cd /mnt/workspace/webcodes/ChatGLM3 && pip install -r requirements.txt 2、运行调试模型 测试模型...

阅读全文>>

标签: llm LLaMA-Factory ChatGLM3 大模型 微调

评论(0) (198)

Ollama搭建本地DeepSeek大模型

2025-2-6 myluzh NOTE

0x01 安装ollama 1、安装ollama (1)直接安装:https://ollama.com/download (2)通过 docker:https://hub.docker.com/r/ollama/ollama/tags docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama 2、设置ollama监听 docker跑起来的的ollama 只需要-p把11434 api端口暴露出来即可, 安装完成ollama后,默认只监听来自127.0.0.1,为了方便局域网内调用api,配置 Ollama 服务监听所有网络接口 # windows powershell 配置方法如下 PS C:\Users\myluzh> $env:OLLAMA_HOST = "0.0.0.0:11434" #如果你希望永久设置环境变量,可以通过 PowerShell 设置系统环境变量,使其在所有会话中生效: [System.Environment]::SetEnvironmentVariable("OLLAMA...

阅读全文>>

标签: ollama deepseek llm ai

评论(0) (229)