Myluzh Blog

通过elasticdump迁移ElasticSearch数据

2025-2-10 myluzh NOTE

0x01 前言 有一台日志es,需要把旧的es数据迁移到新的es上。 在迁移Elasticsearch (ES) 数据时,使用 elasticdump 是一个常见的方法。elasticdump 是一个开源工具,用于将 Elasticsearch 集群中的数据导出和导入。 0x02 部署elasticdump 1、由于我这边是k8s集群,直接跑一个pod起来即可。镜像是node:14,自带npm。方便安装elasticdump。 apiVersion: apps/v1 kind: Deployment metadata: name: es-migration namespace: default spec: replicas: 1 selector: matchLabels: app: es-migration template: metadata: labels: app: es-migration spec: containers: - name: es-migration image: 1...

阅读全文>>

标签: elastic es elasticdump

评论(0) (194)

通过LLaMA-Factory微调ChatGLM3模型笔记

2025-2-7 myluzh NOTE

0x01 下载ChatGLM3大模型 # 创建存放模型的文件夹 mkdir -p /mnt/workspace/models && cd /mnt/workspace/models # 下载大模型 https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files git lfs install git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git 0x02 运行调试模型 下载ChatGLM3 web demo项目,用来运行调试调试模型 1、安装 mkdir -p /mnt/workspace/webcodes && cd /mnt/workspace/webcodes git clone https://github.com/THUDM/ChatGLM3.git # 如果报错就重新执行一次 cd /mnt/workspace/webcodes/ChatGLM3 && pip install -r requirements.txt 2、运行调试模型 测试模型...

阅读全文>>

标签: llm LLaMA-Factory ChatGLM3 大模型 微调

评论(0) (201)

Ollama搭建本地DeepSeek大模型

2025-2-6 myluzh NOTE

0x01 安装ollama 1、安装ollama (1)直接安装:https://ollama.com/download (2)通过 docker:https://hub.docker.com/r/ollama/ollama/tags docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama 2、设置ollama监听 docker跑起来的的ollama 只需要-p把11434 api端口暴露出来即可, 安装完成ollama后,默认只监听来自127.0.0.1,为了方便局域网内调用api,配置 Ollama 服务监听所有网络接口 # windows powershell 配置方法如下 PS C:\Users\myluzh> $env:OLLAMA_HOST = "0.0.0.0:11434" #如果你希望永久设置环境变量,可以通过 PowerShell 设置系统环境变量,使其在所有会话中生效: [System.Environment]::SetEnvironmentVariable("OLLAMA...

阅读全文>>

标签: ollama deepseek llm ai

评论(0) (231)

记录一次星际蜗牛黑群晖从6.2升级到7.2

2024-9-23 myluzh NOTE

0x00 前言     好久没折腾家里的黑群晖了,黑群晖的配置是星际蜗牛B款、J1900、4G内存,原来装的是DS918+-6.2.3的引导,稳定的跑了快2年了,现在RR引导的7版本比较方便,所以看了几篇教程就开始折腾了。     arpl是GitHub上一位巴西作者,制作的黑群晖7的引导工具,安装十分的方便。在GitHub上有基于arpl做的中文项目(https://github.com/fbelavenuto/arpl),原版项目目前作者不更新了。国内由wjz304(https://github.com/wjz304/arpl-zh_CN)汉化,arpl-i18n改名Redpill Recovery 简称RR,RR镜像下载地址:https://github.com/RROrg/rr/releases 注意:数据无价,升级前请备份好里面的所有数据。 0x01 制作引导镜像 1、下载镜像:https://github.com/RROrg/rr/releases/download/24.9.1/rr-24.9.1.img.zip 2、下载U盘引导镜像烧录工具balenaE...

阅读全文>>

标签: 黑群晖 群辉 nas 6.2 升级 7.2 rr arpl 星际蜗牛 ds918+ DSM7 DSM6

评论(0) (1758)

Nginx性能优化笔记

2024-9-3 myluzh NOTE

0x01 Nginx 工作进程数量 Nginx 的 worker_processes 参数设置了工作进程的数量。通常建议将其设置为 CPU 核心数的数量或核心数的两倍。可以使用以下命令查看 CPU 核心数: grep ^processor /proc/cpuinfo | wc -l 配置示例: worker_processes 4; 0x02 CPU 亲和力设置 worker_cpu_affinity 参数用于指定每个工作进程绑定的 CPU 核心。根据 CPU 核心数进行配置: 对于 4 核 CPU: worker_cpu_affinity 0001 0010 0100 1000; 对于 8 核 CPU: worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000; 注: worker_processes 最多设置为 8,超过这个数值可能不会带来性能提升。 0x03 最大打开文件数 worker_rlimit_nofile 用于设置 Nginx 进程可以打开的最大文件数。通常设置为 ulimit -...

阅读全文>>

标签: nginx 性能优化笔记

评论(0) (198)

安装HomeAssistant与HACS,实现把米家设备接入HomeKit

2024-7-15 myluzh NOTE

0x01 安装HomeAssistant 1、docker运行homeassistant容器 network=host直接使用宿主机的网络栈,不需要-p映射端口。 # 创建homeassistant配置文件夹 用于挂载 mkdir -p /data/homeassistant/config # 运行容器 docker run -d \ --name homeassistant \ --privileged \ --restart=unless-stopped \ -e TZ=Asia/Shanghai \ -v /data/homeassistant/config:/config \ --network=host \ homeassistant/home-assistant:stable 2、查看homeassistant状态是否正常 # homeassistant默认web端口是8123 查看端口监听状态 root@mini-server:~# ss -nlt | grep 8123 LISTEN 0 128 0.0.0.0:812...

阅读全文>>

标签: HomeAssistant HACS mijia HomeKit

评论(0) (897)