2025-2-7 myluzh
NOTE
0x01 下载ChatGLM3大模型
# 创建存放模型的文件夹
mkdir -p /mnt/workspace/models && cd /mnt/workspace/models
# 下载大模型 https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files
git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
0x02 运行调试模型
下载ChatGLM3 web demo项目,用来运行调试调试模型
1、安装
mkdir -p /mnt/workspace/webcodes && cd /mnt/workspace/webcodes
git clone https://github.com/THUDM/ChatGLM3.git
# 如果报错就重新执行一次
cd /mnt/workspace/webcodes/ChatGLM3 && pip install -r requirements.txt
2、运行调试模型
测试模型...
阅读全文>>
标签: llm LLaMA-Factory ChatGLM3 大模型 微调
评论(0)
(201)
2025-2-6 myluzh
NOTE
0x01 安装ollama
1、安装ollama
(1)直接安装:https://ollama.com/download
(2)通过 docker:https://hub.docker.com/r/ollama/ollama/tags
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
2、设置ollama监听
docker跑起来的的ollama 只需要-p把11434 api端口暴露出来即可,
安装完成ollama后,默认只监听来自127.0.0.1,为了方便局域网内调用api,配置 Ollama 服务监听所有网络接口
# windows powershell 配置方法如下
PS C:\Users\myluzh> $env:OLLAMA_HOST = "0.0.0.0:11434"
#如果你希望永久设置环境变量,可以通过 PowerShell 设置系统环境变量,使其在所有会话中生效:
[System.Environment]::SetEnvironmentVariable("OLLAMA...
阅读全文>>
标签: ollama deepseek llm ai
评论(0)
(231)