«

Ollama 部署 & 搭建本地大模型

myluzh 发布于 阅读:838 NOTES


0x01 安装 Ollama

Docker 安装

NVIDIA Container Toolkit 安装教程可以参考:安装 NVIDIA Container Toolkit
容器内默认监听 0.0.0.0,只需要通过 -p 映射端口,宿主机即可被外部访问,无需额外配置环境变量。

docker pull docker.1ms.run/ollama/ollama:0.13.5
mkdir -p /docker/ollama
# 确保已安装 NVIDIA Container Toolkit 以支持 --gpus all,
docker run -d --gpus all \
  -v /docker/ollama:/root/.ollama \
  -p 11434:11434 \
  --name ollama \
  docker.1ms.run/ollama/ollama:0.13.5

直接安装(宿主机)

默认只监听 127.0.0.1(本地),如需局域网访问,必须手动配置环境变量。
1、下载安装包安装https://ollama.com/download

2、配置网络监听
默认情况下 Ollama 只监听 127.0.0.1。为了让局域网其他设备能调用 API,需要修改环境变量 OLLAMA_HOST0.0.0.0:11434

3、启动服务

0x02 下载与运行模型

以下操作在安装了 Ollama 的机器上执行(如果是 Docker 安装,需进入容器执行 docker exec -it ollama ollama ... 或者直接在宿主机调用 API,如果有装 CLI 客户端也可直接连)。

具体模型列表参考:https://ollama.com/search
测试环境:GTX 1080 (8G 显存) + 64G 内存,适合 7B/8B 左右模型。

这里以 DeepSeek-R1 8B 版本为例:

# 下载 deepseek-r1:8b
ollama pull deepseek-r1:8b
#查看已下载模型
ollama list
# 输出示例
NAME             ID              SIZE      MODIFIED
deepseek-r1:8b   28f8fd6cdc67    4.9 GB    9 seconds ago
# 运行/测试模型
ollama run deepseek-r1:8b

0x03 接入LLM UI

1、客户端 AnythingLLM
2、网页端 Dify
3、网页端 Open-WebUI
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v D:\open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
4、客户端Chatbox
https://chatboxai.app/zh
客户端 Cherry Studio
https://www.cherrystudiocn.com/

参考文章:
DeepSeek R1 模型本地化部署 + 个人知识库搭建与使用
DeepSeek-R1本地部署,再也不怕宕机,还有语音功能!
OLLAMA+FASTGPT+M3E 大模型本地化部署手记
Windows安装与配置Ollama
用消融的方法让大模型更听话,无需重新训练
AnythingLLM、Dify 与 Open-WebUI:如何接入 Ollama,它们有何不同?
huggingface 抱抱脸
huihui_ai/deepseek-r1-abliterated

ollama deepseek llm ai


正文到此结束
版权声明:若无特殊注明,本文皆为 Myluzh Blog 原创,转载请保留文章出处。
文章内容:https://itho.cn/notes/484.html
文章标题:《Ollama 部署 & 搭建本地大模型