收起左侧

飞牛NAS本地部署Chatbot-Ollama DeepSeek-R1打造个人智能聊天服务

19
回复
5894
查看
[ 复制链接 ]

1

主题

8

回帖

0

牛值

江湖小虾

2025-1-29 09:26:10 显示全部楼层 阅读模式

[i=s] 本帖最后由 琳℡¹⁵⁰? 于 2025-1-29 10:15 编辑 [/i]<br /> <br />

飞牛NAS本地部署Chatbot-Ollama DeepSeek-R1打造个人智能聊天服务

本文参照饺子大王原创“群晖NAS本地部署Chatbot-Ollama打造个人智能聊天服务”

  1. 拉取相关的Docker镜像
  2. 运行Ollama 镜像
  3. 运行Chatbot Ollama镜像
  4. 本地访问 开启ssh 打开终端机root用户登录

1 拉取Ollama镜像命令

sudo docker pull ollama/ollama:latest

*拉取Chatbot-Ollama镜像命令

sudo docker pull ghcr.io/ivanfioravanti/chatbot-ollama:main

拉取成功后,我们可以在Docker界面看到拉取的两个镜像,下面开始运行两个镜像,首先运行ollama

截图未命名.jpg

  1. 运行Ollama 镜像

选中镜像,点击运行进入配置界面,名称无需设置,默认即可,然后点击下一步

输入外部访问的端口11435 容器内部端口11434

储存位置:点击添加路径新建的ollama文件夹,nas docker容器填/root/.ollama然后点击下一步

截图未命名1.jpg

然后点击完成即可运行ollama

然后点击容器中ollama后面三个点...打开终端机,选择/bin/bash连接进入终端命令界面

截图未命名2.jpg

截图未命名4.jpg

输入ollama run deepseek-r1回车接着等待下载即可,最后出现success,表示下载运行 deepseek-r1 成功ollama 容器启动,并运行deepseek-r1模型就成功了

  1. 运行Chatbot Ollama镜像

选中我们下载的镜像,点击运行,开始进行设置

截图未命名5.jpg

点击 Chatbot Ollama镜像运行 容器名默认 本地端口改填3001 容器端口填3000 点开环境变量OLLAMA_HOST后面填http://192.168..:11435 192.168.. 为你的nas访问本机地址 下一步,完成

截图未命名6.jpg

截图未命名8.jpg

容器运行 ollama, Chatbot Ollama浏览器访问飞牛nas3001端口 既可看到我们的web交互 界面

截图未命名7.jpg

收藏
送赞 5
分享

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

1

主题

8

回帖

0

牛值

江湖小虾

2025-1-29 10:17:41 楼主 显示全部楼层
如有问题请大家及时回复
您好:我在安装好后发现是在用cpu运行的,我的nas上有显卡怎么在docker中启用呢  详情 回复
2025-2-6 00:25

0

主题

5

回帖

0

牛值

江湖小虾

2025-1-29 21:56:20 显示全部楼层
感谢分享

8

主题

26

回帖

0

牛值

fnOS系统内测组

2025-1-30 16:29:18 显示全部楼层
不错,就是输出有点慢,而且CPU占用满了,可能是我的CPU太弱了
是的,我的CPU占用50% 温度75度  详情 回复
2025-1-30 16:49

1

主题

8

回帖

0

牛值

江湖小虾

2025-1-30 16:49:47 楼主 显示全部楼层
是的,我的CPU占用50% 温度75度

1

主题

12

回帖

0

牛值

江湖小虾

2025-1-30 20:13:20 显示全部楼层
没有大数据喂过且不联网蛮弱智的,随便玩玩还行

1

主题

3

回帖

0

牛值

江湖小虾

2025-2-1 11:29:45 显示全部楼层
是用CPU跑的吗?还是GPU
Chatbot-Ollama DeepSeek-R1,CPU。GPU都能跑,我是跑CPU  详情 回复
2025-2-2 10:17

1

主题

8

回帖

0

牛值

江湖小虾

2025-2-2 10:17:00 楼主 显示全部楼层
Chatbot-Ollama DeepSeek-R1,CPU。GPU都能跑,我是跑CPU

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-3 20:36:31 显示全部楼层
确实这个模型有点傻傻的

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-3 20:37:53 显示全部楼层
安装好了感觉太傻了 怎么把几个G的DeepSeek-R1删掉啊
L0u
ollama rm deepseek-r1  详情 回复
2025-3-25 14:14

0

主题

1

回帖

0

牛值

江湖小虾

2025-2-6 00:25:49 显示全部楼层
您好:我在安装好后发现是在用cpu运行的,我的nas上有显卡怎么在docker中启用呢
同样的问题,大佬解决了吗  详情 回复
2025-3-3 16:46

15

主题

56

回帖

0

牛值

fnOS系统内测组

2025-2-8 10:54:49 显示全部楼层
感觉部署不划算,还是api调用比较合适

2

主题

3

回帖

0

牛值

江湖小虾

2025-2-10 09:49:11 显示全部楼层
找不到模型

1

主题

4

回帖

0

牛值

江湖小虾

2025-2-14 10:11:38 显示全部楼层
不知道能不能CPU和GPU一起跑

0

主题

1

回帖

0

牛值

江湖小虾

2025-2-17 14:28:45 显示全部楼层
本地部署的deepseek能不能联网?

0

主题

5

回帖

0

牛值

江湖小虾

2025-3-3 16:46:21 显示全部楼层
kuaile👑 发表于 2025-2-6 00:25
您好:我在安装好后发现是在用cpu运行的,我的nas上有显卡怎么在docker中启用呢 ...

同样的问题,大佬解决了吗
docker部署的  详情 回复
2025-3-7 08:03

0

主题

5

回帖

0

牛值

江湖小虾

2025-3-3 16:47:35 显示全部楼层
我安装好就是纯cpu跑,怎么让显卡计算。4060

1

主题

8

回帖

0

牛值

江湖小虾

2025-3-7 08:03:08 楼主 显示全部楼层
docker部署的

1

主题

27

回帖

0

牛值

江湖小虾

2025-3-10 09:48:15 显示全部楼层
怎么修改chatbot的端口呢?比如,我不想用3001这个端口,换什么数字可以呢?

0

主题

2

回帖

0

牛值

江湖小虾

2025-3-25 14:14:04 显示全部楼层
焕然x 发表于 2025-2-3 20:37
安装好了感觉太傻了 怎么把几个G的DeepSeek-R1删掉啊

ollama rm deepseek-r1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则