收起左侧

最近爆火的DeepSeek如何部署到飞牛NAS(适用于大部分Linux)

26
回复
10632
查看
[ 复制链接 ]

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-1 10:50:47 显示全部楼层 阅读模式

相信各位也都看到了,最近爆火的国产AI大模型DeepSeeK霸屏全网,那他如何部署到如何部署到飞牛NAS呢,让我们一起来看看

首先你需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法运行DeepSeek模型

  1. 首先需要SSH连接到fnos
  2. 连接上以后运行这行代码 curl -fsSL ollama.com/install.sh | sh
  3. 请注意,过程中可能会提示by peer,然后进程就中断了,这时候按一下方向上键,回车,重新下载安装,如果安装报错,需要重启一下飞牛
  4. 接着再重新粘贴命令行,回车,如果报这个错误:“No Nvidia or AMDxxx”,的是因为飞牛上没有显卡导致的,没关系
  5. 此时下载出错也没关系,只要有一次100%的就可以了
  6. 这时候输入“ollama”,回车,如果出现这个框里的这种一样的提示就行了
    1000010782.png

接下来是最重要的一步,部署AI模型,需要根据自己的需要选择,我这里使用的是1.5b

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)

ollama run deepseek-r1:1.5b

版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要

4.7GB空余空间)

ollama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间)

ollama run deepseek-r1:8b

版本:14b,(需要9GB空余空间)

ollama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)

ollama run deepseek-r1:32b

版本:70b,(需要43GB空余空间)

ollama run deepseek-r1:70b

版本:671b,(需要404GB空余空间)

ollama run deepseek-r1:671b

粘贴上去之后回车,就会有一个下载进度,等待一会儿,安装好以后会出现“Success”字样,这时候,下面会有提示“ Send a message (/? for help)”

这时候你就可以愉快的玩耍了,享受国产AI的快乐!

输入问题按回车,它就会回复

那么离线如何使用?

使用ssh工具连接到飞牛,不需要进入root模式,输入下面这行命令

ollama list

查看你安装的模型,模型就是你看到的“Name”或者“ID”都是可以的,复制一下其中一个,比如我复制“NAME”下面的“deepseek-r1:1.5b”

接着输入下面这行命令

ollama run deepseek-r1:1.5b(后面这个需要按照你自己安装的模型来)

就能进入AI对话

请注意,输出的快慢取决于你的硬件配置,并且没有web图形化界面

收藏
送赞 8
分享

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
1

查看全部评分

一位爱好折腾nas的初二学生~

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-1 23:36:56 楼主 显示全部楼层
Web UI部署方法已出,请看此帖https://club.fnnas.com/forum.php ... id=13716&extra=
一位爱好折腾nas的初二学生~

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-24 21:02:12 楼主 显示全部楼层
本帖最后由 sherry11963 于 2025-2-25 20:10 编辑

问题总结已经发帖,链接如下
https://club.fnnas.com/forum.php?mod=viewthread&tid=16291
一位爱好折腾nas的初二学生~

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-2 23:17:14 显示全部楼层
大神我输入连接上以后运行这行代码 curl -fsSL ollama.com/install.sh | sh后出现的是这个 是怎么回事啊
>>> Downloading Linux amd64 bundle
curl: (28) Failed to connect to github.com port 443 after 134618 ms: Couldn't connect to server

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-2 23:18:19 显示全部楼层
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-3 08:44:19 楼主 显示全部楼层
你这个是在解压过程中出现的网络问题,可能是github临时出现的问题,方向上键回车重试
一位爱好折腾nas的初二学生~

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-3 14:29:18 显示全部楼层
试了好几次还是一样,有没有其他的办法?》

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-3 14:30:51 显示全部楼层
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-3 17:33:23 楼主 显示全部楼层
本帖最后由 玉尺书生 于 2025-2-25 23:22 编辑

把具体图片发给我

一位爱好折腾nas的初二学生~

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-3 17:44:24 楼主 显示全部楼层
还有一种可能,就是压缩包在下载过程中遇到问题,导致文件不完整,所以解压失败
一位爱好折腾nas的初二学生~

0

主题

3

回帖

0

牛值

江湖小虾

2025-2-4 12:18:31 显示全部楼层
admin@xuexj:/$ ollama run deepseek-r1:7b
Error: mkdir /home/admin: permission denied
请问这个怎么处理,谢谢。

0

主题

3

回帖

0

牛值

江湖小虾

2025-2-4 12:26:55 显示全部楼层
ssh admin登入 那密码应该是对的 su 输入密码 失败

0

主题

3

回帖

0

牛值

江湖小虾

2025-2-4 12:29:17 显示全部楼层
xuexj 发表于 2025-2-4 12:26
ssh admin登入 那密码应该是对的 su 输入密码 失败

admin@xuexj:/$ su
Password:
su: Authentication failure
admin@xuexj:/$

0

主题

1

回帖

0

牛值

江湖小虾

2025-2-6 15:08:14 显示全部楼层
本帖最后由 moonwey 于 2025-2-6 15:10 编辑

curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://githu ... v0.5.7/ollama-linux|g' ollama_install.sh
chmod +x ollama_install.sh
sh ollama_install.sh
            
        
        
   

0

主题

5

回帖

0

牛值

江湖小虾

2025-2-6 16:16:26 显示全部楼层
我是用自己电脑装的ollama,然后飞牛装openwebui调用

0

主题

2

回帖

0

牛值

江湖小虾

2025-2-6 20:31:46 显示全部楼层
我跟你一样的错误

0

主题

2

回帖

0

牛值

江湖小虾

2025-2-6 20:33:58 显示全部楼层
+1我的一样的错误

0

主题

9

回帖

0

牛值

江湖小虾

2025-2-6 21:56:19 显示全部楼层
我用了其他的方法安装上去了,但是感觉本地部署的AI有点傻。不知道是不是数据需要投喂

4

主题

41

回帖

0

牛值

初出茅庐

2025-2-8 15:20:45 显示全部楼层
怎么配置私有知识库库呢

30

主题

33

回帖

0

牛值

初出茅庐

2025-2-9 10:09:38 显示全部楼层
请问,这个模型怎么部署到 raid存储区,这个默认部署到什么位置,软件已经按照上面拉下来了,等待部署模型,有个 gtx1050ti显卡,两颗2697v2,不知道部署哪个模型合适。

2

主题

21

回帖

0

牛值

江湖小虾

2025-2-12 16:31:34 显示全部楼层
:~$ ollama run deepseek-r1:7b
Error: could not connect to ollama app, is it running?
为什么我会提示这个

5

主题

12

回帖

0

牛值

江湖小虾

2025-2-12 22:45:39 显示全部楼层
想问下,您这样部署后可以联网搜索吗?

8

主题

24

回帖

0

牛值

江湖小虾

2025-2-15 13:36:35 显示全部楼层
模型部署到哪个存储也不清楚啊。

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-22 15:17:14 楼主 显示全部楼层
默认系统盘的存储空间
一位爱好折腾nas的初二学生~

2

主题

29

回帖

0

牛值

江湖小虾

2025-2-24 16:09:18 显示全部楼层
网上随便找个免费的deepseek都比大部人自己部署的算力高

1

主题

4

回帖

0

牛值

fnOS系统内测组

2025-2-25 15:45:01 显示全部楼层
厉害了这个

8

主题

41

回帖

0

牛值

初出茅庐

2025-2-26 09:04:42 显示全部楼层
硬件要求是啥

0

主题

3

回帖

0

牛值

江湖小虾

2025-2-26 11:10:02 显示全部楼层
请问如何卸载?

38

主题

93

回帖

160

牛值

社区共建团

社区共建团荣誉勋章飞牛百度网盘玩家

2025-2-26 12:17:52 楼主 显示全部楼层
配置低的建议别装,带不动😂
一位爱好折腾nas的初二学生~

0

主题

1

回帖

0

牛值

江湖小虾

2025-2-26 16:30:10 显示全部楼层
需要什么配置?我12300T行不行?没有独立显卡

0

主题

12

回帖

0

牛值

江湖小虾

2025-3-1 13:45:26 显示全部楼层
正解。大部分人的nas都是二奶机或者垃圾佬攒的。

2

主题

10

回帖

0

牛值

江湖小虾

2025-3-6 13:36:07 显示全部楼层
因为一直无法成功用curl -fsSL ollama.com/install.sh | sh 命令拉取镜像安装,尝试通过其他镜像源先拉取ollama镜像,成功后尝试在其容器终端运行 ollama run deepseek-r1:1.5b 命令,也成功了,但目前lobechat还调用不了这个大模型,返回400错误代码,说model is required。。。困惑中

0

主题

7

回帖

0

牛值

江湖小虾

2025-3-15 19:45:25 显示全部楼层
谢谢分享

1

主题

24

回帖

0

牛值

江湖小虾

2025-3-17 14:39:45 显示全部楼层
应用商店的OLLAMA,一直是在使用CPU.....

0

主题

9

回帖

0

牛值

江湖小虾

2025-3-19 14:37:20 显示全部楼层
安装成功了,但不好用,我要怎么卸载呀?
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则