最近爆火的DeepSeek如何部署到飞牛NAS(适用于大部分Linux)

发表于:2025-2-1 10:50:47 技术整活 3014

<br /> <br />

相信各位也都看到了,最近爆火的国产AI大模型DeepSeeK霸屏全网,那他如何部署到如何部署到飞牛NAS呢,让我们一起来看看

首先你需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法运行DeepSeek模型

  1. 首先需要SSH连接到fnos
  2. 连接上以后运行这行代码 curl -fsSL ollama.com/install.sh | sh
  3. 请注意,过程中可能会提示by peer,然后进程就中断了,这时候按一下方向上键,回车,重新下载安装,如果安装报错,需要重启一下飞牛
  4. 接着再重新粘贴命令行,回车,如果报这个错误:“No Nvidia or AMDxxx”,的是因为飞牛上没有显卡导致的,没关系
  5. 此时下载出错也没关系,只要有一次100%的就可以了
  6. 这时候输入“ollama”,回车,如果出现这个框里的这种一样的提示就行了 1000010782.png

接下来是最重要的一步,部署AI模型,需要根据自己的需要选择,我这里使用的是1.5b

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)

ollama run deepseek-r1:1.5b

版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要

4.7GB空余空间)

ollama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间)

ollama run deepseek-r1:8b

版本:14b,(需要9GB空余空间)

ollama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)

ollama run deepseek-r1:32b

版本:70b,(需要43GB空余空间)

ollama run deepseek-r1:70b

版本:671b,(需要404GB空余空间)

ollama run deepseek-r1:671b

粘贴上去之后回车,就会有一个下载进度,等待一会儿,安装好以后会出现“Success”字样,这时候,下面会有提示“ Send a message (/? for help)”

这时候你就可以愉快的玩耍了,享受国产AI的快乐!

输入问题按回车,它就会回复

那么离线如何使用?

使用ssh工具连接到飞牛,不需要进入root模式,输入下面这行命令

ollama list

查看你安装的模型,模型就是你看到的“Name”或者“ID”都是可以的,复制一下其中一个,比如我复制“NAME”下面的“deepseek-r1:1.5b”

接着输入下面这行命令

ollama run deepseek-r1:1.5b(后面这个需要按照你自己安装的模型来)

就能进入AI对话

请注意,输出的快慢取决于你的硬件配置,并且没有web图形化界面

此贴部分转载于https://baijiahao.baidu.com/s?id=1822534098047315361&wfr=spider&for=pc

如有侵权联系删除

收藏
送赞 5
分享

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
参与人数 1飞牛币 +1 收起 理由
Sherry_Fw33F + 1

查看全部评分总评分 : 飞牛币 +1

发表回复

评论列表(22)

Web UI部署方法已出,请看此帖https://club.fnnas.com/forum.php ... id=13716&extra=
2025-2-1 23:36:56 回复
请问,这个模型怎么部署到 raid存储区,这个默认部署到什么位置,软件已经按照上面拉下来了,等待部署模型,有个 gtx1050ti显卡,两颗2697v2,不知道部署哪个模型合适。  详情 回复
2025-2-9 10:09
大神我输入连接上以后运行这行代码 curl -fsSL ollama.com/install.sh | sh后出现的是这个 是怎么回事啊
>>> Downloading Linux amd64 bundle
curl: (28) Failed to connect to github.com port 443 after 134618 ms: Couldn't connect to server
2025-2-2 23:17:14 回复
你这个是在解压过程中出现的网络问题,可能是github临时出现的问题,方向上键回车重试  详情 回复
2025-2-3 08:44
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now
2025-2-2 23:18:19 回复
我跟你一样的错误  详情 回复
2025-2-6 20:31
你这个是在解压过程中出现的网络问题,可能是github临时出现的问题,方向上键回车重试
2025-2-3 08:44:19 回复
试了好几次还是一样,有没有其他的办法?》
2025-2-3 14:29:18 回复
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now
2025-2-3 14:30:51 回复
+1我的一样的错误  详情 回复
2025-2-6 20:33
还有一种可能,就是压缩包在下载过程中遇到问题,导致文件不完整,所以解压失败  详情 回复
2025-2-3 17:44
你加一下我微信,把具体图片发给我 15655468220  详情 回复
2025-2-3 17:33
你加一下我微信,把具体图片发给我
15655468220
2025-2-3 17:33:23 回复
还有一种可能,就是压缩包在下载过程中遇到问题,导致文件不完整,所以解压失败
2025-2-3 17:44:24 回复
admin@xuexj:/$ ollama run deepseek-r1:7b
Error: mkdir /home/admin: permission denied
请问这个怎么处理,谢谢。
2025-2-4 12:18:31 回复
ssh admin登入 那密码应该是对的 su 输入密码 失败  详情 回复
2025-2-4 12:26
ssh admin登入 那密码应该是对的 su 输入密码 失败
2025-2-4 12:26:55 回复
admin@xuexj:/$ su Password: su: Authentication failure admin@xuexj:/$  详情 回复
2025-2-4 12:29
xuexj 发表于 2025-2-4 12:26
ssh admin登入 那密码应该是对的 su 输入密码 失败

admin@xuexj:/$ su
Password:
su: Authentication failure
admin@xuexj:/$
2025-2-4 12:29:17 回复
本帖最后由 moonwey 于 2025-2-6 15:10 编辑

curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://githu ... v0.5.7/ollama-linux|g' ollama_install.sh
chmod +x ollama_install.sh
sh ollama_install.sh
            
        
        
   

2025-2-6 15:08:14 回复
我是用自己电脑装的ollama,然后飞牛装openwebui调用
2025-2-6 16:16:26 回复
我跟你一样的错误
2025-2-6 20:31:46 回复
+1我的一样的错误
2025-2-6 20:33:58 回复
我用了其他的方法安装上去了,但是感觉本地部署的AI有点傻。不知道是不是数据需要投喂
2025-2-6 21:56:19 回复
怎么配置私有知识库库呢
2025-2-8 15:20:45 回复
请问,这个模型怎么部署到 raid存储区,这个默认部署到什么位置,软件已经按照上面拉下来了,等待部署模型,有个 gtx1050ti显卡,两颗2697v2,不知道部署哪个模型合适。
2025-2-9 10:09:38 回复
:~$ ollama run deepseek-r1:7b
Error: could not connect to ollama app, is it running?
为什么我会提示这个
2025-2-12 16:31:34 回复
想问下,您这样部署后可以联网搜索吗?
2025-2-12 22:45:39 回复
模型部署到哪个存储也不清楚啊。
2025-2-15 13:36:35 回复
默认系统盘的存储空间  详情 回复
前天 15:17
默认系统盘的存储空间
前天 15:17 回复