在飞牛NAS上部署OpenWebUI教程来啦!连接DeepSeek必备!

发表于:2025-2-1 23:34:48 技术整活 2845

接咱们上期教程,没看过的童鞋可以去看我这一期https://club.fnnas.com/forum.php?mod=viewthread&tid=13688&extra=page%3D1

上期教程我们教了大家如何在本地部署DeepSeek这款国产AI模型,这期我们教大家如何使用webui界面使用,废话不多说,直接开始

注:本教程部署的OpenWebUI是基于tjbck大佬的项目,这里也附上原项目地址

https://github.com/open-webui/open-webui

这里再次声明,安装这个的前提是你已经安装了DeepSeek AI模型,并且仅适用于飞牛,如果你的模型安装于其他服务器,那么你可以不用再往下看了

  1. 使用ssh服务连接至fnos(此处需使用sudo -i进入root用户)
  2. 复制下面这行命令,回车 docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  3. 等待一会儿便可自动下载镜像并运行容器
  4. 看到出现"SHA256"后,说明已经完成了
  5. 前往飞牛的web界面,打开docker中心-容器,查看"open-webui"是否已经运行,如果没启动,点一下旁边的启动按钮就行
  6. 打开浏览器,输入 你的飞牛IP:3000 进入OpenWebUI
  7. 我的IP是:192.168.0.112:8080,也可以通过此方式进入
  8. 进入后,点击开始使用,创建一个管理员账户
  9. 进入后,你可以看到你安装的模型,在搜索框输入你的问题,就可以愉快的对话了! IMG_20250201_233423.png
收藏
送赞 3
分享

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
参与人数 1飞牛币 +1 收起 理由
Sherry_Fw33F + 1

查看全部评分总评分 : 飞牛币 +1

发表回复

评论列表(9)

没有安装模型的童鞋,请看这期https://club.fnnas.com/forum.php ... &extra=page%3D1
2025-2-1 23:37:40 回复
输入命令后为什么会显示Unable to find image 'ghcr.io/open-webui/open-webui:main' locally
docker: Error response from daemon: Get "https://ghcr.io/v2/": read tcp 192.168.31.98:33338->20.205.243.164:443: read: connection reset by peer.
See 'docker run --help'.
代理也设置过了
2025-2-2 03:52:48 回复
这个错误就是因为镜像在本地没找到,尝试在线拉群时又发生了网络错误,用下面这行命令试一下 docker pull ghcr.io/open-webui/open-webui:main  详情 回复
2025-2-2 09:00
本帖最后由 sherry11963 于 2025-2-2 10:18 编辑

这个错误就是因为镜像在本地没找到,尝试在线拉取时又发生了网络错误,用下面这行命令试一下
docker pull ghcr.io/open-webui/open-webui:main
2025-2-2 09:00:11 回复
ollama list 显示 正常,webui 的docker也正常运行,但是8080端口还是3000的端口都拒绝连接,不知道是什么原因
2025-2-3 10:59:25 回复
在 Linux 上设置环境变量 如果 Ollama 作为 systemd 服务运行,则应使用以下方法设置环境变量:systemctl 通过调用 编辑 systemd 服务。这将打开一个编辑器。systemctl edit ollama.service 对于每个环境变量,在  详情 回复
2025-2-8 22:15
看一下镜像运行日志  详情 回复
2025-2-3 17:45
看一下镜像运行日志
2025-2-3 17:45:58 回复
在 Linux 上设置环境变量
如果 Ollama 作为 systemd 服务运行,则应使用以下方法设置环境变量:systemctl

通过调用 编辑 systemd 服务。这将打开一个编辑器。systemctl edit ollama.service

对于每个环境变量,在 section 下添加一行 :Environment[Service]

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"



这是官网的文档,加上就可以了
2025-2-8 22:15:40 回复
能不能安装deepseek api key,模型安装系统太差了,没效果。
2025-2-15 22:47:21 回复
可以,openwebui支持openai的api,根据文档,只要添加几个环境变量, 开启openai api Openai key Openai url 这样就可以使用任何openai api兼容的模型了  详情 回复
4 天前
可以用lobechat,里面可以调用  详情 回复
2025-2-16 10:51
可以用lobechat,里面可以调用
2025-2-16 10:51:27 回复
可以,openwebui支持openai的api,根据文档,只要添加几个环境变量,
开启openai api
Openai key
Openai url
这样就可以使用任何openai api兼容的模型了
4 天前 回复