收起左侧

飞牛ollama修改监听地址

8
回复
711
查看
[ 复制链接 ]

8

主题

8

回帖

0

牛值

江湖小虾

2026-3-28 15:43:22 显示全部楼层 阅读模式

飞牛官方应用商店的ollama只能监听 127.0.0.1:11434,我的openclaw是装在docker里的,只能通过nas本身的ip设置api,导致无法使用。

启动参数所在位置:/var/apps/ai_installer/cmd/service-setup

但是文件挂载在只读区域,不能修改。如果有大神能解决只读问题,就简单多了。以下是我用的方法:

#1.控制台新增service:

创建 ollama systemd service 文件

cat > /etc/systemd/system/ollama.service << 'EOF'

[Unit]

Description=Ollama Service

After=network.target

[Service]

Type=simple

Environment="OLLAMA_HOST=0.0.0.0:11434"

Environment="OLLAMA_MODELS=/vol1/@apphome/ai_installer/models"

ExecStart=/vol1/@appcenter/ai_installer/ollama/bin/ollama serve

Restart=always

RestartSec=10

User=root

[Install]

WantedBy=multi-user.target

EOF

#2.重载 systemd

systemctl daemon-reload

停止飞牛系统管理的旧 ollama 进程

#kill 3597 进程号需要自己查询

启动我们新创建的 service

systemctl start ollama

systemctl status ollama

验证监听地址

ss -tlnp | grep 11434

#3.设置开机自启动

systemctl enable ollama

#4.解决重启冲突问题

把原来的 ollama 二进制重命名

mv /vol1/@appcenter/ai_installer/ollama/bin/ollama /vol1/@appcenter/ai_installer/ollama/bin/ollama.real

创建一个包装脚本 ,两个方法都可以,但是我用方法2成功,方法1不成功

#方法1

cat > /vol1/@appcenter/ai_installer/ollama/bin/ollama << 'WRAPPER'

#!/bin/bash

export OLLAMA_HOST=0.0.0.0:11434

exec /vol1/@appcenter/ai_installer/ollama/bin/ollama.real "$@"

WRAPPER

#方法2

sudo bash -c 'cat > /vol1/@appcenter/ai_installer/ollama/bin/ollama << "EOF"
#!/bin/bash
export OLLAMA_HOST=0.0.0.0:11434
exec /vol1/@appcenter/ai_installer/ollama/bin/ollama.real "$@"
EOF'

chmod +x /vol1/@appcenter/ai_installer/ollama/bin/ollama

#5.验证是否成功 出现*:11434

ss -tlnp | grep 11434

LISTEN 0 4096 *:11434 *:*

收藏
送赞 2
分享

1

主题

2

回帖

0

牛值

江湖小虾

2026-3-29 00:06:53 显示全部楼层

用nginx代理也行

1

主题

19

回帖

0

牛值

江湖小虾

2026-3-29 01:15:41 显示全部楼层
  1. 设置环境变量**:**
    当 Ollama 服务启动时,需要有一个名为 OLLAMA_HOST 的环境变量,其值设为 0.0.0.0
    我们可以通过在终端中设置这个变量,然后手动启动 Ollama 服务来实现。请注意**:通过 SSH 手动启动的服务,在 NAS 重启后会停止,您需要再次手动启动。这是目前在飞牛应用商店环境下的一个限制。**
    操作步骤**:**
    a. 杀死当前正在运行的 Ollama 进程**(如果它是通过应用商店启动的):**
    bash****编辑

    pkill ollama
    

    b. 设置环境变量并以后台方式启动 Ollama**:**
    bash****编辑

    export OLLAMA_HOST=0.0.0.0
    nohup /vol?/@appcenter/ai_installer/ollama/bin/ollama serve > /dev/null 2>&1 &
    
    • export OLLAMA_HOST=0.0.0.0:设置环境变量。
    • nohup ... &:让 ollama serve 命令在后台运行,即使您关闭了 SSH 连接,它也会继续运行。
  2. 验证服务是否已在监听所有接口**:**
    您可以在 NAS 上通过以下命令检查端口 11434 是否正在监听所有地址:
    bash****编辑

    netstat -tuln | grep 11434
    

    如果配置成功,您应该能看到类似 0.0.0.0:11434 :::11434 的输出。

嘿嘿嘿。这样应该可以解决。

直接在应用商店里停用ollama先。这样就可以局域网内外部设备调用飞牛的ollama了。openwebui起不起来无所谓了。  详情 回复
2026-3-29 01:18

1

主题

19

回帖

0

牛值

江湖小虾

2026-3-29 01:18:54 显示全部楼层
苟富贵 发表于 2026-3-29 01:15
设置环境变量**:**
当 Ollama 服务启动时,需要有一个名为 OLLAMA_HOST 的环境变量,其值设为 0.0.0.0。 ...

直接在应用商店里停用ollama先。这样就可以局域网内外部设备调用飞牛的ollama了。openwebui起不起来无所谓了。
openwebui确实没啥用,模型什么可以通过ollama命令下载。  详情 回复
2026-3-30 11:18

8

主题

8

回帖

0

牛值

江湖小虾

2026-3-30 11:18:59 楼主 显示全部楼层
苟富贵 发表于 2026-3-29 01:18
直接在应用商店里停用ollama先。这样就可以局域网内外部设备调用飞牛的ollama了。openwebui起不起来无所 ...

openwebui确实没啥用,模型什么可以通过ollama命令下载。

2

主题

3

回帖

0

牛值

江湖小虾

2026-3-31 09:37:14 显示全部楼层

你好,请教一个问题:

我飞牛应用版openclaw添加了ollama,模型为Qwen2.5-7B-Instruct Q4_K_M

电脑配置为:i3 8100t +tesla p4 +16g内存

直接用open web ui 调用ollama对话,非常丝滑流畅,文字几乎秒出

但通过openclaw调用ollama时,对话框一直显示ai在思考,不出内容,偶尔五六分钟能蹦出来一句话,但大多数情况ai就会一直卡在思考。

ssh到nvidia-smi

看板显示显卡满载,且下面有ollama的进程,载入内存的大小也和模型能对的上

请教是什么原因...

8

主题

8

回帖

0

牛值

江湖小虾

2026-3-31 14:51:51 楼主 显示全部楼层

以我仅有的相关知识来回答你一下,p4的显存大小(8G)、带宽、频率、功率(70w)都有点小,而且无散热功率一高就降频。webui调用没有那么大上下文,openclaw是包含soul、user、memory文件内容上下文的,大了很多。ollama启动时还有一个上下文大小的设置,默认是20k吧,openclaw不够用的。还有虽然7B模型是5G左右的大小,但是要预留一个kv的空间,大概是模型大小的0.2-0.4倍。

看看你的p4温度和功率是多少,不行加个风扇散热,我有。。

2

主题

14

回帖

0

牛值

江湖小虾

可以修改啊,用root权限修改

sudo vim /var/apps/ai_installer/cmd/service-setup

export OLLAMA_HOST="127.0.0.1:11434"

改为:

export OLLAMA_HOST="0.0.0.0:11434"

感谢老铁  详情 回复
昨天 11:20

6

主题

18

回帖

0

牛值

江湖小虾

a565109863 发表于 2026-4-2 16:21
可以修改啊,用root权限修改
sudo vim /var/apps/ai_installer/cmd/service-setup

感谢老铁
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则