收起左侧

更新1.26以后ollama无法使用

16
回复
476
查看
[ 复制链接 ]

1

主题

2

回帖

0

牛值

江湖小虾

前天 00:03 显示全部楼层 阅读模式
悬赏1飞牛币未解决
更新1.26以后,ollama也顺手更新了。
启动后webui无法访问,ollama无法访问。通过进程查看ollama启动占用11434端口,无法访问,webui未启动未占用端口。
收藏
送赞
分享

0

主题

4

回帖

0

牛值

江湖小虾

前天 06:41 显示全部楼层
不是1.26的原因好像是ollama的原因  我的没升1.26的时候升级了ollama也没法用

0

主题

2

回帖

0

牛值

江湖小虾

我的可以用,可能第一次启动你要多等一会,正常使用后但是只能本地监听,无法外部连接使用,这个封装的我也不知道怎么修改环境变量,不知道是是不是我之前改了啥,现在本地知识库读取访问不了ollama,只能用飞牛的本地端口进去。。。

2

主题

6

回帖

0

牛值

江湖小虾

我的情况也是一样
原来多等一下就好,貌似模型库不知道藏到哪里去了!旧的模型都要重新下了  详情 回复
前天 10:34

2

主题

6

回帖

0

牛值

江湖小虾

merlinlong 发表于 2026-3-27 10:23
我的情况也是一样

原来多等一下就好,貌似模型库不知道藏到哪里去了!旧的模型都要重新下了
模型存放地点改变:/vol1/@apphome/ai_installer/models  详情 回复
前天 10:58

2

主题

6

回帖

0

牛值

江湖小虾

merlinlong 发表于 2026-3-27 10:34
原来多等一下就好,貌似模型库不知道藏到哪里去了!旧的模型都要重新下了
...

模型存放地点改变:/vol1/@apphome/ai_installer/models
每次重启,openwebui启动都很慢  详情 回复
前天 11:09

2

主题

6

回帖

0

牛值

江湖小虾

merlinlong 发表于 2026-3-27 10:58
模型存放地点改变:/vol1/@apphome/ai_installer/models

每次重启,openwebui启动都很慢

6

主题

14

回帖

0

牛值

江湖小虾

奇怪我的11434和11435外部也无法链接哈

我用docker部署的nweapi对接后外部调用 docker部署的时候网络那边需要改改  详情 回复
前天 17:23
我也是~哥你解决了没有?  详情 回复
前天 17:09

6

主题

14

回帖

0

牛值

江湖小虾

只能使用127.0.0.1本地链接正常

0

主题

10

回帖

0

牛值

江湖小虾

game娱乐 发表于 2026-3-27 12:00
奇怪我的11434和11435外部也无法链接哈

我也是~哥你解决了没有?

0

主题

4

回帖

0

牛值

江湖小虾

前天 17:23 显示全部楼层
game娱乐 发表于 2026-3-27 12:00
奇怪我的11434和11435外部也无法链接哈

我用docker部署的nweapi对接后外部调用  docker部署的时候网络那边需要改改
没等官方更新把哈哈  详情 回复
前天 17:25

6

主题

14

回帖

0

牛值

江湖小虾

包子456 发表于 2026-3-27 17:23
我用docker部署的nweapi对接后外部调用  docker部署的时候网络那边需要改改

没等官方更新把哈哈

6

主题

5

回帖

0

牛值

江湖小虾

ollama应该给一个参数配置界面,很多设置现在怎么改都不知道了

1

主题

19

回帖

0

牛值

江湖小虾

丸辣,没办法外部调用啦。电脑养的龙虾没办法调用NAS的ollama了呀

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
我也是,只有qwen3.59b可以调用  详情 回复
昨天 23:20

0

主题

7

回帖

0

牛值

江湖小虾

昨天 23:20 显示全部楼层
苟富贵 发表于 2026-3-28 16:03
丸辣,没办法外部调用啦。电脑养的龙虾没办法调用NAS的ollama了呀

我也是,只有qwen3.59b可以调用

1

主题

2

回帖

0

牛值

江湖小虾

用nginx代理映射端口就可以访问了

1

主题

19

回帖

0

牛值

江湖小虾

  1. 设置环境变量**:**
    当 Ollama 服务启动时,需要有一个名为 OLLAMA_HOST 的环境变量,其值设为 0.0.0.0
    我们可以通过在终端中设置这个变量,然后手动启动 Ollama 服务来实现。请注意**:通过 SSH 手动启动的服务,在 NAS 重启后会停止,您需要再次手动启动。这是目前在飞牛应用商店环境下的一个限制。**
    操作步骤**:**
    a. 杀死当前正在运行的 Ollama 进程**(如果它是通过应用商店启动的):**
    bash****编辑

    pkill ollama
    

    b. 设置环境变量并以后台方式启动 Ollama**:**
    bash****编辑

    export OLLAMA_HOST=0.0.0.0
    nohup /vol4/@appcenter/ai_installer/ollama/bin/ollama serve > /dev/null 2>&1 &
    
    • export OLLAMA_HOST=0.0.0.0:设置环境变量。
    • nohup ... &:让 ollama serve 命令在后台运行,即使您关闭了 SSH 连接,它也会继续运行。
  2. 验证服务是否已在监听所有接口**:**
    您可以在 NAS 上通过以下命令检查端口 11434 是否正在监听所有地址:
    bash****编辑

    netstat -tuln | grep 11434
    

    如果配置成功,您应该能看到类似 0.0.0.0:11434 :::11434 的输出。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则