收起左侧

【OpenClaw】模型切换BUG

0
回复
32
查看
[ 复制链接 ]

2

主题

2

回帖

0

牛值

江湖小虾

系统版本:

X86

设备环境:

物理机、局域网、

系统版本号:

V1.1.26;

BUG现象:

在同一台服务器部署了 OpenClaw 和 ollama,配置了本地模型 deepseek-llm:latest ,但从【qwen3.5plus·bailian】切换到【deepseek-llm:latest·ollama】时报错 Failed to set model: GatewayRequestError: model not allowed: bailian/deepseek-llm:latest,错误信息里显示的模型名称却是

bailian/deepseek-llm:latest,实际在调用阿里云而非本地ollama

如图:

image.png

ollama运行正常:如图

image.png

image.png

image.png

出现频率:

必现

联系方式:

粉丝群昵称:飞牛小龙虾用户群31-冰木

日志文件:

APP端 BUG:未见错误日志

收藏
送赞
分享

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则