微信扫码 , 快速开始
10
14
0
江湖小虾
在安装好ollama后,下载了2个模型 1,deepseek-r1:1.5b a42b25d8c10a 1.1 GB 21 hours ago 2,deepseek-r1:8b 28f8fd6cdc67 4.9 GB 21 hours ago
打开ip:11435后提示:Ollama is running
但是LobeChat加载语言模型时,无法像教程里(教程链接:https://mp.weixin.qq.com/s/ZTpDwzPjzkXVCSZAmhhC3g)的那样,点击【获取模型列表】无法获取,检查也不通过,提示内容:
{ "host": "http://172.16.10.21:11435", "message": "please check whether your ollama service is available or set the CORS rules", "provider": "ollama" }
您需要 登录 才可以下载或查看,没有账号?立即注册
3
举报
37
38
初出茅庐
41
3202
485
共建版主
2
21
´連椄ф簖 发表于 2025-2-15 00:21 解决了,两个把网络设置改为一样的,行了
cy2843898 发表于 2025-2-14 22:45 说白了,飞牛docker中更改成为网络改成host模式,添加OLLAMA_ORIGINS=*环境变量,对吧? ...
本版积分规则 发表回复
飞牛私有云社区上线,晒NAS活动纪念勋章
飞牛社区组织荣誉认证,为飞牛私有云社区发展无私奉献,发光发热
参与“极速下载,畅享特权”百度网盘活动纪念