收起左侧

API太贵了,我把 Gemma 4 跑在本地,还接入了 OpenClaw

0
回复
24
查看
[ 复制链接 ]

35

主题

87

回帖

0

牛值

初出茅庐

这段时间,AI 我是越用越顺手,但也越来越不敢放开用。

原因很简单:API 太贵了。

刚好最近谷歌出了 Gemma 4

我顺手装了一遍,结果发现这件事比想象中简单很多。

如果你只是想先把一个能用的大模型跑起来,而不是一上来就折腾特别复杂的环境,那这条路其实挺适合的。
我这次就是用 Ollama + Gemma 4,给自己搭了一套本地 AI,还顺手接入Openclaw

整个过程,核心就三步。

第一步,先把 Ollama 装上

如果你之前没折腾过本地大模型,那可以先把 Ollama 理解成一个“本地模型运行器”。

很多开源模型,都是通过它来下载、启动和运行的。
你不用自己去处理太多底层环境,省心很多。

macOS / Linux

直接执行:

curl -fsSL https://ollama.com/install.sh | sh

Windows

1、去官网下载安装就行:

https://ollama.com

2、PowerShell直接执行:

irm https://ollama.com/install.ps1 | iex

装完之后,可以先确认一下有没有成功:

ollama -v

只要能看到版本号,基本就说明没问题了。

这一步本身不复杂,真正关键的是先把这套基础运行环境搭起来。
后面不只是 Gemma 4,很多别的开源模型你也能直接跑。

第二步,把 Gemma 4 拉到本地

环境有了,接下来就是把模型下载下来。

我这边用的是:

ollama pull gemma4:e4b

第一次拉模型会慢一点,这个主要看网络和模型大小,耐心等它跑完就行。

温馨提示:C盘空间不够的话,先更改Ollma模型设置路径

下载完成后,就可以通过Ollma客户端选择已下载的模型:

第三步,直接跑起来试一下

你也可以顺手丢一句测试:

你好,你是什么模型?简单介绍一下自己。

如果它能正常回你,那这事基本就成了。

这是本地运行占用资源:

到这里,其实最核心的部分已经结束了。

说到底,就是三步:

  • 装 Ollama
  • 拉 Gemma 4
  • 让它跑起来

没有很多人想象中那么复杂。

Gemma4本地模型接进OpenClaw

1、打开Ollama客户端-Launch复制命令

终端运行:

ollama launch openclaw

2、系统自动配置

3、Openclaw其它配置就不赘述了

最后

本地跑 Gemma 4,再接入 OpenClaw,最大的好处是省钱、可控,也更方便接自己的工作流。

当然,这套方案也有局限

本地模型的整体能力和稳定性,很多时候还是很难完全替代顶级云端模型,尤其是复杂推理、长上下文和高强度任务。

所以更适合把它理解成:

它不一定能替代所有云端模型,
但至少能把一部分高频、重复、成本敏感的任务搬回本地。

总体四步:

  • 装 Ollama
  • 拉 Gemma 4
  • 跑起来
  • 接进 OpenClaw

👥 NAS 折腾交流群

如果你最近也在折腾本地 AI,或者已经把模型接进自己的工作流,欢迎留言聊聊你现在在用什么模型。

想看更多这类 OpenClaw × NAS × AI自动化 的实战内容,欢迎关注公众号 “纳斯派”。
如果你想参与讨论、一起共创玩法,也欢迎公众号私信进群一起交流。

收藏
送赞 1
分享
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则