
📌 前言
飞牛原生应用 OpenClaw(小龙虾) 作为本地 AI Agent 工具,功能强大但很多人不会正确使用。
常见问题:报错、推理卡壳、上下文**、Token 费用**。
本篇基于实战踩坑经验,从配置优化 → 四大核心命令 → 长期记忆插件 → 本地 + API 模型搭配,一站式教会你把小龙虾用到极致。
🚀 一、基础配置优化(第一步必做)
1. 配置核心优势
- 一次配好,无需中途切换模型
- 修改配置立即生效
- 推理效率直接翻倍
- 支持 Agent 自动巡检、自动推进任务,无需人工干预
2. 极简配置方法
直接把我优化好的配置文件发给 OpenClaw,让它自动合并即可,无需手动改复杂代码,又不影响你原有配置。
这个目录里面有两个版体:
- standard/ — 更丰富的默认配置,保留原始 OpenClaw 文件结构,适合直接使用
- starter/ — 轻量版, placeholder 更多,适合从零定制
- 两者都包含一套完整的配置文件:SOUL.md、IDENTITY.md、USER.md、TOOLS.md、AGENTS.md、HEARTBEAT.md、MEMORY.md。
🎁 福利
优化版配置文件 → B 站关注 + 私信即可领取
⌨️ 二、四大核心命令|彻底控制 Token 消耗
这 4 条命令是不卡壳、不浪费 Token的关键。
1. /stop — 强制停止推理
- 场景:小龙虾卡住不动、长时间不回复
- 真相:后台仍在疯狂计算、疯狂烧 Token
- 作用:立即终止推理,止损、纠正状态
2. /status — 查看上下文长度
- 实时查看当前
context 大小
- 个人经验:超过 100K 以上建议压缩
3. /compact — 无损压缩上下文
- 问题:上下文越长,模型越笨、越慢、越耗 Token
- 作用:压缩上下文,不丢失关键信息
- 触发:
context > 100K 必用
4. /new — 新建对话
🧠 三、长期记忆插件:graph-memory(超强)
https://github.com/adoresever/graph-memory/blob/main/README_CN.md
让 OpenClaw 拥有真正长期记忆,而不是简单堆上下文。
核心效果
- 自动把对话提取为知识图谱
- Token 压缩 75%
- 跨会话记忆,重启不丢失
四大核心能力
- 主动知识蒸馏:不等上下文**再压缩
- 时序图谱双层召回:不盲目塞所有 Token
- 本地 SQLite 存储:数据完全属于自己,隐私安全,迁移方便
- 知识白盒化:可查看节点与关系,记忆不再是黑盒子
这个插件需要配置一个embedding 向量模型

我推荐使用硅基流动的 Pro/BAAI/bge-m3 模型,调用这个基本不花钱
https://cloud.siliconflow.cn/i/L8WgaciU
🧩 四、最佳模型搭配方案(本地 + API 双策略)
我自己长期使用的稳定方案,兼顾速度、成本、隐私。
1. 本地模型方案
ollama run minimax-m2.7:cloud
2. API 模型方案
🔹 主力模型:minimax-m2.5
- 代码能力极强,
opencode 完美支持
- 支持不计 Token、按调用次数计费
- 性价比极高,适合日常主力使用
🚀 MiniMax Token Plan 9折 专属优惠
👉 立即参与:https://platform.minimaxi.com/subscribe/token-plan?code=3iFXSTEOhV&source=link
🔹 备用 API:硅基流动
3. 我的最佳工作流
- 先用 minimax-m2.5 把整个 Agent 任务流程跑通
- 再交给 本地模型 多 Agent 长期稳定运行
✅ 五、总结(一句话记住)
OpenClaw 想用得爽,只做四件事:
正确配置 + 四大命令控上下文 + graph-memory 长期记忆 + 本地 / API 模型搭配
你的小龙虾,从此高效、稳定、不烧钱、超强能干!