目前我找到的openclawd最省token方法

痛点:Moonshot Kimi K2.5 配额吃紧,成本上升

很多人在用 OpenClaw 跑 Kimi K2.5 作为主力模型时,发现 Moonshot 官方 API 的免费/低配额很快就用完,尤其是思考模式(reasoning)开启后,token 消耗非常恐怖。

有没有办法几乎无限免费使用 Kimi K2.5,同时又不牺牲稳定性?

答案是:接入 NVIDIA 提供的 Kimi K2.5(完全免费、无限额),把 Moonshot 官方通道作为 fallback,并在模型请求超时时自动切换。

核心思路

  • 主模型nvidia/moonshotai/kimi-k2.5(NVIDIA 免费通道,速度稍慢但 0 成本)
  • 备用模型moonshot/kimi-k2.5(官方通道,速度快但有配额)
  • 超时自动切换:OpenClaw 原生支持 fallback,当主模型请求超时/失败时自动切到备用

步骤详解(2026 年 3 月实测有效)

1. 获取 NVIDIA API Key(完全免费)

访问:https://build.nvidia.com/moonshotai/kimi-k2.5
登录 NVIDIA 账号 → 页面自动生成或创建 API Key(格式 nvapi-xxx...

2. 配置 openclaw.json(最关键部分)

编辑 ~/.openclaw/openclaw.jsonmodels:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
"models": {
"mode": "merge",
"providers": {
"nvidia": {
"baseUrl": "https://integrate.api.nvidia.com/v1",
"apiKey": "**************************************", //NVIDIA api
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "Kimi K2.5 (NVIDIA Free)",
"reasoning": true,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 256000,
"maxTokens": 8192
}
]
},
"moonshot": {
"baseUrl": "https://api.moonshot.ai/v1",
"apiKey": "sk-你的Moonshot官方key",
"api": "openai-completions",
"models": [
{
"id": "kimi-k2.5",
"name": "Kimi K2.5 (Moonshot)",
"reasoning": true,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0 },
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
},

"agents": {
"defaults": {
"model": {
"primary": "nvidia/moonshotai/kimi-k2.5",
"fallbacks": ["moonshot/kimi-k2.5"]
}
// ... 其他保持不变
}
}

注意1:如果你的 json 里有 agents.defaults.models(allowlist),请删除它,否则会限制只能用白名单模型,导致 fallback 失效。
注意2:kimi api最好是达到Tier1及以上(即累计充值10美元),否则很容易受到限制。

3. 设置 NVIDIA API Key(最常出错的地方)

OpenClaw 对自定义 provider 的 key 管理很严格,必须写入 agent 的 auth-profiles。

1
2
3
4
5
6
# 先清旧记录(防止 nvidia-kimi 残留)
rm -f ~/.openclaw/agents/main/agent/auth-profiles.json

# 贴入 NVIDIA key(会创建 nvidia:default 或 nvidia:manual)
openclaw models auth paste-token --provider nvidia
# 出现提示后粘贴 nvapi-xxx... 完整 key,回车

验证:

1
2
openclaw models status
# 应看到 primary 是 nvidia/moonshotai/kimi-k2.5,且 auth active

4. 重启并测试

1
openclaw gateway restart

在 Telegram / Discord bot 中测试:

  • 问一个复杂问题(比如多步推理、代码生成)
  • 第一次可能慢 15–40 秒(NVIDIA 免费通道特性)
  • 如果超时或失败,会自动切到 Moonshot 官方通道

想强制测试 fallback,可以临时把 NVIDIA key 改错再问。

5.添加自动切换或分时段切换功能(可选)

**注意这是一个可选的步骤:**我在想,有没有更便捷的方式,因为毕竟免费的nvidia/moonshotai/kimi-k2.5还是比较卡的,特别是晚上,可不可以白天自动切换使用/moonshotai/kimi-k2.5晚上自动切换使用nvidia/moonshotai/kimi-k2.5,后者,按照如果相应速度超过10秒来区分,默认使用免费版api,卡顿10秒切换为官方api呢?理论上是可以的,并且把要求向openclaw提出,它就会自己实现。

当然,手动通过/model命令来切换模型也不那么麻烦,看你自己选择了。

常见坑 & 解决

问题 现象 解决
No API key found for provider “nvidia-kimi” 之前用 /models 选过 nvidia-kimi 清 sessions/cache、重设 primary 为 nvidia/…
Request aborted / timeout NVIDIA 通道慢或网络问题 正常现象,fallback 会接管
还是走 Moonshot allowlist 限制 删除 agents.defaults.models
thinking 不显示 reasoning: false 确保两个模型都设 reasoning: true

总结

  • 日常 90%+ 流量走 NVIDIA → 几乎 0 token 成本
  • 复杂任务 / 超时自动切 Moonshot → 保证可用性
  • 支持多模态 + 思考链 → 功能完整

我自认为,目前(2026 年 3 月)这是 OpenClaw 用户薅 Kimi K2.5 羊毛最稳定、省钱的组合。如有其他,欢迎赐教!


目前我找到的openclawd最省token方法
http://hucstar.github.io/2026/02/28/目前我找到的openclawd最省token方法/
作者
Star
发布于
2026年2月28日
更新于
2026年3月15日
许可协议