模型故障切换
Fallback 机制是 OpenClaw 最核心的省钱和保障可用性的策略。当主模型不可用时,系统自动切换到备选模型,确保工作流不中断。
工作原理
用户请求 → 主模型 (primary)
↓ 失败(超时/限流/报错)
备选模型 1 (fallback[0])
↓ 失败
备选模型 2 (fallback[1])
↓ 失败
...继续尝试 fallback 链触发条件
以下情况会触发自动切换:
- API 错误(5xx):服务端故障
- 请求超时:网络不稳定或模型响应慢
- 额度耗尽(429):速率限制或余额不足
- 服务不可用:模型下线或维护
配置示例
推荐配置(方案四:混合最优)
在 ~/.openclaw/openclaw.json 中设置:
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallbacks": [
"anthropic/claude-haiku-4-5",
"deepseek/deepseek-chat"
]
}
}
}
}这套配置的逻辑是:
- Sonnet 4.6($3.00/1M)处理主要任务
- Sonnet 不可用时降级到 Haiku 4.5($1.00/1M),保持 Claude 生态
- Claude 全线不可用时切换到 DeepSeek($0.14/1M),成本极低
极致省钱配置
json
{
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-chat",
"fallbacks": [
"zai/glm-5-flash",
"ollama/qwen3.5-coder:32b"
]
}
}
}
}带本地兜底的配置
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallbacks": [
"deepseek/deepseek-chat",
"ollama/qwen3.5-coder:32b"
]
}
}
}
}本地模型兜底
将 Ollama 本地模型放在 Fallback 链末尾,即使所有云端 API 都不可用,你仍然能继续工作。
价格速查排行
按输入价格从低到高排列(单位:美元 / 1M tokens):
| 排名 | 模型 | 输入/1M | 输出/1M |
|---|---|---|---|
| 1 | Ollama 本地模型 | 免费 | 免费 |
| 2 | DeepSeek V3.2.2 | $0.14 | $0.28 |
| 3 | 豆包 Seed 2.0 Pro | $0.47 | $2.37 |
| 4 | MiniMax M2.5 | $0.50 | $2.00 |
| 5 | Kimi K2.5 | $0.60 | $3.00 |
| 6 | 智谱 GLM-5 | $0.80 | $2.56 |
| 7 | Claude Haiku 4.5 | $1.00 | $5.00 |
| 8 | 通义千问 Qwen 3.5 Max | $1.20 | $6.00 |
| 9 | Google Gemini 3 Pro | $2.00 | $12.00 |
| 10 | OpenAI GPT-5.4 | $2.50 | $15.00 |
| 11 | Claude Sonnet 4.6 | $3.00 | $15.00 |
| 12 | Claude Opus 4.6 | $5.00 | $25.00 |
配置要点速查
| 操作 | 命令 |
|---|---|
| 交互式初始化 | openclaw onboard |
| 查看已配置模型 | openclaw models list |
| 探测模型可用性 | openclaw models status --probe |
| 设置主模型 | openclaw config set agents.defaults.model.primary <model-id> |
| 重启网关(配置生效) | openclaw gateway restart |
修改配置后
部分配置修改后需要执行 openclaw gateway restart 才能生效,特别是涉及 Provider 和 Fallback 链的变更。