Model Providers
模型提供商
OpenClaw 支持多种 LLM 后端。核心模式是:先完成 provider 认证,再把默认模型设置成 provider/model。如果你刚开始,不需要一次配置太多 provider,先跑通一个稳定主模型即可。
常见 provider 路径
OpenAI
可走 API Key,也可以通过 Codex OAuth / 订阅路径进入。适合编码、通用推理与多模型混用。
Anthropic
常见路径是 API Key 或 setup-token。服务器环境通常优先考虑可复制的密钥 / token 方案。
Venice AI
偏隐私优先路径,可把默认模型放在 venice/llama-3.3-70b,需要更强推理时再切到 Opus 级模型。
Moonshot / GLM / MiniMax
适合按预算、地区和模型偏好做更细分的路由组合。
OpenRouter / AI Gateway
如果你希望集中管理多个模型后端或统一账单与调用入口,这类聚合层会更方便。
Ollama / 自托管
适合隐私要求更高的场景,但日常聊天体验是否足够取决于你的本地模型质量与机器资源。
最短设置路径
通过向导完成认证
大多数用户都应该优先走向导,而不是手改配置。
openclaw onboard 查看模型状态
确认当前 provider 是否真的可用,避免以为配置了其实没有凭证。
openclaw models status 设置默认模型
典型的配置键是
provider/model 形式。{
agents: {
defaults: {
model: { primary: "anthropic/claude-opus-4-5" }
}
}
} 在真实环境里,你可以用配置文件、配置 RPC 或向导来设置,而不必手写整份 JSON。
选择建议
先只启用一个可靠的主模型,把 Gateway、渠道和工具链跑通,再做 provider 扩展。
多 provider 的意义通常在于成本、地区、能力与回退策略,不是“越多越好”。
如果你在服务器上跑 OpenClaw,优先考虑可复制、可轮换的 API Key 或 setup-token,而不是只绑在本地机器上的 OAuth 状态。