模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个提供商,完成身份验证,然后将
默认模型设置为 provider/model。
在找聊天渠道文档(WhatsApp/Telegram/Discord/Slack/Mattermost(插件)/等)?请参见 Channels。
- 使用该提供商进行身份验证(通常通过
openclaw onboard)。 - 设置默认模型:
{ agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },}- Amazon Bedrock
- Anthropic(API + Claude Code CLI)
- Cloudflare AI Gateway
- GLM 模型
- Hugging Face(Inference)
- Kilocode
- LiteLLM(统一网关)
- MiniMax
- Mistral
- Moonshot AI(Kimi + Kimi Coding)
- NVIDIA
- Ollama(云端 + 本地模型)
- OpenAI(API + Codex)
- OpenCode(Zen + Go)
- OpenRouter
- Qianfan
- Qwen(OAuth)
- Together AI
- Vercel AI Gateway
- Venice(Venice AI,注重隐私)
- vLLM(本地模型)
- Xiaomi
- Z.AI
- Claude Max API Proxy - 面向 Claude 订阅凭证的社区代理(使用前请核实 Anthropic 政策/条款)
有关完整的提供商目录(xAI、Groq、Mistral 等)和高级配置, 请参见 模型提供商。