概要
モデルプロバイダー
OpenClawは多くのLLMプロバイダーを利用できます。プロバイダーを選択し、認証を行い、デフォルトモデルを provider/model の形式で設定します。チャットチャネルのドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost (プラグイン)/など)をお探しですか?チャネルを参照してください。
クイックスタート
- プロバイダーで認証を行います(通常は
openclaw onboardを使用)。 - デフォルトモデルを設定します:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
プロバイダードキュメント
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- GLM models
- Hugging Face (Inference)
- Kilocode
- LiteLLM (unified gateway)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (ローカルモデル)
- OpenAI (API + Codex)
- OpenCode Zen
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, プライバシー重視)
- vLLM (ローカルモデル)
- Xiaomi
- Z.AI
文字起こしプロバイダー
コミュニティツール
- Claude Max API Proxy - Claudeサブスクリプション認証情報用のコミュニティプロキシ(使用前にAnthropicのポリシー/利用規約を確認してください)
完全なプロバイダーカタログ(xAI、Groq、Mistralなど)と高度な設定については、モデルプロバイダーを参照してください。