Aperçu
Fournisseurs de modèles
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez un fournisseur, authentifiez-vous, puis définissez le modèle par défaut comme fournisseur/modèle. Vous cherchez la documentation des canaux de discussion (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ? Voir Canaux.
Démarrage rapide
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Documentation des fournisseurs
- Amazon Bedrock
- Anthropic (API + CLI Claude Code)
- Cloudflare AI Gateway
- Modèles GLM
- Hugging Face (Inférence)
- Kilocode
- LiteLLM (passerelle unifiée)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (modèles locaux)
- OpenAI (API + Codex)
- OpenCode Zen
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, axé sur la confidentialité)
- vLLM (modèles locaux)
- Xiaomi
- Z.AI
Fournisseurs de transcription
Outils communautaires
- Claude Max API Proxy - Proxy communautaire pour les identifiants d'abonnement Claude (vérifiez la politique/les conditions d'Anthropic avant utilisation)
Pour le catalogue complet des fournisseurs (xAI, Groq, Mistral, etc.) et la configuration avancée, voir Fournisseurs de modèles.
Démarrage rapide des fournisseurs de modèles