Descripción general
Proveedores de Modelos
OpenClaw puede utilizar muchos proveedores de LLM. Elige un proveedor, autentícate y luego establece el modelo predeterminado como proveedor/modelo. ¿Buscas documentación sobre canales de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Consulta Canales.
Inicio rápido
- Autentícate con el proveedor (generalmente mediante
openclaw onboard). - Establece el modelo predeterminado:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Documentación de proveedores
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- Modelos GLM
- Hugging Face (Inferencia)
- Kilocode
- LiteLLM (puerta de enlace unificada)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (modelos locales)
- OpenAI (API + Codex)
- OpenCode Zen
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, centrado en la privacidad)
- vLLM (modelos locales)
- Xiaomi
- Z.AI
Proveedores de transcripción
Herramientas de la comunidad
- Claude Max API Proxy - Proxy comunitario para credenciales de suscripción a Claude (verifica la política/términos de Anthropic antes de usar)
Para el catálogo completo de proveedores (xAI, Groq, Mistral, etc.) y configuración avanzada, consulta Proveedores de modelos.
Inicio Rápido de Proveedores de Modelos