Обзор
Провайдеры моделей
OpenClaw может использовать множество провайдеров LLM. Выберите провайдера, пройдите аутентификацию, затем установите модель по умолчанию как провайдер/модель. Ищете документацию по каналам для чата (WhatsApp/Telegram/Discord/Slack/Mattermost (плагин)/и т.д.)? Смотрите Каналы.
Быстрый старт
- Пройдите аутентификацию у провайдера (обычно через
openclaw onboard). - Установите модель по умолчанию:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Документация по провайдерам
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- GLM модели
- Hugging Face (Inference)
- Kilocode
- LiteLLM (унифицированный шлюз)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (локальные модели)
- OpenAI (API + Codex)
- OpenCode Zen
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, ориентированный на приватность)
- vLLM (локальные модели)
- Xiaomi
- Z.AI
Провайдеры транскрипции
Инструменты сообщества
- Claude Max API Proxy - Прокси сообщества для учетных данных подписки Claude (перед использованием проверьте политику/условия Anthropic)
Полный каталог провайдеров (xAI, Groq, Mistral и т.д.) и расширенная конфигурация доступны в разделе Провайдеры моделей.