Fournisseurs
Litellm
LiteLLM est une passerelle LLM open-source qui fournit une API unifiée vers plus de 100 fournisseurs de modèles. Routez OpenClaw via LiteLLM pour obtenir un suivi centralisé des coûts, une journalisation et la flexibilité de changer de backends sans modifier votre configuration OpenClaw.
Pourquoi utiliser LiteLLM avec OpenClaw ?
- Suivi des coûts — Voyez exactement ce que dépense OpenClaw sur tous les modèles
- Routage de modèles — Passez entre Claude, GPT-4, Gemini, Bedrock sans changer la configuration
- Clés virtuelles — Créez des clés avec des limites de dépenses pour OpenClaw
- Journalisation — Logs complets des requêtes/réponses pour le débogage
- Basculement — Reprise automatique si votre fournisseur principal est indisponible
Démarrage rapide
Via l'intégration guidée
openclaw onboard --auth-choice litellm-api-key
Configuration manuelle
- Démarrez le proxy LiteLLM :
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
- Dirigez OpenClaw vers LiteLLM :
export LITELLM_API_KEY="votre-clé-litellm"
openclaw
C'est tout. OpenClaw route désormais via LiteLLM.
Configuration
Variables d'environnement
export LITELLM_API_KEY="sk-litellm-key"
Fichier de configuration
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
Clés virtuelles
Créez une clé dédiée pour OpenClaw avec des limites de dépenses :
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
Utilisez la clé générée comme LITELLM_API_KEY.
Routage de modèles
LiteLLM peut router les requêtes de modèles vers différents backends. Configurez cela dans votre config.yaml LiteLLM :
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw continue de demander claude-opus-4-6 — LiteLLM gère le routage.
Consultation de l'utilisation
Consultez le tableau de bord ou l'API de LiteLLM :
# Informations sur la clé
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Logs des dépenses
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
Notes
- LiteLLM s'exécute sur
http://localhost:4000par défaut - OpenClaw se connecte via le point de terminaison compatible OpenAI
/v1/chat/completions - Toutes les fonctionnalités d'OpenClaw fonctionnent via LiteLLM — aucune limitation