Venice AI
Venice est notre configuration phare pour une inférence axée sur la confidentialité avec un accès anonymisé facultatif aux modèles propriétaires. Venice AI fournit une inférence IA axée sur la confidentialité avec prise en charge des modèles non censurés et un accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — pas d'entraînement sur vos données, pas de journalisation.
Pourquoi Venice dans OpenClaw
- Inférence privée pour les modèles open-source (pas de journalisation).
- Modèles non censurés quand vous en avez besoin.
- Accès anonymisé aux modèles propriétaires (Opus/GPT/Gemini) quand la qualité compte.
- Points de terminaison compatibles OpenAI
/v1.
Modes de confidentialité
Venice propose deux niveaux de confidentialité — comprendre cela est essentiel pour choisir votre modèle :
| Mode | Description | Modèles |
|---|---|---|
| Privé | Entièrement privé. Les invites/réponses ne sont jamais stockées ou journalisées. Éphémère. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc. |
| Anonymisé | Proxifié via Venice avec les métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées. | Claude, GPT, Gemini, Grok |
Fonctionnalités
- Axé sur la confidentialité : Choisissez entre les modes "privé" (entièrement privé) et "anonymisé" (proxifié)
- Modèles non censurés : Accès à des modèles sans restrictions de contenu
- Accès aux principaux modèles : Utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
- API compatible OpenAI : Points de terminaison standard
/v1pour une intégration facile - Streaming : ✅ Pris en charge sur tous les modèles
- Appel de fonctions : ✅ Pris en charge sur certains modèles (vérifiez les capacités du modèle)
- Vision : ✅ Pris en charge sur les modèles avec capacité de vision
- Pas de limites de débit strictes : Une limitation d'usage équitable peut s'appliquer pour une utilisation extrême
Configuration
1. Obtenir une clé API
- Inscrivez-vous sur venice.ai
- Allez dans Paramètres → Clés API → Créer une nouvelle clé
- Copiez votre clé API (format :
vapi_xxxxxxxxxxxx)
2. Configurer OpenClaw
Option A : Variable d'environnement
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Option B : Configuration interactive (Recommandée)
openclaw onboard --auth-choice venice-api-key
Cela va :
- Demander votre clé API (ou utiliser la variable
VENICE_API_KEYexistante) - Afficher tous les modèles Venice disponibles
- Vous laisser choisir votre modèle par défaut
- Configurer le fournisseur automatiquement
Option C : Non interactive
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. Vérifier la configuration
openclaw agent --model venice/kimi-k2-5 --message "Bonjour, fonctionnes-tu ?"
Sélection du modèle
Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez en fonction de vos besoins :
- Modèle par défaut :
venice/kimi-k2-5pour un raisonnement privé solide plus la vision. - Option haute capacité :
venice/claude-opus-4-6pour l'option anonymisée Venice la plus puissante. - Confidentialité : Choisissez les modèles "privés" pour une inférence entièrement privée.
- Capacité : Choisissez les modèles "anonymisés" pour accéder à Claude, GPT, Gemini via le proxy de Venice.
Changez votre modèle par défaut à tout moment :
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Lister tous les modèles disponibles :
openclaw models list | grep venice
Configurer via openclaw configure
- Exécutez
openclaw configure - Sélectionnez Modèle/auth
- Choisissez Venice AI
Quel modèle devrais-je utiliser ?
| Cas d'utilisation | Modèle recommandé | Pourquoi |
|---|---|---|
| Chat général (par défaut) | kimi-k2-5 | Raisonnement privé solide plus vision |
| Meilleure qualité globale | claude-opus-4-6 | Option anonymisée Venice la plus puissante |
| Confidentialité + codage | qwen3-coder-480b-a35b-instruct | Modèle de codage privé avec grand contexte |
| Vision privée | kimi-k2-5 | Prise en charge de la vision sans quitter le mode privé |
| Rapide + économique | qwen3-4b | Modèle de raisonnement léger |
| Tâches privées complexes | deepseek-v3.2 | Raisonnement solide, mais pas de prise en charge des outils Venice |
| Non censuré | venice-uncensored | Pas de restrictions de contenu |
Modèles disponibles (41 au total)
Modèles privés (26) — Entièrement privés, pas de journalisation
| ID Modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Par défaut, raisonnement, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Raisonnement |
llama-3.3-70b | Llama 3.3 70B | 128k | Général |
llama-3.2-3b | Llama 3.2 3B | 128k | Général |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | Général, outils désactivés |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Raisonnement |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | Général |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Codage |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Codage |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Raisonnement, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | Général |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Rapide, raisonnement |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Raisonnement, outils désactivés |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Non censuré, outils désactivés |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | Général |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | Général |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Raisonnement |
zai-org-glm-4.6 | GLM 4.6 | 198k | Général |
zai-org-glm-4.7 | GLM 4.7 | 198k | Raisonnement |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Raisonnement |
zai-org-glm-5 | GLM 5 | 198k | Raisonnement |
minimax-m21 | MiniMax M2.1 | 198k | Raisonnement |
minimax-m25 | MiniMax M2.5 | 198k | Raisonnement |
Modèles anonymisés (15) — Via le proxy Venice
| ID Modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Raisonnement, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Raisonnement, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Raisonnement, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Raisonnement, vision, codage |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Raisonnement |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Raisonnement, vision, codage |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Raisonnement, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Raisonnement, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Raisonnement, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Raisonnement, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Raisonnement, codage |
Découverte des modèles
OpenClaw découvre automatiquement les modèles depuis l'API Venice lorsque VENICE_API_KEY est définie. Si l'API est inaccessible, il revient à un catalogue statique. Le point de terminaison /models est public (aucune authentification nécessaire pour la liste), mais l'inférence nécessite une clé API valide.
Streaming et prise en charge des outils
| Fonctionnalité | Prise en charge |
|---|---|
| Streaming | ✅ Tous les modèles |
| Appel de fonctions | ✅ La plupart des modèles (vérifiez supportsFunctionCalling dans l'API) |
| Vision/Images | ✅ Modèles marqués avec la fonctionnalité "Vision" |
| Mode JSON | ✅ Pris en charge via response_format |
Tarification
Venice utilise un système basé sur les crédits. Consultez venice.ai/pricing pour les tarifs actuels :
- Modèles privés : Généralement coût plus faible
- Modèles anonymisés : Similaire à la tarification API directe + petit frais Venice
Comparaison : Venice vs API directe
| Aspect | Venice (Anonymisé) | API directe |
|---|---|---|
| Confidentialité | Métadonnées supprimées, anonymisé | Votre compte lié |
| Latence | +10-50ms (proxy) | Direct |
| Fonctionnalités | La plupart des fonctionnalités prises en charge | Toutes les fonctionnalités |
| Facturation | Crédits Venice | Facturation du fournisseur |
Exemples d'utilisation
# Utiliser le modèle privé par défaut
openclaw agent --model venice/kimi-k2-5 --message "Vérification rapide de l'état"
# Utiliser Claude Opus via Venice (anonymisé)
openclaw agent --model venice/claude-opus-4-6 --message "Résume cette tâche"
# Utiliser un modèle non censuré
openclaw agent --model venice/venice-uncensored --message "Rédiger des options"
# Utiliser un modèle de vision avec une image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Examiner l'image jointe"
# Utiliser un modèle de codage
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactoriser cette fonction"
Dépannage
Clé API non reconnue
echo $VENICE_API_KEY
openclaw models list | grep venice
Assurez-vous que la clé commence par vapi_.
Modèle non disponible
Le catalogue de modèles Venice se met à jour dynamiquement. Exécutez openclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.
Problèmes de connexion
L'API Venice se trouve à https://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.
Exemple de fichier de configuration
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}