Fournisseurs

Venice AI

Venice est notre configuration phare pour une inférence axée sur la confidentialité avec un accès anonymisé facultatif aux modèles propriétaires. Venice AI fournit une inférence IA axée sur la confidentialité avec prise en charge des modèles non censurés et un accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — pas d'entraînement sur vos données, pas de journalisation.

Pourquoi Venice dans OpenClaw

  • Inférence privée pour les modèles open-source (pas de journalisation).
  • Modèles non censurés quand vous en avez besoin.
  • Accès anonymisé aux modèles propriétaires (Opus/GPT/Gemini) quand la qualité compte.
  • Points de terminaison compatibles OpenAI /v1.

Modes de confidentialité

Venice propose deux niveaux de confidentialité — comprendre cela est essentiel pour choisir votre modèle :

ModeDescriptionModèles
PrivéEntièrement privé. Les invites/réponses ne sont jamais stockées ou journalisées. Éphémère.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
AnonymiséProxifié via Venice avec les métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées.Claude, GPT, Gemini, Grok

Fonctionnalités

  • Axé sur la confidentialité : Choisissez entre les modes "privé" (entièrement privé) et "anonymisé" (proxifié)
  • Modèles non censurés : Accès à des modèles sans restrictions de contenu
  • Accès aux principaux modèles : Utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
  • API compatible OpenAI : Points de terminaison standard /v1 pour une intégration facile
  • Streaming : ✅ Pris en charge sur tous les modèles
  • Appel de fonctions : ✅ Pris en charge sur certains modèles (vérifiez les capacités du modèle)
  • Vision : ✅ Pris en charge sur les modèles avec capacité de vision
  • Pas de limites de débit strictes : Une limitation d'usage équitable peut s'appliquer pour une utilisation extrême

Configuration

1. Obtenir une clé API

  1. Inscrivez-vous sur venice.ai
  2. Allez dans Paramètres → Clés API → Créer une nouvelle clé
  3. Copiez votre clé API (format : vapi_xxxxxxxxxxxx)

2. Configurer OpenClaw

Option A : Variable d'environnement

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

Option B : Configuration interactive (Recommandée)

openclaw onboard --auth-choice venice-api-key

Cela va :

  1. Demander votre clé API (ou utiliser la variable VENICE_API_KEY existante)
  2. Afficher tous les modèles Venice disponibles
  3. Vous laisser choisir votre modèle par défaut
  4. Configurer le fournisseur automatiquement

Option C : Non interactive

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Vérifier la configuration

openclaw agent --model venice/kimi-k2-5 --message "Bonjour, fonctionnes-tu ?"

Sélection du modèle

Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez en fonction de vos besoins :

  • Modèle par défaut : venice/kimi-k2-5 pour un raisonnement privé solide plus la vision.
  • Option haute capacité : venice/claude-opus-4-6 pour l'option anonymisée Venice la plus puissante.
  • Confidentialité : Choisissez les modèles "privés" pour une inférence entièrement privée.
  • Capacité : Choisissez les modèles "anonymisés" pour accéder à Claude, GPT, Gemini via le proxy de Venice.

Changez votre modèle par défaut à tout moment :

openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6

Lister tous les modèles disponibles :

openclaw models list | grep venice

Configurer via openclaw configure

  1. Exécutez openclaw configure
  2. Sélectionnez Modèle/auth
  3. Choisissez Venice AI

Quel modèle devrais-je utiliser ?

Cas d'utilisationModèle recommandéPourquoi
Chat général (par défaut)kimi-k2-5Raisonnement privé solide plus vision
Meilleure qualité globaleclaude-opus-4-6Option anonymisée Venice la plus puissante
Confidentialité + codageqwen3-coder-480b-a35b-instructModèle de codage privé avec grand contexte
Vision privéekimi-k2-5Prise en charge de la vision sans quitter le mode privé
Rapide + économiqueqwen3-4bModèle de raisonnement léger
Tâches privées complexesdeepseek-v3.2Raisonnement solide, mais pas de prise en charge des outils Venice
Non censurévenice-uncensoredPas de restrictions de contenu

Modèles disponibles (41 au total)

Modèles privés (26) — Entièrement privés, pas de journalisation

ID ModèleNomContexteFonctionnalités
kimi-k2-5Kimi K2.5256kPar défaut, raisonnement, vision
kimi-k2-thinkingKimi K2 Thinking256kRaisonnement
llama-3.3-70bLlama 3.3 70B128kGénéral
llama-3.2-3bLlama 3.2 3B128kGénéral
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGénéral, outils désactivés
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRaisonnement
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGénéral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCodage
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCodage
qwen3-5-35b-a3bQwen3.5 35B A3B256kRaisonnement, vision
qwen3-next-80bQwen3 Next 80B256kGénéral
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kRapide, raisonnement
deepseek-v3.2DeepSeek V3.2160kRaisonnement, outils désactivés
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kNon censuré, outils désactivés
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGénéral
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGénéral
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRaisonnement
zai-org-glm-4.6GLM 4.6198kGénéral
zai-org-glm-4.7GLM 4.7198kRaisonnement
zai-org-glm-4.7-flashGLM 4.7 Flash128kRaisonnement
zai-org-glm-5GLM 5198kRaisonnement
minimax-m21MiniMax M2.1198kRaisonnement
minimax-m25MiniMax M2.5198kRaisonnement

Modèles anonymisés (15) — Via le proxy Venice

ID ModèleNomContexteFonctionnalités
claude-opus-4-6Claude Opus 4.6 (via Venice)1MRaisonnement, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kRaisonnement, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MRaisonnement, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kRaisonnement, vision
openai-gpt-54GPT-5.4 (via Venice)1MRaisonnement, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kRaisonnement, vision, codage
openai-gpt-52GPT-5.2 (via Venice)256kRaisonnement
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kRaisonnement, vision, codage
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MRaisonnement, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kRaisonnement, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kRaisonnement, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MRaisonnement, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kRaisonnement, codage

Découverte des modèles

OpenClaw découvre automatiquement les modèles depuis l'API Venice lorsque VENICE_API_KEY est définie. Si l'API est inaccessible, il revient à un catalogue statique. Le point de terminaison /models est public (aucune authentification nécessaire pour la liste), mais l'inférence nécessite une clé API valide.

Streaming et prise en charge des outils

FonctionnalitéPrise en charge
Streaming✅ Tous les modèles
Appel de fonctions✅ La plupart des modèles (vérifiez supportsFunctionCalling dans l'API)
Vision/Images✅ Modèles marqués avec la fonctionnalité "Vision"
Mode JSON✅ Pris en charge via response_format

Tarification

Venice utilise un système basé sur les crédits. Consultez venice.ai/pricing pour les tarifs actuels :

  • Modèles privés : Généralement coût plus faible
  • Modèles anonymisés : Similaire à la tarification API directe + petit frais Venice

Comparaison : Venice vs API directe

AspectVenice (Anonymisé)API directe
ConfidentialitéMétadonnées supprimées, anonymiséVotre compte lié
Latence+10-50ms (proxy)Direct
FonctionnalitésLa plupart des fonctionnalités prises en chargeToutes les fonctionnalités
FacturationCrédits VeniceFacturation du fournisseur

Exemples d'utilisation

# Utiliser le modèle privé par défaut
openclaw agent --model venice/kimi-k2-5 --message "Vérification rapide de l'état"

# Utiliser Claude Opus via Venice (anonymisé)
openclaw agent --model venice/claude-opus-4-6 --message "Résume cette tâche"

# Utiliser un modèle non censuré
openclaw agent --model venice/venice-uncensored --message "Rédiger des options"

# Utiliser un modèle de vision avec une image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Examiner l'image jointe"

# Utiliser un modèle de codage
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactoriser cette fonction"

Dépannage

Clé API non reconnue

echo $VENICE_API_KEY
openclaw models list | grep venice

Assurez-vous que la clé commence par vapi_.

Modèle non disponible

Le catalogue de modèles Venice se met à jour dynamiquement. Exécutez openclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.

Problèmes de connexion

L'API Venice se trouve à https://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.

Exemple de fichier de configuration

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Liens

Vercel AI GatewayvLLM