プロバイダー

Venice AI

Veniceは、プライバシーを最優先にした推論と、プロプライエタリモデルへのオプションの匿名化アクセスを実現する、当社のハイライトVeniceセットアップです。Venice AIは、プライバシー重視のAI推論を提供し、検閲なしモデルのサポートと、主要なプロプライエタリモデルへの匿名化プロキシを介したアクセスを可能にします。すべての推論はデフォルトでプライベートです。データのトレーニングやロギングは行われません。

OpenClawでVeniceを選ぶ理由

  • オープンソースモデルのためのプライベート推論(ロギングなし)。
  • 必要に応じて利用できる検閲なしモデル
  • 品質が重要な場合のプロプライエタリモデル(Opus/GPT/Gemini)への匿名化アクセス
  • OpenAI互換の/v1エンドポイント。

プライバシーモード

Veniceは2つのプライバシーレベルを提供します。これを理解することは、モデルを選択する上で重要です:

モード説明モデル
プライベート完全にプライベート。プロンプト/レスポンスは決して保存またはログ記録されません。一時的です。Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensoredなど。
匿名化Veniceを介してプロキシされ、メタデータが除去されます。基盤となるプロバイダー(OpenAI, Anthropic, Google, xAI)には匿名化されたリクエストが見えます。Claude, GPT, Gemini, Grok

特徴

  • プライバシー重視: 「プライベート」(完全プライベート)と「匿名化」(プロキシ経由)のモードを選択可能
  • 検閲なしモデル: コンテンツ制限のないモデルへのアクセス
  • 主要モデルへのアクセス: Veniceの匿名化プロキシを介してClaude、GPT、Gemini、Grokを利用可能
  • OpenAI互換API: 簡単な統合のための標準/v1エンドポイント
  • ストリーミング: ✅ すべてのモデルでサポート
  • 関数呼び出し: ✅ 選択されたモデルでサポート(モデルの機能を確認)
  • ビジョン: ✅ ビジョン機能を持つモデルでサポート
  • 厳しいレート制限なし: 極端な使用にはフェアユースによるスロットリングが適用される場合があります

セットアップ

1. APIキーの取得

  1. venice.aiでサインアップ
  2. Settings → API Keys → Create new keyに移動
  3. APIキーをコピー(形式: vapi_xxxxxxxxxxxx

2. OpenClawの設定

オプションA: 環境変数

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

オプションB: インタラクティブセットアップ(推奨)

openclaw onboard --auth-choice venice-api-key

これにより以下が行われます:

  1. APIキーの入力プロンプト(または既存のVENICE_API_KEYを使用)
  2. 利用可能なすべてのVeniceモデルの表示
  3. デフォルトモデルの選択
  4. プロバイダーの自動設定

オプションC: 非インタラクティブ

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. セットアップの確認

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

モデル選択

セットアップ後、OpenClawは利用可能なすべてのVeniceモデルを表示します。ニーズに基づいて選択してください:

  • デフォルトモデル: 強力なプライベート推論とビジョンを兼ね備えたvenice/kimi-k2-5
  • 高性能オプション: 最も強力な匿名化Veniceパスであるvenice/claude-opus-4-6
  • プライバシー: 完全にプライベートな推論には「プライベート」モデルを選択。
  • 性能: Veniceのプロキシを介してClaude、GPT、Geminiにアクセスするには「匿名化」モデルを選択。

デフォルトモデルはいつでも変更できます:

openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6

利用可能なすべてのモデルを一覧表示:

openclaw models list | grep venice

openclaw configureによる設定

  1. openclaw configureを実行
  2. Model/authを選択
  3. Venice AIを選択

どのモデルを使用すべきですか?

ユースケース推奨モデル理由
一般的なチャット(デフォルト)kimi-k2-5強力なプライベート推論とビジョン
最高の総合品質claude-opus-4-6最も強力な匿名化Veniceオプション
プライバシー + コーディングqwen3-coder-480b-a35b-instruct大規模コンテキストを持つプライベートコーディングモデル
プライベートビジョンkimi-k2-5プライベートモードを離れずにビジョンサポート
高速 + 低コストqwen3-4b軽量推論モデル
複雑なプライベートタスクdeepseek-v3.2強力な推論、ただしVeniceツールサポートなし
検閲なしvenice-uncensoredコンテンツ制限なし

利用可能なモデル(合計41)

プライベートモデル(26)— 完全プライベート、ロギングなし

モデルID名前コンテキスト特徴
kimi-k2-5Kimi K2.5256kデフォルト、推論、ビジョン
kimi-k2-thinkingKimi K2 Thinking256k推論
llama-3.3-70bLlama 3.3 70B128k汎用
llama-3.2-3bLlama 3.2 3B128k汎用
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128k汎用、ツール無効
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128k推論
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128k汎用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kコーディング
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kコーディング
qwen3-5-35b-a3bQwen3.5 35B A3B256k推論、ビジョン
qwen3-next-80bQwen3 Next 80B256k汎用
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kビジョン
qwen3-4bVenice Small (Qwen3 4B)32k高速、推論
deepseek-v3.2DeepSeek V3.2160k推論、ツール無効
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32k検閲なし、ツール無効
mistral-31-24bVenice Medium (Mistral)128kビジョン
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kビジョン
openai-gpt-oss-120bOpenAI GPT OSS 120B128k汎用
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128k汎用
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128k推論
zai-org-glm-4.6GLM 4.6198k汎用
zai-org-glm-4.7GLM 4.7198k推論
zai-org-glm-4.7-flashGLM 4.7 Flash128k推論
zai-org-glm-5GLM 5198k推論
minimax-m21MiniMax M2.1198k推論
minimax-m25MiniMax M2.5198k推論

匿名化モデル(15)— Veniceプロキシ経由

モデルID名前コンテキスト特徴
claude-opus-4-6Claude Opus 4.6 (via Venice)1M推論、ビジョン
claude-opus-4-5Claude Opus 4.5 (via Venice)198k推論、ビジョン
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1M推論、ビジョン
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198k推論、ビジョン
openai-gpt-54GPT-5.4 (via Venice)1M推論、ビジョン
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400k推論、ビジョン、コーディング
openai-gpt-52GPT-5.2 (via Venice)256k推論
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256k推論、ビジョン、コーディング
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kビジョン
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kビジョン
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1M推論、ビジョン
gemini-3-pro-previewGemini 3 Pro (via Venice)198k推論、ビジョン
gemini-3-flash-previewGemini 3 Flash (via Venice)256k推論、ビジョン
grok-41-fastGrok 4.1 Fast (via Venice)1M推論、ビジョン
grok-code-fast-1Grok Code Fast 1 (via Venice)256k推論、コーディング

モデルディスカバリー

OpenClawは、VENICE_API_KEYが設定されている場合、Venice APIからモデルを自動的に検出します。APIに到達できない場合、静的カタログにフォールバックします。/modelsエンドポイントは公開されています(一覧表示に認証は不要)が、推論には有効なAPIキーが必要です。

ストリーミングとツールサポート

機能サポート
ストリーミング✅ すべてのモデル
関数呼び出し✅ ほとんどのモデル(APIのsupportsFunctionCallingを確認)
ビジョン/画像✅ 「ビジョン」機能がマークされたモデル
JSONモードresponse_formatを介してサポート

料金

Veniceはクレジットベースのシステムを使用しています。最新の料金はvenice.ai/pricingで確認してください:

  • プライベートモデル: 一般的に低コスト
  • 匿名化モデル: 直接APIの料金 + わずかなVenice手数料に類似

比較: Venice vs 直接API

側面Venice(匿名化)直接API
プライバシーメタデータ除去、匿名化アカウントに紐付け
レイテンシ+10-50ms(プロキシ)直接
機能ほとんどの機能をサポート全機能
課金Veniceクレジットプロバイダー課金

使用例

# デフォルトのプライベートモデルを使用
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Venice経由でClaude Opusを使用(匿名化)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# 検閲なしモデルを使用
openclaw agent --model venice/venice-uncensored --message "Draft options"

# 画像付きビジョンモデルを使用
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# コーディングモデルを使用
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

トラブルシューティング

APIキーが認識されない

echo $VENICE_API_KEY
openclaw models list | grep venice

キーがvapi_で始まっていることを確認してください。

モデルが利用できない

Veniceモデルカタログは動的に更新されます。現在利用可能なモデルを確認するにはopenclaw models listを実行してください。一部のモデルは一時的にオフラインの場合があります。

接続の問題

Venice APIはhttps://api.venice.ai/api/v1にあります。ネットワークがHTTPS接続を許可していることを確認してください。

設定ファイルの例

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

リンク

Vercel AI GatewayvLLM