プロバイダー

OpenAI

OpenAIはGPTモデルのための開発者向けAPIを提供しています。Codexは、サブスクリプションアクセスのためのChatGPTサインイン、または使用量ベースのアクセスのためのAPIキーサインインをサポートしています。CodexクラウドではChatGPTサインインが必要です。OpenAIは、OpenClawのような外部ツール/ワークフローでのサブスクリプションOAuthの使用を明示的にサポートしています。

オプションA: OpenAI APIキー (OpenAI Platform)

最適な用途: 直接APIアクセスと使用量ベースの課金。OpenAIダッシュボードからAPIキーを取得してください。

CLI設定

openclaw onboard --auth-choice openai-api-key
# または非対話型
openclaw onboard --openai-api-key "$OPENAI_API_KEY"

設定スニペット

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

OpenAIの現在のAPIモデルドキュメントでは、直接OpenAI API使用のためにgpt-5.4gpt-5.4-proがリストされています。OpenClawは両方をopenai/* Responsesパスを通じて転送します。

オプションB: OpenAI Code (Codex) サブスクリプション

最適な用途: APIキーの代わりにChatGPT/Codexサブスクリプションアクセスを使用する場合。CodexクラウドではChatGPTサインインが必要ですが、Codex CLIはChatGPTまたはAPIキーサインインの両方をサポートしています。

CLI設定 (Codex OAuth)

# ウィザードでCodex OAuthを実行
openclaw onboard --auth-choice openai-codex

# またはOAuthを直接実行
openclaw models auth login --provider openai-codex

設定スニペット (Codexサブスクリプション)

{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenAIの現在のCodexドキュメントでは、現在のCodexモデルとしてgpt-5.4がリストされています。OpenClawは、ChatGPT/Codex OAuth使用のためにこれをopenai-codex/gpt-5.4にマッピングします。

トランスポートのデフォルト

OpenClawはモデルストリーミングにpi-aiを使用します。openai/*openai-codex/*の両方について、デフォルトのトランスポートは"auto"です(WebSocket優先、その後SSEフォールバック)。agents.defaults.models.<provider/model>.params.transportを設定できます:

  • "sse": SSEを強制
  • "websocket": WebSocketを強制
  • "auto": WebSocketを試し、その後SSEにフォールバック

openai/* (Responses API) の場合、OpenClawはWebSocketトランスポート使用時にデフォルトでWebSocketウォームアップも有効にします (openaiWsWarmup: true)。関連するOpenAIドキュメント:

{
  agents: {
    defaults: {
      model: { primary: "openai-codex/gpt-5.4" },
      models: {
        "openai-codex/gpt-5.4": {
          params: {
            transport: "auto",
          },
        },
      },
    },
  },
}

OpenAI WebSocketウォームアップ

OpenAIドキュメントではウォームアップはオプションと説明されています。OpenClawは、WebSocketトランスポート使用時の初回ターンの遅延を減らすために、openai/*に対してデフォルトでこれを有効にします。

ウォームアップを無効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: false,
          },
        },
      },
    },
  },
}

ウォームアップを明示的に有効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: true,
          },
        },
      },
    },
  },
}

OpenAI優先処理

OpenAIのAPIは、service_tier=priorityを介して優先処理を公開しています。OpenClawでは、agents.defaults.models["openai/<model>"].params.serviceTierを設定して、直接openai/* Responsesリクエストでこのフィールドを通過させることができます。

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            serviceTier: "priority",
          },
        },
      },
    },
  },
}

サポートされる値はautodefaultflexpriorityです。

OpenAI Responsesサーバーサイド圧縮

直接OpenAI Responsesモデル (openai/*api: "openai-responses"baseUrlapi.openai.com の場合) の場合、OpenClawはOpenAIサーバーサイド圧縮ペイロードヒントを自動的に有効にします:

  • store: trueを強制 (モデル互換性がsupportsStore: falseを設定しない限り)
  • context_management: [{ type: "compaction", compact_threshold: ... }]を注入

デフォルトでは、compact_thresholdはモデルのcontextWindow70% (または利用できない場合は80000) です。

サーバーサイド圧縮を明示的に有効化

互換性のあるResponsesモデル (例えばAzure OpenAI Responses) でcontext_management注入を強制したい場合に使用します:

{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
          },
        },
      },
    },
  },
}

カスタムしきい値で有効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
            responsesCompactThreshold: 120000,
          },
        },
      },
    },
  },
}

サーバーサイド圧縮を無効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: false,
          },
        },
      },
    },
  },
}

responsesServerCompactioncontext_management注入のみを制御します。直接OpenAI Responsesモデルは、互換性がsupportsStore: falseを設定しない限り、引き続きstore: trueを強制します。

注意事項

  • モデル参照は常にprovider/modelを使用します (/concepts/modelsを参照)。
  • 認証の詳細と再利用ルールは/concepts/oauthにあります。

OllamaOpenCode Zen