OpenAI
OpenAIはGPTモデルのための開発者向けAPIを提供しています。Codexは、サブスクリプションアクセスのためのChatGPTサインイン、または使用量ベースのアクセスのためのAPIキーサインインをサポートしています。CodexクラウドではChatGPTサインインが必要です。OpenAIは、OpenClawのような外部ツール/ワークフローでのサブスクリプションOAuthの使用を明示的にサポートしています。
オプションA: OpenAI APIキー (OpenAI Platform)
最適な用途: 直接APIアクセスと使用量ベースの課金。OpenAIダッシュボードからAPIキーを取得してください。
CLI設定
openclaw onboard --auth-choice openai-api-key
# または非対話型
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
設定スニペット
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
OpenAIの現在のAPIモデルドキュメントでは、直接OpenAI API使用のためにgpt-5.4とgpt-5.4-proがリストされています。OpenClawは両方をopenai/* Responsesパスを通じて転送します。
オプションB: OpenAI Code (Codex) サブスクリプション
最適な用途: APIキーの代わりにChatGPT/Codexサブスクリプションアクセスを使用する場合。CodexクラウドではChatGPTサインインが必要ですが、Codex CLIはChatGPTまたはAPIキーサインインの両方をサポートしています。
CLI設定 (Codex OAuth)
# ウィザードでCodex OAuthを実行
openclaw onboard --auth-choice openai-codex
# またはOAuthを直接実行
openclaw models auth login --provider openai-codex
設定スニペット (Codexサブスクリプション)
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
OpenAIの現在のCodexドキュメントでは、現在のCodexモデルとしてgpt-5.4がリストされています。OpenClawは、ChatGPT/Codex OAuth使用のためにこれをopenai-codex/gpt-5.4にマッピングします。
トランスポートのデフォルト
OpenClawはモデルストリーミングにpi-aiを使用します。openai/*とopenai-codex/*の両方について、デフォルトのトランスポートは"auto"です(WebSocket優先、その後SSEフォールバック)。agents.defaults.models.<provider/model>.params.transportを設定できます:
"sse": SSEを強制"websocket": WebSocketを強制"auto": WebSocketを試し、その後SSEにフォールバック
openai/* (Responses API) の場合、OpenClawはWebSocketトランスポート使用時にデフォルトでWebSocketウォームアップも有効にします (openaiWsWarmup: true)。関連するOpenAIドキュメント:
{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}
OpenAI WebSocketウォームアップ
OpenAIドキュメントではウォームアップはオプションと説明されています。OpenClawは、WebSocketトランスポート使用時の初回ターンの遅延を減らすために、openai/*に対してデフォルトでこれを有効にします。
ウォームアップを無効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
ウォームアップを明示的に有効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}
OpenAI優先処理
OpenAIのAPIは、service_tier=priorityを介して優先処理を公開しています。OpenClawでは、agents.defaults.models["openai/<model>"].params.serviceTierを設定して、直接openai/* Responsesリクエストでこのフィールドを通過させることができます。
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}
サポートされる値はauto、default、flex、priorityです。
OpenAI Responsesサーバーサイド圧縮
直接OpenAI Responsesモデル (openai/* で api: "openai-responses" と baseUrl が api.openai.com の場合) の場合、OpenClawはOpenAIサーバーサイド圧縮ペイロードヒントを自動的に有効にします:
store: trueを強制 (モデル互換性がsupportsStore: falseを設定しない限り)context_management: [{ type: "compaction", compact_threshold: ... }]を注入
デフォルトでは、compact_thresholdはモデルのcontextWindowの70% (または利用できない場合は80000) です。
サーバーサイド圧縮を明示的に有効化
互換性のあるResponsesモデル (例えばAzure OpenAI Responses) でcontext_management注入を強制したい場合に使用します:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
カスタムしきい値で有効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
サーバーサイド圧縮を無効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}
responsesServerCompactionはcontext_management注入のみを制御します。直接OpenAI Responsesモデルは、互換性がsupportsStore: falseを設定しない限り、引き続きstore: trueを強制します。
注意事項
- モデル参照は常に
provider/modelを使用します (/concepts/modelsを参照)。 - 認証の詳細と再利用ルールは/concepts/oauthにあります。