OpenAI
OpenAI предоставляет разработчикам API для моделей GPT. Codex поддерживает вход через ChatGPT для доступа по подписке или вход по API-ключу для доступа с оплатой по использованию. Облачный Codex требует входа через ChatGPT. OpenAI явно поддерживает использование OAuth по подписке во внешних инструментах/воркфлоу, таких как OpenClaw.
Вариант A: API-ключ OpenAI (OpenAI Platform)
Лучше для: прямого доступа к API и биллинга по использованию. Получите свой API-ключ в панели управления OpenAI.
Настройка через CLI
openclaw onboard --auth-choice openai-api-key
# или неинтерактивно
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Фрагмент конфигурации
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
Текущая документация OpenAI по API моделей перечисляет gpt-5.4 и gpt-5.4-pro для прямого использования API OpenAI. OpenClaw перенаправляет оба через путь openai/* Responses.
Вариант B: Подписка OpenAI Code (Codex)
Лучше для: использования доступа по подписке ChatGPT/Codex вместо API-ключа. Облачный Codex требует входа через ChatGPT, в то время как CLI Codex поддерживает вход через ChatGPT или API-ключ.
Настройка через CLI (OAuth Codex)
# Запустите OAuth Codex в мастере
openclaw onboard --auth-choice openai-codex
# Или запустите OAuth напрямую
openclaw models auth login --provider openai-codex
Фрагмент конфигурации (подписка Codex)
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
Текущая документация OpenAI по Codex перечисляет gpt-5.4 как текущую модель Codex. OpenClaw сопоставляет её с openai-codex/gpt-5.4 для использования OAuth ChatGPT/Codex.
Транспорт по умолчанию
OpenClaw использует pi-ai для потоковой передачи моделей. Для обоих путей openai/* и openai-codex/* транспорт по умолчанию — "auto" (сначала WebSocket, затем откат на SSE). Вы можете установить agents.defaults.models.<provider/model>.params.transport:
"sse": принудительно использовать SSE"websocket": принудительно использовать WebSocket"auto": попробовать WebSocket, затем откатиться на SSE
Для openai/* (Responses API) OpenClaw также по умолчанию включает прогрев WebSocket (openaiWsWarmup: true), когда используется транспорт WebSocket. Связанная документация OpenAI:
{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}
Прогрев WebSocket OpenAI
Документация OpenAI описывает прогрев как опциональный. OpenClaw включает его по умолчанию для openai/*, чтобы уменьшить задержку первого хода при использовании транспорта WebSocket.
Отключить прогрев
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
Включить прогрев явно
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}
Приоритетная обработка OpenAI
API OpenAI предоставляет приоритетную обработку через service_tier=priority. В OpenClaw установите agents.defaults.models["openai/<model>"].params.serviceTier, чтобы передать это поле в прямых запросах к openai/* Responses.
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}
Поддерживаемые значения: auto, default, flex и priority.
Серверная компрессия OpenAI Responses
Для прямых моделей OpenAI Responses (openai/*, использующих api: "openai-responses" с baseUrl на api.openai.com), OpenClaw теперь автоматически включает подсказки полезной нагрузки для серверной компрессии OpenAI:
- Принудительно устанавливает
store: true(если только совместимость модели не устанавливаетsupportsStore: false) - Внедряет
context_management: [{ type: "compaction", compact_threshold: ... }]
По умолчанию compact_threshold составляет 70% от contextWindow модели (или 80000, если недоступно).
Включить серверную компрессию явно
Используйте это, когда хотите принудительно внедрить context_management в совместимых моделях Responses (например, Azure OpenAI Responses):
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
Включить с пользовательским порогом
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Отключить серверную компрессию
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}
responsesServerCompaction управляет только внедрением context_management. Прямые модели OpenAI Responses всё равно принудительно устанавливают store: true, если только совместимость не устанавливает supportsStore: false.
Примечания
- Ссылки на модели всегда используют формат
провайдер/модель(см. /concepts/models). - Подробности аутентификации и правила повторного использования находятся в /concepts/oauth.