トークン使用量とコスト
OpenClawは文字数ではなくトークンを追跡します。トークンはモデル固有ですが、ほとんどのOpenAIスタイルのモデルでは英語テキストに対して平均〜4文字が1トークンに相当します。
システムプロンプトの構築方法
OpenClawは毎回実行時に独自のシステムプロンプトを組み立てます。これには以下が含まれます:
- ツールリスト + 短い説明
- スキルリスト(メタデータのみ。指示は
readでオンデマンドで読み込まれます) - 自己更新指示
- ワークスペース + ブートストラップファイル(
AGENTS.md、SOUL.md、TOOLS.md、IDENTITY.md、USER.md、HEARTBEAT.md、新規時はBOOTSTRAP.md、さらに存在する場合はMEMORY.mdおよび/またはmemory.md)。大きなファイルはagents.defaults.bootstrapMaxChars(デフォルト: 20000)で切り詰められ、ブートストラップ注入の合計はagents.defaults.bootstrapTotalMaxChars(デフォルト: 150000)で制限されます。memory/*.mdファイルはメモリツール経由でオンデマンドであり、自動注入されません。 - 時間(UTC + ユーザータイムゾーン)
- 返信タグ + ハートビート動作
- ランタイムメタデータ(ホスト/OS/モデル/思考)
詳細な内訳はシステムプロンプトをご覧ください。
コンテキストウィンドウにカウントされるもの
モデルが受け取るすべてのものがコンテキスト制限にカウントされます:
- システムプロンプト(上記の全セクション)
- 会話履歴(ユーザー + アシスタントメッセージ)
- ツール呼び出しとツール結果
- 添付ファイル/トランスクリプト(画像、音声、ファイル)
- 圧縮要約と剪定アーティファクト
- プロバイダーラッパーや安全性ヘッダー(表示されませんが、カウントされます)
画像の場合、OpenClawはプロバイダー呼び出し前にトランスクリプト/ツール画像ペイロードをダウンスケールします。agents.defaults.imageMaxDimensionPx(デフォルト: 1200)を使用してこれを調整できます:
- 低い値は通常、ビジョントークン使用量とペイロードサイズを削減します。
- 高い値はOCR/UIの多いスクリーンショットの視覚的詳細をより多く保持します。
実用的な内訳(注入ファイル、ツール、スキル、システムプロンプトサイズごと)については、/context listまたは/context detailを使用してください。コンテキストを参照してください。
現在のトークン使用量を確認する方法
チャットで以下を使用します:
/status→ 絵文字豊富なステータスカードに、セッションモデル、コンテキスト使用量、最後の応答の入力/出力トークン、および推定コスト(APIキーのみ)が表示されます。/usage off|tokens|full→ すべての返信に応答ごとの使用量フッターを追加します。- セッションごとに永続化されます(
responseUsageとして保存)。 - OAuth認証ではコストは非表示になります(トークンのみ)。
- セッションごとに永続化されます(
/usage cost→ OpenClawセッションログからのローカルコスト概要を表示します。
その他のインターフェース:
- TUI/Web TUI:
/status+/usageがサポートされています。 - CLI:
openclaw status --usageおよびopenclaw channels listはプロバイダーのクォータウィンドウを表示します(応答ごとのコストではありません)。
コスト推定(表示される場合)
コストはモデル価格設定から推定されます:
models.providers.<provider>.models[].cost
これらはinput、output、cacheRead、cacheWriteの100万トークンあたりのUSDです。価格設定が欠落している場合、OpenClawはトークンのみを表示します。OAuthトークンはドルコストを表示しません。
キャッシュTTLと剪定の影響
プロバイダーのプロンプトキャッシングは、キャッシュTTLウィンドウ内でのみ適用されます。OpenClawはオプションでキャッシュTTL剪定を実行できます:キャッシュTTLが期限切れになったらセッションを剪定し、その後キャッシュウィンドウをリセットして、後続のリクエストが完全な履歴を再キャッシュする代わりに新しくキャッシュされたコンテキストを再利用できるようにします。これにより、セッションがTTLを超えてアイドル状態になった場合のキャッシュ書き込みコストを低く保ちます。ゲートウェイ設定で設定し、動作の詳細はセッション剪定を参照してください。ハートビートはアイドル期間をまたいでキャッシュをウォームに保つことができます。モデルのキャッシュTTLが1hの場合、ハートビート間隔をそれより少し短く(例:55m)設定すると、完全なプロンプトの再キャッシュを回避し、キャッシュ書き込みコストを削減できます。マルチエージェント設定では、1つの共有モデル設定を維持し、agents.list[].params.cacheRetentionでエージェントごとにキャッシュ動作を調整できます。詳細な設定ガイドはプロンプトキャッシングを参照してください。Anthropic APIの価格設定では、キャッシュ読み取りは入力トークンよりも大幅に安価ですが、キャッシュ書き込みはより高い乗数で課金されます。最新のレートとTTL乗数については、Anthropicのプロンプトキャッシング価格設定を参照してください:https://docs.anthropic.com/docs/build-with-claude/prompt-caching
例:ハートビートで1時間のキャッシュをウォームに保つ
agents:
defaults:
model:
primary: "anthropic/claude-opus-4-6"
models:
"anthropic/claude-opus-4-6":
params:
cacheRetention: "long"
heartbeat:
every: "55m"
例:エージェントごとのキャッシュ戦略による混合トラフィック
agents:
defaults:
model:
primary: "anthropic/claude-opus-4-6"
models:
"anthropic/claude-opus-4-6":
params:
cacheRetention: "long" # ほとんどのエージェントのデフォルトベースライン
list:
- id: "research"
default: true
heartbeat:
every: "55m" # 深いセッションのために長いキャッシュをウォームに保つ
- id: "alerts"
params:
cacheRetention: "none" # バースト的な通知のキャッシュ書き込みを回避
agents.list[].paramsは選択されたモデルのparamsの上にマージされるため、cacheRetentionのみをオーバーライドし、他のモデルデフォルトは変更せずに継承できます。
例:Anthropic 1Mコンテキストベータヘッダーを有効化
Anthropicの1Mコンテキストウィンドウは現在ベータゲートされています。OpenClawは、サポートされているOpusまたはSonnetモデルでcontext1mを有効にすると、必要なanthropic-beta値を注入できます。
agents:
defaults:
models:
"anthropic/claude-opus-4-6":
params:
context1m: true
これはAnthropicのcontext-1m-2025-08-07ベータヘッダーにマッピングされます。これはcontext1m: trueがそのモデルエントリに設定されている場合にのみ適用されます。要件:資格情報が長いコンテキスト使用の対象である必要があります(APIキー課金、またはExtra Usageが有効なサブスクリプション)。そうでない場合、AnthropicはHTTP 429: rate_limit_error: Extra usage is required for long context requestsで応答します。AnthropicをOAuth/サブスクリプショントークン(sk-ant-oat-*)で認証する場合、OpenClawはcontext-1m-*ベータヘッダーをスキップします。なぜなら、Anthropicは現在その組み合わせをHTTP 401で拒否するためです。
トークン負荷を軽減するためのヒント
- 長いセッションを要約するには
/compactを使用します。 - ワークフローで大きなツール出力をトリミングします。
- スクリーンショットの多いセッションでは
agents.defaults.imageMaxDimensionPxを下げます。 - スキルの説明は短く保ちます(スキルリストはプロンプトに注入されます)。
- 冗長で探索的な作業には小さなモデルを優先します。
正確なスキルリストのオーバーヘッド計算式についてはスキルを参照してください。
ウィザードリファレンスSecretRef 資格情報インターフェース