消息
消息
此页面将 OpenClaw 如何处理入站消息、会话、队列、流式传输和推理可见性联系在一起。
消息流(高层)
入站消息
-> 路由/绑定 -> 会话键
-> 队列(如果运行活动)
-> agent 运行(流式 + 工具)
-> 出站回复(频道限制 + 分块)
关键旋钮存在于配置中:
messages.*用于前缀、队列和群组行为。agents.defaults.*用于块流式和分块默认值。- 频道覆盖(
channels.whatsapp.*、channels.telegram.*等)用于上限和流式切换。
参见 Configuration 了解完整 schema。
入站去重
频道可能在重新连接后重新传递相同的消息。OpenClaw 保留一个短期缓存,按频道/账户/对等体/会话/消息 id 键控,因此重复传递不会触发另一个 agent 运行。
入站去抖
来自同一发送者的快速连续消息可以通过 messages.inbound 批量处理到单个 agent 轮次。去抖按频道 + 对话范围,并使用最新消息进行回复线程/ID。
配置(全局默认 + 每频道覆盖):
{
messages: {
inbound: {
debounceMs: 2000,
byChannel: {
whatsapp: 5000,
slack: 1500,
discord: 1500,
},
},
},
}
注意:
- 去抖适用于仅文本消息;媒体/附件立即刷新。
- 控制命令绕过去抖,因此它们保持独立。
会话和设备
会话由 gateway 拥有,而不是由客户端拥有。
- 直接聊天折叠到 agent 主会话键。
- 群组/频道获得自己的会话键。
- 会话存储和记录存在于 gateway 主机上。
多个设备/频道可以映射到同一个会话,但历史不完全同步回每个客户端。推荐:对一个主要设备使用长对话以避免发散的上下文。Control UI 和 TUI 始终显示 gateway 支持的会话记录,因此它们是事实来源。
入站正文和历史上下文
OpenClaw 将提示正文与命令正文分开:
Body:发送到 agent 的提示文本。这可能包括频道信封和可选的历史包装器。CommandBody:原始用户文本用于指令/命令解析。RawBody:CommandBody的遗留别名(为兼容性保留)。
当频道提供历史时,它使用共享包装器:
[Chat messages since your last reply - for context][Current message - respond to this]
对于非直接聊天(群组/频道/房间),当前消息正文以前缀发送者标签(与历史条目使用的样式相同)。这使实时和排队/历史消息在 agent 提示中保持一致。
历史缓冲区是仅待定:它们包括未触发运行的群组消息(例如,提及门控消息)并排除已在会话记录中的消息。
指令剥离仅适用于当前消息部分,因此历史保持完整。包装历史的频道应将 CommandBody(或 RawBody)设置为原始消息文本,并保持 Body 为组合提示。历史缓冲区可通过 messages.groupChat.historyLimit(全局默认)和每频道覆盖(如 channels.slack.historyLimit 或 channels.telegram.accounts.<id>.historyLimit)配置(设置 0 禁用)。
队列和后续
如果运行已经活动,入站消息可以排队、转向到当前运行,或收集用于后续轮次。
- 通过
messages.queue(和messages.queue.byChannel)配置。 - 模式:
interrupt、steer、followup、collect,加上积压变体。
详情:Queueing。
流式传输、分块和批量
块流式传输在模型生成文本块时发送部分回复。分块尊重频道文本限制并避免拆分围栏代码。
关键设置:
agents.defaults.blockStreamingDefault(on|off,默认关闭)agents.defaults.blockStreamingBreak(text_end|message_end)agents.defaults.blockStreamingChunk(minChars|maxChars|breakPreference)agents.defaults.blockStreamingCoalesce(基于空闲的批量)agents.defaults.humanDelay(块回复之间类似人的暂停)- 频道覆盖:
*.blockStreaming和*.blockStreamingCoalesce(非 Telegram 频道需要显式*.blockStreaming: true)
推理可见性和 token
OpenClaw 可以公开或隐藏模型推理:
/reasoning on|off|stream控制可见性。- 当模型生成时,推理内容仍然计入 token 使用。
- Telegram 支持推理流到草稿气泡。
详情:Thinking + reasoning directives 和 Token use。
前缀、线程和回复
出站消息格式化集中在 messages 中:
messages.responsePrefix、channels.<channel>.responsePrefix和channels.<channel>.accounts.<id>.responsePrefix(出站前缀级联),加上channels.whatsapp.messagePrefix(WhatsApp 入站前缀)- 通过
replyToMode和每频道默认值回复线程
详情:Configuration 和频道文档。