两个主流框架在同等任务下的 token 消耗结构分析,聚焦系统开销、压缩机制与实际运行成本
| 配置项 | Hermes | OpenClaw |
|---|---|---|
| 默认模型 | MiniMax-M2.7 | openai-codex / gpt-5.4 |
| 上下文窗口 | ~100K tokens | ~128K tokens |
| System Prompt 存储 | 文件(SOUL.md / USER.md / MEMORY.md) | 无固定文件,动态构建 |
| 记忆存储方式 | 文本文件 | SQLite |
| 技能系统 | 有 ~1.1MB 总计,按需加载 | 有 ~20KB 总计,极轻量 |
| 开销项 | Hermes | OpenClaw |
|---|---|---|
| 身份 / 灵魂文件 | ~0.5KB SOUL.md | 无 |
| 用户偏好配置 | ~3.4KB USER.md | 无 |
| 长期记忆 | ~6KB MEMORY.md | ~0 SQLite 查询 |
| 渠道路由规则 | ~3KB 嵌入 USER.md | ~1KB openclaw.json bindings |
| 代码协作规范 | ~1.5KB 嵌入 USER.md | 无 |
| 平台上下文 | ~1KB / 平台 | ~1KB / 平台 |
| 每轮系统开销合计 | ~12KB | ~2KB |
按 4 字符 ≈ 1 token 估算,下同
| 项目 | Hermes | OpenClaw |
|---|---|---|
| 已安装技能数量 | 很多(MLOps / DataScience / Creative 等分类) | ~20 个 |
| 单个技能大小 | 差异大(1KB ~ 160KB) | 极轻(平均 ~1KB) |
| 技能总大小 | ~1.1MB(但按需加载) | ~20KB |
| 预注入 vs 按需 | ✓ 按需,不全量注入 | ✓ 按需,不全量注入 |
| 最大技能 | pytorch-fsdp:160KB | agent-browser:1.15KB |
| 项目 | Hermes | OpenClaw |
|---|---|---|
| 压缩是否启用 | ✓ 开启 | ✓ 开启 |
| 触发条件 | 消息超过 50% 上下文时触发 | SAFEGUARD 模式,摘要式压缩 |
| 压缩比 | 压到 20%(target_ratio: 0.2) | 摘要压缩 |
| 保护最近消息 | 最近 20 条不压缩 | 未明确 |
| 压缩用模型 | gemini-3-flash-preview(便宜) | gemini(memorySearch) |
| 会话历史策略 | 压缩 + 滑动窗口 | cache-ttl: 1小时 |
| 多轮累积效果 | 显著 越久越省 | 一般 |
| 场景 | Hermes + MiniMax-M2.7 | OpenClaw + GPT-5.4 |
|---|---|---|
| 输入成本(每 1M tokens) | ~$0.1 ~ $0.3 | ~$15 ~ $75 |
| 输出成本(每 1M tokens) | ~$0.3 ~ $1 | ~$60 ~ $200 |
| 成本倍数差距 | OpenClaw 大约贵 50 ~ 200 倍 | |
追求省 token、降低使用成本、工具型任务为主、中文场景优先。多轮会话下压缩效果显著。
追求模型能力上限、短对话无需考虑压缩、愿意为更强推理能力付更高费用。