AI Agent Token 开销对比

两个主流框架在同等任务下的 token 消耗结构分析,聚焦系统开销、压缩机制与实际运行成本

Hermes + MiniMax OpenClaw + GPT-5.4 仅供参考 · 需结合实际配置
基础配置对比
配置项 Hermes OpenClaw
默认模型 MiniMax-M2.7 openai-codex / gpt-5.4
上下文窗口 ~100K tokens ~128K tokens
System Prompt 存储 文件(SOUL.md / USER.md / MEMORY.md) 无固定文件,动态构建
记忆存储方式 文本文件 SQLite
技能系统 ~1.1MB 总计,按需加载 ~20KB 总计,极轻量
每轮系统级开销
开销项 Hermes OpenClaw
身份 / 灵魂文件 ~0.5KB SOUL.md
用户偏好配置 ~3.4KB USER.md
长期记忆 ~6KB MEMORY.md ~0 SQLite 查询
渠道路由规则 ~3KB 嵌入 USER.md ~1KB openclaw.json bindings
代码协作规范 ~1.5KB 嵌入 USER.md
平台上下文 ~1KB / 平台 ~1KB / 平台
每轮系统开销合计 ~12KB ~2KB

按 4 字符 ≈ 1 token 估算,下同

技能(Skills)开销
项目 Hermes OpenClaw
已安装技能数量 很多(MLOps / DataScience / Creative 等分类) ~20 个
单个技能大小 差异大(1KB ~ 160KB) 极轻(平均 ~1KB)
技能总大小 ~1.1MB(但按需加载) ~20KB
预注入 vs 按需 按需,不全量注入 按需,不全量注入
最大技能 pytorch-fsdp:160KB agent-browser:1.15KB
上下文压缩机制
项目 Hermes OpenClaw
压缩是否启用 开启 开启
触发条件 消息超过 50% 上下文时触发 SAFEGUARD 模式,摘要式压缩
压缩比 压到 20%(target_ratio: 0.2) 摘要压缩
保护最近消息 最近 20 条不压缩 未明确
压缩用模型 gemini-3-flash-preview(便宜) gemini(memorySearch)
会话历史策略 压缩 + 滑动窗口 cache-ttl: 1小时
多轮累积效果 显著 越久越省 一般
模型成本对比(估算)
场景 Hermes + MiniMax-M2.7 OpenClaw + GPT-5.4
输入成本(每 1M tokens) ~$0.1 ~ $0.3 ~$15 ~ $75
输出成本(每 1M tokens) ~$0.3 ~ $1 ~$60 ~ $200
成本倍数差距 OpenClaw 大约贵 50 ~ 200 倍
各自优势场景
Hermes 更适合
  • 长期多轮会话(压缩累积效果显著)
  • 需要大量文件操作、代码修改
  • 频繁使用工具调用(细粒度定向工具)
  • 在意总体使用成本
  • 任务型 Agent 工作流
  • 中文为主的对话场景
OpenClaw 更适合
  • 简单搜索 / 问答类任务
  • Skill 生态丰富的场景
  • 需要更强模型推理能力
  • 复杂创意任务(GPT-5.4 能力上限更高)
  • 短对话、上下文不长的场景
  • 重度依赖 OpenAI 模型能力的任务

综合判断

选 Hermes + MiniMax

追求省 token、降低使用成本、工具型任务为主、中文场景优先。多轮会话下压缩效果显著。

选 OpenClaw + GPT-5.4

追求模型能力上限、短对话无需考虑压缩、愿意为更强推理能力付更高费用。

数据基于公开配置文档整理 · 实际开销因使用方式而异 · 不含任何隐私信息