不是又一个Agent:从Harness到Hermes
01 不是又一个Agent:从Harness到Hermes
Not Another Agent: From Harness to Hermes
OpenClaw热潮还没散,Hermes Agent就来了。它不是「又一个Agent工具」,而是Harness Engineering概念的
第一次产品化。
又来一个?
我理解你的疲惫。
OpenClaw在2025年底掀起了龙虾热。2600万用户,国内大厂纷纷跟进做自己的龙虾类产品。那段时间你的朋友圈大概
率被「我养了一只虾」刷过屏。龙虾热还没完全散去,又有一个新东西冒出来了。
2026年2月,Nous Research发布了Hermes Agent。两个月不到,GitHub stars飙到27000+。
你的第一反应可能是:龙虾我还没搞明白,又来?
我花了一周时间把Hermes从头到尾拆了一遍,发现它和OpenClaw走的是完全不同的路。Hermes不是又一个龙虾,它
在做一件我们一直在讨论但没人做成产品的事。
Harness Engineering是什么
如果你读过上一本橙皮书《Harness Engineering》,这部分可以跳过。没读过的话,30秒讲清楚。
2026年初,AI编程圈出现了一个共识:瓶颈不是模型,是环境。LangChain团队做了一个实验,用同一个模型(GPT-5.2-
Codex),只调整周围的「缰绳」配置,成绩从52.8%涨到66.5%,排名从Top 30跳到Top 5。模型一行没改。
Mitchell Hashimoto(Terraform的创造者)第一个给这件事命名:Harness Engineering。他的做法很朴素,每次AI犯
错,就加一条规则,让它永远不再犯同一个错。文件是活的,一直在长。
我在那本书里把Harness拆成了五个组件。这五个组件,是理解Hermes的钥匙。
五组件映射
Harness Engineering讲的是方法论,是「你应该给AI造什么样的缰绳」。但方法论有一个问题:执行全靠人。你得自己写
CLAUDE.md,自己配hooks,自己搭记忆系统,自己设计工作流。
Hermes做的事情是:把这五个组件全部内建了。
Harness五组件 手动实现方式 Hermes内建系统
指令层 手写CLAUDE.md / AGENTS.md Skill系统(markdown skill文件,自动创建+自改进)
约束层 配置hooks / linter / CI Tool permissions + sandbox + toolset按需启用
反馈层 人工审查 / 评估者Agent 自改进学习循环(完成任务后自动复盘优化)
记忆层 手动维护knowledge base 三层记忆(会话/持久/Skill)+ Honcho用户建模
编排层 自己搭多Agent pipeline 子Agent委派 + cron调度
看左列和右列的对比。左边全是手动操作,你得是一个有经验的工程师才能搭出来。右边是开箱即用,装完就有。
这就是Hermes和OpenClaw的本质区别。OpenClaw给你一套配置即行为的系统,你写SOUL.md,它变成你想要的样
子。它的记忆系统功能完善(Daily Logs + MEMORY.md + 语义搜索),Skill生态庞大,但主要靠人工编写和维护。
Hermes把这五个维度全部内建了,而且让它们自动运转。
概念连接:如果你用过Claude Code的CLAUDE.md + hooks + memory,你已经在手动实现Harness了。Hermes做的事
情是把这套手动流程变成了一个自动运行的系统。从「你给AI造缰绳」变成「AI自己给自己造缰绳」。
Nous Research为什么做这件事
做Hermes Agent的不是大公司,是一个开源AI研究实验室。
Nous Research在AI圈被形容为「开源社区中的神秘力量」。核心人物Teknium主导微调和数据集策划,早期靠Redmond
AI提供算力支持,团队规模一直不大。但他们做出来的Hermes模型家族(从8B到Hermes 4的14B/70B/405B),纯靠后
训练就达到了前沿水平。不需要从头预训练,不需要巨额算力预算。
这个理念延续到了Hermes Agent上:用开源工具+任意LLM API,个人也能部署媲美商业方案的AI Agent。MIT许可证,
完全开源。
他们的核心原则挺鲜明的。用户控制优先,模型是可控的(steerable),你可以按需调整行为,不受企业内容策略限制。
审查这事儿他们明确不做,声明模型是「unencumbered by censorship, neutrally aligned」。同时在创造力和数学、编
码、推理性能上都不妥协。
这些原则决定了Hermes Agent的设计取向:不是替你做决定,而是你设规则、它学规则、然后越做越好。控制权始终在
用户手里,执行的复杂度由系统承担。
不是替代,是递进
有一个常见的误解:Hermes要取代Claude Code或OpenClaw。其实不是,这三个工具解决的是不同层面的问题。
Claude Code做交互式编码。你坐在终端前,和它来回对话,实时协作。它是你的结对工程师。
OpenClaw做配置即行为。你写一个SOUL.md,它就变成你想要的样子。配置透明,生态成熟,ClawHub有44000+社区
Skill。
Hermes做自主后台+自改进。你不需要坐在它旁边。它自己跑,自己学,自己进化。24/7在线,通过Telegram或
Discord随时可达。
一个有意思的点是,这三个工具都采用agentskills.io标准,Skill可以互通。你在Claude Code里写的Skill,Hermes也能
用,反过来也一样。它们不是三条平行线,更像是一个生态里分工不同的三个角色。
核心建议
如果你只是写代码,Claude Code够用了。如果你想要一个7x24小时帮你看守任务、会自己变聪明的后台Agent,那就该
看Hermes了。
出厂就带缰绳
回到开头的问题:为什么这一次不一样?
龙虾热教会了普通人一件事:AI可以是「你养出来的」,不是「你打开就用的」。OpenClaw的SOUL.md、记忆系统、个性
化配置,让人第一次体验到什么叫「我的AI」。
但养虾的人也发现了一个问题:缰绳全得自己造。写SOUL.md,手动调技能,定期清理记忆。龙虾越用越好用,前提是
你愿意花时间喂它。
Hermes的思路不同:把缰绳直接焊进出厂设置,而且让缰绳自己长大。
你第一次和Hermes对话,它就开始自动写入记忆、自动提炼Skill、自动优化工作流。用的时间越长,它对你的理解越
深,做事的质量越高。不是你在训练它,是它在训练自己。
Hermes是第一个出厂就带缰绳的Agent。而且缰绳会自己长大。
Not Another Agent: From Harness to Hermes
OpenClaw热潮还没散,Hermes Agent就来了。它不是「又一个Agent工具」,而是Harness Engineering概念的
第一次产品化。
又来一个?
我理解你的疲惫。
OpenClaw在2025年底掀起了龙虾热。2600万用户,国内大厂纷纷跟进做自己的龙虾类产品。那段时间你的朋友圈大概
率被「我养了一只虾」刷过屏。龙虾热还没完全散去,又有一个新东西冒出来了。
2026年2月,Nous Research发布了Hermes Agent。两个月不到,GitHub stars飙到27000+。
你的第一反应可能是:龙虾我还没搞明白,又来?
我花了一周时间把Hermes从头到尾拆了一遍,发现它和OpenClaw走的是完全不同的路。Hermes不是又一个龙虾,它
在做一件我们一直在讨论但没人做成产品的事。
Harness Engineering是什么
如果你读过上一本橙皮书《Harness Engineering》,这部分可以跳过。没读过的话,30秒讲清楚。
2026年初,AI编程圈出现了一个共识:瓶颈不是模型,是环境。LangChain团队做了一个实验,用同一个模型(GPT-5.2-
Codex),只调整周围的「缰绳」配置,成绩从52.8%涨到66.5%,排名从Top 30跳到Top 5。模型一行没改。
Mitchell Hashimoto(Terraform的创造者)第一个给这件事命名:Harness Engineering。他的做法很朴素,每次AI犯
错,就加一条规则,让它永远不再犯同一个错。文件是活的,一直在长。
我在那本书里把Harness拆成了五个组件。这五个组件,是理解Hermes的钥匙。
五组件映射
Harness Engineering讲的是方法论,是「你应该给AI造什么样的缰绳」。但方法论有一个问题:执行全靠人。你得自己写
CLAUDE.md,自己配hooks,自己搭记忆系统,自己设计工作流。
Hermes做的事情是:把这五个组件全部内建了。
Harness五组件 手动实现方式 Hermes内建系统
指令层 手写CLAUDE.md / AGENTS.md Skill系统(markdown skill文件,自动创建+自改进)
约束层 配置hooks / linter / CI Tool permissions + sandbox + toolset按需启用
反馈层 人工审查 / 评估者Agent 自改进学习循环(完成任务后自动复盘优化)
记忆层 手动维护knowledge base 三层记忆(会话/持久/Skill)+ Honcho用户建模
编排层 自己搭多Agent pipeline 子Agent委派 + cron调度
看左列和右列的对比。左边全是手动操作,你得是一个有经验的工程师才能搭出来。右边是开箱即用,装完就有。
这就是Hermes和OpenClaw的本质区别。OpenClaw给你一套配置即行为的系统,你写SOUL.md,它变成你想要的样
子。它的记忆系统功能完善(Daily Logs + MEMORY.md + 语义搜索),Skill生态庞大,但主要靠人工编写和维护。
Hermes把这五个维度全部内建了,而且让它们自动运转。
概念连接:如果你用过Claude Code的CLAUDE.md + hooks + memory,你已经在手动实现Harness了。Hermes做的事
情是把这套手动流程变成了一个自动运行的系统。从「你给AI造缰绳」变成「AI自己给自己造缰绳」。
Nous Research为什么做这件事
做Hermes Agent的不是大公司,是一个开源AI研究实验室。
Nous Research在AI圈被形容为「开源社区中的神秘力量」。核心人物Teknium主导微调和数据集策划,早期靠Redmond
AI提供算力支持,团队规模一直不大。但他们做出来的Hermes模型家族(从8B到Hermes 4的14B/70B/405B),纯靠后
训练就达到了前沿水平。不需要从头预训练,不需要巨额算力预算。
这个理念延续到了Hermes Agent上:用开源工具+任意LLM API,个人也能部署媲美商业方案的AI Agent。MIT许可证,
完全开源。
他们的核心原则挺鲜明的。用户控制优先,模型是可控的(steerable),你可以按需调整行为,不受企业内容策略限制。
审查这事儿他们明确不做,声明模型是「unencumbered by censorship, neutrally aligned」。同时在创造力和数学、编
码、推理性能上都不妥协。
这些原则决定了Hermes Agent的设计取向:不是替你做决定,而是你设规则、它学规则、然后越做越好。控制权始终在
用户手里,执行的复杂度由系统承担。
不是替代,是递进
有一个常见的误解:Hermes要取代Claude Code或OpenClaw。其实不是,这三个工具解决的是不同层面的问题。
Claude Code做交互式编码。你坐在终端前,和它来回对话,实时协作。它是你的结对工程师。
OpenClaw做配置即行为。你写一个SOUL.md,它就变成你想要的样子。配置透明,生态成熟,ClawHub有44000+社区
Skill。
Hermes做自主后台+自改进。你不需要坐在它旁边。它自己跑,自己学,自己进化。24/7在线,通过Telegram或
Discord随时可达。
一个有意思的点是,这三个工具都采用agentskills.io标准,Skill可以互通。你在Claude Code里写的Skill,Hermes也能
用,反过来也一样。它们不是三条平行线,更像是一个生态里分工不同的三个角色。
核心建议
如果你只是写代码,Claude Code够用了。如果你想要一个7x24小时帮你看守任务、会自己变聪明的后台Agent,那就该
看Hermes了。
出厂就带缰绳
回到开头的问题:为什么这一次不一样?
龙虾热教会了普通人一件事:AI可以是「你养出来的」,不是「你打开就用的」。OpenClaw的SOUL.md、记忆系统、个性
化配置,让人第一次体验到什么叫「我的AI」。
但养虾的人也发现了一个问题:缰绳全得自己造。写SOUL.md,手动调技能,定期清理记忆。龙虾越用越好用,前提是
你愿意花时间喂它。
Hermes的思路不同:把缰绳直接焊进出厂设置,而且让缰绳自己长大。
你第一次和Hermes对话,它就开始自动写入记忆、自动提炼Skill、自动优化工作流。用的时间越长,它对你的理解越
深,做事的质量越高。不是你在训练它,是它在训练自己。
Hermes是第一个出厂就带缰绳的Agent。而且缰绳会自己长大。