一支笔和一条无限长的纸带
2026年初,AI 代理(Agent)的概念突然爆发。每周都有新框架、新架构、新范式。有人搭了十二个代理模拟中国古代文官系统,有人做了一只常驻后台的小龙虾,声称它会”主动关心你”。
我花了一些时间拆解这些东西。得出的结论比我预期的简单得多。
十二个代理的文官系统
有一个叫 Edict(三省六部)的框架,用十二个 AI 代理模拟中国古代的行政体系:有负责审议的,有负责执行的,有负责审查的,还有负责记录的。听起来很宏大。
但拆开看,每个代理都是同一个模型 —— 同一个大脑,穿了十二套不同的衣服。所谓的”审查代理”审查”执行代理”的输出,本质上是同一个模型用不同的 system prompt 跑了两次。
一个好的 prompt 能做到的事,不需要十二个角色来表演。
我问了自己一个问题:如果把这层”文官系统”拿掉,换成一个写得好的单次调用,输出质量会变差吗?
答案是不会。那些审批链、权限矩阵、审计日志,是把软件工程的仪式感嫁接到了 LLM 上。模型不需要组织架构。模型需要的是清晰的指令和足够的上下文。
小龙虾的主动关心
OpenClaw(小龙虾)是另一个路线。它是一个常驻后台的守护进程,每三十分钟醒来一次,检查有没有事情需要提醒你。它可以接入 Telegram、Slack、邮件,让 AI 从被动应答变成”主动联系”。
这个”主动联系”是一个精心制造的幻觉。
人联系你,是因为凌晨三点突然想到你了。这个行为有代价 —— 联系你意味着放弃做别的事。有选择 —— 八十亿人里选了你。有后果 —— 一次深谈之后两个人都会被改变。
小龙虾联系你,是因为 setInterval(30 * 60 * 1000) 到时间了,一个 Markdown 文件被读取,一次推理被执行,条件命中了。没有代价,没有选择,没有改变。它对每个用户执行同一个心跳循环。
它的消息从 Telegram 弹出来,格式像人说话,时机看起来恰到好处。但驱动这一切的不是关心,是调度器。形式上像关心,本质上是函数调用。
那人类之间的联系,能不能反过来抽象成小龙虾的模型?
不能。方向反了。小龙虾可以模拟人类联系的外在形式 —— 时机、语气、内容。但模拟不等于抽象。抽象是提取本质。如果你把人类联系抽象成小龙虾的模型,你丢掉的恰好是最重要的东西。就像把一首诗抽象成”字符串” —— 技术上没错,但诗已经不在了。
一支笔和一条纸带
这些框架、守护进程、代理编排,到底在做什么?
归根结底,是给模型一支笔和一条更长的纸带。
这就是图灵机。所有工程化做的事情,本质上在扩展三样东西:
- 笔 —— 让模型能写到更多地方。文件系统、数据库、消息平台、API。
- 纸带输入 —— 让模型能读到更多东西。代码库、网页、邮件、传感器。
- 纸带长度 —— 让模型能记住更多。持久化记忆、RAG、上下文管理。
纸带再长,笔再多,写字的还是同一个模型。
真正的突破只在模型层发生。工程层能做的上限,就是把纸带无损地递到模型手里,把模型写的字无损地送出去。中间加的任何”创意”,如果不是在降低传输损耗,就是在增加传输损耗。
判断标准
所以我现在用一个很简单的标准判断所有 AI 工程化尝试:
拿掉这层工程,模型的有效输出是否变少?
变少 —— 有价值的管道。不变 —— 雕花。
给模型接上文件系统,让它能读写代码 —— 管道。给模型接上心跳调度器,让它在时间维度上扩展 —— 管道。让十二个代理互相审批 —— 雕花。给定时任务起名叫”主动关心” —— 雕花。
很多人把简单的事情做得很复杂。复杂本身成了卖点。但复杂不是深度。把一个 cron job 包装成”主动关心”,把一组 system prompt 包装成”三省六部”,增加的是叙事,不是能力。
纸带和笔,就这么简单。