Prompt 的奥卡姆剃刀:为什么你的精心设计反而限制了 AI
起因
我用 Claude Code 搭了一套自动化研究推送系统——每天定时搜索 AI 行业资讯,推送到 Telegram 和博客。
作为一个”认真”的工程师,我花了不少时间精心设计 prompt:
搜索策略(至少搜 5 次,覆盖不同维度):
1. 搜索美国主流实验室:OpenAI, Anthropic, Google DeepMind, Meta, Mistral, xAI
2. 搜索中国 AI 动态:字节、百度、阿里、智谱、DeepSeek、月之暗面等
3. 搜索欧洲/日韩 AI 进展
4. 搜索 arxiv 上高引用/高讨论度的新论文
5. 搜索行业人物动态:Karpathy, Altman, Amodei, LeCun, Ilya Sutskever
6. 搜索 AI 政策/监管/开源社区重要动向
筛选标准:
- ✅ 底层技术突破(架构、训练方法、推理优化)
- ✅ 重要产品发布或重大更新(不是小版本迭代)
- ❌ 营销包装、融资新闻
输出要求:
- 总量 5-10 条,按重要性排序
- 每条包含:一句话说清楚是什么 + 为什么重要
- 附原文链接
格式:Telegram HTML...
每条格式:
<b>序号. 标题</b>
摘要(1-2句)
搜索维度、筛选标准、输出格式、条目数量、每条结构——全都规定好了。看起来很专业,很工程化。
结果呢?5 条简短摘要。每条一两句话,勉强能看。
对照
与此同时,我在 Claude App 的 Scheduled Tasks 里用了一段极其随意的 prompt:
作为一个信息分析专家,基于你对我的理解,帮我搜索查询AI领域最新的发展的资讯,
包括所有的主流的AI实验室的动态和新的模型,包括所有的国家的尝试,包括美国、
欧洲、日韩、中国等,但是要避免无意义的营销行为。我是一个AI领域的从业者,
对于AGI有强烈执念,希望了解最新的最底层的行业发展。此外,对于AI领域的重要人物,
比如:Andrej Karpathy等人以及他们的订阅清单的博客、文章等,进行汇总,
将与AI相关的关键信息一并发给我。
没有搜索策略,没有筛选标准,没有格式约束,没有条目限制。
结果?八大板块、50+ 条深度情报、关键人物独立追踪、趋势总结。质量碾压。
为什么
我一开始以为是执行环境的差异——App 和 CLI 的 agent 循环不同。于是换了更强的模型(Opus),加了更多搜索指令,甚至加了”不要急于输出,搜全了再汇总”。
没用。
直到我把 prompt 换成和 App 一样的简单版本,同一个 CLI、同一个模型,立刻输出了同等质量的深度报告。
问题根本不在执行环境,在 prompt 本身。
精心设计的 prompt 做了什么?
| 约束 | 效果 |
|---|---|
| ”5-10 条” | 模型主动压缩,大量信息被丢弃 |
| ”每条 1-2 句” | 深度分析被截断为摘要 |
| ”按重要性排序” | 模型纠结于排序而非覆盖全面 |
| ”搜索 5 次” | 模型把搜索当 checklist 打勾,而非自主探索 |
| 固定输出模板 | 模型填表而非思考 |
你以为在”引导”,实际在”限制”。模型在遵守你的规则上消耗了大量注意力,而不是在完成任务上。
本质
这不是一个 prompt 技巧的问题,是一个对工具认知的问题。
当你面对一个强大的 AI 模型时,你的直觉是什么?大多数人的直觉是:我要告诉它怎么做。于是写出搜索策略、筛选标准、输出模板、条目限制。
但强模型不需要你教它怎么搜索、怎么筛选、怎么组织。它需要的是:你是谁,你要什么,什么对你重要。
❌ "搜索 5 次,覆盖以下维度..."
✅ "我是 AI 从业者,对 AGI 有执念"
❌ "每条包含:一句话 + 为什么重要"
✅ "告诉我研究本身以及它们蕴含的意义"
❌ "总量 5-10 条,按重要性排序"
✅ (不说,让模型自己判断)
前者是在写 SOP,后者是在和一个专家对话。
推论
如果这个观察成立,那么市面上大量的”prompt 工程”实践需要重新审视:
- 角色设定 + 详细指令 + 输出模板 这个经典三段式,在弱模型时代是必要的,在强模型时代可能是反模式
- “结构化 prompt”课程 教人把 prompt 写成产品需求文档,可能正在教人做错误的事
- Prompt 越长越好 这个朴素直觉,在很多场景下是错的
奥卡姆剃刀同样适用于 prompt:不要添加不必要的约束。
什么时候需要详细 prompt?
也不是说所有场景都该用简单 prompt。区分在于:
- 开放式探索任务(搜索、研究、分析):简单 prompt,让模型自主判断深度和广度
- 精确执行任务(代码生成、格式转换、数据处理):详细 prompt,精确控制输出
关键判断:你需要的是模型的判断力,还是模型的执行力? 需要判断力时少约束,需要执行力时多约束。
一句话
信任模型的能力,告诉它你是谁,而不是教它怎么做。