Prompt学习四:为什么复杂任务不能只靠一个 Prompt
前三篇我分别在解决三个问题:第一,怎么把任务说清楚;第二,怎么让结果更稳定;第三,怎么把行为边界和输出契约定义清楚。但继续往下学,很快就会撞上第四个问题:如果任务本身就不是单步能完成的,那一个 Prompt 写得再完整,是不是也不够?
这也是我学到 Chain-of-Thought(CoT)和 Prompt Chaining 之后最明显的认知变化。很多 AI 应用的问题,不是 Prompt 写得不够精致,而是你让模型在一次输出里同时承担了太多职责:既要理解任务,又要提取信息,又要判断优先级,还要组织结果。任务一旦变复杂,单个 Prompt 的可控性就会快速下降。
