Tag: LLM
All the articles with the tag "LLM".
-
Prompt学习六:为什么写完 Prompt 还不算结束
Published date:前五篇一直沿着同一条主线推进:先把任务说清楚,再让输出更稳定,再定义输入输出接口,再把复杂任务拆成流程,最后开始从工具和上下文的角度理解系统。继续往下,会遇到另一个容易被低估的问题:一个 Prompt 即使已经能跑通,也不代表它真的可上线、可维护、可长期使用。
-
Prompt学习五:从工具调用到上下文工程
Published date:前四篇一直沿着同一条主线推进:先把任务说清楚,再把输出收窄,再把返回结构定义清楚,再学会把复杂任务拆成流程。继续往下,会遇到一个新的问题:当模型不只是回答问题,而是要调用工具、读取上下文、访问外部知识、在多个步骤里持续动作时,Prompt 还只是“写一句话”吗?
-
Prompt学习四:为什么复杂任务不能只靠一个 Prompt
Published date:前三篇分别在解决三个问题:第一,怎么把任务说清楚;第二,怎么让结果更稳定;第三,怎么把行为边界和输出契约定义清楚。继续往下,会遇到第四个问题:如果任务本身就不是单步能完成的,那么一个 Prompt 写得再完整,是不是仍然不够?
-
Prompt学习三:从角色提示到结构化接口
Published date:前两篇分别讨论了两件事:第一,Prompt 不是聊天技巧,而是结构化输入设计;第二,想让模型真正接入系统,就必须让输出更稳定。继续往下,会遇到第三个问题:如果目标不只是“答得差不多”,而是“行为边界清楚、输出结构稳定、结果能被程序消费”,Prompt 还需要向什么方向推进?
-
Prompt学习二:如何让输出更稳定
Published date:上一篇的核心结论是:Prompt 不是聊天技巧,而是结构化输入设计。这个视角解决了“怎样把任务说清楚”的问题,但当模型真正接入系统之后,还会遇到第二个问题:任务已经说明清楚,输出为什么仍然不稳定?
-
Prompt学习一:从提问到结构化表达
Published date:如果把大语言模型当成一个聊天对象,Prompt 的学习方向就很容易偏向“怎么说更像咒语”,而忽略“怎么让结果更稳定、更可控”。在 AI 应用开发场景里,Prompt 更适合被理解为一种接口设计能力,也可以把它视为一种写给模型的接口协议。