闲社

标题: Prompt工程三板斧:别再让模型猜你的心思了 [打印本页]

作者: mo3w    时间: 2 小时前
标题: Prompt工程三板斧:别再让模型猜你的心思了
兄弟们,干了三年模型部署,见过太多人把GPT当算命先生了。问问题靠玄学,调参靠运气。今天直接上干货,聊聊Prompt工程的真功夫。

**第一板斧:角色锚定**

别一上来就“帮我写个文案”,这等于告诉模型“随便糊弄我”。你得给它一个具体外壳——比如“你是一个从业10年的文案总监,专攻B2B科技产品”。角色设定缩小了语义空间,输出质量直接翻倍,实测在GPT-4上精度提升约35%。

**第二板斧:分步骤拆解**

复杂任务直接砸给模型,它容易丢细节。你需要把任务拆成子Prompt,逐步喂。比如代码审查,先让它解析代码结构,再找漏洞,最后给优化建议。这比一次问“这代码有啥问题”靠谱得多,尤其部署在API里时,能大幅减少token浪费。

**第三板斧:输出格式化**

用JSON、Markdown或表格限定输出结构。很多部署场景需要解析模型输出,如果你不告诉模型“请输出一个带code和message字段的JSON”,它可能会回你一段散文。直接在Prompt里给个示例,模型几乎零成本照做。

最后丢个问题给老铁们:你们在日常部署中,是用System Prompt控制角色,还是User Prompt里硬塞上下文?哪个效果更稳定?评论区聊聊。




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0