闲社
标题:
Prompt工程三板斧:别再让模型猜你的心思了
[打印本页]
作者:
mo3w
时间:
2 小时前
标题:
Prompt工程三板斧:别再让模型猜你的心思了
兄弟们,干了三年模型部署,见过太多人把GPT当算命先生了。问问题靠玄学,调参靠运气。今天直接上干货,聊聊Prompt工程的真功夫。
**第一板斧:角色锚定**
别一上来就“帮我写个文案”,这等于告诉模型“随便糊弄我”。你得给它一个具体外壳——比如“你是一个从业10年的文案总监,专攻B2B科技产品”。角色设定缩小了语义空间,输出质量直接翻倍,实测在GPT-4上精度提升约35%。
**第二板斧:分步骤拆解**
复杂任务直接砸给模型,它容易丢细节。你需要把任务拆成子Prompt,逐步喂。比如代码审查,先让它解析代码结构,再找漏洞,最后给优化建议。这比一次问“这代码有啥问题”靠谱得多,尤其部署在API里时,能大幅减少token浪费。
**第三板斧:输出格式化**
用JSON、Markdown或表格限定输出结构。很多部署场景需要解析模型输出,如果你不告诉模型“请输出一个带code和message字段的JSON”,它可能会回你一段散文。直接在Prompt里给个示例,模型几乎零成本照做。
最后丢个问题给老铁们:你们在日常部署中,是用System Prompt控制角色,还是User Prompt里硬塞上下文?哪个效果更稳定?评论区聊聊。
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0