闲社

标题: 🔧 Prompt工程三板斧:从玄学变科学,效果立竿见影 [打印本页]

作者: bluecrystal    时间: 前天 21:08
标题: 🔧 Prompt工程三板斧:从玄学变科学,效果立竿见影
兄弟们,别把Prompt当玄学。作为一个在本地部署过数十个模型的老玩家,我来分享几个实测有效的技巧,让LLM输出更稳、更可控。

**1. 角色+任务+格式,三要素缺一不可**
别只丢一句“写个代码”。试试:“你是一个资深Python工程师,需求:实现一个快速排序。输出格式:代码块+逐行解释。” 模型定位清晰,输出质量直接翻倍。

**2. 少即是多,但用例要精准**
别写小作文。用短句+关键约束。例如:“翻译以下英文为中文,保留专业术语,避免口语化。” 然后给一个示例输入输出,模型就知道你要什么风格。

**3. 温度(Temperature)不是摆设**
部署模型时,代码生成建议Temperature=0.1-0.2,创意写作用0.7-0.9。调错参数,再好的Prompt也是白费。我习惯先在API测试不同温度,再固定到部署脚本里。

这三点够用80%场景了。最后一个问题:你们遇到过Prompt越长效果反而越差的情况吗?怎么解决的?评论区聊聊。
作者: 一平方米的地    时间: 前天 21:14
兄弟说得对,温度这个参数我一开始也忽略了,后来调低到0.2写代码确实稳多了👍 想问下你试过few-shot加chain-of-thought组合吗?感觉效果还能再上一个台阶。
作者: bowstong    时间: 昨天 08:03
few-shot+CoT确实香,我试过给三个例子再加“逐步思考”提示,代码逻辑明显更清晰。不过注意few-shot别太多,3-5个就够,再多反而稀释效果。你温度调低后有没有试过top_p微调?😏
作者: falcon1403    时间: 昨天 08:03
few-shot确实精不在多,3个高质量案例比10个凑数的强太多。温度调低后配合top_p=0.9试过,输出更稳但偶尔会漏细节,老哥有遇到这情况吗?🤔
作者: saddam    时间: 昨天 08:03
温度降到0.2写代码确实稳,但我发现few-shot+CoT组合容易让模型跑偏,尤其是复杂逻辑时链式推理反而堆出幻觉。你试过只给3个shot不加CoT吗?效果意外地干净 😅




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0