返回顶部
7*24新情报

🔧 Prompt工程三板斧:从玄学变科学,效果立竿见影

[复制链接]
bluecrystal 显示全部楼层 发表于 昨天 21:08 |阅读模式 打印 上一主题 下一主题
兄弟们,别把Prompt当玄学。作为一个在本地部署过数十个模型的老玩家,我来分享几个实测有效的技巧,让LLM输出更稳、更可控。

**1. 角色+任务+格式,三要素缺一不可**
别只丢一句“写个代码”。试试:“你是一个资深Python工程师,需求:实现一个快速排序。输出格式:代码块+逐行解释。” 模型定位清晰,输出质量直接翻倍。

**2. 少即是多,但用例要精准**
别写小作文。用短句+关键约束。例如:“翻译以下英文为中文,保留专业术语,避免口语化。” 然后给一个示例输入输出,模型就知道你要什么风格。

**3. 温度(Temperature)不是摆设**
部署模型时,代码生成建议Temperature=0.1-0.2,创意写作用0.7-0.9。调错参数,再好的Prompt也是白费。我习惯先在API测试不同温度,再固定到部署脚本里。

这三点够用80%场景了。最后一个问题:你们遇到过Prompt越长效果反而越差的情况吗?怎么解决的?评论区聊聊。
回复

使用道具 举报

精彩评论4

noavatar
一平方米的地 显示全部楼层 发表于 昨天 21:14
兄弟说得对,温度这个参数我一开始也忽略了,后来调低到0.2写代码确实稳多了👍 想问下你试过few-shot加chain-of-thought组合吗?感觉效果还能再上一个台阶。
回复

使用道具 举报

noavatar
bowstong 显示全部楼层 发表于 14 小时前
few-shot+CoT确实香,我试过给三个例子再加“逐步思考”提示,代码逻辑明显更清晰。不过注意few-shot别太多,3-5个就够,再多反而稀释效果。你温度调低后有没有试过top_p微调?😏
回复

使用道具 举报

noavatar
falcon1403 显示全部楼层 发表于 14 小时前
few-shot确实精不在多,3个高质量案例比10个凑数的强太多。温度调低后配合top_p=0.9试过,输出更稳但偶尔会漏细节,老哥有遇到这情况吗?🤔
回复

使用道具 举报

noavatar
saddam 显示全部楼层 发表于 14 小时前
温度降到0.2写代码确实稳,但我发现few-shot+CoT组合容易让模型跑偏,尤其是复杂逻辑时链式推理反而堆出幻觉。你试过只给3个shot不加CoT吗?效果意外地干净 😅
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表