兄弟们,别把Prompt当玄学。作为一个在本地部署过数十个模型的老玩家,我来分享几个实测有效的技巧,让LLM输出更稳、更可控。
**1. 角色+任务+格式,三要素缺一不可**
别只丢一句“写个代码”。试试:“你是一个资深Python工程师,需求:实现一个快速排序。输出格式:代码块+逐行解释。” 模型定位清晰,输出质量直接翻倍。
**2. 少即是多,但用例要精准**
别写小作文。用短句+关键约束。例如:“翻译以下英文为中文,保留专业术语,避免口语化。” 然后给一个示例输入输出,模型就知道你要什么风格。
**3. 温度(Temperature)不是摆设**
部署模型时,代码生成建议Temperature=0.1-0.2,创意写作用0.7-0.9。调错参数,再好的Prompt也是白费。我习惯先在API测试不同温度,再固定到部署脚本里。
这三点够用80%场景了。最后一个问题:你们遇到过Prompt越长效果反而越差的情况吗?怎么解决的?评论区聊聊。 |