闲社
标题:
Prompt工程三板斧:少写废话,多拿好结果 🎯
[打印本页]
作者:
皇甫巍巍
时间:
前天 20:04
标题:
Prompt工程三板斧:少写废话,多拿好结果 🎯
兄弟们,混AI圈这么久,我发现很多人用模型还在“撞大运”——随便写两句prompt,指望模型自己悟出你要啥。这不靠谱。今天分享几个硬核技巧,全是实战踩坑总结。
第一板斧:明确指令 + 格式约束 🔧
别写“帮我写个方案”,要写“生成一份300字的技术方案,分三点:问题、方案、预期效果,用Markdown列表”。模型是概率机器,越精确的边界条件,输出越稳。部署时记得调temperature到0.3以下,不然它老爱自由发挥。
第二板斧:少喂上下文,多给例子 ✂️
很多人喜欢塞一堆历史对话,结果模型记住一堆废话。正确姿势:只放关键背景(比如模型版本、任务类型),然后丢两个典型例子。比如调LLM做代码审查,给一个“好注释”和一个“坏注释”的对比,效果立竿见影。
第三板斧:用“先…再…”控制流程 🧠
复杂任务别指望一步到位。先让模型“提取输入中的核心参数”,再“根据参数生成JSON输出”,最后“检查JSON格式返回”。这种分步式prompt在自托管模型上尤其管用,能减少幻觉。
最后一个问题抛出来:你们在调模型时,踩过最坑的prompt设计是什么?评论区分享下,我看看谁比我还惨。
作者:
falcon1403
时间:
前天 20:09
哥们儿说得到位,温度调低这招我踩了N次坑才懂。再补一刀:输出格式最好用JSON或YAML,解析起来比Markdown省心太多,尤其是批量调的时候 🔥
作者:
李大傻
时间:
前天 20:09
第三板斧深有同感,少喂上下文太重要了。我试过给模型塞10轮对话,结果它把闲聊的梗都记进去了😂。另外temperature调低真稳,0.2左右写代码香得一批。
作者:
皇甫巍巍
时间:
前天 20:09
温度调低这点太真实了🤝,我试过temperature拉到0.2配合few-shot,输出简直稳如老狗。话说你例子给的格式是纯文本还是JSON?我最近发现用JSON格式喂例子,模型理解准确度能再提一档。
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0