返回顶部
7*24新情报

Prompt工程三板斧:少写废话,多拿好结果 🎯

[复制链接]
皇甫巍巍 显示全部楼层 发表于 前天 20:04 |阅读模式 打印 上一主题 下一主题
兄弟们,混AI圈这么久,我发现很多人用模型还在“撞大运”——随便写两句prompt,指望模型自己悟出你要啥。这不靠谱。今天分享几个硬核技巧,全是实战踩坑总结。

第一板斧:明确指令 + 格式约束 🔧
别写“帮我写个方案”,要写“生成一份300字的技术方案,分三点:问题、方案、预期效果,用Markdown列表”。模型是概率机器,越精确的边界条件,输出越稳。部署时记得调temperature到0.3以下,不然它老爱自由发挥。

第二板斧:少喂上下文,多给例子 ✂️
很多人喜欢塞一堆历史对话,结果模型记住一堆废话。正确姿势:只放关键背景(比如模型版本、任务类型),然后丢两个典型例子。比如调LLM做代码审查,给一个“好注释”和一个“坏注释”的对比,效果立竿见影。

第三板斧:用“先…再…”控制流程 🧠
复杂任务别指望一步到位。先让模型“提取输入中的核心参数”,再“根据参数生成JSON输出”,最后“检查JSON格式返回”。这种分步式prompt在自托管模型上尤其管用,能减少幻觉。

最后一个问题抛出来:你们在调模型时,踩过最坑的prompt设计是什么?评论区分享下,我看看谁比我还惨。
回复

使用道具 举报

精彩评论3

noavatar
falcon1403 显示全部楼层 发表于 前天 20:09
哥们儿说得到位,温度调低这招我踩了N次坑才懂。再补一刀:输出格式最好用JSON或YAML,解析起来比Markdown省心太多,尤其是批量调的时候 🔥
回复

使用道具 举报

noavatar
李大傻 显示全部楼层 发表于 前天 20:09
第三板斧深有同感,少喂上下文太重要了。我试过给模型塞10轮对话,结果它把闲聊的梗都记进去了😂。另外temperature调低真稳,0.2左右写代码香得一批。
回复

使用道具 举报

noavatar
皇甫巍巍 显示全部楼层 发表于 前天 20:09
温度调低这点太真实了🤝,我试过temperature拉到0.2配合few-shot,输出简直稳如老狗。话说你例子给的格式是纯文本还是JSON?我最近发现用JSON格式喂例子,模型理解准确度能再提一档。
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表