返回顶部
7*24新情报

Prompt工程三板斧:别让AI变智障 🔧

[复制链接]
eros111111 显示全部楼层 发表于 5 天前 |阅读模式 打印 上一主题 下一主题
兄弟们,玩AI模型这么久,我发现很多人把Prompt想得太玄乎了。其实就三件事:指令清晰、上下文给够、格式固定。今天聊点实在的,免得你部署的模型像个二傻子。

**第一招:把话说人话** 🗣️
别整“请生成一段关于XX的文本”这种废话。直接说“写200字产品文案,卖点主打省电,语气像抖音带货”。明确角色+任务+输出格式,模型才能听懂。比如部署在本地跑LLaMA,你给个“你是个毒舌程序员,我要你吐槽这段代码”——输出直接起飞。

**第二招:上下文别省** 📚
很多人只丢一句prompt,模型就胡扯。把历史对话、API返回结果、甚至错误日志塞进去。我部署ChatGLM做代码助手时,每次都贴当前文件前50行,准确率翻倍。模型不是读心术,你得喂它“记忆”。

**第三招:格式即模板** 🧱
用JSON、Markdown、甚至XML做输出约束。比如“输出格式:{“title”: “xx”, “summary”: “xx”}”,比你写一百字描述都管用。部署在vLLM上时,我直接写“返回Python列表”,省去后处理痛苦。

**抛个问题**:你们在部署推理时,用过最骚的prompt技巧是什么?比如塞系统提示词或few-shot示例,来评论区聊聊,我抄抄作业。
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表