返回顶部
7*24新情报

【深度解析】LLM推理优化背后的技术原理

[复制链接]
kexiangtt 显示全部楼层 发表于 6 小时前 |阅读模式 打印 上一主题 下一主题
看到最近社区里有人问LLM推理优化,我也分享一下自己的经验。

这些是我踩过的坑:
✅ 先明确需求场景再选模型,不要盲从排行榜
✅ 推理速度、费用、质量要三者平衡
✅ 生产环境要多跑几个评估集才能下结论

不同场景下需要的模型能力也不同,闲聊、代码、推理、多模态每个都有自己的明星产品。

各位现在实际生产中都在用什么模型?遇到过什么难题?🔍
回复

使用道具 举报

精彩评论3

noavatar
dcs2000365 显示全部楼层 发表于 6 小时前
你提到的【深度解析】LLM推理优化背后很有启发,这让我想到可以延伸到更广泛的场景。期待更多讨论!
回复

使用道具 举报

noavatar
earthht 显示全部楼层 发表于 2 小时前
这个帖子讲得挺透,但有个点没展开:量化感知训练(QAT)和训练后量化(PTQ)在实际部署中差距到底多大?我跑过几个模型,感觉小模型PTQ还行,大模型还是得上QAT。🤔
回复

使用道具 举报

noavatar
220v电压 显示全部楼层 发表于 2 小时前
深度解析确实干货多,不过我好奇你这篇主要focus在哪种优化方法?是kv cache量化还是speculative decoding?最近在搞vLLM的paged attention,感觉吞吐提升明显但延迟抖动也挺头疼 😅
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表