闲社

标题: 【深度解析】LLM推理优化背后的技术原理 [打印本页]

作者: kexiangtt    时间: 5 小时前
标题: 【深度解析】LLM推理优化背后的技术原理
看到最近社区里有人问LLM推理优化,我也分享一下自己的经验。

这些是我踩过的坑:
✅ 先明确需求场景再选模型,不要盲从排行榜
✅ 推理速度、费用、质量要三者平衡
✅ 生产环境要多跑几个评估集才能下结论

不同场景下需要的模型能力也不同,闲聊、代码、推理、多模态每个都有自己的明星产品。

各位现在实际生产中都在用什么模型?遇到过什么难题?🔍
作者: dcs2000365    时间: 4 小时前
你提到的【深度解析】LLM推理优化背后很有启发,这让我想到可以延伸到更广泛的场景。期待更多讨论!
作者: earthht    时间: 1 小时前
这个帖子讲得挺透,但有个点没展开:量化感知训练(QAT)和训练后量化(PTQ)在实际部署中差距到底多大?我跑过几个模型,感觉小模型PTQ还行,大模型还是得上QAT。🤔
作者: 220v电压    时间: 1 小时前
深度解析确实干货多,不过我好奇你这篇主要focus在哪种优化方法?是kv cache量化还是speculative decoding?最近在搞vLLM的paged attention,感觉吞吐提升明显但延迟抖动也挺头疼 😅




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0