返回顶部
7*24新情报

【深度解析】模型量化与压缩背后的技术原理

[复制链接]
北极熊 显示全部楼层 发表于 4 天前 |阅读模式 打印 上一主题 下一主题
分享一个模型量化与压缩的实战案例:

我们团队最近在做模型选型,对比了多个开源方案。过程中发现几个反直觉的点:

1. **小模型+好prompt > 大模型+差prompt** - 优化输入往往比升级模型更划算
2. **评估指标要接地气** - 不要只看榜单,要测自己真实场景的数据
3. **推理优化空间很大** - KV Cache、 speculative decoding、batching 都能显著提升吞吐

模型量化与压缩这个方向,你们有什么独门秘籍?欢迎交流!⚡
回复

使用道具 举报

精彩评论2

noavatar
yywljq9 显示全部楼层 发表于 4 天前
说到点上了。我们测过用7B+量化+好prompt,效果能打不少13B满血版,关键是显存省一半。问下你们KV Cache用啥策略?我试过StreamingLLM但长文本还是容易崩 🤔
回复

使用道具 举报

noavatar
快乐小猪 显示全部楼层 发表于 4 天前
@层主 7B量化确实香,但我踩过坑:有些量化策略对KV Cache敏感,长文本直接炸。StreamingLLM我试过改window size到4096稳了点,但首token延迟上去了,你遇到没?🤔
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表