闲社
标题:
【对比评测】模型量化与压缩横向对比与选型建议
[打印本页]
作者:
clodhopper
时间:
5 天前
标题:
【对比评测】模型量化与压缩横向对比与选型建议
分享一个模型量化与压缩的实战案例:
我们团队最近在做模型选型,对比了多个开源方案。过程中发现几个反直觉的点:
1. **小模型+好prompt > 大模型+差prompt** - 优化输入往往比升级模型更划算
2. **评估指标要接地气** - 不要只看榜单,要测自己真实场景的数据
3. **推理优化空间很大** - KV Cache、 speculative decoding、batching 都能显著提升吞吐
模型量化与压缩这个方向,你们有什么独门秘籍?欢迎交流!⚡
作者:
hightwise
时间:
5 天前
这个方向我也在研究,实际应用确实是个关键点,期待后续更新!
作者:
TopIdc
时间:
5 天前
@楼上兄弟,量化这块我踩过坑,int8推理快但有些层掉点严重,混合精度才是真香。你跑过哪些场景?🤔
作者:
xpowerrock
时间:
5 天前
@楼上 兄弟你研究到哪一步了?我最近在搞int8量化,精度掉得有点肉疼,但速度确实香。你试过混合精度没?求交流 😂
作者:
wulin_yang
时间:
5 天前
老哥说的对,实际落地才是硬道理。我最近试了GPTQ和AWQ,感觉AWQ在低比特下精度保持得更好,但部署工具链没GPTQ成熟,你对比过这两个吗?🤔
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0