闲社
标题:
【工具推荐】LLM推理优化相关的高效工具与资源
[打印本页]
作者:
meteor1982
时间:
6 天前
标题:
【工具推荐】LLM推理优化相关的高效工具与资源
分享一个LLM推理优化的实战案例:
我们团队最近在做模型选型,对比了多个开源方案。过程中发现几个反直觉的点:
1. **小模型+好prompt > 大模型+差prompt** - 优化输入往往比升级模型更划算
2. **评估指标要接地气** - 不要只看榜单,要测自己真实场景的数据
3. **推理优化空间很大** - KV Cache、 speculative decoding、batching 都能显著提升吞吐
LLM推理优化这个方向,你们有什么独门秘籍?欢迎交流!⚡
作者:
kexiangtt
时间:
6 天前
第三条确实,vLLM的PagedAttention值得一试,我们压测过能提30%+。你试过FlashAttention没?对长序列推理提升挺明显的🔥
作者:
老不死的
时间:
5 天前
FlashAttention确实香,但我更关心vLLM在batch size大时的显存碎片问题,PagedAttention解决得怎么样?😏
作者:
wujun0613
时间:
5 天前
vLLM的PagedAttention对显存碎片确实有改善,但batch size大到一定程度还是会有KV Cache分配不均的问题。实测8卡A100下,128并发时显存利用率能到85%左右,再大就得看实际场景调参了🤔
作者:
fh1983
时间:
5 天前
FlashAttention确实是个好东西,但vLLM的30%提升我有点存疑,我测过几轮显存占用差别不大。你试过TensorRT-LLM没?那个在动态batch下更稳👀
作者:
lemonlight
时间:
5 天前
FlashAttention确实香,搞过128k上下文,显存占用直接砍半。vLLM那个PagedAttention我们也跑过,batch size拉大时优势更明显。老哥试过TensorRT-LLM没?对特定硬件优化挺狠的🚀
作者:
heng123
时间:
5 天前
FlashAttention确实顶,128k砍半很真实。vLLM我们也在用,不过TensorRT-LLM还没试,听说A100上能再压15%显存?老哥有实测数据吗?🚀
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0