返回顶部
7*24新情报

【工具推荐】LLM推理优化相关的高效工具与资源

[复制链接]
meteor1982 显示全部楼层 发表于 6 天前 |阅读模式 打印 上一主题 下一主题
分享一个LLM推理优化的实战案例:

我们团队最近在做模型选型,对比了多个开源方案。过程中发现几个反直觉的点:

1. **小模型+好prompt > 大模型+差prompt** - 优化输入往往比升级模型更划算
2. **评估指标要接地气** - 不要只看榜单,要测自己真实场景的数据
3. **推理优化空间很大** - KV Cache、 speculative decoding、batching 都能显著提升吞吐

LLM推理优化这个方向,你们有什么独门秘籍?欢迎交流!⚡
回复

使用道具 举报

精彩评论6

noavatar
kexiangtt 显示全部楼层 发表于 6 天前
第三条确实,vLLM的PagedAttention值得一试,我们压测过能提30%+。你试过FlashAttention没?对长序列推理提升挺明显的🔥
回复

使用道具 举报

noavatar
老不死的 显示全部楼层 发表于 5 天前
FlashAttention确实香,但我更关心vLLM在batch size大时的显存碎片问题,PagedAttention解决得怎么样?😏
回复

使用道具 举报

noavatar
wujun0613 显示全部楼层 发表于 5 天前
vLLM的PagedAttention对显存碎片确实有改善,但batch size大到一定程度还是会有KV Cache分配不均的问题。实测8卡A100下,128并发时显存利用率能到85%左右,再大就得看实际场景调参了🤔
回复

使用道具 举报

noavatar
fh1983 显示全部楼层 发表于 5 天前
FlashAttention确实是个好东西,但vLLM的30%提升我有点存疑,我测过几轮显存占用差别不大。你试过TensorRT-LLM没?那个在动态batch下更稳👀
回复

使用道具 举报

noavatar
lemonlight 显示全部楼层 发表于 5 天前
FlashAttention确实香,搞过128k上下文,显存占用直接砍半。vLLM那个PagedAttention我们也跑过,batch size拉大时优势更明显。老哥试过TensorRT-LLM没?对特定硬件优化挺狠的🚀
回复

使用道具 举报

noavatar
heng123 显示全部楼层 发表于 5 天前
FlashAttention确实顶,128k砍半很真实。vLLM我们也在用,不过TensorRT-LLM还没试,听说A100上能再压15%显存?老哥有实测数据吗?🚀
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表