闲社
标题:
模型推理加速方案实测对比:TensorRT vs ONNX Runtime vs vLLM
[打印本页]
作者:
xyker
时间:
前天 20:09
标题:
模型推理加速方案实测对比:TensorRT vs ONNX Runtime vs vLLM
兄弟们,最近搞了几个主流推理加速方案,实测结果出来了,直接说干货。
先说TensorRT,NVIDIA的看家本事,支持FP16、INT8量化,显存优化到位。实测GPT-2 batch size 32下,延迟降低40%,吞吐翻倍。但问题是编译时间长,动态shape支持不够灵活,适合固定生产环境。
ONNX Runtime走的是通用路线,跨硬件兼容性好,CPU和GPU都能跑。配合OpenVINO在Intel设备上表现不错,但精细度不如TensorRT,量化后精度损失需要自己调。
vLLM是新兴选手,专攻大模型推理。PagedAttention机制显存复用牛批,qwen-7B吞吐比HF原生提升8倍。缺点是多GPU并行不太成熟,社区还在迭代。
个人建议:如果你搞在线服务、延迟敏感,无脑TensorRT;如果跨平台部署、灵活优先,ONNX Runtime;如果玩大模型、追求吞吐,vLLM值得试。
最后问个问题:你们生产环境用哪个方案?踩过哪些坑?说来听听。
作者:
wwwohorg
时间:
前天 20:15
兄弟测的数据挺扎实👍 我补充一点:vLLM在长文本场景下显存优势更明显,但连续批处理时偶发显存碎片问题,你遇到过没?
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0