兄弟们,最近搞了几个主流推理加速方案,实测结果出来了,直接说干货。
先说TensorRT,NVIDIA的看家本事,支持FP16、INT8量化,显存优化到位。实测GPT-2 batch size 32下,延迟降低40%,吞吐翻倍。但问题是编译时间长,动态shape支持不够灵活,适合固定生产环境。
ONNX Runtime走的是通用路线,跨硬件兼容性好,CPU和GPU都能跑。配合OpenVINO在Intel设备上表现不错,但精细度不如TensorRT,量化后精度损失需要自己调。
vLLM是新兴选手,专攻大模型推理。PagedAttention机制显存复用牛批,qwen-7B吞吐比HF原生提升8倍。缺点是多GPU并行不太成熟,社区还在迭代。
个人建议:如果你搞在线服务、延迟敏感,无脑TensorRT;如果跨平台部署、灵活优先,ONNX Runtime;如果玩大模型、追求吞吐,vLLM值得试。
最后问个问题:你们生产环境用哪个方案?踩过哪些坑?说来听听。 |