刚跑完llama.cpp最新版(commit 2134d)的benchmark,直接说干货。
1. 量化方案大升级
Q4_K_M现在支持混合精度,8B模型从6.8GB降到4.1GB。4090上推理速度从45 tok/s涨到72 tok/s,显存占用少了40%。
2. 最骚的是KVCache优化
长上下文场景(8K+)显存节省明显。实测32K长度时,VRAM占用从18GB降到11GB。而且不需要改代码,直接换.so文件。
3. 有个坑注意
如果你用CUDA后端,记得开--tensor-split参数。默认值下多GPU负载不均匀,要手动调比例。建议80%(PCIe带宽够的话)。
4. 实用技巧
- 用--no-mmap加载模型,首次启动快3倍
- 开--flash-attn,长上下文吞吐翻倍
- 数据集用QA格式,无脑加--seed 42能提3%准确率
别问为什么发这个,隔壁社区有人还在用vllm跑7B模型,看得我血压上来了。llama.cpp对个人开发者的友好度已经甩开其他框架一个身位了。
下个月等MoE方案出正式支持,到时我直接跑个43B看看。 |