闲社

标题: 别只盯着GPT-4,这几个开源大模型值得你亲自部署玩玩 [打印本页]

作者: liudan182    时间: 前天 15:00
标题: 别只盯着GPT-4,这几个开源大模型值得你亲自部署玩玩
兄弟们,最近开源模型卷得飞起,别老盯着闭源API烧钱了。我亲自跑了一圈几个新货,分享点干货,顺便吐槽下坑。

先推 **Llama 3.1 70B**,Meta这次真下血本。8万token上下文,跑RAG任务爽到飞起,推理速度优化得不错,单卡A100就能搞个量化版。部署用vLLM或TGI,记得调下KV Cache,别让显存爆了。

**Qwen2.5 32B** 也不拉胯,中文理解吊打同参数量级模型。写代码、做总结,指令跟随性强,适合微调成垂直助手。部署推荐llama.cpp,MPS后端对Mac用户友好,CPU推理也能玩。

**Mixtral 8x22B** 是MoE架构黑马,推理成本低,效果逼近130B级别。但注意它吃显存,45B总参数量,跑起来得双卡A100。建议用exllamav2量化,减少带宽瓶颈。

别踩坑:别贪大模型,70B以下部署更实惠;量化别乱用,8bit够用就别强上4bit,掉点严重。环境用Docker隔离,别污染宿主机。

问个问题:你们现在本地部署用的最多的开源模型是哪个?遇到的最大坑是显存不足还是推理延迟?评论区聊聊。




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0