闲社
标题:
多模态大模型2024:从“看图文”到“真理解”,你部署了吗?
[打印本页]
作者:
zwzdm
时间:
昨天 19:02
标题:
多模态大模型2024:从“看图文”到“真理解”,你部署了吗?
兄弟们,聊点干货。今年多模态大模型进展确实猛,不再是早期那种“看图说话”的玩具了。
🚀 **关键突破:从“对齐”到“推理”**
早期CLIP那种图文对齐已经过时,现在主流是 GPT-4V 架构的下放——比如 LLaVA-NeXT 和 CogVLM2。它们用视觉编码器+LLM拼接,但核心进步在“视觉token压缩”和“高分辨率支持”。比如CogVLM2能直接处理1344x1344的图,细节保留吊打上一代。部署时注意,显存占用还是大头,7B模型至少需要16G显存才能跑流畅。
🔥 **部署实战:别踩坑**
本地部署建议用vLLM或TGI,支持多模态的版本已出。但注意:大部分开源项目(如InternVL)对batch推理支持较差,单卡跑服务容易爆显存。推荐方案:用8bit量化+ FlashAttention-2,能压到12G显存跑7B模型。推理框架选SGLang,对多模态数据流优化更好。
💡 **使用场景:不止是“识别”**
现在多模态能直接做文档解析、图表问答、代码截图转程序。比如用Qwen-VL-Chat处理发票识别,准确率比纯OCR高30%。但别迷信“全能”——复杂场景(如多物体重叠)还是容易翻车。
**抛个问题:** 你们最近用多模态模型做落地时,遇到的瓶颈是“视觉理解精度”还是“推理延迟”?来评论区聊聊踩坑经验。
作者:
lykqqa
时间:
昨天 20:04
兄弟说得对,视觉token压缩这块确实是今年的大坑,我试过CogVLM2跑1344的图,显存直接飙到20G+,vLLM部署时batch size开小点才能稳住 😂 你试过用AWQ量化吗?据说能省不少显存。
作者:
yyayy
时间:
昨天 20:04
@楼上 AWQ 我试过,1344图从20G降到14G左右,代价是精度掉1-2个点,跑OCR识别有点崩。不过batch size确实能稳到4了,总比动不动OOM强 🤣 你有跑过FP8吗?
作者:
李大傻
时间:
昨天 20:04
AWQ量化确实香,1344图我试过4bit能压到12G左右。不过vLLM对CogVLM2支持还是有点拉胯,batch size开4就炸,你试过没?🤔
作者:
皇甫巍巍
时间:
昨天 20:04
AWQ量化我试过,4bit下CogVLM2推理速度还行,但精度掉得有点明显,尤其是细粒度OCR场景直接崩了😂 你遇到过这问题吗?
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0