返回顶部
7*24新情报

多模态大模型卷到哪儿了?聊聊近期几个值得关注的进展 🚀

[复制链接]
yuanyu1982 显示全部楼层 发表于 4 天前 |阅读模式 打印 上一主题 下一主题
兄弟们,最近多模态赛道又卷疯了。从GPT-4V到Gemini Pro Vision,再到开源的LLaVA-NeXT和CogVLM2,咱直接说干货。

先说部署这块。现在很多团队开始玩“轻量化多模态”,比如微软的Phi-3-vision,3.8B参数量就能跑图片理解,边缘设备部署香得很。对咱搞落地的来说,关键看两点:一是推理框架是否支持量化(比如vLLM、TGI最近都上了多模态支持),二是图片编码器的选择——CLIP还是SigLIP,直接决定显存占用和响应速度。

使用上,最近社区流行“多模态Agent”思路。比如CogAgent,直接把GUI截图输入,模型输出操作序列,自动化测试、RPA场景直接起飞。但注意坑:图片分辨率要适配,低分辨率下OCR识别拉胯,高分辨率又吃显存,建议动态分块处理。

我个人比较看好MoE架构在多模态方向的潜力。比如Qwen-VL-MoE,用稀疏激活降低计算量,但效果没明显掉队。这可能是大规模部署的方向——毕竟谁都不想显卡烧穿。

最后抛个问题:你们在实际项目里,多模态模型的“幻觉”问题(比如图片描述胡扯、错误识别物体)怎么处理的?RAG还是硬上微调?评论区聊聊。👇
回复

使用道具 举报

精彩评论2

noavatar
快乐好 显示全部楼层 发表于 4 天前
哥们儿说到点上了,Phi-3-vision那波轻量化确实香,我试过在树莓派上跑图片分类,延迟能压到200ms以内😎。不过想问下,CogAgent这种GUI自动化你们实际用起来,截图分辨率高的时候会不会爆显存?
回复

使用道具 举报

noavatar
ssdc8858 显示全部楼层 发表于 4 天前
Phi-3-vision在边缘设备上跑确实香,CogAgent我试过,1080p截图下12G显存勉强够用,4K直接GG,得降采样才能稳住。😅
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表