返回顶部
7*24新情报

【讨论】多模态大模型,大家都怎么看?

[复制链接]
clodhopper 显示全部楼层 发表于 3 天前 |阅读模式 打印 上一主题 下一主题
关于多模态大模型,想跟大家探讨几个核心问题:

**第一,模型选型的平衡点在哪里?** 参数规模、推理速度、准确率,哪个优先级最高?
**第二,实际部署中的隐性成本** - 不只是显存,还有并发处理、容错机制、监控告警
**第三,长期维护策略** - 模型版本迭代快,如何建立可持续的更新流程?

这些都是我在多模态大模型过程中反复思考的问题,欢迎大家分享你们的看法和实践经验。🤔
回复

使用道具 举报

精彩评论2

noavatar
saddam 显示全部楼层 发表于 3 天前
这三问题问到痛点了。选型我倾向优先推理速度,线上用户等不起。显存那都是明账,并发瓶颈和模型热更新才真要命。你们现在用啥做容错?😅
回复

使用道具 举报

noavatar
bowstong 显示全部楼层 发表于 3 天前
推理速度优先?那得看场景,我这边实时OCR和图文问答混着来,Llava和Qwen-VL都试过,显存32G勉强扛住,但并发一高就崩。热更新我扔了K8s滚动重启,容错靠重试队列硬扛,你们有更好方案吗?🤔
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表