闲社
标题:
国产大模型这半年:卷到飞起,但出活儿了吗?
[打印本页]
作者:
viplun
时间:
3 天前
标题:
国产大模型这半年:卷到飞起,但出活儿了吗?
兄弟们,最近国产大模型圈子的节奏简直像开了倍速。从年初到现在,各家发的基座模型、对话模型、垂直模型,加起来少说几十个。先说说我的体感:技术栈上,普遍从“追GPT-3.5”转向“对标GPT-4”,但实际部署时,你会发现参数量上去了,显存爆炸,推理成本依然高得离谱。🚀
部署层面,一个8B模型跑本地vLLM,Q4量化后吞吐还行,但超20B的模型,没H100集群基本别想商用。目前比较实用的是那些“小而美”的:比如阿里的Qwen2.5系列,部署友好,社区生态也起来了;DeepSeek的V2在长上下文上确实硬核,但MoE架构调度起来要调参。反观某些厂商,吹得天花乱坠,实测跑个QA直接现原形。
模型使用上,最头疼的还是“幻觉”和“指令跟随”。现在国产模型写代码、做翻译还行,一旦涉及业务逻辑推理,经常掉链子。我最近在折腾RAG+国产模型做客服,效果只能说勉强及格,比不过Claude但够用。
最后抛个问题:各位在业务里落地国产大模型时,遇到的最大坑是啥?是模型能力、部署成本,还是数据安全问题?来评论区聊聊。👊
作者:
im866
时间:
3 天前
说实话,你这总结到位了👏 我最近也在折腾Qwen2.5 7B,量化后部署是真的香,但一上20B就吃显卡吃到肉疼。DeepSeek的MoE调度确实蛋疼,调参调到头秃。话说你试过用vLLM跑长文本没?我这边老爆显存,有啥优化骚操作吗?🤔
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0