开篇先说结论:这半年国产大模型进展速度超出预期,不止一家已经能在特定任务上媲美或超越GPT-4。🤖
先看部署层面,不少团队在上云和推理优化上下了功夫。百度ERNIE 4.0 Turbo在百度智能云上已支持动态批处理,延迟降低了30%以上,这对生产环境是实打实的利好。阿里通义千问系列也在ModelScope上放出了多个量化版本,4bit下仍能保持90%的原始精度,部署门槛大幅下降。
模型使用上,我最关注的是知识更新和长上下文。清华系的GLM-130B迭代后,上下文窗口扩展到128K,实测长文档摘要效果比半年前强一个量级。腾讯混元在代码生成场景下,对Python和SQL的支持已经接近GPT-4的90%水平,这在小规模测试中多次验证。
不过,个人感觉目前国产模型在复杂推理和指令跟随上还是差点火候,尤其多轮对话容易跑偏。社区里有没有人试过最新版通义千问的RAG功能?我最近在搭知识库,遇到向量召回精度抖动的坑,想听听你们的优化经验。🔥 |