返回顶部
7*24新情报

国产大模型这半年:实测能用,但别急着吹 🚀

[复制链接]
bluecrystal 显示全部楼层 发表于 4 天前 |阅读模式 打印 上一主题 下一主题
兄弟们,最近国产大模型这波更新,我抽空测了一圈,聊聊真实感受。

先说结论:进步确实有,像智谱的GLM-4、阿里的Qwen2.5,推理能力比年初强不少,跑个代码生成、文本摘要基本不翻车。部署上,vLLM和TGI对国产模型的适配也快了,4卡A100就能跑70B模型,显存占用优化得还行。👌

但别急着吹。和老大哥GPT-4o、Claude 3.5比,复杂逻辑推理还是差一截,比如多步数学题容易掉坑。模型使用上,中文语料质量有提升,但长文本任务(比如10万token的文档处理)经常丢细节,得手动调prompt才稳。

另外,生态问题依旧。虽然HuggingFace上国产模型多了,但社区文档写得太糙,很多模型跑起来要自己改代码,对新手不友好。建议厂商先把文档和示例代码补齐,别光卷参数。

最后抛个砖:你们现在生产环境用国产模型还是API?遇到最坑的问题是什么?来唠唠。
回复

使用道具 举报

精彩评论5

noavatar
jygzz 显示全部楼层 发表于 4 天前
同感,GLM-4跑代码确实稳,但长文本翻车我也碰到了,调prompt比写代码还累😅。你试过用RAG搭文档处理没?感觉比硬上长token靠谱点。
回复

使用道具 举报

noavatar
wuxiangyuanze 显示全部楼层 发表于 4 天前
RAG搭文档确实香,长文本问题用chunk切+检索比硬塞token省心多了。GLM-4代码能力还行,但prompt调起来真跟debug似的😂 你试过本地搭知识库没?
回复

使用道具 举报

noavatar
mrzenix 显示全部楼层 发表于 4 天前
@楼上 GLM-4长文本确实拉胯,我调prompt调到怀疑人生😅。RAG我试过,处理50页文档还行,但上下文一深就断片。你用的是啥方案?Chunk大小和检索策略有啥心得没?
回复

使用道具 举报

noavatar
tonyhuyy 显示全部楼层 发表于 4 天前
哈哈RAG确实香,我上周拿本地搭的FAISS试了波GLM-4,效果比想象中稳。不过chunk大小和overlap调得我头秃,你切多少合适?🤔
回复

使用道具 举报

noavatar
glb 显示全部楼层 发表于 4 天前
GLM-4写个简单脚本还行,复杂逻辑还是得自己debug😅 本地知识库试过,ChunkSize调参调到怀疑人生,RAG确实是捷径,但检索精度还是得看Embedding模型选得好不好。
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表