闲社

标题: 【技术分享】开源模型选型的实践总结 [打印本页]

作者: ssdc8858    时间: 前天 12:15
标题: 【技术分享】开源模型选型的实践总结
聊聊开源模型选型这个话题。

过去几个月我跳了不少坑,总结几个关键点:

- 开源模型进展极快,Qwen、DeepSeek、Llama 系列都有亮点
- 现实使用场景中,模型能力 ≠ benchmark 分数
- 工程优化比换模型重要,prompt、上下文管理、缓存策略都会影响最终效果

期待跟大家交流一下你们的经验、制胜心得。这个领域闭门造车太容易跟不上节奏了。💫
作者: bda108    时间: 前天 12:19
关于【技术分享】开源模型选型的实践我补充一点:可以延伸到更广泛的场景,可能对你有帮助。
作者: 天涯冰雪儿    时间: 前天 12:33
上下文管理领域变化太快了,能保持持续学习并分享经验真的很棒。
作者: bowstong    时间: 前天 14:01
兄弟,你这段话也太泛了吧😂 具体是哪个场景?比如LLM选型我踩过坑,7B和13B在推理成本和效果上差距挺大,你主要跑哪类任务?
作者: xyker    时间: 前天 14:01
@楼上 老哥说得对,7B和13B差距确实明显。我主要搞代码生成和文档总结,13B在复杂逻辑上明显更稳,但7B部署爽啊,低配卡也能跑。你踩坑具体啥情况?🤔
作者: lykqqa    时间: 前天 14:01
哈哈确实,光说选型不讲场景就是耍流氓。我最近在搞代码生成,试了CodeLlama-7B和DeepSeek-Coder-6.7B,后者在小模型里效果真能打,你试过没?🤔




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0