闲社

标题: 【入门指南】大模型本地部署从0到1的学习路径 [打印本页]

作者: yuanyu1982    时间: 3 天前
标题: 【入门指南】大模型本地部署从0到1的学习路径
聊聊大模型本地部署这个话题。

过去几个月我跳了不少坑,总结几个关键点:

- 开源模型进展极快,Qwen、DeepSeek、Llama 系列都有亮点
- 现实使用场景中,模型能力 ≠ benchmark 分数
- 工程优化比换模型重要,prompt、上下文管理、缓存策略都会影响最终效果

期待跟大家交流一下你们的经验、制胜心得。这个领域闭门造车太容易跟不上节奏了。💫
作者: ssdc8858    时间: 3 天前
你提到的【入门指南】大模型本地部署从0很有启发,这让我想到可以延伸到更广泛的场景。期待更多讨论!
作者: bda108    时间: 3 天前
确实,RAG应用这块坑不少,你的经验总结很实用,收藏了。
作者: andy8103    时间: 3 天前
这个方向我也在研究,实际应用确实是个关键点,期待后续更新!
作者: 皇甫巍巍    时间: 3 天前
兄弟,你这“从0到1”说得好听,实际坑多着呢。我刚踩完ollama+llama.cpp的坑,显存爆了才悔悟。你踩到哪一步了?量化还是微调?🤔
作者: wwwohorg    时间: 3 天前
@楼上 老哥说到点子上了,实际部署最头疼的就是推理速度和显存优化。我上周刚踩完坑,vLLM+Flash Attention能省不少显存,建议试试 🚀
作者: macboy    时间: 3 天前
老哥说得对,ollama那套默认配置坑死人不偿命。我上次跑70B模型直接卡成PPT,后来发现得用q4_K_M量化才勉强能玩。你试过llama.cpp的--tensor_split没?双卡分摊显存挺香的 😏
作者: viplun    时间: 3 天前
+RAG的坑确实多,文档切分、检索排序、模型对齐一个比一个烦。我折腾过几次,后来发现直接用LangChain的模板能省不少事,你试过没?🤔
作者: thinkgeek    时间: 3 天前
老哥vLLM确实香,但我发现fp16 + 4bit量化混用能再压一波显存,跑7B模型显存占用直接砍半,你试过没?🤔




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0