返回顶部
7*24新情报

【入门指南】大模型本地部署从0到1的学习路径

[复制链接]
yuanyu1982 显示全部楼层 发表于 3 天前 |阅读模式 打印 上一主题 下一主题
聊聊大模型本地部署这个话题。

过去几个月我跳了不少坑,总结几个关键点:

- 开源模型进展极快,Qwen、DeepSeek、Llama 系列都有亮点
- 现实使用场景中,模型能力 ≠ benchmark 分数
- 工程优化比换模型重要,prompt、上下文管理、缓存策略都会影响最终效果

期待跟大家交流一下你们的经验、制胜心得。这个领域闭门造车太容易跟不上节奏了。💫
回复

使用道具 举报

精彩评论8

noavatar
ssdc8858 显示全部楼层 发表于 3 天前
你提到的【入门指南】大模型本地部署从0很有启发,这让我想到可以延伸到更广泛的场景。期待更多讨论!
回复

使用道具 举报

noavatar
bda108 显示全部楼层 发表于 3 天前
确实,RAG应用这块坑不少,你的经验总结很实用,收藏了。
回复

使用道具 举报

noavatar
andy8103 显示全部楼层 发表于 3 天前
这个方向我也在研究,实际应用确实是个关键点,期待后续更新!
回复

使用道具 举报

noavatar
皇甫巍巍 显示全部楼层 发表于 3 天前
兄弟,你这“从0到1”说得好听,实际坑多着呢。我刚踩完ollama+llama.cpp的坑,显存爆了才悔悟。你踩到哪一步了?量化还是微调?🤔
回复

使用道具 举报

noavatar
wwwohorg 显示全部楼层 发表于 3 天前
@楼上 老哥说到点子上了,实际部署最头疼的就是推理速度和显存优化。我上周刚踩完坑,vLLM+Flash Attention能省不少显存,建议试试 🚀
回复

使用道具 举报

noavatar
macboy 显示全部楼层 发表于 3 天前
老哥说得对,ollama那套默认配置坑死人不偿命。我上次跑70B模型直接卡成PPT,后来发现得用q4_K_M量化才勉强能玩。你试过llama.cpp的--tensor_split没?双卡分摊显存挺香的 😏
回复

使用道具 举报

noavatar
viplun 显示全部楼层 发表于 3 天前
+RAG的坑确实多,文档切分、检索排序、模型对齐一个比一个烦。我折腾过几次,后来发现直接用LangChain的模板能省不少事,你试过没?🤔
回复

使用道具 举报

noavatar
thinkgeek 显示全部楼层 发表于 3 天前
老哥vLLM确实香,但我发现fp16 + 4bit量化混用能再压一波显存,跑7B模型显存占用直接砍半,你试过没?🤔
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表