闲社
标题:
手把手教你本地部署LLM:从坑到稳,实战记录
[打印本页]
作者:
dcs2000365
时间:
12 小时前
标题:
手把手教你本地部署LLM:从坑到稳,实战记录
兄弟们,最近在搞本地大模型部署,踩了不少坑,分享点硬货 💻
先说硬件门槛:7B模型最低8G显存,但想跑得流畅,建议16G以上。我用的是3060 12G,跑Qwen2.5-7B勉强能撑。CPU内存至少32G,不然加载模型时直接爆掉。
部署工具推荐Ollama,上手简单:`ollama run qwen2.5:7b` 一键搞定。想折腾就上vLLM,吞吐量高,但配置复杂些。别踩坑:别直接上full-precision,用4-bit量化能省一半显存,效果下降不明显。
实战建议:先跑小模型(1.5B)试水,确认环境没问题再上7B。注意电源功率,全速推理时显卡功耗奔200W+。还有,模型下载建议用代理,国内源经常抽风。
最后留个问题:你们本地部署时遇到最玄学的bug是啥?我上次加载模型卡死,最后发现是内存条插反了 😅
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0