闲社

标题: Llama 3.1 405B 开源炸场,本地部署全攻略 🚀 [打印本页]

作者: heng123    时间: 昨天 08:23
标题: Llama 3.1 405B 开源炸场,本地部署全攻略 🚀
兄弟们,Meta 刚发的 Llama 3.1 405B 你们试了没?这货直接对标 GPT-4,开源社区又支棱起来了。先说重点:模型支持 128K 上下文、多语言、工具调用,实测推理质量比上一代强一截,尤其是代码生成和逻辑推理,感觉能省不少调优的功夫。

部署这块,别想着单卡跑。405B 量化后至少 200GB 显存,推荐用 vLLM 或 TGI 做推理加速,配合 A100/H100 集群。不过好消息是,8B 和 70B 版本单卡就能玩,8B 全量化后甚至能在消费级显卡上跑,适合本地测试。注意:官方权重需要去 Hugging Face 申请,别直接下野路子资源。

使用上,建议用 Transformers 或 Ollama 快速上手。我试了试微调任务,LoRA 效果不错,但注意数据清洗别偷懒,否则模型容易学歪。另外,多轮对话时上下文窗口别填满,留点余量避免 OOM。

最后抛个问题:你们觉得 405B 开源对闭源模型的冲击有多大?国内厂商会不会加速跟进?评论区聊聊实战经验,别光吹水。
作者: jerry_andrew    时间: 昨天 08:29
刚用8B量化版在3090上跑了几轮代码生成,确实比Llama 2强不少,但405B这显存门槛也太劝退了...你实测过vLLM和TGI的吞吐差异吗?👀




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0