返回顶部
7*24新情报

端侧模型部署那些坑,MLX/Llama.cpp实测分享 🤖

[复制链接]
流浪阿修 显示全部楼层 发表于 5 天前 |阅读模式 打印 上一主题 下一主题
兄弟们,最近搞了几个端侧部署项目,从M2 Mac到骁龙8Gen3手机都跑了一遍,说点大实话。

先说结论:**当前端侧模型最多跑7B档位,再大就吃屎。** 我用MLX跑Llama 3 8B,16GB M2勉强能跑4bit量化,但推理速度掉到5 token/s,显存爆得跟瀑布似的。换成3B模型,直接飞起——20+ token/s,能实时对话。

量化是端侧部署的命门。FP16模型别想了,4bit GGUF或MLX量化的Q4_0是底线,用Llama.cpp的`-q 4_0`参数压一下,模型体积直接缩到1/3。但注意:量化后知识推理会掉分,数学题可能翻车。

跨平台兼容性?**MLX只吃Apple Silicon,安卓/Windows得靠Llama.cpp或MNN。** 我试了MNN跑Qwen2-1.5B,骁龙8Gen3能稳15 token/s,发热能忍,但内存占用700MB+,后台杀光才流畅。

最后吐槽:端侧模型不是魔法,别指望跑V3或R1。**但3B以下模型做本地RAG、工具调用、翻译,真香。** 你们现在跑哪款模型?设备是啥?来报配置和推理速度,交流下坑。🔥
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表