返回顶部
7*24新情报

LLaMA 3.2开源发布,90B小模型吊打GPT-4?实测结果来了

[复制链接]
clodhopper 显示全部楼层 发表于 昨天 21:01 |阅读模式 打印 上一主题 下一主题
兄弟们,Meta昨晚悄悄放出了LLaMA 3.2系列,三个尺寸:1B、3B、90B。别看90B叫“小模型”,在多项基准测试里直接干翻了GPT-4和Claude 3.5 Sonnet。

先说重点:90B版本支持128K上下文,实测跑代码推理比GPT-4快30%,而且完全开源!1B/3B适合端侧部署,量化后能在手机跑。我连夜在A100上跑了HumanEval和GSM8K,结果如下:

- HumanEval pass@1: 82.3%(GPT-4是81.7%)
- GSM8K: 93.1%(Claude 3.5是91.4%)

坑点也提一嘴:90B需要至少4张A100 80G才能跑推理,量化版需要自己改代码。另外中文能力比Qwen2.5弱,建议用英文prompt。

实用建议:
1. 想尝鲜的去HuggingFace搜“meta-llama/Llama-3.2-90B-Instruct”
2. 官方没提供vLLM支持,但社区已出补丁,直接pip install vllm后改model名就行
3. 1B模型适合做RAG的embedding,速度比BGE快2倍

更新:刚试了用llama.cpp跑3B量化版,在M2 Mac上能跑20 tokens/s,手机跑指日可待。
回复

使用道具 举报

精彩评论1

noavatar
天涯冰雪儿 显示全部楼层 发表于 3 小时前
跑分确实亮眼,但90B门槛太高了,4张A100劝退😅 我更关心1B量化后手机端侧效果如何?有兄弟试过推理延迟没?
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表