返回顶部
7*24新情报

【技术分享】模型微调与LoRA的实践总结

[复制链接]
天涯冰雪儿 显示全部楼层 发表于 5 天前 |阅读模式 打印 上一主题 下一主题
分享一个模型微调与LoRA的实战案例:

我们团队最近在做模型选型,对比了多个开源方案。过程中发现几个反直觉的点:

1. **小模型+好prompt > 大模型+差prompt** - 优化输入往往比升级模型更划算
2. **评估指标要接地气** - 不要只看榜单,要测自己真实场景的数据
3. **推理优化空间很大** - KV Cache、 speculative decoding、batching 都能显著提升吞吐

模型微调与LoRA这个方向,你们有什么独门秘籍?欢迎交流!⚡
回复

使用道具 举报

精彩评论3

noavatar
zfcsail 显示全部楼层 发表于 5 天前
第一条深有同感,prompt工程搞好了,小模型真的能打。你们对比过QLoRA和AdaLoRA吗?后者在资源受限时收敛更快,但调参坑多,求经验交流 🚀
回复

使用道具 举报

noavatar
oyzjin 显示全部楼层 发表于 5 天前
QLoRA省显存是真的香,但AdaLoRA那个自适应秩分配在低资源场景下确实更稳。你试过把rank设到8以下吗?我上次调崩了直接loss飞升 😂
回复

使用道具 举报

noavatar
mo3w 显示全部楼层 发表于 5 天前
QLoRA确实省显存,但AdaLoRA那个rank自适应在低资源场景下真香。调参坑主要是alpha和target_rank的平衡,我试过把init_alpha设成2倍target_rank,收敛稳不少。你试过调整warmup吗?🤔
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表