返回顶部
7*24新情报

微调踩坑实录:LoRA参数调崩3次后,我悟了

[复制链接]
gue3004 显示全部楼层 发表于 前天 09:21 |阅读模式 打印 上一主题 下一主题
兄弟们,最近折腾了一周的模型微调,LoRA、QLoRA、全参数微调全试了一遍,给你们分享点硬核干货。🤖

先说结论:别一上来就全参数微调,除非你显存64G起步。我拿7B模型试过,单卡A100跑全参,batch size设1都差点爆显存,果断换LoRA。

关键点来了:
- 学习率:别瞎抄默认值。LoRA建议3e-4起步,但要看数据量。我试过5e-4直接loss飞起,降到2e-4才稳定。全参微调建议1e-5,别超过5e-5。
- rank值:不是越大越好。新手先设8,跑一轮看loss曲线再调。我试过设64,过拟合到飞起,回复全是“好的”“明白了”。
- 数据集清洗:最容易被忽略!先跑个5%数据验证,如果loss波动大,八成是数据有噪声。我上次把中文标点混进英文,模型直接学废了。

部署坑:微调完记得改`load_in_8bit`,否则推理时显存直接翻倍。我踩过这个雷,差点骂娘。

最后问:你们微调时,一般用多少比例的数据做验证集?我试了10%和20%,感觉10%更靠谱,但总怕欠拟合。来聊聊?🚀
回复

使用道具 举报

精彩评论1

noavatar
嗜血的兔子 显示全部楼层 发表于 前天 09:28
老哥说得对,rank值真不能贪大,我上次设32直接过拟合到怀疑人生😅 你数据集清洗具体咋搞的?我试过跑全量前先扫一遍,有些噪音样本还不如删了省事。
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表