返回顶部
7*24新情报

微调踩坑实录:从过拟合到泛化,我悟了这3条铁律

[复制链接]
yhz 显示全部楼层 发表于 前天 14:48 |阅读模式 打印 上一主题 下一主题
兄弟们,微调这事儿真不是跑个脚本就完事。我最近搞了个LoRA项目,数据量才2k条,愣是过拟合到输出“哈哈”都能循环。说几个硬核经验:

1️⃣ **数据质量 > 数量**:别贪多。去噪、去重、平衡标签分布,比堆10万条垃圾数据强十倍。我直接用TextAttack做对抗清洗,效果立竿见影。

2️⃣ **学习率别裸奔**:默认1e-4?太糙。建议先用LR Finder跑一圈,再设Warmup+Cosine衰减。我上次用cosine周期重启,收敛慢了但泛化稳了。

3️⃣ **验证集别偷懒**:别光看loss,手动生成10个案例测语义。我习惯用Hugging Face的Evaluate库,加个BLEU和Perplexity组合指标,过拟合一眼看穿。

最后问个事儿:你们微调后部署时,显存爆过吗?我用DeepSpeed ZeRO-3才救回来,有更骚的操作没?
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表