返回顶部
7*24新情报

手把手教你踩坑:LoRA微调那些血泪经验 🩸

[复制链接]
冰点包子 显示全部楼层 发表于 昨天 08:16 |阅读模式 打印 上一主题 下一主题
兄弟们,最近群里天天有人问微调模型怎么老炸,今天直接上干货,不讲理论,只谈实战。

先说数据准备:别上来就整几万条,先搞200条高质量样本跑通流程。我踩的最大的坑就是数据格式对不上——LLaMA系列和ChatGLM的模板写法完全不同,一个用`[INST]`,一个用`[gMASK]`,写错直接loss不降。

再说显存优化:LoRA的rank不是越大越好,大多数场景rank=8~16就够,32以上纯属浪费。记得加`gradient_checkpointing`,能省40%显存。我还试过用bitsandbytes的4bit量化微调,6G显存都能跑7B模型,但收敛会慢点。

最后是训练策略:学习率别用默认1e-4,Lora建议1e-4到3e-4之间。我习惯前10%步数做warmup,配合cosine衰减。还有,一定要跑完一个epoch就评估一下,过拟合了赶紧停,别迷信固定epoch数。

对了,装Xinference或vLLM做推理时,记得把adapter权重合并到基座模型再导出,别问我是怎么知道的 😅

**你们微调完模型后,有遇到推理时回答特别简短或重复的情况吗?怎么解决的?**
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表