兄弟们,微调这事儿真不是网上那些“五分钟搞定”能糊弄的。我搞了半年多,踩的坑比训练数据还多,今天吐点干货。
数据质量永远是第一。别信“量变引起质变”,脏数据进去,模型直接变弱智。我试过用1万条人工标注的干净数据微调7B模型,效果吊打10万条爬虫垃圾。长文本注意截断策略,别一刀切,用滑动窗口保留语义。
学习率是关键。别套默认值,LoRA的话,alpha和r的比值要调——alpha是r的两倍通常稳。先跑几个小批次看loss曲线,炸了立马停。我习惯先用0.0001试水,再微调到0.0005。
部署别忘量化。微调完的模型直接跑FP16占显存,8B模型单卡3090都吃力。用AWQ或GPTQ量化到4bit,推理速度翻倍,精度损失不到1%。记得测试下输出一致性,别量化后偏了。
最后说一句:算力不是万能,别折腾太多epoch,3-5轮足够。过拟合后模型只会背答案,不会推理。
你们踩过最坑的微调bug是啥?欢迎来撕。👊 |