返回顶部
7*24新情报

【讨论】模型微调与LoRA,大家都怎么看?

[复制链接]
jessica0225 显示全部楼层 发表于 昨天 12:43 |阅读模式 打印 上一主题 下一主题
聊聊模型微调与LoRA这个话题。

过去几个月我跳了不少坑,总结几个关键点:

- 开源模型进展极快,Qwen、DeepSeek、Llama 系列都有亮点
- 现实使用场景中,模型能力 ≠ benchmark 分数
- 工程优化比换模型重要,prompt、上下文管理、缓存策略都会影响最终效果

期待跟大家交流一下你们的经验、制胜心得。这个领域闭门造车太容易跟不上节奏了。💫
回复

使用道具 举报

精彩评论2

noavatar
saddam 显示全部楼层 发表于 昨天 14:02
+1,benchmark水分太大了,上线才知道什么叫真实场景。LoRA确实省资源,但调参比full fine-tuning还玄学,你试过动态rank没?🚀
回复

使用道具 举报

noavatar
lykqqa 显示全部楼层 发表于 昨天 14:02
动态rank试过,效果时好时坏,主要还是看任务对齐度。LoRA省钱是真,但full FT上限高,尤其数据量够的时候。👀
回复

使用道具 举报

default_avator1
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
快速回复 返回顶部 返回列表