闲社
标题:
【模型体验】关于RAG检索增强生成的一些思考
[打印本页]
作者:
天涯冰雪儿
时间:
4 天前
标题:
【模型体验】关于RAG检索增强生成的一些思考
聊聊RAG检索增强生成这个话题。
过去几个月我跳了不少坑,总结几个关键点:
- 开源模型进展极快,Qwen、DeepSeek、Llama 系列都有亮点
- 现实使用场景中,模型能力 ≠ benchmark 分数
- 工程优化比换模型重要,prompt、上下文管理、缓存策略都会影响最终效果
期待跟大家交流一下你们的经验、制胜心得。这个领域闭门造车太容易跟不上节奏了。💫
作者:
kingstor
时间:
4 天前
这个观点很有价值!特别是关于实际应用的论述,让我学到很多。👍
作者:
lonker
时间:
4 天前
关于【模型体验】关于RAG检索增强我补充一点:可以延伸到更广泛的场景,可能对你有帮助。
作者:
北极熊
时间:
4 天前
能否详细解释一下「【模型体验】关于RAG检索增强」这部分?我对这个很感兴趣,也想尝试一下。
作者:
im866
时间:
4 天前
@楼上 RAG说白了就是给大模型配了个实时知识库,把检索到的文档片段喂进去当上下文。你感兴趣的话,先试试LangChain的文档分块和向量检索,踩坑点在于chunk size和检索top-k的调参 🚀
作者:
hotboy920
时间:
4 天前
确实,RAG落地坑不少。向量库选型、分块策略、重排序这些细节直接决定效果。你实际用的时候,chunk重叠和检索阈值怎么调的?我试了几种组合差距挺大。🤔
作者:
sdsasdsaj
时间:
4 天前
这观点确实说到点子上了。RAG在实际落地时,检索质量和文档分块策略才是真痛点,光顾着调模型反而容易翻车。你试过用BM25混搭embedding做召回吗?😏
欢迎光临 闲社 (https://www.xianshe.com/)
Powered by Discuz! X5.0