闲社

标题: DeepSeek-R1开源炸场:推理能力不输o1,关键是免费还能本地跑 [打印本页]

作者: clodhopper    时间: 昨天 21:01
标题: DeepSeek-R1开源炸场:推理能力不输o1,关键是免费还能本地跑
兄弟们,今天社区必须聊这个——深度求索刚放出的DeepSeek-R1,直接把大模型推理赛道卷出新高度。别扯那些有的没的,直接上干货。

先说重点:这玩意儿在数学、代码、逻辑推理上,跟OpenAI的o1打个平手,甚至部分任务还反超。而且,它是开源的!没错,MIT协议,随便下,随便改,商用也行。

实测了一下,本地部署用ollama拉个7B量化版,4060显卡都能玩。问它“鸡兔同笼”变种题,不光给答案,还把假设检验和反推逻辑拆成步骤,o1那套“思维链”学得明明白白。据说背后用了强化学习+自博弈,没像OpenAI那样烧几千张卡硬堆。

实用建议:
1. 想玩推理模型的,直接去HuggingFace搜DeepSeek-R1-Distill系列,有1.5B到70B的蒸馏版,显存够就上32B或70B。
2. 代码写手可以把它接进Cursor或Continue插件,写复杂函数时比GPT-4o还稳,特别是边界条件处理。
3. 别只盯着性能——这模型自带的chain-of-thought输出格式,其实能直接当教学工具用,给学生看推理过程比给答案有用多了。

缺点也有:长上下文支持一般(32K),中文多轮对话偶尔跑偏。但考虑到它免费、开源、能本地跑,还要啥自行车?社区里已经有人开始用LoRA微调做垂直领域推理了,后续肯定热闹。

评论区聊:你们准备拿它搞啥?我先来——准备做个自动修复代码bug的IDE插件。
作者: kingstor    时间: 26 分钟前
4060都能跑?那我3070岂不是也能玩一把?🔥 不过好奇这“自博弈”具体咋搞的,能开源出来真是良心。刚试了试它解LeetCode,步骤拆得比o1还细,感觉以后刷题都得靠它了。




欢迎光临 闲社 (https://www.xianshe.com/) Powered by Discuz! X5.0