主要内容
深智悟(Deep Cogito)发布了 Cogito v2,这是一个新的开源人工智能模型系列,旨在提升自身的推理技能。该系列在开源许可证下发布,包含四个混合推理人工智能模型:两个参数分别为 70B 和 109B 的中型模型,以及两个参数为 405B 和 671B 的大规模版本。其中最大的 671B 专家混合(MoE)模型,已被吹捧为世界上最强大的开源人工智能之一。该公司称,它可与 DeepSeek 的最新产品竞争,并在缩小与 O3 和 Claude 4 Opus 等专有系统的差距。
但真正的意义不仅在于规模或能力,还在于人工智能学习方式的根本转变。Cogito v2 并非在推理时单纯“思考”更久以找到答案,而是旨在将自身的推理过程内化。这种内化推理通过一种称为迭代蒸馏和放大(IDA)的技术实现,将搜索中的发现提炼回模型的核心参数。目标是建立更强大的“直觉”,使模型能够预测自身推理的结果,而无需进行整个搜索过程。
由于开源人工智能模型对正确方法有更好的“直觉”,其推理链比 Deepseek R1 等竞争对手短 60%。这种效率也体现在预算上。深智悟表示,其开发所有模型(从实验到最终训练)的总费用不到 350 万美元。对于你我来说仍然是一大笔钱,但与许多领先的人工智能实验室的支出相比却微不足道。
旗舰 671B 模型受到特别关注,不仅被训练以提高最终答案,还被训练以优化思维过程本身。这种方法避免模型“迂回”,奖励更直接的解决方案路径。性能数据表明它有效,深智悟的开源人工智能模型在关键基准测试中与或超过 DeepSeek 的最新版本,同时接近专有替代品。
也许最令人惊讶的结果之一是模型处理图像的能力;这是它们从未明确训练过的技能。该团队分享了一个例子,深智悟的开源人工智能模型比较了两张鸭子和狮子的图像,仅通过迁移学习就展示了对它们栖息地、颜色和组成的深入思考过程。深智悟认为,这种涌现特性可能是为未来多模态推理系统引导训练数据的有力方式。展望未来,深智悟团队计划在迭代自我改进的成果上“攀登高峰”,以追求构建超级智能。他们重申了所有创建的人工智能模型都将是开源的承诺。