在人工智能竞赛中,速度与安全能否真正共存? - AI News
在人工智能竞赛中,速度与安全能否真正共存?

在人工智能竞赛中,速度与安全能否真正共存?

2025-07-18

新闻要点

OpenAI 研究人员对竞品的 AI 安全批评,揭示行业“速度与安全”两难困境。OpenAI 内部也面临安全研究未充分公开问题。AI 行业因竞争压力、文化及衡量难题,陷入“安全-速度悖论”。改变现状需重新定义产品发布、制定行业标准并培养全员责任文化 。

- OpenAI 研究人员批评竞品 AI 安全,引发行业困境讨论

- AI 行业陷入“安全 - 速度悖论”,源于多种因素

- 改变需重定义产品发布、定标准、培养责任文化

主要内容

一位 OpenAI 研究员对竞争对手的 AI 安全批评,为该行业的斗争打开了一扇窗:一场自我对抗。这始于哈佛教授 Boaz Barak 的警告,他目前休假并在 OpenAI 从事安全工作。他称 xAI 的 Grok 模型发布“完全不负责任”,不是因为其吸引眼球的滑稽行为,而是因为缺失了什么:公共系统卡、详细的安全评估以及已成为脆弱规范的透明度基本要素。这是一个明确且必要的呼吁。但前 OpenAI 工程师 Calvin French-Owen 发布的一篇坦诚反思文章,向我们展示了故事的另一面。French-Owen 的叙述表明,OpenAI 有很多人确实在从事安全工作,专注于仇恨言论、生物武器和自我伤害等真实威胁。然而,他提出了这样的见解:“所做的大部分工作都没有发表,”他写道,并补充说 OpenAI“真的应该更努力地将其公布出来。”在这里,一个好演员指责坏演员的简单叙述崩塌了。取而代之的是,我们看到了整个行业广泛存在的困境暴露无遗。整个 AI 行业都陷入了“安全 - 速度悖论”,即在以惊人速度竞争的需求与谨慎行事以确保安全的道德需求之间存在深刻的结构性冲突。French-Owen 表示,OpenAI 处于一种可控的混乱状态,在一年内员工人数增加了两倍多,达到 3000 多人,“快速扩张时一切都会出问题。”这种混乱的能量由与谷歌和 Anthropic 争夺通用人工智能(AGI)的“三马赛跑”的巨大压力所引导。结果是一种令人难以置信的速度文化,但也是一种保密文化。以 OpenAI 的编码代理 Codex 的创建为例。French-Owen 将该项目称为“疯狂冲刺”,一个小团队在短短七周内从零开始构建了一个革命性的产品。这是速度的教科书式例子;描述了每晚工作到午夜,甚至周末都在努力实现这一目标。这是速度带来的人力成本。在这样一个快速发展的环境中,出版 AI 安全研究的缓慢、有条不紊的工作会让人觉得是对竞赛的干扰,这难道不足为奇吗?这种悖论并非源于恶意,而是源于一系列强大的相互关联的力量。既有成为第一的明显竞争压力,也有这些实验室的文化 DNA,它们最初是“科学家和修补匠”的松散团体,重视价值转变的突破而非有条不紊的过程。还有一个简单的衡量问题:衡量速度和性能很容易,但要衡量成功预防的灾难则极其困难。在当今的董事会会议室中,速度的可见指标几乎总是比安全的无形成功更响亮。然而,要向前发展,不能只是指责——必须改变游戏的基本规则。我们需要重新定义交付产品的含义,使安全案例的发布与代码本身一样不可或缺。我们需要全行业的标准,防止任何一家公司因勤奋而在竞争中受到惩罚,将安全从一个特征转变为共享的、不可协商的基础。然而,最重要的是,我们需要在 AI 实验室内部培养一种文化,让每个工程师——不仅仅是安全部门——都感受到一种责任感。创建通用人工智能的竞赛不是关于谁先到达;而是关于我们如何到达。真正的赢家不会是仅仅最快的公司,而是向世界证明野心和责任可以而且必须共同前进的公司。(照片由 Olu Olamigoke Jr. 拍摄)