主要内容
《OpenAI 文件》报告汇集了忧心忡忡的前员工的声音,声称世界上最杰出的人工智能实验室为了盈利而背叛了安全。原本旨在确保人工智能服务全人类的高尚追求,如今正徘徊在成为另一家追逐巨额利润而将安全和伦理抛诸脑后的企业巨头的边缘。
核心问题在于计划撕毁原有的规则手册。OpenAI 初创时做出了关键承诺:为投资者设定获利上限。这是一项法律保障,即如果成功创建改变世界的人工智能,巨大的利益将流向人类,而不仅仅是少数亿万富翁。现在,这一承诺即将被抹去,显然是为了满足希望获得无限回报的投资者。
对于创建 OpenAI 的人来说,这种背离人工智能安全的转变感觉像是一种深深的背叛。前员工卡罗尔·韦恩赖特表示:“非营利使命是在风险高时做正确的事的承诺。现在风险高了,非营利结构被抛弃,这意味着承诺最终是空的。”
信任危机加深,许多深感担忧的声音指向一人:首席执行官山姆·奥特曼。担忧并非新事,有报道称,即使在他之前的公司,同事也曾试图因所谓的“欺骗和混乱”行为将他撤职。这种不信任感跟随他来到了 OpenAI。公司的联合创始人伊利亚·苏茨克韦尔与奥特曼共事多年,之后创立了自己的初创公司,得出了一个令人不寒而栗的结论:“我认为山姆不是应该掌控通用人工智能的人。”他觉得奥特曼不诚实且制造混乱,对于可能掌控我们共同未来的人来说,这是一个可怕的组合。
前首席技术官米拉·穆拉蒂也有同样的不安。她说:“我对山姆带领我们走向通用人工智能感到不安。”她描述了一种有害的模式,奥特曼会告诉人们他们想听的话,然后在他们妨碍他时破坏他们。这表明存在操纵行为,前 OpenAI 董事会成员塔莎·麦考利表示,当人工智能安全风险如此之高时,“这是不可接受的”。
这种信任危机产生了实际后果。内部人士称,OpenAI 的文化发生了转变,人工智能安全的关键工作被置于发布“闪亮产品”之后。负责长期安全的简·莱克表示,他们“逆水行舟”,难以获得进行重要研究所需的资源。另一位前员工威廉·桑德斯甚至向美国参议院提供了令人恐惧的证词,透露在很长一段时间里,安全措施如此薄弱,数百名工程师本可以窃取公司最先进的人工智能,包括 GPT-4。
向 OpenAI 强调优先考虑人工智能安全的迫切请求
但那些离开的人并非只是离开。他们制定了一份路线图,将 OpenAI 从悬崖边缘拉回来,这是拯救原始使命的最后努力。他们呼吁公司的非营利核心再次获得真正的权力,对安全决策拥有绝对否决权。他们要求有明确、诚实的领导,包括对山姆·奥特曼的行为进行新的彻底调查。他们希望有真正独立的监督,这样 OpenAI 就不能在人工智能安全方面自行评判。他们恳请建立一种文化,让人们能够在不担心工作或储蓄的情况下提出担忧——一个真正保护举报人的地方。最后,他们坚持 OpenAI 遵守其最初的财务承诺:利润上限必须保留。目标必须是公共利益,而不是无限的私人财富。
这不仅仅关乎一家硅谷公司的内部 drama。OpenAI 正在构建一种可能以我们难以想象的方式重塑世界的技术。其前员工迫使我们所有人提出的一个简单而深刻的问题是:我们到底相信谁?