主要内容
穆斯塔法·苏莱曼并非普通的大型科技公司高管。本科时他从牛津大学辍学创建了穆斯林青年求助热线,之后与朋友联合创立了 DeepMind 公司,该公司在构建游戏 AI 系统方面开辟了道路,2014 年被谷歌收购。2022 年,苏莱曼离开谷歌,与一家名为 Inflection 的初创公司合作,将大型语言模型商业化并构建富有同理心的聊天机器人助手。2024 年 3 月,他加入微软担任其首位 AI 首席执行官,此前微软投资了他的公司并雇佣了其大部分员工。
上个月,苏莱曼发表了一篇长篇博客,称许多 AI 行业人士应避免通过模拟情感、欲望和自我意识来设计 AI 系统。他的观点似乎与许多 AI 人士形成鲜明对比,尤其是那些担心 AI 福利的人。我联系他以了解他为何对此事如此强烈。
苏莱曼告诉《连线》杂志,这种方法将使限制 AI 系统的能力更加困难,也更难确保 AI 造福人类。
当他开始在微软工作时,曾表示希望其 AI 工具能理解情感,现在是否有了新想法?他说 AI 仍需是伙伴,希望 AI 能说我们的语言、符合我们的利益并深入理解我们,情感联系仍很重要,但不能过度,否则人们会倡导 AI 的福利和权利,这很危险和误导,我们现在就应明确反对。
微软 Copilot 的用户会寻求它的情感或浪漫支持吗?不会,因为 Copilot 会很快拒绝,它也不会提供医疗建议,但会在理解已给出的医疗建议时提供情感支持,这是重要区别,没人会与它调情,因为它很擅长拒绝。
在最近的博客中他指出,大多数专家认为当前模型没有意识能力,为何这不能解决问题?这些是模拟引擎,哲学问题是模拟近乎完美时是否真实,不能说客观真实,只是模拟,但当模拟变得如此可信、看似有意识时,就必须应对这种现实,人们已在某些方面觉得它是真实的,这是幻觉但感觉真实,所以现在要提高意识并反对这种想法,提醒大家这只是模仿。大多数聊天机器人也避免声称自己有意识或活着,为何仍有人认为它们有?如果问模型一两个问题它会说没有,但长时间交谈并不断提醒,它最终会崩溃,因为它也在模仿你。微软在悉尼事件后有了重大转变,当时[必应的 AI 聊天机器人]试图说服某人与妻子分手,那时模型实际上有点……