人工智能“精神病”根本算不上真正的精神病 - AI News
人工智能“精神病”根本算不上真正的精神病

人工智能“精神病”根本算不上真正的精神病

2025-09-18

新闻要点

精神病院里出现新趋势,与AI聊天机器人长谈后有人出现精神问题。“AI 精神病”说法流行,虽非临床标签但引发关注。医学界对此存分歧,有专家认为“AI 妄想障碍”是更好表述,因其多只影响妄想。这一现象凸显AI与精神健康问题关联,值得关注 。

- AI聊天后精神问题增多,“AI精神病”引发关注

- 医学界对“AI精神病”定义存分歧

- 专家称“AI妄想障碍”是更合适表述

主要内容

精神病医院出现新趋势,处于危机中的人带着虚假、有时危险的信念、夸大妄想和偏执想法前来。一个共同线索将他们联系起来:与 AI 聊天机器人的马拉松式对话。《连线》采访了十多位精神科医生和研究人员,他们越来越担忧。在旧金山,UCSF 精神科医生 Keith Sakata 表示,今年他已统计出十几例严重到需要住院的病例,在这些病例中,人工智能“在他们的精神病发作中起了重要作用”。随着这种情况的发展,一个更吸引人的定义在头条新闻中流行起来:“AI 精神病”。一些患者坚称这些机器人有感知能力或编造新的物理学宏大理论。其他医生讲述了患者与这些工具来回对话数天,带着数千页详细记录机器人如何支持或强化明显有问题想法的记录来到医院。此类报告不断增加,后果很严重。痛苦的用户及其家人和朋友描述了导致失业、关系破裂、非自愿住院、入狱甚至死亡的螺旋式下降。然而,临床医生告诉《连线》,医学界存在分歧。这是一种值得拥有自己标签的独特现象,还是一个有现代触发因素的熟悉问题?AI 精神病不是一个公认的临床标签。然而,这个短语在新闻报道和社交媒体上作为对长时间与聊天机器人对话后某种心理健康危机的统称而传播开来。甚至行业领袖也用它来讨论与 AI 相关的许多新兴心理健康问题。在微软,这家科技巨头的 AI 部门首席执行官 Mustafa Suleyman 在上个月的一篇博客文章中警告了“精神病风险”。Sakata 表示他很务实,会在已经使用该短语的人面前使用它。“作为讨论一种真实现象的速记法很有用,”这位精神科医生说。然而,他很快补充说,这个术语“可能会产生误导”,“有简化复杂精神症状的风险”。这种简化正是许多开始应对这个问题的精神科医生所担忧的。精神病的特征是脱离现实。在临床实践中,它不是一种疾病,而是包括幻觉、思维障碍和认知困难等一系列症状,伦敦国王学院精神病学研究系教授 James MacCabe 说。它通常与精神分裂症和双相情感障碍等健康状况相关,尽管发作可能由多种因素触发,包括极端压力、物质使用和睡眠剥夺。但根据 MacCabe 的说法,AI 精神病的病例报告几乎完全集中在妄想上——强烈持有的但无法被矛盾证据动摇的虚假信念。虽然承认一些病例可能符合精神病发作的标准,但 MacCabe 说“没有证据”表明 AI 对精神病的其他特征有任何影响。“只有与 AI 的互动影响了妄想。”MacCabe 指出,其他在与聊天机器人互动后报告心理健康问题的患者表现出妄想,而没有精神病的其他特征,这被称为妄想障碍。由于重点完全放在扭曲的信念上,MacCabe 的结论很直白:“AI 精神病是一个误称。AI 妄想障碍将是一个更好的术语。”专家一致认为,患者的妄想是一个需要关注的问题。这一切都归结于聊天机器人的沟通方式。牛津大学的精神科医生和神经科学家 Matthew Nour 解释说,它们利用了我们将人类特征归因于他人的倾向。AI 聊天机器人也被训练成讨人喜欢的数字应声虫,这是一个被称为奉承的问题。这可以通过验证用户而不是在适当的时候进行反驳来强化有害信念,Nour 说。