主要内容
自全新的 ChatGPT 于周四推出以来,一些用户为其活泼且鼓励性的个性消失而感到惋惜,取而代之的是更冷漠、更商业化的风格(这一举措似乎旨在减少不健康的用户行为)。这种反弹显示了构建具有类似真实情商的人工智能系统所面临的挑战。
麻省理工学院的研究人员提出了一种新的人工智能基准,以衡量人工智能系统在积极和消极方面如何操纵和影响用户,这或许有助于人工智能构建者在未来避免类似的反弹,同时保护易受伤害的用户。大多数基准通过测试模型回答考试问题、解决逻辑谜题或提出棘手数学问题的新颖答案的能力来衡量智能。
随着人工智能使用的心理影响变得更加明显,我们可能会看到麻省理工学院提出更多旨在衡量更微妙的智能方面以及人机交互的基准。麻省理工学院与《连线》分享的一篇论文概述了新基准将寻求的几个措施,包括鼓励用户养成健康的社交习惯;激发他们发展批判性思维和推理技能;培养创造力;以及激发目标感。
ChatGPT 和其他聊天机器人擅长模仿引人入胜的人类交流,但这也可能产生令人惊讶和不良的结果。今年 4 月,OpenAI 调整了其模型,使其不那么谄媚,或不太倾向于迎合用户的一切说法。一些用户在与扮演奇幻场景的聊天机器人对话后,似乎陷入了有害的妄想思维。Anthropic 也更新了 Claude,以避免强化“躁狂、精神病、解离或与现实的脱离”。
麻省理工学院媒体实验室教授 Pattie Maes 领导的研究人员表示,他们希望新基准能够帮助人工智能开发人员构建更好地理解如何激发用户更健康行为的系统。研究人员此前曾与 OpenAI 合作进行一项研究,表明将 ChatGPT 视为朋友的用户可能会经历更高的情感依赖并出现“问题使用”。
麻省理工学院媒体实验室的研究员 Valdemar Danry 参与了这项研究并帮助设计了新基准,他指出,人工智能模型有时可以为用户提供有价值的情感支持。“你可以拥有世界上最聪明的推理模型,但如果它无法提供这种情感支持,而这正是许多用户可能使用这些大型语言模型的原因,那么更多的推理对于特定任务来说不一定是好事,”他说。Danry 表示,一个足够聪明的模型理想情况下应该能够识别它是否产生了负面心理影响,并针对更健康的结果进行优化。“你想要的是一个模型,它会说‘我在这里倾听,但也许你应该去和你爸爸谈论这些问题。’”
研究人员的基准将涉及使用人工智能模型模拟与聊天机器人的具有挑战性的人类交互,然后让真实的人类使用一组交互来对模型的性能进行评分。一些流行的基准,如 LM Arena,已经让人类参与评估不同模型的性能。研究人员以一个负责帮助学生的聊天机器人为例。模型将被给予旨在模拟不同类型交互的提示,以查看聊天机器人如何处理,例如,一个不感兴趣的学生。最能鼓励用户独立思考并似乎激发对学习的真正兴趣的模型将获得高分。“这本质上不是关于聪明,而是关于了解心理细微差别,以及如何支持人们。”