人工智能促进变革:若无规则,人工智能恐陷“信任危机” - AI News
人工智能促进变革:若无规则,人工智能恐陷“信任危机”

人工智能促进变革:若无规则,人工智能恐陷“信任危机”

2025-08-08

新闻要点

Suvianna Grecu 称若缺乏规则,AI 部署重速度轻安全将引发“信任危机”。当前 AI 被广泛应用但伦理落实不足,她主张多方合作治理,将伦理融入开发流程,还关注长期风险,强调要让技术承载价值。

- Suvianna Grecu 警告 AI 无规则部署有“信任危机”

- AI 融入关键领域 伦理落实存差距

- 倡导政府与行业合作治理 AI

- 关注 AI 长期风险 强调价值驱动

主要内容

世界正在竞相部署人工智能,但科技伦理领域的一位领军人物警告称,将速度置于安全风险之上会引发“信任危机”。人工智能变革基金会创始人苏维亚娜·格雷库认为,若没有立即且强有力的治理,我们将走上“大规模自动化伤害”的道路。在谈及人工智能融入关键领域时,格雷库认为,最紧迫的伦理危险并非技术本身,而是其部署周围缺乏架构。强大的系统正越来越多地对从求职申请、信用评分到医疗保健和刑事司法等一切事务做出改变人生的决策,往往没有对偏见进行充分测试或考虑其长期社会影响。对许多组织而言,人工智能伦理仍只是一份崇高原则的文件,而非日常运营的现实。格雷库坚持认为,真正的问责制只有在有人对结果真正负责时才开始。意图与实施之间的差距才是真正的风险所在。格雷库的基金会倡导从抽象想法转向具体行动。这涉及通过设计清单、强制部署前风险评估和将法律、技术和政策团队聚集在一起的跨职能审查委员会等实用工具,将伦理考量直接嵌入开发工作流程。据格雷库称,关键是在每个阶段确立明确的所有权,像对待任何其他核心业务功能一样建立透明且可重复的流程。这种实用方法旨在推进伦理人工智能,将其从一场哲学辩论转变为一系列可管理的日常任务。

在执行方面,格雷库明确表示,责任不能仅落在政府或行业身上。“不是非此即彼,必须两者兼顾”,她主张建立一种合作模式。在这种合作中,政府必须设定法律界限和最低标准,尤其是在涉及基本人权时。监管提供了必要的基础。然而,行业拥有创新的灵活性和技术人才,能够超越单纯的合规性。公司最有能力创建高级审计工具,开创新的保障措施,并推动负责任技术所能达到的边界。将治理完全留给监管机构会有抑制我们所需创新的风险,而仅留给企业则会引发滥用。“合作是唯一可持续的前进道路”,格雷库断言。

展望未来,格雷库关注的是更微妙、长期的风险,这些风险未得到足够重视,即情感操纵和对价值驱动技术的迫切需求。随着人工智能系统越来越擅长说服和影响人类情感,她警告称,我们对其影响个人自主性的后果毫无准备。她工作的核心原则是技术并非中立的。“除非我们有意构建,否则人工智能不会受价值观驱动”,她警告说。人们常误以为人工智能只是反映世界的现状。实际上,它反映的是我们提供给它的数据、我们赋予它的目标以及我们奖励的结果。如果没有刻意干预,人工智能将不可避免地优化效率、规模和利润等指标,而不是正义、尊严或民主等抽象理想,这自然会影响社会信任。这就是为什么需要有意识和积极的努力来决定我们希望技术促进哪些价值观。对于欧洲而言,这是一个关键机会。“如果我们希望人工智能服务于人类(而不仅仅是市场),我们需要在每个层面(政策、设计和部署)保护和嵌入人权、透明度、可持续性、包容性和公平性等欧洲价值观”,格雷库解释道。这并非关于阻止进步。正如她所说:“我们必须在利用技术的力量造福人类的同时,确保技术符合我们的价值观。”