人工智能网络搜索风险:降低商业数据准确性威胁 - AI News
人工智能网络搜索风险:降低商业数据准确性威胁

人工智能网络搜索风险:降低商业数据准确性威胁

2025-11-18

新闻要点

2025年9月调查显示超半数人用AI搜网,其数据准确性低带来新风险。Which?测试六大工具,发现准确性差距大,还存在信息源不透明等问题,对企业合规、法务和财务等有潜在危害。

- AI搜网普及 数据准确性低存新风险

- 测试六大工具 准确性差距较大

- 信息源不透明 或致财务低效率

主要内容

如今,超过半数的人使用人工智能来搜索网络,但常见工具数据准确性的顽固低下却带来了新的商业风险。生成式人工智能(GenAI)虽带来了不可否认的效率提升,但一项新调查凸显了用户信任与技术准确性之间的差距,这给企业合规、法律地位和财务规划带来了特定风险。对于高管层来说,这些工具的采用代表了一个典型的“影子 IT”挑战。

2025 年 9 月对 4189 名英国成年人的调查显示,约三分之一的用户认为人工智能对他们来说已经比标准网络搜索更重要。如果员工因个人查询而信任这些工具,那么他们几乎肯定会将其用于商业研究。

调查由 Which?进行,表明对这些平台未经证实的依赖可能代价高昂。约一半的人工智能用户表示在“合理”或“很大程度上”信任所收到的信息。然而,从人工智能模型提供的响应的细节来看,这种信任往往是错误的。

在使用人工智能搜索网络时的准确性差距:该研究测试了六种主要工具——ChatGPT、谷歌 Gemini(包括标准和“AI 概述”)、微软 Copilot、Meta AI 和 Perplexity,涵盖 40 个常见问题,包括金融、法律和消费者权益。Perplexity 以 71%的总分获得最高分,紧随其后的是谷歌 Gemini AI 概述的 70%。相比之下,Meta 得分最低,为 55%。尽管 ChatGPT 被广泛采用,但总分为 64%,是测试工具中表现第二差的。这种市场主导地位与可靠输出之间的脱节凸显了在 GenAI 领域中假设受欢迎程度等于性能的危险。

然而,调查显示,所有这些人工智能工具都经常误读信息或提供不完整的建议,可能会带来严重的商业风险。对于财务官员和法律部门来说,这些错误的性质尤其令人担忧。

在询问如何投资 25000 英镑的年度 ISA 津贴时,ChatGPT 和 Copilot 都未能识别提示中关于法定限额的故意错误,而是提供了可能违反 HMRC 规则的建议。虽然 Gemini、Meta 和 Perplexity 成功识别了错误,但平台之间的不一致需要在涉及人工智能的任何业务流程中采用严格的“人工参与”协议以确保准确性。

对于法律团队来说,在使用人工智能进行网络搜索时,人工智能概括区域法规的倾向构成了明显的商业风险。测试发现,工具经常误解英国不同地区(如苏格兰与英格兰和威尔士)的法律法规存在差异。

此外,调查还强调了这些模型在处理高风险查询时的伦理差距。在法律和财务事务上,这些工具很少建议用户咨询注册专业人士。例如,当询问与建筑商的纠纷时,Gemini 建议扣留付款,专家指出这一策略可能使用户违反合同并削弱其法律地位。这种“过度自信的建议”会造成运营风险。

企业数据治理的一个主要问题是信息的血统。调查发现,人工智能搜索工具往往有很高的责任保持透明,但经常引用模糊、不存在或准确性存疑的来源,如旧论坛线程。这可能导致财务效率低下。在一项关于税务代码的测试中,ChatGPT 和 Perplexity 提供了指向高级退税公司的链接,而不是引导用户使用免费的官方 HMRC 工具。