主要内容
多年来,使用Google、Facebook等科技巨头的免费服务,用户的“代价”是交出个人数据。如今,新一代生成式AI系统可能需要比以往更多的数据访问权限。
生成式AI工具(如OpenAI的ChatGPT、Google的Gemini)已从早期简单的文本聊天机器人,发展为具备自主性的“AI代理”或“助手”。这些代理能完成订机票、购物等复杂任务,甚至处理数十步的流程,但要实现功能,往往需要访问用户设备的操作系统及各类数据。
“AI代理要实现全部功能,常需系统级访问权限,这对网络安全和隐私构成深远威胁。”Ada Lovelace研究所高级研究员Harry Farmer指出。为实现个性化服务,AI代理需要大量用户信息,存在数据交换的权衡风险。
部分企业产品已展示出对数据的深度访问:Microsoft的“Recall”功能每几秒截取桌面截图,以便用户搜索设备操作记录;Tinder的AI可扫描手机照片,分析用户兴趣和性格。牛津大学副教授Carissa Véliz表示,用户很难核查企业是否按承诺处理数据,“这些公司对数据的使用缺乏尊重”。
自2010年代机器学习突破后,科技行业便陷入“数据囤积竞赛”。面部识别公司Clearview AI曾抓取海量人脸照片,Google以每张5美元低价收集面部扫描数据,政府机构也曾涉嫌滥用儿童图像数据。AI代理的兴起,正将数据隐私风险推向新高度。