主要内容
全球多地学校近期爆发青少年利用AI技术制作并传播虚假裸照的事件,已造成约90所学校、超600名学生受害,涉及28个国家。这一现象自2023年起快速蔓延,成为校园性虐待新形式。
此类事件通常始于社交媒体照片,青少年男孩下载女同学照片后,通过“nudify”等应用生成深度伪造的裸照或视频,内容包含未成年人,属儿童性虐待材料(CSAM)。据WIRED与专注数字欺骗的Indicator联合分析,这是首份全球校园AI深度伪造虐待案例研究,技术获取门槛降低导致近年事件激增。
全球分布广泛:北美近30起案例(含单案60+受害者、1名学生被退学),南美10+起、欧洲20+起、澳大利亚及东亚合计10余起。受害者普遍面临严重心理创伤,爱荷华州一名受害者称“每次看到他人都觉得是那些照片”,其家人表示“哭泣、拒食,不愿上学”。
加拿大儿童保护中心技术总监指出,“难以找到未受影响的学校”,但学校和执法部门对这类性虐待事件应对能力不足。联合国儿童基金会估计去年120万儿童遭遇此类事件,西班牙1/5青少年曾被伪造裸照,Thorn调查显示8名青少年中1人认识受害者,2024年15%学生知晓校园AI深度伪造。
此类事件对受害者造成持久伤害,专家呼吁加强校园保护机制与技术管控。