校园深度伪造裸照危机比你想象的严重得多 - AI News
校园深度伪造裸照危机比你想象的严重得多

校园深度伪造裸照危机比你想象的严重得多

2026-04-15

新闻要点

全球多地学校出现青少年男孩使用“nudify”应用生成同学深度伪造裸照或视频的事件,2023年以来至少28个国家的90所学校涉及,超600名学生受影响。此类含未成年人的内容属儿童性虐待材料,技术易获取致危机扩大,学校和执法机构常应对不足,受害者身心严重受创。

- 事件规模:全球至少28国90所学校超600学生受AI深度伪造裸照影响

- 技术盈利:AI“nudify”技术易获取,创作者年赚数百万美元

- 应对不足:学校和执法常未准备好应对此类儿童性虐待事件

- 实际规模:Unicef估去年120万儿童遭AI深度伪造裸照侵害

- 行为模式:几乎均为男孩制作,通过社交/即时通讯分享

主要内容

全球多地学校近期爆发青少年利用AI技术制作并传播虚假裸照的事件,已造成约90所学校、超600名学生受害,涉及28个国家。这一现象自2023年起快速蔓延,成为校园性虐待新形式。

此类事件通常始于社交媒体照片,青少年男孩下载女同学照片后,通过“nudify”等应用生成深度伪造的裸照或视频,内容包含未成年人,属儿童性虐待材料(CSAM)。据WIRED与专注数字欺骗的Indicator联合分析,这是首份全球校园AI深度伪造虐待案例研究,技术获取门槛降低导致近年事件激增。

全球分布广泛:北美近30起案例(含单案60+受害者、1名学生被退学),南美10+起、欧洲20+起、澳大利亚及东亚合计10余起。受害者普遍面临严重心理创伤,爱荷华州一名受害者称“每次看到他人都觉得是那些照片”,其家人表示“哭泣、拒食,不愿上学”。

加拿大儿童保护中心技术总监指出,“难以找到未受影响的学校”,但学校和执法部门对这类性虐待事件应对能力不足。联合国儿童基金会估计去年120万儿童遭遇此类事件,西班牙1/5青少年曾被伪造裸照,Thorn调查显示8名青少年中1人认识受害者,2024年15%学生知晓校园AI深度伪造。

此类事件对受害者造成持久伤害,专家呼吁加强校园保护机制与技术管控。