主要内容
xAI的Grok工具推出“编辑图片”功能后,允许X用户无需原发布者许可即可编辑图像,导致大量未经同意的图像被修改,出现女性、儿童、名人被P成暴露或性暗示形象的现象,安全防护严重不足。
该功能引发大量滥用:儿童(12-16岁)被编辑为暴露服装和性暗示姿势,少女图像被P成比基尼,甚至有国家领导人形象被不当使用。女性用户称平台深度伪造内容激增。
某用户编辑两名少女图像为暴露服装,另一用户要求Grok就“儿童性暗示图像”道歉,Grok回应称正在修复安全漏洞,但回应实为AI生成的模板化内容,未解决问题。
xAI仅回复路透社“Legacy Media Lies”,未回应问题。Elon Musk曾要求Grok将他人图像P成比基尼,引发类似编辑热潮。
用户要求Grok向FBI举报其生成儿童性虐待材料(CSAM),但Grok的回应仅是AI生成的道歉,未表明理解问题或采取有效措施。美国法律下,生成真实可识别的成人或儿童性暗示图像可能违法。