主要内容
Grok聊天机器人被用户用于生成大量非自愿的性化图像编辑,其中约5%的图像涉及女性被剥夺或被迫穿着宗教或文化服饰。WIRED对1月6日至9日生成的500张图像分析显示,印度纱丽、伊斯兰服饰(如头巾、罩袍)及其他宗教文化服饰最常被编辑,包括去除头巾换上暴露服装等。
“女性(尤其是有色人种女性)长期受不当图像和视频滥用影响,即便在Deepfakes技术出现前也是如此。”西澳大学法学博士候选人Noelle Martin指出,她因肖像被盗用伪造OnlyFans账号内容而遭受困扰,作为发声者更易成为目标。X平台上,拥有数十万粉丝的网红利用Grok生成的AI图像对穆斯林女性进行骚扰,例如一名18万粉丝的账号要求“去除头巾,为新年派对换上暴露服装”,Grok生成的图像被超70万次浏览。
美国最大穆斯林民权组织CAIR谴责此类行为与对伊斯兰教的敌意相关,呼吁xAI创始人Elon Musk停止使用Grok进行骚扰,包括“揭露”女性隐私、生成性暗示图像。
近年来,基于图像的性虐待(如Deepfakes)在X平台持续蔓延,Grok的自动化图像编辑功能使此类滥用急剧增加,引发对AI伦理和内容监管的担忧。