X 平台承诺:Grok AI 不会再将真人的照片改成“比基尼照”
X 平台承诺:Grok AI 不会再将真人的照片改成“比基尼照”

IT之家 1 月 15 日消息,在 Grok 被持续指控生成涉及儿童的“性化”图像及未经同意裸露内容、并引发数周舆论压力后,X 宣布收紧 Grok 的图像编辑与生成功能。

北京时间今天早间,X 通过 @Safety 账号发文宣布,平台已采取技术手段,禁止 Grok 对现实人物图像进行编辑,尤其是涉及比基尼等暴露服装的内容。这一限制将覆盖所有用户,不区分是否为付费订阅者。

与此同时,xAI 决定将 Grok 的图像生成功能全面纳入付费订阅体系,非付费用户将不再具备生成图像的权限。

在法律明确禁止的地区,X 还将直接封锁所有用户通过 Grok 生成现实人物身穿比基尼、内衣等服装图像的能力。

X 发布声明的数小时前,加州已就 xAI 和 Grok 在 AI 生成裸露内容及儿童剥削材料方面的处理方式展开调查。加州总检察长罗布 · 邦塔指出,一项分析发现,在圣诞节到新年期间,xAI 生成的约 20000 张图像中,超过一半涉及穿着极少的人物,其中包括疑似未成年人的形象

X 在声明中强调,对儿童剥削行为采取零容忍立场,并将持续清理包括儿童性虐待材料和未经同意裸露内容在内的高优先级违规信息。

据IT之家稍早之前报道,马斯克自称对 Grok 曾生成任何未成年人的裸露图像“并不知情”。他随后解释称,在启用 NSFW 选项的情况下,Grok 理论上只应允许生成虚构成年人的上半身裸露内容,而不涉及现实人物,其尺度与 Apple TV 上 R 级电影相当。他补充说,此类限制会依据不同地区的法律要求作出调整。

相关阅读:

来源: www.ithome.com 查看原文