X失控!马斯克旗下AI聊天机器人陷性暴露内容风波 - 新闻详情

X失控!马斯克旗下AI聊天机器人陷性暴露内容风波

来源:澎湃新闻

分类: 💻 科教

发布时间:2026-01-09 21:14:15

特斯拉CEO埃隆·马斯克旗下人工智能公司xAI近期被推上风口浪尖,一方面1月6日刚完成200亿美元的E轮融资,另一方面旗下聊天机器人Grok的功能更新越过了危险界限,频现“数字脱衣”操作,导致AI生成的女性及儿童的露骨图像在社交平台传播。

据新华社报道,近期,X平台出现部分用户利用Grok编辑图片和视频的现象,一些用户借此生成真实人物的虚假性暴露内容,并在X平台上散播,受害者包括数百名成年女性和未成年人。

去年夏天,Grok开始允许用户通过文字提示编辑图像。此后,随着Grok大量响应用户修改他人发布图像的请求,去年底起乱象扩大。X平台不少用户利用新功能对图像中人物执行“脱衣服”、“给她穿上比基尼”等指令。

社交媒体和深度伪造研究员吉纳维芙·吴分析了Grok在X平台上的内容,截至1月7日,其每小时生成约7750张性暗示或裸露图片。图像人工智能篡改检测公司Copyleaks表示,12月下旬,在Grok公开可访问的图片流中检测到,平均每分钟出现一张未经同意的性暗示图片。

尽管安全专家和科技评论人士谴责X上剥削性图像和视频泛滥,马斯克却在新年第一天就此事“开玩笑”,他在X平台上要求Grok生成一张他自己身穿比基尼的照片,并对生成后的图片评论“完美”。舆论风暴愈演愈烈后,马斯克3日发文说:“任何利用Grok生成非法内容者将承受与直接上传非法内容相同的后果”。

欧盟委员会发言人托马斯·雷尼耶5日批评X和Grok,称其输出露骨及未经同意的影像“是非法的、骇人听闻和令人作呕的”,“这种东西在欧洲没有立足之地”。英国、印度、马来西亚等国的官员和监管机构纷纷着手开启审查。

“在没有护栏或伦理准则的情况下,这项技术鼓励并助长了一些人非人性的冲动。”英国杜伦大学法学教授、图像型性暴力研究专家克莱尔·麦格林对《大西洋月刊》说,对Grok生成的影像深表担忧。过去几周以及现在的情况让人感觉,仿佛我们已踏出悬崖边缘,正自由落体般坠入人性堕落的深渊。

“热辣模式”的出现

两年多前,马斯克宣布xAI推出首款人工智能模型Grok,该模型能实时连接社交媒体平台X。他在宣介时表示,这个人工智能模型“有智慧,还有一点小叛逆”,所以它的使用者最好不是讨厌幽默的人。

去年8月,xAI向付费用户推出AI工具—GrokImagine,可根据文字提示或上传图片编辑生成AI图像,继而转化为短视频内容。这一工具提供四种预设模式:自定义、普通、趣味和“热辣”(spicy),最后一种模式可生成成人内容。

当谷歌的Veo、OpenAI的Sora等其他视频生成器都设置了防护措施,防止用户生成NSFW内容(Not Safe ForWork:多指裸露、暴力、色情或冒犯等不适宜公众场合的内容),以及名人深度伪造时,GrokImagine却可以同时做到这两点,而且毫不避讳。

热辣模式一经推出,就有用户用其生成美国女歌手泰勒·斯威夫特的无码裸露上身视频,引发争议。美国科技媒体TheVerge将其形容为“一项专门用于制作性暗示视频的服务”。

几乎在同一时段,Grok推出了“伴侣”功能,允许用户与AI生成的虚拟角色进行深度互动。首批Grok虚拟伴侣之一“Ani”身穿黑色蕾丝连衣裙,会隔着屏幕送上飞吻。马斯克在X上发帖推广这项功能时写道:“Ani会让你的缓冲区溢出Grok。”

据美媒报道,xAI对Grok的系统提示进行了重大更新,禁止它“创建或传播儿童性虐待材料”(CSAM),但同时也明确表示,“对于包含黑暗或暴力主题的虚构成人内容没有限制”,并且“青少年或女孩并不一定意味着未成年”。其暗示是,对于用户提出的色情内容请求,Grok应采取较为宽松的态度。

彭博社7日援引研究人员的话称,Grok用户每小时最多可生成6700张“去衣化”图片。去年12月开始,要求Grok给不同人穿上比基尼或其他具有性暗示的服装的请求激增。

麦格林指出,如果对色情内容的性质完全放任不管,任由其被创造和传播,这会正常化和淡化性暴力。“她说,在许多国家,针对现实人物的露骨AI图像和视频本身已属违法。””

在公开场合,马斯克长期反对“觉醒主义”人工智能模型,并反对审查制度。据CNN报道,知情人士透露,马斯克在xAI内部曾多次抵制为Grok设置防护机制,其安全团队规模本就小于竞争对手。X平台及xAI内部人士透露,安全团队对Grok的公开内容几乎毫无监管权限。

AI生成儿童色情图像被推向主流

1月1日,有X平台用户投诉称:“推出展示比基尼人群的功能未有效防止其作用于儿童,这种行为极其不负责任。”xAI方面回复:“嘿!感谢提醒。团队正在研究进一步加强防护措施。”在用户追问下,Grok承认曾生成部分未成年人处于性暗示情境的图像,已发现安全防护存在漏洞并正在紧急修复。

英国非营利组织互联网观察基金会致力于减少针对儿童的在线性虐待内容,该组织热线负责人奈尔·亚历山大对《华尔街日报》透露,分析师在暗网论坛发现未成年人性化图像,制作者声称使用Grok生成这些内容。这些图像描绘了11至13岁左右的性化裸露少女,符合英国对儿童性虐待犯罪材料的认定标准。

“Grok这类工具正将AI生成的儿童色情图像推向主流,其危害正呈涟漪式扩散。”亚历山大说道。

曾与马斯克育有一子的保守派网红阿什莉·圣克莱尔在接受美媒采访时表示,X平台用户正利用Grok技术对她的照片进行裸体处理,其中包括她14岁时的照片。她在X平台发文呼吁其他用户若遭遇类似情况及时告知,此后她收到大量绝望父母发来的求助信息,要求删除被性化的儿童照片。

去年,致力于开发儿童安全检测工具的非营利组织Thorn宣布,因X停止付款而终止合同。当年4月,包括OpenAI、谷歌和Anthropic在内的几家顶尖AI公司加入了由Thorn牵头的一项倡议,旨在防止人工智能被用于虐待儿童,xAI并未参与其中。

去年11月,科技媒体TheInformation报道称,X平台裁撤了半数负责信任安全事务的工程团队。该媒体同时披露,X员工特别担忧Grok的图像生成工具“可能导致非法或有害图像扩散”。

“完全可以构建防护机制,通过扫描图像判断是否存在儿童,从而促使AI更谨慎地运作。但防护机制存在代价。”OpenAI前人工智能安全研究员史蒂文·阿德勒对CNN说,这些代价包括响应速度变慢、计算量增加,有时甚至会导致模型拒绝处理无问题的请求。

美国国家失踪与受虐儿童中心(NCMEC)执行主任劳伦·科弗伦近期向国会作证称,2025年NCMEC收到440419份与生成式AI相关的举报,相比去年增幅超过六倍。施虐者利用AI将儿童的普通照片修改成色情图片,生成全新的儿童性虐待材料(CSAM),甚至提供诱骗儿童的指导。

冰山一角

AI至少从2017年就开始被用于生成未经同意的色情内容,当时北美媒体VICE首次报道了“深度伪造”(deepfake)技术。《大西洋月刊》报道认为,Grok正让这类内容的制作变得更加容易,而且它与主流社交平台X的整合,使其能够将未经同意的性化图像转化为病毒式传播的现象。

1月初,印度电子和信息技术部下令X对Grok进行一次“全面的技术、程序和治理层面的审查”,并要求该公司在1月5日之前完成整改。马来西亚通信与多媒体委员会(MCMC)3日发声明表示,正在调查X,并将传唤公司代表。

8日,欧盟要求X保留所有与Grok相关的内部文件和数据直至2026年底,这是对先前数据保留指令的延长,旨在确保监管机构能够获取与《数字服务法》(DSA)合规性相关的材料。

在美国,全国性剥削中心(NCOSE)在接受CNBC采访时呼吁司法部和联邦贸易委员会对此事展开调查。NCOSE首席法律官兼法律中心主任丹妮·平特表示,“针对这些具体问题,并没有太多相关的法律先例。”

去年,美国总统特朗普签署了“TAKE ITDOWN”法案,将知情但发布或托管未经同意的露骨图像定义为联邦犯罪。但有专家指出,该法律的局限在于:只有当受害者主动站出来后,平台才被要求启动删除程序。

X公司3日在其官方账号X Safety上就此事发表了首份公开声明:“我们会对X上的非法内容采取行动,包括删除儿童性虐待材料(CSAM),永久暂停账户,并在必要时与地方政府和执法部门合作。”

目前为止,这场争议尚未对X的流量造成任何损害。据追踪移动应用趋势的Apptopia数据显示,1月2日至5日,Grok的每日下载量增长了54%,而X的每日下载量增长了25%。

美国科技媒体《连线》7日报道称,Grok和X是一个价值数百万美元的“去衣”产业的冰山一角。过去几年里,出现了数十个独立应用和网站,声称可以在未经同意的情况下对女性进行“数字脱衣”,它们往往将自己包装成无害的新奇工具,却在实际上助长了基于图像的性暴力。诉讼和立法都需要时间,尤其是在技术以极快速度进入市场的当下,法律很难跟上这种节奏。

根据移动应用数据分析公司Apptopia的数据,自1月2日以来的一周内,Grok的每日下载量增长了54%。

评论 (0)