上周五,加州总检察长罗布·邦塔的办公室向埃隆·马斯克的人工智能公司xAI发出了一封停止令。这封措辞严厉的信件要求该公司立即停止其聊天机器人Grok被用于创建女性及未成年人的非自愿性图像。
“今天,我向xAI发出了停止令,要求该公司立即停止创建和分发深度伪造、非自愿的亲密图像和儿童性虐待材料,”邦塔在新闻稿中表示。”创建这种材料是非法的。我完全期望xAI立即遵守。加州对儿童性虐待材料零容忍。”
这封停止令并非孤立事件。就在几天前,加州总检察长办公室宣布正在调查xAI,因为有报告称该初创公司的聊天机器人Grok被用于创建女性及未成年人的非自愿性图像。
**一、技术如何成为性暴力的新武器**
要理解这场风暴的严重性,我们需要先拆解”深度伪造”技术的运作机制。与传统的图像编辑不同,深度伪造利用深度学习算法,特别是生成对抗网络(GANs),能够以惊人的真实感将一个人的面部特征无缝移植到另一个人的身体上。
这个过程通常分为三个步骤:首先,算法需要大量目标人物的面部图像进行训练;其次,通过复杂的神经网络分析面部特征、表情和光线;最后,生成几乎无法用肉眼识别的伪造图像或视频。
而像Grok这样的AI聊天机器人,则将这个过程进一步简化。用户只需输入简单的文本指令,AI就能在几分钟内生成逼真的非自愿性图像。根据网络安全专家的分析,这种”一键生成”的能力大大降低了技术门槛,使得任何人都能成为潜在的加害者。
**二、受害者的无声呐喊**
让我们暂时离开技术层面,听听那些身处风暴中心的人们的声音。
艾米丽(化名)是一名28岁的中学教师。去年秋天,她发现自己的照片被恶意篡改后出现在多个色情网站上。”那是一个普通的周五晚上,”她回忆道,”我收到一个陌生人的消息,问我为什么要在网上发布那样的照片。一开始我以为是个误会,直到我看到了那些图片。”
那些图片中,艾米丽的脸被完美地移植到了各种色情场景中。”最可怕的是,它们看起来太真实了,”她的声音开始颤抖,”我的表情、我的发型、甚至我眼角的那颗痣都在。如果不是我知道自己从未拍过这样的照片,我可能都会相信这是真的。”
艾米丽的经历并非个例。根据网络安全公司Sensity AI的数据,自2018年以来,深度伪造色情内容增加了900%以上,其中96%的受害者是女性。更令人担忧的是,这些内容中有相当一部分涉及未成年人。
“我不得不向学校请假,”艾米丽继续说道,”我无法面对我的学生,我害怕他们或他们的父母看到那些图片。我的职业生涯、我的社交生活,一切都被毁了。而最讽刺的是,我甚至不知道是谁做的,为什么要这样做。”
**三、技术公司的困境与责任**
现在,让我们将视线拉回到xAI和埃隆·马斯克身上。作为一家以”加速人类向多行星物种过渡”为使命的公司,xAI为何会陷入这样的争议?
要理解这一点,我们需要看到AI技术发展的内在矛盾。一方面,像Grok这样的AI模型被设计为”无所不知”的助手,能够回答各种问题、生成各种内容;另一方面,这种能力的边界在哪里,如何防止其被滥用,却是一个尚未解决的伦理难题。
马斯克本人曾多次警告AI的危险性,甚至将其比作”召唤恶魔”。然而,当他的公司面临具体的技术伦理挑战时,这种警告似乎显得苍白无力。
技术专家指出,问题的核心在于AI模型的”开放性”与”安全性”之间的平衡。一个完全开放的AI系统能够最大限度地发挥创造力,但也最容易被滥用;而一个过度限制的系统则可能失去其价值。
“这就像发明了火,”一位不愿透露姓名的AI伦理研究员表示,”火可以取暖、烹饪、驱赶野兽,但也可以烧毁房屋、森林,甚至整个城市。问题不在于火本身,而在于我们如何使用它,以及我们建立了什么样的规则来管理它。”
**四、法律与伦理的滞后**
加州总检察长的行动虽然及时,但也暴露了法律在面对新技术时的滞后性。
目前,美国只有少数几个州有针对深度伪造的专门立法。加州在2019年通过了一项法律,禁止在选举前60天内发布政治候选人的深度伪造视频,但对于非自愿性深度伪造图像,法律保护仍然薄弱。
更复杂的是管辖权问题。当AI公司位于加州,服务器可能分布在全球各地,而受害者可能在世界任何一个角落时,哪个国家的法律适用?哪个机构有管辖权?
“我们正在追赶一个移动的目标,”一位参与起草相关立法的加州议员承认,”技术发展的速度远远超过了立法进程。当我们还在讨论如何定义’深度伪造’时,新的AI技术已经出现了。”
**五、寻找解决方案:技术、法律与教育的三重奏**
面对这一复杂挑战,单一解决方案显然不够。我们需要技术、法律和教育三管齐下。
在技术层面,AI公司需要开发更强大的内容审核系统。这不仅仅是简单的关键词过滤,而是需要能够理解上下文、识别意图的智能系统。一些公司已经开始探索”数字水印”技术,为AI生成的内容添加不可见的标记,以便追踪其来源。
在法律层面,需要建立更完善的法律框架。这包括明确AI公司的责任边界、为受害者提供更便捷的法律救济途径,以及加强国际合作以应对跨境犯罪。
而在教育层面,公众需要更好地理解AI技术的潜力和风险。这不仅仅是技术教育,更是数字素养和伦理教育。我们需要教会人们如何识别深度伪造内容,更重要的是,如何负责任地使用AI技术。
**六、回到起点:技术的本质是什么?**
让我们回到最初的问题:当技术成为性暴力的帮凶,我们该如何应对?
也许,答案不在于技术本身,而在于我们与技术的关系。技术从来不是中立的,它反映了创造者和使用者的价值观。当我们将AI视为纯粹的商业工具,追求利润最大化时,我们就可能忽视其社会影响;而当我们将其视为需要负责任管理的强大力量时,我们就会采取不同的行动。
加州总检察长对xAI的停止令是一个重要的信号。它告诉我们,技术公司不能躲在”技术中立”的幌子后面逃避责任。当你的技术被用于伤害他人时,你有责任采取行动。
正如邦塔在新闻稿中所说:”创建这种材料是非法的。”这句话的潜台词是:允许这种材料通过你的平台传播,同样是不可接受的。
技术的未来掌握在我们手中。我们可以选择让它成为连接、创造和理解的工具,也可以选择让它成为分裂、伤害和控制的武器。xAI的选择,以及所有AI公司的选择,将决定我们走向哪一个未来。
而对于艾米丽和无数像她一样的受害者来说,这个选择不仅关乎技术的未来,更关乎她们能否重新获得平静生活的权利。在算法和代码的世界里,我们不应忘记最基本的人性:尊重、尊严和同理心。
毕竟,任何技术,如果以牺牲人的尊严为代价,都不值得被称为进步。






