

这个世界充斥着深度造假——视频、音频或图片中,人们似乎做了或说了他们没有做过的事情,或者出现在他们没有去过的地方。大多数深度造假是通过将名人的脸映射到另一个人的身体上来制作露骨的视频和图像。有些被用来欺骗消费者,或者损害政客和其他人在公众眼中的声誉。人工智能的进步意味着,只需敲击键盘几下,就能变出它们。惊慌的政府正在寻找反击的方法。
1. 我们采取了哪些措施来打击深度造假?
2月8日,美国联邦通信委员会规定,公司在机器人电话中使用人工智能生成的声音是非法的。该禁令是在美国联邦通信委员会发布了一项停止令后两天发布的,该公司对乔·拜登总统的音频深度伪造负有责任。新罕布什尔州的居民在该州总统初选前收到了一个自动语音电话,听起来像是拜登敦促他们呆在家里,“把你的选票留到11月的选举中去”。这个声音甚至说出了拜登的标志性话语之一:“真是一派胡言。”目前美国没有禁止深度造假的联邦法律。一些州已经实施了关于深度虚假色情的法律,但这些法律在全国范围内的应用并不一致,这使得受害者很难追究创作者的责任。一项拟议的欧盟人工智能法案将要求平台给深度造假贴上这样的标签。
2. 在哪儿新闻里还报道过深度造假吗?
1月下旬,流行歌手泰勒·斯威夫特(Taylor Swift)的露骨深度假照在社交媒体网站上被广泛分享,引起了她的大批粉丝的愤怒。这一事件引起了白宫的关注。据NBC新闻报道,当月早些时候,漫威系列中17岁的女演员Xochitl Gomez公开表示,她在社交媒体上发现了一些露骨的深度假脸,但未能成功将这些材料删除。
3. 深度假视频是如何制作的?
它们通常是使用人工智能算法制作的,该算法经过训练,可以识别特定人物的真实视频记录中的模式,这一过程被称为深度学习。这样就可以将一个视频中的一个元素(比如人物的脸)交换到另一个内容中,而不会让它看起来像一个粗糙的蒙太奇。当使用语音克隆技术时,这种操作最容易产生误导,语音克隆技术将某人说话的音频片段分解成半音节块,这些半音节块可以重新组合成新的单词,看起来像是原始录音中的人说的。
4. 深度造假技术是如何起飞的?
这项技术最初是学术界和研究人员的领域。然而,Vice出版物Motherboard在2017年报道称,一位名为“deepfakes”的Reddit用户设计了一种使用开源代码制作假视频的算法。Reddit禁止了这名用户,但这种做法却蔓延开来。最初,深度造假需要已经存在的视频和真实的声乐表演,以及精明的编辑技巧。今天的生成式人工智能系统允许用户从简单的书面提示中生成令人信服的图像和视频。让电脑制作一段视频,把话放进某人的嘴里,它就会出现。随着人工智能公司将新工具应用于从YouTube到库存图片和视频库等网络上的大量材料,数字伪造变得越来越难以发现。
5. 还有其他一些深度造假的例子吗?
喷子们传播了8月份夏威夷毛伊岛野火的篡改图像,以支持一种说法,即它们是由美国正在测试的秘密“气象武器”引起的。2023年5月,在一张五角大楼着火的图片在网上传播后,美国股市短暂下跌。专家表示,这张假照片具有人工智能生成的特征。那年2月,一段伪造的音频片段出现,听起来像是尼日利亚总统候选人阿提库·阿布巴卡尔(Atiku Abubakar)在密谋操纵当月的选举。2021年,社交媒体上发布的一段一分钟长的视频似乎显示,乌克兰总统弗拉基米尔·泽连斯基(Volodymyr Zelenskiy)要求他的士兵放下武器,向俄罗斯投降。
6. 这里有什么危险?
人们担心的是,深度造假最终会变得如此令人信服,以至于无法区分真假。想象一下,欺诈者通过制作伪造的首席执行官发布公司更新的视频或伪造的士兵犯下战争罪行的视频来操纵股价。政界人士、商界领袖和名人面临的风险尤其大,因为他们的录音太多了。这项技术使所谓的复仇色情成为可能,即使没有真正的裸照或视频存在,通常以女性为目标。一旦视频在网上疯传,就几乎无法控制。另一个担忧是,传播对深度造假的认识,将使那些真正被拍到做或说令人反感或非法的事情的人更容易声称针对他们的证据是伪造的。有些人已经在法庭上使用深度造假辩护。
7. 还有什么方法可以抑制深度造假?
产生深度伪造的那种机器学习不能轻易逆转来检测它们。但像许多美国大型科技公司一样,荷兰的Sensity AI和爱沙尼亚的Sentinel等少数几家初创公司正在开发检测技术。英特尔公司于2022年11月推出了一款名为FakeCatcher的产品,该公司表示,通过观察被测者皮肤因血液流动而产生的细微颜色变化,该产品能够以96%的准确率检测出伪造视频。包括微软公司在内的公司已经承诺在使用其人工智能工具创建的图像中嵌入数字水印,以区分它们是假的。- - - - - -布隆伯格
×