Lentis/Deepfakes
Deepfake是一种伪造的图像、视频或音频录制,旨在看起来和听起来都很真实。Deepfake是使用动画、面部识别和机器学习技术创建的。
基于计算机的面部动画技术自20世纪70年代初就已存在,但它们缺乏用于制作现代Deepfakes的技术的真实感和便利性。[1]
1997年的“视频重写”研究项目是朝着现代Deepfake技术发展的一个关键进步。“视频重写”利用计算机视觉、面部动画和现有素材来“自动创建一个人在原始素材中没有说的话的新视频”。[2] 这将多种技术合成到一个单一的自动化过程中,为Deepfake生成应用程序铺平了道路。
在图像或视频中跟踪面部特征是现代Deepfake技术的一个关键方面。2001年,加州大学伯克利分校的研究人员开发了一个计算机模型,将形状映射到现有图像上,实现了这一目标。[3][4]
2000年代后期和2010年代初期,计算机处理能力、机器学习、面部识别和动画技术取得了渐进式进步。[5][6][7]
2016年,斯坦福大学的研究人员提出了一种新颖的方法,用于“单目视频序列(例如YouTube视频)的实时面部重演”。[8] 这种技术将演员的嘴巴叠加到目标视频上。与旧方法相比,这是实时完成的,是Deepfake技术发展的一个里程碑。一年后,华盛顿大学的研究人员创建了一个程序,可以真实有效地改变目标视频的视频和音频,使用个人电脑硬件在约45分钟内生成一个66秒的Deepfake。[9] 这种方法的速度和质量,以及其在普通硬件上运行的能力,使得公众能够爆炸式地生成高质量的Deepfake。
随着Deepfake技术的改进,Reddit用户在“r/deepfakes”子版块开始发布原创Deepfake,FakeApp应用程序创建了一个“用于创建Deepfake的桌面工具”。[10]
现代Deepfake是通过在现有面部图像或视频上训练神经网络来制作的。一旦网络学会了面部在不同表情和环境下的样子,它就可以生成自己的面部Deepfake。[11] 遵循过去的趋势,Deepfake的质量几乎肯定会持续提高,直到人类无法分辨真实和生成的之间的任何区别。这可能会造成严重的信息误导,并给经常成为Deepfake主题的名人和公众人物带来问题。
Deepfake用于视频翻译和库存照片生成。Canny AI虽然将他们的服务称为“视频对话替换”,并表示他们没有创建Deepfake,但他们提供翻译源视频和修改面部以使其看起来像是在说新语言的服务。[12] 一家国际企业可以使用Canny AI对高管用不同语言发表的演讲进行Deepfake,而不是使用字幕。如果用户能够证明获得同意,Canny AI还为名人模仿提供其服务。Generated.photos销售人造生成的肖像,用于试用软件、头像、游戏设计和广告。他们还提供匿名化服务,为个人资料生成一张新面孔,该面孔“会让你想起你的肤色、年龄、性别、[和]头发长度”。[13] 为了避免数据隐私问题,所有照片都是由公司拍摄的,而不是从互联网上抓取的。[14]
Deepfake可能被滥用来创建未经他人同意的人员图像和视频。例如,迪士尼和YouTube频道已经对已故演员进行了Deepfake。[15] 使用Generated.photos的游戏开发者发现,“当需要刻画不太讨喜的角色时,合成照片特别有用”。[16] 除了游戏之外,Deepfake还可以用来传播不受欢迎的、有争议的或危险的信息。例如,一家公司可以创建一个虚假的高管来为失败的商业计划背黑锅,或者一个政治竞选活动可以创建对手方面的虚假视频。
Generated.photos和Canny AI都设有旨在防止用户从事非法或恶意活动的条款和条件。但是,Deepfake程序的源代码是公开可用的。[17] [18] Google Colab等云平台的免费层允许用户从浏览器创建Deepfake。[19] 随着Deepfake的质量和可访问性不断提高,它们很可能很快就会成为模仿和传播虚假信息的主流工具。
面部识别和语音合成允许不法分子假扮成他们不是的人。[20] 虚假的声音可用于电话呼叫,从数据库管理员那里窃取受害者的私人信息,例如用户名或密码。或者,不法分子可以使用Deepfake假扮成身份盗窃的受害者,以受害者的身份致电银行或其他服务机构,以获取私人信息或将受害者的账户资金转到他们自己的账户。目前的Deepfake技术使得语音合成攻击在今天成为可能,并且只需要很少的语音数据。[21] Deepfake诈骗的著名例子包括一位CEO损失了243,000美元[22],以及一位寡妇向她认为是海军上将的人提供了287,928美元。[23] Deepfake身份盗窃的有效性值得怀疑,因为在许多情况下,犯罪分子使用自己的声音模仿他人更容易且更可信。
犯罪分子利用Deepfake勒索受害者,主要是女名人,索取金钱或信息。犯罪分子可能会威胁发布包含受害者面孔的色情视频来勒索受害者,尽管受害者从未参与其中。这种类型的勒索没有简单的解决方案。
尽管尚未成为普遍问题,但我们发现与深度伪造相关的对社会最大的威胁是其对新闻的潜在影响。通过深度伪造将错误信息归因于政治家或专家可能会被解读为真实信息。2018年,Buzzfeed发布了一段视频,视频中展示了前总统巴拉克·奥巴马的虚构版本,由喜剧演员乔丹·皮尔配音,贬低唐纳德·特朗普。 [24] 该视频明确表示它是假的,并旨在提高人们对深度伪造对媒体的影响的认识。2020年4月,全球气候倡导组织“灭绝叛乱”的比利时分部, [25] 发布了一段比利时总理谈论环境问题与新冠疫情危机的视频,许多人在揭露其为伪造之前都认为它是真实的。 [26]
达特茅斯学院教授哈尼·法里德担心深度伪造可能影响2020年总统大选,因此创建了一款软件,能够以95%的准确率检测深度伪造。 [27] 这种技术在未来将成为避免虚假新闻的必要条件,但它仍然可能无法阻止人们相信它。
2019年6月,众议院情报常设特别委员会主席希夫将深度伪造描述为“有能力扰乱整个竞选活动,包括总统竞选”,因为“不仅虚假视频可能被当作真实视频传播,而且真实信息也可能被当作虚假信息传播”。 [28] 防御高级研究计划局(DARPA)创建了媒体取证(MediFor)平台,以自动检测和识别被操纵的图像和视频。 [29] [30] 早期的工作涉及图像拼接等编辑技术,并在2019年向测试数据中添加了GAN辅助操纵。 [31]
2019年10月,美国参议院通过了2019年深度伪造报告法案,“要求国土安全部长发布一份关于深度伪造技术使用的年度报告,以及其他目的”。 [32] 它还于2020年7月作为一项修正案被添加到2021财年国防授权法案(NDAA)中。 [33] 截至2020年11月,众议院尚未通过独立的法案或修正后的NDAA。在NDAA修正案之后,参议员罗布·波特曼(他同时是最初法案和修正案的发起人)评论说,“以人工智能为基础的威胁,例如深度伪造,已成为对我们民主日益增长的威胁”,并且“我们必须应对这一挑战,并解决与公民自由和隐私相关的重大问题”。 [34]
MediFor和其他政府活动是否能够成功应对现代深度伪造尚存疑问。较旧的媒体操纵依赖于修改源材料,但新技术可以从头开始生成图像和视频。研究人员也在不断提高其程序的质量。例如,第一版人脸生成程序StyleGAN在背景中存在模糊点和牙齿错位,促使研究人员创建了改进版的StyleGAN2。 [35] 该代码可在GitHub上获取。 [18]
以下是深度伪造的一些积极影响的示例。
深度伪造可用于创建脑部MRI的合成图像。 [36] 这些合成图像可用于研究阿尔茨海默病和脑肿瘤的形成。
语音合成技术(例如vocalid.ai) [37] 为用户提供人工智能生成的语音。这使那些无法说话的人有机会用独特的合成语音进行交流。
深度伪造可用于听到其他人用多种不同语言的声音,而无需翻译或字幕。2019年发布的一段视频展示了大卫·贝克汉姆使用深度伪造技术用9种不同的语言讲话,以提高人们对疟疾的认识。 [38]
2018年,手机视频、监控摄像头录像和尸检报告被用于数字重建犯罪现场,以协助解决基辅3名抗议者被谋杀案。 [39]
本案例研究主要关注深度伪造的背景及其一些应用。未来的研究人员将希望研究如何识别深度伪造, [40] [41] 如何制作深度伪造, [42] 以及合成音频的进步。 [43] 可以对与深度伪造相关的诉讼以及法律体系的回应进行进一步调查。 [44] 由于深度伪造的发展速度很快,本案例研究中的一些信息可能会过时。未来应重新调查本案例研究的几乎所有方面,以了解发生了哪些变化。
- ↑ 面部动画:过去、现在和未来。 http://web.cs.ucla.edu/~dt/papers/siggraph97-panel/siggraph97-panel.pdf
- ↑ 视频重写:用音频驱动视觉语音。 http://chris.bregler.com/videorewrite/
- ↑ 主动外观模型。 https://people.eecs.berkeley.edu/~efros/courses/AP06/Papers/cootes-pami-01.pdf
- ↑ 主动外观模型(AAM)。 http://ice.dlut.edu.cn/lu/AAM.html
- ↑ 技术进步。 https://ourworldindata.org/technological-progress
- ↑ 机器学习的历史。 https://www.import.io/post/history-of-deep-learning/
- ↑ NIST评估显示人脸识别软件功能的进步。 https://www.nist.gov/news-events/news/2018/11/nist-evaluation-shows-advance-face-recognition-softwares-capabilities
- ↑ Face2Face:RGB视频的实时人脸捕捉和重演。 http://www.graphics.stanford.edu/~niessner/thies2016face.html
- ↑ 深度伪造简史。 https://medium.com/@songda/a-short-history-of-deepfakes-604ac7be6016
- ↑ 深度伪造。 https://knowyourmeme.com/memes/cultures/deepfakes#fn2
- ↑ 什么是深度伪造以及它们是如何创建的?
- ↑ Canny AI https://www.cannyai.com
- ↑ Generated.photos https://generated.photos
- ↑ Generated.photos 常见问题解答 https://generated.photos/faq
- ↑ Derpfakes 凯莉·费舍尔 https://www.youtube.com/watch?v=1chnCgya32o
- ↑ Generated.photos 使用案例 https://generated.photos/use-cases
- ↑ 优秀的Deepfakes Github https://github.com/aerophile/awesome-deepfakes
- ↑ a b StyleGAN2 Github https://github.com/NVlabs/stylegan2
- ↑ Google Colab 常见问题解答 https://research.google.com/colaboratory/faq.html
- ↑ 金融系统中的Deepfakes和合成媒体:评估威胁情景 https://carnegieendowment.org/2020/07/08/deepfakes-and-synthetic-media-in-financial-system-assessing-threat-scenarios-pub-82237
- ↑ 使用这款AI工具箱,五秒钟克隆一个声音 https://syncedreview.com/2019/09/03/clone-a-voice-in-five-seconds-with-this-ai-toolbox/
- ↑ https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=25eecd072241 https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=25eecd072241
- ↑ 诈骗犯使用Deepfake视频冒充美国海军上将进行Skype聊天,骗取加州一位寡妇近30万美元 https://www.dailymail.co.uk/news/article-8875299/Scammer-uses-deepfake-video-swindle-nearly-300-000-California-widow.html
- ↑ 你不会相信奥巴马在这个视频里说了什么! https://www.youtube.com/watch?v=cQ54GDm1eL0
- ↑ 灭绝叛乱 https://www.extinctionrebellion.be/en/
- ↑ 灭绝叛乱接管Deepfakes https://journalism.design/deepfakes/extinction-rebellion-sempare-des-deepfakes/
- ↑ 在2020年美国大选之前,阻止Deepfake视频的斗争 https://www.cnn.com/2019/06/12/tech/deepfake-2020-detection/index.html
- ↑ 听证会:人工智能、操纵媒体和Deepfakes带来的国家安全挑战 https://intelligence.house.gov/calendar/eventsingle.aspx?EventID=653
- ↑ DARPA媒体取证(MediFor) https://www.darpa.mil/program/media-forensics
- ↑ MediFor Github 代码库 https://github.com/mediaforensics/medifor
- ↑ 媒体取证挑战评估概述 https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=930628
- ↑ 2019年Deepfake报告法案 https://www.congress.gov/bill/116th-congress/senate-bill/2065
- ↑ S.Amdt. 1891 — 第116届国会(2019-2020) https://www.congress.gov/amendment/116th-congress/senate-amendment/1891
- ↑ 波特曼Deepfake新闻发布会 https://www.portman.senate.gov/newsroom/press-releases/senate-passes-portman-schatz-amendment-assess-address-rising-threat
- ↑ StyleGAN2论文描述了相较于StyleGAN的改进 https://arxiv.org/abs/1912.04958
- ↑ 使用生成对抗网络进行医学图像合成以进行数据增强和匿名化 https://arxiv.org/abs/1807.10225
- ↑ Vocalid.ai https://vocalid.ai/
- ↑ 贝克汉姆用九种语言发起“疟疾必须死亡”语音请愿 https://www.youtube.com/watch?v=QiiSAvKJIHo
- ↑ 谁杀害了基辅抗议者?一个3D模型掌握着线索 https://www.nytimes.com/2018/05/30/magazine/ukraine-protest-video.html
- ↑ Deepfake视频:如何检测它们? https://www.ibtimes.com/deepfake-videos-how-detect-them-2712765
- ↑ 对抗Deepfake AI的最佳防御可能是……眨眼 https://www.fastcompany.com/90230076/the-best-defense-against-deepfakes-ai-might-be-blinking
- ↑ 什么是Deepfakes以及它们是如何创建的? https://spectrum.ieee.org/tech-talk/computing/software/what-are-deepfakes-how-are-they-created
- ↑ 我们能相信我们的耳朵吗?专家表示,随着音频Deep Fake技术的进步,要谨慎行事 https://www.wbur.org/hereandnow/2020/09/28/deep-fake-video-audio
- ↑ 法院和律师难以应对Deepfakes日益增多的现象 https://www.abajournal.com/web/article/courts-and-lawyers-struggle-with-growing-prevalence-of-deepfakes