这个网站用 AI 来创造无限数量的「假脸」

dims (1)一位名为「Phillip Wang」的开发者,打造了一个名为「ThisPersonDoesNotExist(这个人不存在)」的网站,顾名思议,就是可以无限量地产生其实并不存在的人的肖像照。这个工具利用了 NVIDIA 设计的生成式对抗网络(generative adversarial network)和大量的人脸资料,来训练一个模型,产生「合理」的人脸来。靠着租用的服务器与 GPU,这套系统大约每两秒就能产生一个新的脸出来,对于运算的要求其实不算太高。

当然,在生成的过程中,一点瑕玼是难免的,像上图左边的「女性」,脸颊上就有一块不太自然的区域,但整来说,人类对于人脸的比例是相当敏感的,要让生成的照片第一眼看过去没有不合谐之处,已经是个相当厉害的事,而且这些照片还要顾及画面整体的打光、色调,脸也不全部都是正脸,有些是稍微有点角度的呢。

当然,另一边的问题就是,这样的技术是否能用来制造假身份,或甚至搭配像 deepfake 这样的技术,产生完全不存在的人物,做着真实世界的举动?有图早就未必有真相,现在连图是不是人改的都不知道了呢…

当前的 AI 技术已经有能力写出十分真实的假新闻

虽然 Elon Musk 的 OpenAI 团队对相关技术严加看管,但相关隐忧仍难以忽视。

Symbol for a chatbot or social bot and algorithms, program code in the background

随着技术的演进,AI 创作内容的能力日益精进,然而这也同时引来了业界开发人员们的担忧。目前 Elon Musk 旗下的 OpenAI 团队已经开发出了一种演算法,只需要以几个字句为基础,就能创作出看来十分逼真的假新闻,而且任何主题都难不倒它。该技术最初其实是以「通用于各种语言」的 AI 为目标,它可以用来回答问题、翻译以及概述所接受到的内容,但开发人员很快便意识到它也可以用来达成一些非法且邪恶的目的,例如大量传播假消息。也因此,根据 MIT Technology Review的报道,目前该团队只对外提供此 AI 技术的简化版本。

不过庆幸的是,目前该 AI 技术所生成的作品仍有一些明显的瑕疵。像是它常会产出有抄袭成分的内容,或是文章有明显的拼贴感且缺乏实质内容,要真的产出一篇以假乱真的文章仍需要一些运气。虽然如此,OpenAI 团队的 Jack Clark 也提出警告,该技术或许再经过一两年的发展,就能拥有稳定产出「优质假新闻」的能力,到时面对它的文章,人们甚至得费心查证才能发现其中存在的谬误。

虽然目前看来,OpenAI 团队对于谨守道德界线十分坚持,而且也不会故意散步假新闻,但这份隐忧仍然值得关注。因为有能力开发出同等技术的公司,不见得会拥有与其相同的道德底线,到时假新闻便可能因而无所不在。的确,近来社群平台在打击假新闻方面做出了一番努力,也换来了一定程度的成果。但若是类似的 AI 技术哪天真的被有心人所利用,不只是对大公司来说,相信对整个社会都将会是一场严峻的挑战。