当然,在生成的过程中,一点瑕玼是难免的,像上图左边的「女性」,脸颊上就有一块不太自然的区域,但整来说,人类对于人脸的比例是相当敏感的,要让生成的照片第一眼看过去没有不合谐之处,已经是个相当厉害的事,而且这些照片还要顾及画面整体的打光、色调,脸也不全部都是正脸,有些是稍微有点角度的呢。
当然,另一边的问题就是,这样的技术是否能用来制造假身份,或甚至搭配像 deepfake 这样的技术,产生完全不存在的人物,做着真实世界的举动?有图早就未必有真相,现在连图是不是人改的都不知道了呢…
当然,在生成的过程中,一点瑕玼是难免的,像上图左边的「女性」,脸颊上就有一块不太自然的区域,但整来说,人类对于人脸的比例是相当敏感的,要让生成的照片第一眼看过去没有不合谐之处,已经是个相当厉害的事,而且这些照片还要顾及画面整体的打光、色调,脸也不全部都是正脸,有些是稍微有点角度的呢。
当然,另一边的问题就是,这样的技术是否能用来制造假身份,或甚至搭配像 deepfake 这样的技术,产生完全不存在的人物,做着真实世界的举动?有图早就未必有真相,现在连图是不是人改的都不知道了呢…
随着技术的演进,AI 创作内容的能力日益精进,然而这也同时引来了业界开发人员们的担忧。目前 Elon Musk 旗下的 OpenAI 团队已经开发出了一种演算法,只需要以几个字句为基础,就能创作出看来十分逼真的假新闻,而且任何主题都难不倒它。该技术最初其实是以「通用于各种语言」的 AI 为目标,它可以用来回答问题、翻译以及概述所接受到的内容,但开发人员很快便意识到它也可以用来达成一些非法且邪恶的目的,例如大量传播假消息。也因此,根据 MIT Technology Review的报道,目前该团队只对外提供此 AI 技术的简化版本。
不过庆幸的是,目前该 AI 技术所生成的作品仍有一些明显的瑕疵。像是它常会产出有抄袭成分的内容,或是文章有明显的拼贴感且缺乏实质内容,要真的产出一篇以假乱真的文章仍需要一些运气。虽然如此,OpenAI 团队的 Jack Clark 也提出警告,该技术或许再经过一两年的发展,就能拥有稳定产出「优质假新闻」的能力,到时面对它的文章,人们甚至得费心查证才能发现其中存在的谬误。
虽然目前看来,OpenAI 团队对于谨守道德界线十分坚持,而且也不会故意散步假新闻,但这份隐忧仍然值得关注。因为有能力开发出同等技术的公司,不见得会拥有与其相同的道德底线,到时假新闻便可能因而无所不在。的确,近来社群平台在打击假新闻方面做出了一番努力,也换来了一定程度的成果。但若是类似的 AI 技术哪天真的被有心人所利用,不只是对大公司来说,相信对整个社会都将会是一场严峻的挑战。