虽然 Elon Musk 的 OpenAI 团队对相关技术严加看管,但相关隐忧仍难以忽视。
随着技术的演进,AI 创作内容的能力日益精进,然而这也同时引来了业界开发人员们的担忧。目前 Elon Musk 旗下的 OpenAI 团队已经开发出了一种演算法,只需要以几个字句为基础,就能创作出看来十分逼真的假新闻,而且任何主题都难不倒它。该技术最初其实是以「通用于各种语言」的 AI 为目标,它可以用来回答问题、翻译以及概述所接受到的内容,但开发人员很快便意识到它也可以用来达成一些非法且邪恶的目的,例如大量传播假消息。也因此,根据 MIT Technology Review的报道,目前该团队只对外提供此 AI 技术的简化版本。
不过庆幸的是,目前该 AI 技术所生成的作品仍有一些明显的瑕疵。像是它常会产出有抄袭成分的内容,或是文章有明显的拼贴感且缺乏实质内容,要真的产出一篇以假乱真的文章仍需要一些运气。虽然如此,OpenAI 团队的 Jack Clark 也提出警告,该技术或许再经过一两年的发展,就能拥有稳定产出「优质假新闻」的能力,到时面对它的文章,人们甚至得费心查证才能发现其中存在的谬误。
虽然目前看来,OpenAI 团队对于谨守道德界线十分坚持,而且也不会故意散步假新闻,但这份隐忧仍然值得关注。因为有能力开发出同等技术的公司,不见得会拥有与其相同的道德底线,到时假新闻便可能因而无所不在。的确,近来社群平台在打击假新闻方面做出了一番努力,也换来了一定程度的成果。但若是类似的 AI 技术哪天真的被有心人所利用,不只是对大公司来说,相信对整个社会都将会是一场严峻的挑战。