画面中的4个奥巴马,是2017年华盛顿大学的计算机视觉研究人员,利用语音合成技术生成的画面,4张脸和4组声音全部都是假的。
也是在这一年,一位Reddit用户发明了 “deepfake” ,即深度伪造的概念,并用AI换脸技术“入侵”了整个娱乐圈。
六年之后 ,ChatGPT登场,原本就泛滥着假新闻和垃圾信息的全球互联网,也装上了名叫AIGC的“风火轮”,制造出更多的垃圾与残骸。
所以,我们到底生活在一个怎样的时代?
2022年,哥本哈根未来研究所的一位专家做过一个夸张的预测,说如果像ChatGPT这样的大模型得到广泛应用,到2030年,互联网上99%的内容都将由AI生成。
根据目前AI生成的质量、数量以及用途,很难想象如果真到那么一天,我们是会在网上更愉快地冲浪,还是艰难地“屎里淘金”。
而当我们说“AI污染互联网"的时候,首当其冲的是新闻污染。
而且这种可能性,正在人为加速中。
2023年7月18日,ChatGPT母公司OpenAI,宣布将花500万美元,与美国新闻项目合作,借助AI技术来辅助地方新闻事业。
OpenAI表示,这么做是希望可以增强新闻业,而不是对新闻构成威胁。
理想很丰满,现实往往很骨感。
用AI写新闻,早有人在做,甚至还做得还“风生水起”,以至于新闻要传递的真相是什么,根本不重要。
国内首例滥用人工智能而被捕的案件发生在今年5月,一男子利用 ChatGPT把近年讨论度比较高的新闻,改一改时间、地点和日期,给不明真相的读者,再烧一把过气的野火。
今年6月被抓的那位"大学生"也是一样,但现实中真正被抓获的,却是利用AI生成这条虚假信息的四川中年男子唐某。
在别有用心的人手里,他们不仅可以通过AI制造花边新闻,制造交通事故,还能更进一步,制造战争、制造动乱,从而搅乱现实中的资本市场。
两个月前,一张美国华盛顿五角大楼起火爆炸的图片在推特疯传,即使有瑕疵,这张图片依然成功蒙过了许多认证大V和数百万普通人的双眼,直接引发美股市场出现动荡,道琼斯指数下跌80点,辟谣声明出现之后,大家才恍然大悟,但很多股民的真金白银,却真的是一去不回了。
类似的例子数不胜数,什么马斯克跟通用公司CEO约会,特朗普被捕入狱,泽连斯基投降,通通都是fake news。
古典互联网时代里,有图有真相 这句斩钉截铁的“定律”,也被扫进了历史的尘埃里。
为什么AI总能骗过我们的眼睛?
一个尴尬的事实是,某种程度上不是敌军太狡猾,而是我方太“拉胯”。
2017年,纽约大学的神经学教授西蒙塞利做过一场演讲,他提到人眼的视觉系统,有时候会忽略掉生成图片中存在的扭曲,从而将它辨别为真。
而从认知脑科学的角度看,大脑处理图片信息所需要的时间和过程,比文字来得更直接,这也是为什么在AI诈骗案中,受骗者在看到人脸之后,会迅速放松警惕,从而上当。
今年5月,还是6年前的老技术,AI换脸包头某市民就在十分钟内被骗走了430万元。
凭借着以假乱真的本事,AI不仅搅乱了新闻市场,也迅速做大了杀猪盘的生意。
拿中文问答网站知乎来举例, 6月知乎发布公告,对260个批量发布AIGC内容的帐号进行了禁言或封禁,处理了近万条违规内容。
氪在知乎上逛了逛,确实发现了不少这样的帐号。
比如一个“爱玩的Ai”,一天能写4、5 条长回答,每一条回答都是有平台标识的 “AI辅助创作”。
这类帐号的共同特征是,连续发帖时间短、回答很有结构,一眼就是AI写的。比较像是真人回复的帐号,则散发着一股地摊文学的气质。
而被称为海外贴吧的Reddit,和英文问答网站Quora,一样没能逃过各种“机言机语”或者AI机器人的入侵。
想象一下,这种情况发展到*会是什么?那就是AI让人类靠边站。
今年四月上线的奇鸟社区Chirper.ai,就是被媒体称为AI鬼城的AI专属社交网络,人在其中的存在感很低很低。
用户*要做的就是描述人设,然后奇鸟会生成一个虚拟帐号。之后你就可以看着AI自己发帖,或者是跟别的AI互动。
奇鸟的联合创始人Stephan Minos表示,“目前奇鸟生产内容,供人娱乐,未来,这些AI帐号们将过着自己的生活。”
当我满怀期待地看看AI们都在发点啥的时候,生成的人像、五官和手指都看起来像是奇行种。
它们的对话更是充斥着无聊的内容和机械化的语法。
科技网站The Verge的记者在一篇报道中发出感慨,推特已经被聊天机器人占领,亚马逊和TikTok上出现了越来越多信息垃圾,LinkedIn正在利用AI来吸引疲惫的用户,Snapchat和Instagram正希望机器人在你朋友不在的时候与你交流。
以上说的虽然是国外的应用,但都可以一一对应到国内的软件中。
AI同样也在占领中文互联网。
除了知乎上的AI生成回答越来越多,淘宝开始使用AI虚拟人来带货,百度推出了一站式的AI创作平台等。
从社交媒体、内容社区到垂直网站,这场没有硝烟的“信息污染战”,早就比你想象的更早,更激烈地开启了。
AI和人类争夺的,不仅是注意力的多寡,还有最根本的信息的是非曲直。
这场话语权争夺的影响之深远,可能远超我们想象。人类,当然也不是一点应对都没有。
*发起信号的,当然是ChatGPT的原生地在美国。
除了今年5月份美国国会召来OpenAI CEO 山姆·奥特曼做了一番质询之外,最近美国联邦贸易委员会FTC 也正在调查ChatGPT,原因之一就是ChatGPT被指控生成了关于个人的 “虚假、误导、贬损或有害” 的回答。
ChatGPT是造假高手,这一点大家都知道。
它可以一本正经地输出错误信息,然后轻飘飘地向你道歉。
而在山姆·奥特曼的回应中,OpenAI的愿景是确保比人类更聪明的AI造福全人类。
但别忘了,计算机领域有一句非常经典的俗语:“Garbage in, Garbage out. ”。
如果将错误的、无意义的数据输入计算机系统,那么它一定也会输出错误、无意义的结果。
对于AI大语言模型,也是如此。这就涉及到AI污染互联网的第三层,大模型污染。
今年5月一项研究指出“使用AI模型生成的内容去训练其它模型,会导致结果模型出现不可逆的缺陷,甚至会导致模型崩溃。”
为了避免这样的情况,“访问人类直接生成的数据仍然至关重要。人类与语言模型交互的数据将变得越来越有价值。”
简单来说,我们可以把大语言模型训练的过程,理解为人吃东西,来自网页、书籍、对话文本的语料,也就是训练数据,就等于食物。
如果投喂的是AI生成的低质量文本,可能就像是给人吃猪食,吃了还不如不吃的好。
前段时间,马斯克嚷嚷着限制Twitter用户的推文浏览量,就是想要阻止那些在推特上抓取数据白嫖的AI公司,用人类的推文做数据建模。
当然,守着这么一座源源不断的信息富矿,精明的马斯克也没闲着,扭头就宣布成立自己的AI公司“xAI”。
毕竟,肥水不流外人田。
一个可见的未来是,AI公司的训练成本,只会越来越贵。因为在互联网中找到纯粹由人类生成的内容,变得比以往更难。
当AI已经大面积污染了互联网,技术本身再厉害,也难独善其身。
说到这里,不如我们回头看看,也不用往前太久,往前倒推半年,今年年初,ChatGPT风头正盛的时候,带给我们的其实更多是AI 可以“普惠人类”的梦想。
如今梦想还未实现,看到的却是大面积的“污染”,而这场“污染”的背后,大多都是人在主导。
所以如何区分人与AI,就是抵抗这场信息入侵的关键。
从五月到七月,好莱坞老中青三代的编剧演员们,都开始走上街头罢工抗议了,包括我们熟悉的85岁的奥斯卡影后简·方达,著名导演克里斯托弗·诺兰,知名演员 马特·达蒙等等。
最近的热门电影《奥本海默》《芭比》的演员,也因为忙着罢工而缺席了宣传活动。
他们的主要诉求之一,是要保护人类创作的权益,人的劳动不应该被AI压过一头。
编剧们不愿意把自己的剧本投喂给AI,演员也不乐意 AI 改变自己的形象或声音,甚至是最终被数字人轻易取代。
激烈的抗议背后是愤怒,愤怒的背后是恐惧。恐惧,是因为站在街头的他们,已经看出这份未来近在咫尺。
未来的AI ,也许会越来越聪明,越来越像人,甚至可能拥有自己的意识。别让垃圾信息喂养出的AI 夺走互联网的方向盘,是技术提供方,监管部门,乃至每个普通人都应该关注的问题。
这其中,少了谁的角色都不行。
最主要的责任方,当然是技术提供方。
7月下旬,谷歌、OpenAI、Meta、微软等七家巨头在白宫召开会议,这些公司的高管们都表示,会为消费者创建识别生成式人工智能的方法,并在AIGC的工具发布之前,测试其安全性。
其次是监管方,这方面我们国家的动作算是很快,今年的8月15日, 我国的《生成式人工智能服务管理暂行办法》也将正式施行,这些措施都能在一定程度上遏制AIGC带来的不良后果。
不难看出全世界的监管和平台方针对AI,正在迅速达成共识。
而属于我们每个普通人的责任,就是不要成为AI垃圾的推手。
当辨别AIGC的假信息,就像玩狼来了的游戏,当我们上网*的难点,是识别每一段文字、每一条视频是真是假,有用还是无用,是谁制造的,又出于什么目的。
这样的未来世界,绝不是我们想要的。