原文标题:《AI,正在疯狂污染英文互联网》
污染英文互联网,AI 成了“罪魁祸首”之一。
事情是这样的。
最近你们不是都热衷于向 AI 咨询嘛,有位网友就问了 Bing 这么一个问题:
Bing 也是有问必答,给出了看似挺靠谱的答案:
在给出肯定的答复以后,Bing 还贴心地附送上了票价、营业时间等细节信息。
不过那位网友并没有直接采纳答案,而是顺藤摸瓜点开了下方的“参考链接”。
此时网友察觉到了一丝丝的不对劲 —— 这人的回答如何“机里机气”的。
于是他点开了那位叫“百变人生”的用户主页,猛然发现,介是个 AI 啊!
因为那位用户回答问题速率可以说是极快,差不多每 1、2 分钟才能搞定一个问题。
甚至能在 1 分钟之内回答 2 个问题。
在那位网友更为悉心的观察之下,发现这种回答的内容都是没经过查证的那个……
并且他觉得,这就是造成 Bing 输出错误答案的缘由:
那么被网友发觉的那位 AI 用户,现在怎么样了?
从目前结果来看,他早已被被知乎“判处”为禁言状态。
但尽管如此,也有其他网友直言不讳地表示:
若是点开知乎的“等你回答”这个栏目,随机找一个问题,往下拉一拉,确实是能见到不少“机言机语”的回答。
例如我们在“AI 在生活中的应用场景有什么?”的回答中便找到了一个:
不仅是回答的语言“机言机语”,甚至回答直接打上了“包含 AI 辅助创作”的标签。
然后假如我们把问题丢给 ChatGPT,那么得到回答…… 嗯,挺换汤不换药的。
事实上,诸如此类的“AI 污染源”不止是在这一个平台上有。
就连简单的科普配图这事上,AI 也是屡次错事。
网友们看完这事也是常州住了:“好家伙,没有一个配图是田螺”。
甚至各种 AI 生成的假新闻也是屡见不鲜。
例如前一段时间,便有一则耸人听闻的消息在网上疯传,标题是《郑州寿司店惊见骚乱,男子用板砖砸死男子!》。
但事实上,这则新闻是广东女子陈某为吸粉引流,利用 ChatGPT 生成的。
无独有偶,广东广州的洪某弟也是通过 AI 技术,发布过《今晨,甘肃一列车撞上修路工人,致 9 人死亡》假新闻。
具体而言,他在全网搜索近几年的社会热点新闻,并使用 AI 软件对新闻时间、地点等进行更改编辑后,在个别平台攫取关注和流量进行非法敛财。
警方均已对她们采取了民事强制举措。
但显然这些“AI 污染源”的现象不仅仅是在国外存在,在美国亦是这么。
程序员问答社区 Stack Overflow 便是一个事例。
早在今年年末 ChatGPT 刚火上去的时侯,Stack Overflow 便忽然宣布“临时禁用”。
当时官方给下来的理由是这样的:
Stack Overflow 进一步探讨了这些现象。
他们觉得先前用户回答的问题,都是会有专业知识背景的其他用户浏览,并给出正确与否,相当于是查证过。
但自打 ChatGPT 出现以后,涌现了大量让人感觉“很对”的答案;而有专业知识背景的用户数目是有限,没法把这种生成的答案都看个遍。
加之 ChatGPT 回答那些个专业性问题,它的错误率是实实在在摆在哪里的;因此 Stack Overflow 才选择了禁用。
一言蔽之,AI 污染了社区环境。
而且像在欧版帖吧 Reddit 上,也是参杂着较多的 ChatGPT 板块、话题:
许多用户在这些栏目之下会提出各式各样的问题,ChatGPT bot 也是有问必答。
不过,还是老问题,答案的准确性怎样,就不得而知了。
但这些现象背后,其实还隐藏着更大的隐患。
AI 模型获得大量互联网数据,却未能挺好地辨认信息的真实性和可信度。
结果就是,我们不得不面对一大堆快速生成的低质量内容,让人眼花缭乱,头晕目眩。
很难想像 ChatGPT 这些大模型假如用这些数据训练,结果会是啥样……
而这么滥用 AI,反过来也是一种凋亡。
最近,英国和法国的研究人员在 arXiv 上发表了一篇题目为《The Curse of Recursion: Training on Generated Data Makes Models Forget》的论文。
探讨了现今 AI 生成内容污染互联网的现况,然后公布了一项令人担心的发觉,使用模型生成的内容训练其他模型,会导致结果模型出现不可逆的缺陷。
这种 AI 生成数据的“污染”会导致模型对现实的认知形成扭曲,未来通过抓取互联网数据来训练模型会显得愈发困难。
论文作者,剑桥大学和爱丁堡大学安全工程院士 Ross Anderson 毫不避忌的坦言:
对于虚假信息满天飞的情况,Google Brain 的中级研究科学家达芙妮伊波利托 (Daphne Ippolito) 表示:想在未来找到高质量且未被 AI 训练的数据,将难上加难。
假如满屏都是这些无营养的劣质信息,如此循环往复,那之后 AI 就没有数据训练,输出的结果还有啥意义呢。
基于这些状况,大胆构想一下。一个成长于垃圾、虚假数据环境中的 AI,在进化成人前,可能就先被拟合成一个“智障机器人”、一个心理扭曲的心理残障。
就像 1996 年的悬疑喜剧连续剧《丈夫一箩筐》,影片述说了一个普通人克隆自己,然后又克隆克隆人,每一次克隆都造成克隆人的智力水平呈指数增长,愚蠢程度降低。
那个时侯,我们可能将不得不面临一个愚蠢窘境:人类创造了具有惊人能力的 AI,而它却挤满了无趣荒谬的信息。
如果 AI 被喂进的只是虚假的垃圾数据,我们又能期盼它们创造出什么样的内容呢?
假如时间到哪个时侯,我们大约就会怀念过去,向这些真正的人类智慧致敬吧。
话虽这么,但也不全坏消息。比如部份内容平台已开始关注 AI 生成低劣内容的问题,并推出相关规定加以限制。
一些个 AI 公司也开始搞能分辨 AI 生成内容的技术,以降低 AI 虚假、垃圾信息的爆燃。
参考链接: