雷锦尚恩源于奥菲寺。
量子比特|微信官方账号QbitAI
AI成为污染中国互联网的“罪魁祸首”之一。
事情是这样的。
最近大家都不热衷于咨询AI了。一位网友问了Bing这样一个问题:
象鼻山有缆车吗?
Bing也是一问一答,给出了一个看似靠谱的答案:
在给出肯定答复后,Bing还贴心地附上了票价、营业时间等详细信息。
不过这位网友并没有直接采纳答案,而是循着小道,打开了下面的“参考链接”。
这时,网友察觉到不对劲——这个人的回答怎么“机械”。
于是他点开了名为“综艺人生”的用户主页,突然意识到杰是一个AI!
因为这个用户回答问题的速度非常快,几乎1、2分钟就能解决一个问题。
我甚至可以在一分钟内回答两个问题。
在这位网友的细心观察下,我发现这些回答的内容都是未经核实的...
而他认为这就是Bing输出错误答案的原因:
这个AI疯狂污染中国互联网。
“AI污染源”,不仅是这个被网友发现的AI用户,现在怎么样了?
从目前的结果来看,他已经被知乎“宣判”为沉默状态。
但尽管如此,也有其他网友直言:
不止一个。
如果你点开知乎的专栏“等待你的回答”,随便找一个问题拉下来,真的可以遇到很多“机器语言”的回答。
比如我们在“AI在生活中有哪些应用场景?”在回答中,我发现了一条:
不仅答案的语言是“机器语言”,就连答案也直接被打上了“包括AI辅助创作”的标签。
然后如果我们把问题抛给ChatGPT,就会得到答案...嗯,变化挺大的。
其实这样的“AI污染源”并不只有这个平台才有。
即使是简单的科普地图,AI也屡屡出错。
网友们看完这件事也是目瞪口呆:“好家伙,图中没有一个是河蚌”。
甚至AI产生的各种假新闻也屡见不鲜。
比如前段时间有一个轰动的新闻在网上疯传。题目是《郑州鸡排店惊现血案,一男子用砖头砸死一女子!》。
但其实这条新闻是江西男子陈某利用ChatGPT吸粉引流产生的。
无独有偶,洪在广东深圳的哥哥也通过AI技术发布了“今天上午甘肃一列火车撞上一名修路工人,致9人死亡”的假新闻。
具体来说,他在全网搜索近年来的社会热点新闻,利用AI软件修改编辑新闻时间地点后,在一些平台上赚取关注和流量,非法牟利。
警方已对其采取刑事强制措施。
但事实上,这种“AI污染源”的现象不仅在国内存在,在国外也有。
程序员问答社区Stack Overflow就是一个例子。
早在去年年底ChatGPT刚火的时候,Stack Overflow就突然宣布“临时封禁”。
当时官方的理由是这样的:
目的是减缓使用ChatGPT创建的大量答案涌入社区的速度。
因为ChatGPT得到错误答案的概率太高了!
Stack Overflow进一步阐述了这一现象。
他们认为过去用户回答的问题都是其他有专业知识背景的用户浏览的,正确与否相当于验证。
但自从ChatGPT出现后,出现了大量让人觉得“很对”的答案;有专业知识背景的用户数量有限,不可能看完所有这些生成的答案。
另外,ChatGPT回答这些专业问题,它的错误率真的是有的;这也是Stack Overflow选择禁用的原因。
总之,AI污染了社区环境。
而且像美国版贴吧Reddit上,也有很多ChatGPT板块和话题:
很多用户会在本栏目下提出各种问题,ChatGPT bot也会解答。
不过还是个老问题,答案的准确性不得而知。
但这种现象背后,其实隐藏着更大的隐患。
AI的滥用也毁了AIAI模式获取大量互联网数据,却无法很好的区分信息的真实性和可信度。
导致我们不得不面对大量快速生成的低质量内容,令人眼花缭乱,头晕目眩。
很难想象如果用这些数据训练ChatGPT的这些大模型会有什么结果...
而这样滥用AI,反过来就是一种自噬。
最近,英国和加拿大的研究人员在arXiv上发表了一篇题为“递归的诅咒:对生成数据的训练让模型忘记”的论文。
本文讨论了AI生成的内容污染互联网的现状,然后宣布了一个令人担忧的发现,即使用模型生成的内容来训练其他模型会导致结果模型出现不可逆的缺陷。
AI生成数据的“污染”会导致模型对现实认知的扭曲,未来通过抓取互联网数据来训练模型会变得更加困难。
论文作者罗斯·安德森是剑桥大学和爱丁堡大学的安全工程教授,他直言不讳:
就像我们用塑料垃圾填满海洋,用二氧化碳填满大气一样,我们即将让互联网充满废话。
随着虚假信息满天飞,谷歌大脑的高级研究科学家达芙妮·伊波利托(Daphne Ippolito)表示:未来要找到未经人工智能训练的高质量数据将更加困难。
如果屏幕上全是这种没有营养的劣质信息,等等等等,那么以后AI就没有数据训练了,输出的结果也就没有意义了。
基于这种情况,大胆想象。一个在垃圾和虚假数据环境中长大的AI,在进化成人之前,可能会被合成为一个“智障机器人”和一个精神扭曲的智障。
就像1996年的科幻喜剧《丈夫的洗衣店》一样,影片讲述了一个普通人克隆自己,然后克隆一个人的故事。每一次克隆都会导致被克隆人的智力水平呈指数下降,愚蠢程度增加。
那时候,我们可能要面临一个荒谬的困境:人类创造了能力惊人的AI,但它却充斥着无聊而愚蠢的信息。
如果只是喂以虚假的垃圾数据,我们还能指望AI创造出什么样的内容?
如果那个时候到来,我们很可能会怀念过去,向那些真正的人类智慧致敬。
话虽如此,也不全是坏消息。比如一些内容平台已经开始关注AI产生劣质内容的问题,并出台相关规定进行限制。
一些人工智能公司也开始从事可以识别人工智能生成的内容的技术,以减少人工智能虚假和垃圾邮件的爆炸。
参考链接:[1]https://www.v2ex.com/t/948487[2]https://twitter.com/oran _ ge/status/1669160826186633219[3]https://www . www . 40167 . html[4]https://arxiv . org/ABS/2305.17493 v2[5]https://albertoromgar . medium . com/generative-ai-could-pollute-the-internet-to-death-FB 84 befac 250[6
结束—
量子比特qbitai头条号签约
关注我们,第一时间获取最新科技动态。