污染中文互聯(lián)網(wǎng),AI 成了 " 罪魁禍?zhǔn)?" 之一。
事情是這樣的,最近大家不是都熱衷于向 AI 咨詢嘛,有位網(wǎng)友就問(wèn)了 Bing 這么一個(gè)問(wèn)題:
象鼻山是否有纜車?
【資料圖】
Bing 也是有問(wèn)必答,給出了看似挺靠譜的答案:
在給出肯定的答復(fù)之后,Bing 還貼心地附帶上了票價(jià)、營(yíng)業(yè)時(shí)間等細(xì)節(jié)信息。
不過(guò)這位網(wǎng)友并沒(méi)有直接采納答案,而是順藤摸瓜點(diǎn)開(kāi)了下方的 " 參考鏈接 "。
此時(shí)網(wǎng)友察覺(jué)到了一絲絲的不對(duì)勁——這人的回答怎么 " 機(jī)里機(jī)氣 " 的。于是他點(diǎn)開(kāi)了這位叫 " 百變?nèi)松?" 的用戶主頁(yè),猛然發(fā)覺(jué),介是個(gè) AI 啊!
因?yàn)檫@位用戶回答問(wèn)題速度可以說(shuō)是極快,差不多每一兩分鐘就能搞定一個(gè)問(wèn)題,甚至能在 1 分鐘之內(nèi)回答 2 個(gè)問(wèn)題。
在這位網(wǎng)友更為細(xì)心的觀察之下,發(fā)現(xiàn)這些回答的內(nèi)容都是沒(méi)經(jīng)過(guò)核實(shí)的那種……
并且他認(rèn)為,這就是導(dǎo)致 Bing 輸出錯(cuò)誤答案的原因:
這個(gè) AI 瘋狂地污染中文互聯(lián)網(wǎng)。
"AI 污染源 ",不止這一個(gè)
那么被網(wǎng)友發(fā)現(xiàn)的這位 AI 用戶,現(xiàn)在怎么樣了?從目前結(jié)果來(lái)看,他已經(jīng)被被知乎 " 判處 " 為禁言狀態(tài)。
但盡管如此,也有其他網(wǎng)友直言不諱地表示:
不止一個(gè)。
若是點(diǎn)開(kāi)知乎的 " 等你回答 " 這個(gè)欄目,隨機(jī)找一個(gè)問(wèn)題,往下拉一拉,確實(shí)是能碰到不少 " 機(jī)言機(jī)語(yǔ) " 的回答。
例如我們?cè)?"AI 在生活中的應(yīng)用場(chǎng)景有哪些?" 的回答中便找到了一個(gè):
不僅是回答的語(yǔ)言 " 機(jī)言機(jī)語(yǔ) ",甚至回答直接打上了 " 包含 AI 輔助創(chuàng)作 " 的標(biāo)簽。
然后,如果我們把問(wèn)題丟給 ChatGPT,那么得到回答……嗯,挺換湯不換藥的。
事實(shí)上,諸如此類的 "AI 污染源 " 不只是在這一個(gè)平臺(tái)上有。就連簡(jiǎn)單的科普配圖這事上,AI 也是屢屢犯錯(cuò):
網(wǎng)友們看完這事也是蚌不住了:" 好家伙,沒(méi)有一個(gè)配圖是河蚌 "。
甚至各類 AI 生成的假新聞也是屢見(jiàn)不鮮。
例如前一段時(shí)間,便有一則聳人聽(tīng)聞的消息在網(wǎng)上瘋傳,標(biāo)題是《鄭州雞排店驚現(xiàn)血案,男子用磚頭砸死女子!》。
但事實(shí)上,這則新聞是江西男子陳某為吸粉引流,利用 ChatGPT 生成的。
無(wú)獨(dú)有偶,廣東深圳的洪某弟也是通過(guò) AI 技術(shù),發(fā)布過(guò)《今晨,甘肅一火車撞上修路工人, 致 9 人死亡》假新聞。
具體而言,他在全網(wǎng)搜索近幾年的社會(huì)熱點(diǎn)新聞,并使用 AI 軟件對(duì)新聞時(shí)間、地點(diǎn)等進(jìn)行修改編輯后,在某些平臺(tái)賺取關(guān)注和流量進(jìn)行非法牟利。
警方均已對(duì)他們采取了刑事強(qiáng)制措施。
但其實(shí)這種 "AI 污染源 " 的現(xiàn)象不僅僅是在國(guó)內(nèi)存在,在國(guó)外亦是如此。
程序員問(wèn)答社區(qū) Stack Overflow 便是一個(gè)例子。
早在去年年底 ChatGPT 剛火起來(lái)的時(shí)候,Stack Overflow 便突然宣布 " 臨時(shí)禁用 "。當(dāng)時(shí)官方給出來(lái)的理由是這樣的:
(這樣做)的目的是減緩使用 ChatGPT 創(chuàng)建的大量答案流入社區(qū)。
因?yàn)閺?ChatGPT 得到錯(cuò)誤答案的概率太高了!
Stack Overflow 進(jìn)一步闡述了這種現(xiàn)象。
他們認(rèn)為以前用戶回答的問(wèn)題,都是會(huì)有專業(yè)知識(shí)背景的其他用戶瀏覽,并給出正確與否,相當(dāng)于是核實(shí)過(guò)。
但自打 ChatGPT 出現(xiàn)之后,涌現(xiàn)了大量讓人覺(jué)得 " 很對(duì) " 的答案;而有專業(yè)知識(shí)背景的用戶數(shù)量是有限的,沒(méi)法把這些生成的答案都看個(gè)遍。
加之 ChatGPT 回答這些個(gè)專業(yè)性問(wèn)題,它的錯(cuò)誤率是實(shí)實(shí)在在擺在那里的;因此 Stack Overflow 才選擇了禁用。
一言蔽之,AI 污染了社區(qū)環(huán)境。
而且像在美版貼吧 Reddit 上,也是充斥著較多的 ChatGPT 板塊、話題:
許多用戶在這種欄目之下會(huì)提出各式各樣的問(wèn)題,ChatGPT bot 也是有問(wèn)必答。
不過(guò),還是老問(wèn)題,答案的準(zhǔn)確性如何,就不得而知了。
但這種現(xiàn)象背后,其實(shí)還隱藏著更大的隱患。
濫用 AI,也毀了 AI
AI 模型獲得大量互聯(lián)網(wǎng)數(shù)據(jù),卻無(wú)法很好地辨別信息的真實(shí)性和可信度。
結(jié)果就是,我們不得不面對(duì)一大堆快速生成的低質(zhì)量?jī)?nèi)容,讓人眼花繚亂,頭暈?zāi)垦!?/p>
很難想象ChatGPT 這些大模型如果用這種數(shù)據(jù)訓(xùn)練,結(jié)果會(huì)是啥樣……
而如此濫用 AI,反過(guò)來(lái)也是一種自噬。
最近,英國(guó)和加拿大的研究人員在 arXiv 上發(fā)表了一篇題目為《The Curse of Recursion: Training on Generated Data Makes Models Forget》的論文。
探討了現(xiàn)在 AI 生成內(nèi)容污染互聯(lián)網(wǎng)的現(xiàn)狀,然后公布了一項(xiàng)令人擔(dān)憂的發(fā)現(xiàn),使用模型生成的內(nèi)容訓(xùn)練其他模型,會(huì)導(dǎo)致結(jié)果模型出現(xiàn)不可逆的缺陷。
這種 AI 生成數(shù)據(jù)的 " 污染 " 會(huì)導(dǎo)致模型對(duì)現(xiàn)實(shí)的認(rèn)知產(chǎn)生扭曲,未來(lái)通過(guò)抓取互聯(lián)網(wǎng)數(shù)據(jù)來(lái)訓(xùn)練模型會(huì)變得更加困難。
論文作者,劍橋大學(xué)和愛(ài)丁堡大學(xué)安全工程教授 Ross Anderson 毫不避諱地直言:
正如我們用塑料垃圾布滿了海洋,用二氧化碳填滿了大氣層,我們即將用廢話填滿互聯(lián)網(wǎng)。
對(duì)于虛假信息滿天飛的情況,Google Brain 的高級(jí)研究科學(xué)家達(dá)芙妮 · 伊波利托(Daphne Ippolito)表示:想在未來(lái)找到高質(zhì)量且未被 AI 訓(xùn)練的數(shù)據(jù),將難上加難。
假如滿屏都是這種無(wú)營(yíng)養(yǎng)的劣質(zhì)信息,如此循環(huán)往復(fù),那以后 AI 就沒(méi)有數(shù)據(jù)訓(xùn)練,輸出的結(jié)果還有啥意義呢。
基于這種狀況,大膽設(shè)想一下。一個(gè)成長(zhǎng)于垃圾、虛假數(shù)據(jù)環(huán)境中的 AI,在進(jìn)化成人前,可能就先被擬合成一個(gè) " 智障機(jī)器人 "、一個(gè)心理扭曲的心理智障。
就像 1996 年的科幻喜劇電影《丈夫一籮筐》,影片講述了一個(gè)普通人克隆自己,然后又克隆克隆人,每一次克隆都導(dǎo)致克隆人的智力水平呈指數(shù)下降,愚蠢程度增加。
那個(gè)時(shí)候,我們可能將不得不面臨一個(gè)荒謬?yán)Ь常喝祟悇?chuàng)造了具有驚人能力的 AI,而它卻塞滿了無(wú)聊愚蠢的信息。
如果 AI 被喂進(jìn)的只是虛假的垃圾數(shù)據(jù),我們又能期待它們創(chuàng)造出什么樣的內(nèi)容呢?
假如時(shí)間到那個(gè)時(shí)候,我們大概都會(huì)懷念過(guò)去,向那些真正的人類智慧致敬吧。
話雖如此,但也不全是壞消息。比如部分內(nèi)容平臺(tái)已開(kāi)始關(guān)注 AI 生成低劣內(nèi)容的問(wèn)題,并推出相關(guān)規(guī)定加以限制。
一些個(gè) AI 公司也開(kāi)始搞能鑒別 AI 生成內(nèi)容的技術(shù),以減少 AI 虛假、垃圾信息的爆炸。
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-19
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-18
頭條 23-06-17
頭條 23-06-17