八戒八戒午夜视频_国产欧美一区二区三区不卡_乡村大坑的性事小说_女人脱裤子让男生桶爽在线观看

AI前哨|AI能毀滅人類(lèi)?這是不是危言聳聽(tīng)?

鳳凰網(wǎng)科技訊 《AI前哨》北京時(shí)間6月11日消息,最近一段時(shí)間,一些研究人員和行業(yè)領(lǐng)袖不斷警告稱(chēng),人工智能(AI)可能會(huì)對(duì)人類(lèi)的生存構(gòu)成威脅。但是,對(duì)于AI究竟如何摧毀人類(lèi),他們并未詳談。

上個(gè)月,AI領(lǐng)域的數(shù)百名知名人士聯(lián)合簽署了一封公開(kāi)信,警告AI有朝一日可能會(huì)毀滅人類(lèi)。“減輕AI帶來(lái)的滅絕風(fēng)險(xiǎn),應(yīng)該與流行病和核戰(zhàn)爭(zhēng)等其他社會(huì)規(guī)模風(fēng)險(xiǎn)一起,成為全球的優(yōu)先事項(xiàng)?!边@封只有一句話的公開(kāi)信這么寫(xiě)道。

這封信是科技行業(yè)對(duì)于AI發(fā)出的最新不詳警告,但是明顯缺乏細(xì)節(jié)。今天的AI系統(tǒng)無(wú)法摧毀人類(lèi),有些AI系統(tǒng)甚至還不會(huì)加減法。那么,為什么最了解AI的人會(huì)如此擔(dān)心呢?

怕什么?

一些科技行業(yè)的“烏鴉嘴”說(shuō),總有一天,企業(yè)、政府或獨(dú)立研究人員能夠部署強(qiáng)大的AI系統(tǒng)來(lái)處理從商業(yè)到戰(zhàn)爭(zhēng)在內(nèi)的一切事務(wù)。這些系統(tǒng)可能會(huì)做一些人類(lèi)不希望它們做的事情。如果人類(lèi)試圖干擾或關(guān)閉它們,它們可以抵抗甚至復(fù)制自己,這樣它們就可以繼續(xù)運(yùn)作。

“今天的系統(tǒng)根本不可能構(gòu)成生存風(fēng)險(xiǎn),”蒙特利爾大學(xué)教授、AI研究員約書(shū)亞·本吉奧(Yoshua Bengio)表示,“但是一年、兩年、五年以后呢?有太多的不確定性。這就是問(wèn)題所在。我們不能確定這些系統(tǒng)不會(huì)達(dá)到某個(gè)臨界點(diǎn),引發(fā)災(zāi)難性后果?!?/p>

對(duì)于AI的威脅,憂慮者經(jīng)常使用一個(gè)簡(jiǎn)單的比喻。他們說(shuō),如果你要求一臺(tái)機(jī)器制造盡可能多的回形針,它可能會(huì)失去控制,把一切都變成回形針工廠,包括人類(lèi)。

人類(lèi)面臨AI滅絕風(fēng)險(xiǎn)

人類(lèi)面臨AI滅絕風(fēng)險(xiǎn)

那么,這種威脅與現(xiàn)實(shí)世界或者不遠(yuǎn)的未來(lái)能夠想象的世界有何關(guān)系呢?企業(yè)可以讓AI系統(tǒng)具備越來(lái)越多的自主性,并將其連接到重要的基礎(chǔ)設(shè)施上,包括電網(wǎng)、股市和軍事武器。它們可能會(huì)從那里引發(fā)問(wèn)題。

對(duì)于許多專(zhuān)家來(lái)說(shuō),這原本似乎并不可信,直到去年,OpenAI展示了他們技術(shù)的重大改進(jìn)。這些最新技術(shù)表明,如果AI繼續(xù)以如此快的速度發(fā)展,可能會(huì)發(fā)生一些意想不到的事情。

“隨著AI變得越來(lái)越自主,它將逐漸被授權(quán),并可能篡奪當(dāng)前人類(lèi)和人類(lèi)管理的機(jī)構(gòu)的決策和思考權(quán)力?!奔又荽髮W(xué)圣塔克魯茲分校的宇宙學(xué)家安東尼·阿吉雷(Anthony Aguirre)表示,他也是未來(lái)生命研究所的創(chuàng)始人之一,該組織是兩封警告AI危險(xiǎn)性公開(kāi)信中的一封的背后推動(dòng)者。

他表示:“未來(lái)某個(gè)時(shí)刻,人們會(huì)清楚地意識(shí)到,主導(dǎo)社會(huì)和經(jīng)濟(jì)的巨大機(jī)器并非真正受人類(lèi)控制,也無(wú)法像關(guān)閉標(biāo)準(zhǔn)普爾500指數(shù)一樣被關(guān)閉?!?/p>

這或許只是理論上的說(shuō)法。其他AI專(zhuān)家認(rèn)為,這是一個(gè)荒謬的假設(shè)?!皩?duì)于生存風(fēng)險(xiǎn)的討論,我可以用一個(gè)禮貌的詞語(yǔ)來(lái)形容我的看法,這些擔(dān)憂只是‘假設(shè)’?!蔽餮艌D研究實(shí)驗(yàn)室艾倫AI研究所的創(chuàng)始CEO奧倫·埃齊奧尼(Oren Etzioni)這么說(shuō)。

AI有這種能力了嗎?

還沒(méi)有。但是,研究人員正在將ChatGPT這樣的聊天機(jī)器人轉(zhuǎn)變?yōu)槟軌蚋鶕?jù)他們生成的文本采取行動(dòng)的系統(tǒng)。

一個(gè)名為AutoGPT的項(xiàng)目就是最典型的例子。該項(xiàng)目的想法是給AI系統(tǒng)設(shè)定目標(biāo),比如“創(chuàng)辦一家公司”或“賺一些錢(qián)”。然后,系統(tǒng)會(huì)不斷尋找實(shí)現(xiàn)這一目標(biāo)的方式,特別是如果它們與其他互聯(lián)網(wǎng)服務(wù)相連接的情況下。

AutoGPT開(kāi)始讓AI采取行動(dòng)

AutoGPT開(kāi)始讓AI采取行動(dòng)

像AutoGPT這樣的系統(tǒng)可以生成計(jì)算機(jī)程序。如果研究人員給它訪問(wèn)計(jì)算機(jī)服務(wù)器的權(quán)限,它實(shí)際上可以運(yùn)行這些程序。從理論上講,這是AutoGPT幾乎可以在網(wǎng)上做任何事情的一種方式,包括獲取信息、使用應(yīng)用程序、創(chuàng)建新的應(yīng)用程序,甚至自我改進(jìn)。

目前,AutoGPT這樣的系統(tǒng)運(yùn)轉(zhuǎn)還不夠順暢。他們往往會(huì)陷入無(wú)盡的循環(huán)中。研究人員曾為一個(gè)系統(tǒng)提供了復(fù)制自身所需的所有資源,但是它還無(wú)法復(fù)制自身。

不過(guò),假以時(shí)日,這些限制可能會(huì)被突破。

“人們正在積極嘗試構(gòu)建自我完善的系統(tǒng),”Conjecture公司創(chuàng)始人康納·萊希(Connor Leahy)說(shuō),該公司希望將AI技術(shù)與人類(lèi)價(jià)值觀保持一致,“目前,這還行不通。但總有一天會(huì)的。我們不知道那一天是什么時(shí)候?!?/p>

萊希認(rèn)為,當(dāng)研究人員、企業(yè)和犯罪分子給這些系統(tǒng)設(shè)定“賺一些錢(qián)”之類(lèi)的目標(biāo)時(shí),AI系統(tǒng)最終可能會(huì)闖入銀行系統(tǒng),在持有石油期貨的國(guó)家煽動(dòng)革命,或者在有人試圖關(guān)閉它們時(shí)進(jìn)行自我復(fù)制。

AI會(huì)變壞

像ChatGPT這樣的AI系統(tǒng)建立在神經(jīng)網(wǎng)絡(luò)和數(shù)學(xué)系統(tǒng)之上,可以通過(guò)分析數(shù)據(jù)來(lái)學(xué)習(xí)技能。

大約在2018年,谷歌和OpenAI等公司開(kāi)始構(gòu)建神經(jīng)網(wǎng)絡(luò),讓這些網(wǎng)絡(luò)從互聯(lián)網(wǎng)上挑選的大量數(shù)字文本中學(xué)習(xí)。通過(guò)準(zhǔn)確找出所有這些數(shù)據(jù)中的模式,這些系統(tǒng)學(xué)會(huì)了自己創(chuàng)作,包括新聞文章、詩(shī)歌、計(jì)算機(jī)程序,甚至是類(lèi)似人類(lèi)的對(duì)話。最終結(jié)果是:像ChatGPT這樣的聊天機(jī)器人誕生了。

由于它們能從更多的數(shù)據(jù)中學(xué)習(xí),甚至超過(guò)了它們的創(chuàng)造者所能理解的范圍,這些系統(tǒng)也表現(xiàn)出了意想不到的行為。研究人員最近表明,有一個(gè)系統(tǒng)能夠在網(wǎng)上雇傭一個(gè)人來(lái)通過(guò)驗(yàn)證碼測(cè)試。當(dāng)人類(lèi)問(wèn)它是不是“機(jī)器人”時(shí),系統(tǒng)撒謊說(shuō)它是一個(gè)有視力障礙的人。

一些專(zhuān)家擔(dān)心,隨著研究人員讓這些系統(tǒng)變得更強(qiáng)大,用越來(lái)越多的數(shù)據(jù)對(duì)它們進(jìn)行訓(xùn)練,它們可能會(huì)學(xué)到更多的壞習(xí)慣。

早有警告聲音

其實(shí)在21世紀(jì)初,一位名叫埃利澤·尤德科夫斯基(Eliezer Yudkowsky)的年輕作家已經(jīng)開(kāi)始警告說(shuō),AI可能會(huì)毀滅人類(lèi)。他的網(wǎng)上帖子催生出了一個(gè)信徒社區(qū)。這個(gè)群體被稱(chēng)為理性主義者或有效利他主義者(EA,以改善世界為目標(biāo)),在學(xué)術(shù)界、政府智庫(kù)和科技行業(yè)都具有巨大的影響力。

尤德科夫斯基和他的文章在OpenAI和DeepMind的創(chuàng)建過(guò)程中發(fā)揮了關(guān)鍵作用。DeepMind是一家AI實(shí)驗(yàn)室,2014年被谷歌收購(gòu)。許多來(lái)自“有效利他主義者”社區(qū)的人在這些實(shí)驗(yàn)室里工作。他們認(rèn)為,因?yàn)樗麄兞私釧I的危險(xiǎn),所以他們最能夠開(kāi)發(fā)AI。

尤德科夫斯基

尤德科夫斯基

AI安全中心和未來(lái)生命研究所是最近發(fā)布公開(kāi)信警告AI風(fēng)險(xiǎn)的兩大組織,他們與“有效利他主義者”社區(qū)密切相關(guān)。

除此之外,一些AI研究先驅(qū)和行業(yè)領(lǐng)袖也對(duì)AI發(fā)出了警告,比如埃隆·馬斯克(Elon Musk),他長(zhǎng)期以來(lái)一直在警告這種風(fēng)險(xiǎn)。最新一封警告信由OpenAI CEO薩姆·阿爾特曼(Sam Altman)、戴米斯·哈薩比斯(Demis Hassabis)簽署。哈薩比斯協(xié)助創(chuàng)立了DeepMind,現(xiàn)在負(fù)責(zé)管理一個(gè)新的AI實(shí)驗(yàn)室,該實(shí)驗(yàn)室匯集了DeepMind和谷歌的頂尖研究人員。

其他一些備受尊敬的人物也簽署了這兩份警告信中的一封或兩封,其中包括蒙特利爾大學(xué)的本吉奧博士和“AI教父”杰弗里·辛頓(Geoffrey Hinton),后者最近辭去了谷歌高管和研究員職務(wù)。2018年,本吉奧和辛頓一同獲得了“計(jì)算界的諾貝爾獎(jiǎng)”圖靈獎(jiǎng),以表彰他們?cè)谏窠?jīng)網(wǎng)絡(luò)方面所做的工作。

拖延戰(zhàn)術(shù)?

大數(shù)據(jù)公司Palantir的老板亞歷克斯·卡普(Alex Karp)近日表示,他反對(duì)暫停AI研究的想法, 那些提出這種想法的人是因?yàn)樗麄儧](méi)有自己的AI產(chǎn)品。

卡普周四在接受采訪時(shí)說(shuō),“那些沒(méi)有什么產(chǎn)品可以提供的人,想利用暫停時(shí)間來(lái)研究AI”,但是如果暫停開(kāi)發(fā),這可能會(huì)導(dǎo)致敵對(duì)國(guó)不僅在商業(yè)應(yīng)用領(lǐng)域,而且在軍事應(yīng)用領(lǐng)域竊取領(lǐng)先優(yōu)勢(shì)。

他表示,“讓其他人在商業(yè)領(lǐng)域和戰(zhàn)場(chǎng)上都取得勝利”是一個(gè)非常糟糕的策略??ㄆ辗Q(chēng),世界已經(jīng)在上演一場(chǎng)AI軍備競(jìng)賽,美國(guó)處于領(lǐng)先,但是即便美國(guó)放慢腳步,這場(chǎng)競(jìng)賽也不會(huì)停。鳳凰網(wǎng)科技《AI前哨》對(duì)此將持續(xù)關(guān)注。(作者/簫雨)


相關(guān)內(nèi)容