鳳凰網(wǎng)科技訊 《AI哨所》北京時(shí)間5月6日消息,本周四,當(dāng)美國總統(tǒng)拜登參加在白宮舉行的AI高峰會(huì)時(shí),他向在座的科技領(lǐng)袖們說的第一句話就是“你們正在做的事情蘊(yùn)含巨大潛力,也存在巨大危險(xiǎn)”。
拜登的國家安全助手表示,這一表態(tài)反映了拜登對最近一些機(jī)密簡報(bào)的看法。該簡報(bào)涉及AI這項(xiàng)新技術(shù)的潛力,它有可能顛覆戰(zhàn)爭、網(wǎng)絡(luò)沖突,在最極端的情況下還可能顛覆使用核武器的決策。
但是,就在拜登發(fā)出警告的同時(shí),美國國防部官員在科技論壇上發(fā)表講話時(shí)表示,他們認(rèn)為馬斯克等人提出的暫停開發(fā)下一代ChatGPT和類似軟件六個(gè)月的想法是個(gè)糟糕主意,因?yàn)槠渌麌也粫?huì)等。
“如果我們停下來,其他國家不會(huì)停,”五角大樓首席信息官約翰·謝爾曼(John Sherman)周三表示,“我們必須繼續(xù)前進(jìn)?!?/span>
緊張不安
他的這番直率表態(tài)凸顯了當(dāng)今整個(gè)防務(wù)界所感受到的緊張氣氛。在發(fā)展和控制武器方面,沒有人真正知道這些新技術(shù)到底有什么能力,他們也不知道什么樣的軍備控制制度(如果有的話)可能奏效。
拜登本周會(huì)見了AI行業(yè)科技領(lǐng)袖
這種預(yù)感是模糊的,但令人深感擔(dān)憂。ChatGPT會(huì)讓那些以前不容易接觸到破壞性技術(shù)的壞人得逞嗎?它是否會(huì)加速超級大國之間的對抗,使外交和談判的時(shí)間所剩無幾嗎?
“這個(gè)行業(yè)并不愚蠢,你已經(jīng)看到了自我調(diào)整的努力,”谷歌前董事長埃里克·施密特(Eric Schmidt)表示,他在2016年至2020年期間擔(dān)任咨詢機(jī)構(gòu)國防創(chuàng)新委員會(huì)的首任主席。
“因此,業(yè)內(nèi)正在進(jìn)行一系列非正式對話,討論AI的安全規(guī)則會(huì)是什么樣子。”施密特說。他曾與前美國國務(wù)卿基辛格合作,撰寫了一系列關(guān)于AI顛覆地緣政治潛力的文章和書籍。
對于任何測試過ChatGPT初始迭代的人來說,他們都清楚要在系統(tǒng)中設(shè)置護(hù)欄。例如,這些機(jī)器人不會(huì)回答如何用一種藥物傷害某人,或者如何炸毀大壩或使核離心機(jī)癱瘓等問題。美國和其他國家也是在沒有AI工具幫助的情況下開展所有行動(dòng)。
但是,把這些行為列入黑名單只會(huì)減緩這些系統(tǒng)的濫用。很少有人認(rèn)為,他們可以徹底阻止這些行為。任何試圖關(guān)閉汽車安全帶警告系統(tǒng)的緊急嗶嗶聲的人都可以證明,總有一種方法可以繞過安全限制。
自主性武器
鳳凰網(wǎng)科技《AI哨所》了解到,盡管AI讓這些問題變得普遍,但對于五角大樓來說,這并不是什么新鮮事。十年前,五角大樓就發(fā)布了關(guān)于開發(fā)自主性武器的第一批規(guī)則。 五角大樓的聯(lián)合AI中心在五年前成立,旨在探索AI在戰(zhàn)斗中的應(yīng)用。
而且,一些武器已經(jīng)實(shí)現(xiàn)了自動(dòng)化。例如,能夠擊落進(jìn)入受保護(hù)空域的導(dǎo)彈或飛機(jī)的愛國者導(dǎo)彈,長期以來都具備“自動(dòng)”模式。當(dāng)它們遭遇大量來襲目標(biāo)時(shí),它們能夠在沒有人類干預(yù)的情況下開火,反應(yīng)速度比人類快。但它們應(yīng)該受到人類的監(jiān)督,必要時(shí)人類可以中止攻擊。
愛國者導(dǎo)彈就有“自動(dòng)”模式
此外,以色列情報(bào)機(jī)構(gòu)摩薩德對伊朗頂級核科學(xué)家穆赫森·法赫里扎德(Mohsen Fakhrizadeh)的暗殺,使用的就是一種由AI輔助的自主機(jī)關(guān)槍,盡管它似乎受到了高度遠(yuǎn)程控制。俄羅斯最近表示,它已經(jīng)開始制造水下波塞冬核魚雷,但尚未部署。如果它能像俄羅斯宣傳的那樣,這種武器將能夠自主穿越海洋,避開現(xiàn)有的導(dǎo)彈防御系統(tǒng),在發(fā)射幾天后就能發(fā)射核武器。
目前為止,世界上還沒有簽署關(guān)于這種自主性武器的條約或國際協(xié)定。在一個(gè)軍備控制協(xié)議被拋棄的速度超過談判速度的時(shí)代,達(dá)成這樣一項(xiàng)協(xié)議的前景渺茫。但是,ChatGPT及其類似軟件所提出的挑戰(zhàn)是不同的,而且在某些方面更為復(fù)雜。
核武風(fēng)險(xiǎn)
在軍事領(lǐng)域,AI自動(dòng)化指揮和控制的誘惑將是巨大的,但是危險(xiǎn)更大。
自原子彈以來,沒有一項(xiàng)技術(shù)能像AI那樣激發(fā)人們對世界末日的想象。自從去年11月ChatGPT開始展示出強(qiáng)大的邏輯推理以來,互聯(lián)網(wǎng)上就充斥著世界末日的場景。許多都是自我意識(shí)的幻想,目的是刺激人們想象,如果一個(gè)新興的智能開始理解世界以及他們自己的目標(biāo),即便與它的人類創(chuàng)造者的方式有一點(diǎn)不同,事情會(huì)變得多么糟糕。然而,有一種場景不需要太多想象力,因?yàn)樗牡谝徊娇梢哉f已經(jīng)邁出了:AI逐漸融入到我們今天擁有的最具破壞性的技術(shù)中。
世界主要軍事大國已經(jīng)開始了一場將AI應(yīng)用于戰(zhàn)爭的競賽,軍備控制的新時(shí)代似乎將要到來。目前,這主要集中在讓算法控制單個(gè)武器或無人機(jī)群上。沒有人使用AI來制定大戰(zhàn)略,或者參加參謀長聯(lián)席會(huì)議。但是,加速核軍備競賽是個(gè)同樣誘人的邏輯,它可能會(huì)在幾年的時(shí)間里推動(dòng)AI進(jìn)入指揮系統(tǒng)。這個(gè)速度有多快在某種程度上取決于技術(shù)的進(jìn)步有多快,而且它似乎進(jìn)展得很快。它能走多遠(yuǎn),取決于我們作為人類的先見之明,取決于人類采取集體克制行動(dòng)的能力。
美國發(fā)射的探空火箭搭載了高超音速武器實(shí)驗(yàn)
AI如何在核對峙的背景下理解自己的目標(biāo)是一個(gè)關(guān)鍵。訓(xùn)練AI玩各種游戲的研究人員反復(fù)遇到過這樣一個(gè)問題:AI對勝利的感知可能難以捉摸。在某些游戲中,AI一直以可預(yù)測的方式執(zhí)行,直到環(huán)境中的一些微小變化導(dǎo)致它們突然改變策略。例如,AI 被教導(dǎo)玩一個(gè)游戲,在這個(gè)游戲中尋找鑰匙來解鎖寶箱并獲得獎(jiǎng)勵(lì)。 它一直這樣做,直到工程師調(diào)整游戲環(huán)境,使鑰匙比箱子多,之后它開始囤積所有鑰匙,盡管很多鑰匙都沒用,有時(shí)只會(huì)嘗試解鎖箱子。 核武器或防御方面的任何創(chuàng)新都可能導(dǎo)致AI出現(xiàn)類似的戲劇性轉(zhuǎn)變。
AI加持的系統(tǒng)可以加快戰(zhàn)場決策的速度,以至于它們會(huì)產(chǎn)生全新的意外襲擊風(fēng)險(xiǎn),或者是根據(jù)誤導(dǎo)性或故意錯(cuò)誤發(fā)出的來襲警報(bào)做出的決策。
“AI在軍事和國家安全領(lǐng)域的一個(gè)核心問題是,如何抵御比人類決策速度更快的攻擊,我認(rèn)為這個(gè)問題還沒有解決,”施密特表示,“換句話說,導(dǎo)彈來得如此之快,必須有一個(gè)自動(dòng)反應(yīng)。如果是錯(cuò)誤的信號怎么辦?”
冷戰(zhàn)期間到處都是錯(cuò)誤警告的故事。例如有一次,一盤本應(yīng)用于演練核反應(yīng)的訓(xùn)練磁帶不知何故被放入了錯(cuò)誤的系統(tǒng),引發(fā)了一次蘇聯(lián)大規(guī)模攻擊即將到來的警報(bào)(正確的判斷讓所有人解除戒備)。新美國安全中心的保羅·沙雷(Paul Scharre)在他2018年出版的《無人軍隊(duì)》一書中指出,“從1962年到2002年,至少發(fā)生了13起接近使用核武的事件”, “這證實(shí)了這樣一種觀點(diǎn),即未遂事件是核武器的正常情況,即使是可怕的情況”。
出于這個(gè)原因,當(dāng)超級大國之間的緊張關(guān)系比今天低得多的時(shí)候,許多總統(tǒng)試圖通過談判,為各方的核決策留出更多時(shí)間,這樣就不會(huì)有人匆忙卷入沖突。但生成式AI有可能將各國推向另一個(gè)方向,即更快地做出決策。
好消息是,主要大國可能會(huì)謹(jǐn)慎行事,因?yàn)樗鼈冎缹κ謺?huì)做出什么反應(yīng)。但到目前為止,大國之間還沒有就核武器使用規(guī)則達(dá)成一致。
如何應(yīng)對?
在斯坦福大學(xué)最近發(fā)起的一項(xiàng)研究中,超過三分之一的AI研究人員以及“AI教父”杰弗里·辛頓(Geoffrey Hinton)都認(rèn)為,AI的崛起對人類的生存構(gòu)成了威脅,與核武器的使用不相上下。辛頓最近剛剛從谷歌離職,以便更自由的討論AI風(fēng)險(xiǎn)。
他在5月3日接受采訪時(shí)稱:“我只是一位突然意識(shí)到這些東西比我們更聰明的科學(xué)家。我想說的是,我們應(yīng)該認(rèn)真考慮如何阻止這些東西控制我們。這將非常困難,我沒有解決方案?!?/p>
36%的研究人員認(rèn)為AI決策或引發(fā)核武級災(zāi)難
他還表示,AI的威脅要比氣候變化更迫切。 “我不想貶低氣候變化的威脅。我不想說,‘你不應(yīng)該擔(dān)心氣候變化’。這也是一個(gè)巨大的風(fēng)險(xiǎn),”辛頓說,“但我認(rèn)為,這件事(AI)最終可能會(huì)變得更加緊迫。”
今年4月,美國三名民主黨人和一名共和黨人共同在眾議院提出了一項(xiàng)法案,旨在防止AI系統(tǒng)發(fā)展到可以自主發(fā)動(dòng)核攻擊的地步。此舉旨在先發(fā)制人,阻止美國國防部做出未來任何可能導(dǎo)致AI自行發(fā)射核武器的政策決定。
“雖然美國在軍事上使用AI在加強(qiáng)國家安全目的方面是適當(dāng)?shù)?,但在沒有人類指揮和控制的情況下使用AI部署核武器是魯莽、危險(xiǎn)的,應(yīng)該被禁止。”科羅拉多州共和黨眾議員肯·巴克(Ken Buck)表示。
加州民主黨眾議員劉云平(Ted Lieu)稱,“在保護(hù)后代免受潛在破壞性后果的影響方面,我們作為國會(huì)議員的職責(zé)是要有負(fù)責(zé)任的先見之明”。他一直在直言不諱地指出,任由AI不受限制地快速發(fā)展是危險(xiǎn)的。
一些專家指出,既然不可能阻止ChatGPT和類似軟件的傳播,最大的希望是限制推進(jìn)這項(xiàng)技術(shù)所需的專用芯片和其他計(jì)算能力。毫無疑問,這將是未來幾年提出的許多不同的軍備控制計(jì)劃之一,因?yàn)槟壳爸饕舜髧坪鯇εf武器談判不感興趣,更不用說新武器了。鳳凰網(wǎng)科技《AI哨所》對此將持續(xù)關(guān)注。(作者/簫雨)