快科技12月29日消息,2024年諾貝爾物理學獎得主、素有“AI教父”之稱的辛頓(Geoffrey Hinton)表示,AI有10%-20%可能性在未來30年內導致人類滅亡。
在訪談中,當主持人詢問辛頓對可能出現(xiàn)的AI末日和10%發(fā)生機率是否有變化時,辛頓稱沒什么變化,還是10%到20%。
主持人則表示“機率增加了”,辛頓接著表示“如果一定要說,你看,我們以前從未和比我們聰明的東西打交道?!?/p>
他認為,建立AGI(通用人工智能)或比人類更聰明的系統(tǒng),可能導致該技術躲過人類控制而構成人類生存威脅。
“因為我們現(xiàn)在所處的情況是,這個領域大多數(shù)專家都認為,也許未來20年內我們將開發(fā)出比人類更聰明的AI,這是一個非??膳碌南敕ā!毙令D表示。
辛頓直言:“僅僅依靠大型公司的利潤動機,無法確保他們會安全開發(fā)技術。”,“唯一能迫使這些大型公司投入更多資源進行安全研究,正是政府的監(jiān)管?!?/p>