財聯(lián)社6月5日訊(編輯 馬蘭)人工智能行業(yè)發(fā)展迅速,但技術(shù)發(fā)展與秩序重新規(guī)劃的速度不匹配,持續(xù)引發(fā)人們對于該行業(yè)的安全擔(dān)憂,就連深度參與人工智能研發(fā)的工程師們也站出來公開警告。
13名來自O(shè)penAI、谷歌DeepMind和甲骨文的前員工和現(xiàn)員工在一封公開信中表示,人工智能行業(yè)缺乏安全監(jiān)督,且該行業(yè)對舉報人的保護并不充分。
信中指出,人工智能公司掌握著大量非公開信息,包括其系統(tǒng)的能力和局限性、保護措施的充分性以及不同類型傷害的風(fēng)險水平。然而,公司目前只有很弱的義務(wù)向政府分享部分信息,而對民間社會則沒有任何義務(wù)。
這些內(nèi)部人士認為,人們不能指望人工智能企業(yè)會自愿分享這些信息。
內(nèi)部發(fā)聲渠道被阻斷
公開信中寫道,由于廣泛的保密協(xié)議,內(nèi)部員工被阻止表達自己的擔(dān)憂。他們希望先進的人工智能公司可以承諾遵守幾項原則,包括不對批評公司的員工進行報復(fù)等。
公開信強調(diào),普通的保護舉報人措施對人工智能行業(yè)來說是不夠的,因為一般措施是用于保護舉報非法活動的內(nèi)部人士,但人工智能行業(yè)的舉報人更多是公開指出許多未受到監(jiān)管的風(fēng)險。
OpenAI則在一份聲明中為自己的做法進行了辯護,稱公司有舉報熱線等渠道來報告公司內(nèi)部問題,并且在采取保障措施之前不會發(fā)布新技術(shù)。谷歌則沒有立即回應(yīng)置評請求。
然而,這封信出現(xiàn)的時間點頗為微妙。OpenAI上月剛剛有兩名高級員工離職——聯(lián)合創(chuàng)始人兼首席技術(shù)官Ilya Sutskever和關(guān)鍵安全研究員Jan Leike。Leike在辭職后還直言不諱地批評OpenAI已經(jīng)放棄了安全文化,轉(zhuǎn)向商業(yè)利潤。
此外,OpenAI等公司也確實存在較為激進的策略,來阻止員工自由發(fā)聲。據(jù)報道,OpenAI要求離職員工簽署極其嚴(yán)格的保密文件,否則就將失去所有既得股權(quán)。OpenAI首席執(zhí)行官奧爾特曼在該報道后發(fā)布道歉聲明,并聲稱將改革公司離職程序。