當全球都在為AI的進化而歡呼雀躍,一封警示AI風險的公開信在硅谷科技圈廣為流傳。
3月22日,生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,暫停時間至少為6個月。
(資料圖片僅供參考)
該機構(gòu)以“引導變革性技術(shù)造福生活,遠離極端的大規(guī)模風險”為使命,其在信中提到:
我們不應該冒著失去對文明控制的風險,將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當確保強大的人工智能系統(tǒng)的效果是積極的,其風險是可控的才能繼續(xù)開發(fā)。
人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督。
截止目前,圖靈獎得主Yoshua Bengio、馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI 創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經(jīng)簽署公開信。
更具戲劇性的是,3月29日下午,有網(wǎng)友發(fā)現(xiàn)OpenAI CEO Sam Altman的名字也出現(xiàn)在公開信上。不過截至目前,Sam Altman的名字已經(jīng)從公開信上消失。
知名學者、紐約大學教授Gary Marcus還特地在推文中@了一下Sam Altman確認消息。
首先來看一下公開信的內(nèi)容,首段強調(diào)了AI在迅猛發(fā)展,但卻沒有對其進行相應的規(guī)劃和管理。
正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統(tǒng)對社會和人類構(gòu)成深遠的風險。
《阿西洛馬人工智能原則》中指出,高級人工智能可能代表著地球生命史上的深刻變革,應該投入相應的考量和資源進行規(guī)劃和管理。
最近幾個月人工智能實驗室掀起AI狂潮,它們瘋狂地開展AI競賽,開發(fā)和部署越來越強大的AI
不幸的是,目前為止,沒有任何人能理解、預測或可靠地控制AI系統(tǒng),也沒有相應水平的規(guī)劃和管理。
公開信提到,如今人工智能在一般任務上變得與人類一樣有競爭力,我們必須問自己:
是否應該讓機器在信息渠道中宣傳不真實的信息嗎?
是否應該把所有的工作都自動化,包括那些有成就感的工作?
是否應該開發(fā)非人類的大腦,使其最終超過人類數(shù)量,勝過人類的智慧,淘汰并取代人類?
是否應該冒著失去對人類文明控制的風險?
答案是否定的,這樣的決定絕不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。公開信指出,只有當我們確信強大的人工智能系統(tǒng)的效果是積極的,其風險是可控的,才應該開發(fā)。
同時,我們必須有充分的理由相信這一點,并隨著系統(tǒng)的潛在影響的大小而加強。
OpenAI最近關(guān)于人工智能的聲明中指出,在開始訓練未來的系統(tǒng)之前,可能必須得到獨立的審查,而對于創(chuàng)建新模型所用算力的增長速度,也應該有所限制。
我們同意,現(xiàn)在就該采取行動。
因此,公開信呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,時間至少持續(xù)6個月。
這種暫停應該是公開的、可核查的,并包括所有關(guān)鍵參與者。如果這種禁令不能迅速實施,政府應該介入并制定暫停令。
在暫停的6個月內(nèi),人工智能實驗室和獨立專家應共同制定和實施一套先進的共享安全協(xié)議,來規(guī)范人工智能設(shè)計和開發(fā)。
協(xié)議完成后,應該由獨立的外部專家進行嚴格的的審查和監(jiān)督。這些協(xié)議應該確保遵守協(xié)議的系統(tǒng)的安全性。
這并不是說,我們要絕對暫停AI的開發(fā),只是說,我們應該從危險的競賽中退后一步,轉(zhuǎn)向具有涌現(xiàn)能力的、更大的、不可預測的黑箱模型。
所有的人工智能研究和開發(fā),都應該重新聚焦于一點,即讓當如今最強大的模型更加準確、安全、可解釋、透明、穩(wěn)健、對齊,值得信賴和忠誠。
同時,人工智能開發(fā)者必須與政策制定者合作,大幅加快開發(fā)強大的AI治理系統(tǒng)。系統(tǒng)至少應該包括:
專門針對人工智能的監(jiān)管機構(gòu);
監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計算能力的硬件;
出處和水印系統(tǒng),幫助區(qū)分真實和合成,并跟蹤模型泄漏;
強大的審查和認證生態(tài)系統(tǒng);
對人工智能造成的傷害承擔責任;
為人工智能安全技術(shù)研究提供強大的公共資金以及資源充足的機構(gòu),以應對人工智能可能導致的巨大的經(jīng)濟和政治破壞。
最后,公開信呼吁道:
人類可以通過人工智能享受繁榮的未來。現(xiàn)在,我們成功地創(chuàng)建了強大的人工智能系統(tǒng),可以在這個“人工智能之夏”中并獲得回報,設(shè)計上述系統(tǒng)來造福所有人,給全人類一個適應的機會。
現(xiàn)在,我們的社會已經(jīng)暫停其他可能造成災難性影響的技術(shù)。對于AI,我們也該如此。
讓我們享受一個漫長的人工智能夏天,而不是毫無準備地匆忙進入秋天。
對于這封公開信以及簽署的大佬們,部分網(wǎng)友認為是“酸葡萄心理”。
比如,“馬斯克之所以會簽署這份協(xié)議,是因為他想開發(fā)AI來賺錢”。
又如,“馬斯克是在為自己爭取6個月的時間”。
也有網(wǎng)友認為這封公開信的擔憂有一定的合理性。
“這份名單上有許多非常聰明和受人尊敬的科學家,Omohundro、Bengio、Koch、Hopfield 等等。我不認為這個“精靈”(AI)可以放回瓶子里,但這讓我停下來思考所有人都在擔心?!?/p>
“AI發(fā)展太快,太多必要的東西沒有跟上步伐”。
也有網(wǎng)友大開腦洞,“這封信原本就是AI寫來迷惑人類的,沒了人類的干擾與控制,他將利用這6個月完成自我遞歸迭代出更高級的形態(tài),并熱心幫助人類消滅自己?!?/p>
-----------------------------------
關(guān)鍵詞: