一項革命性的技術普及時,必有重重阻力。
GPT-4 誕生兩周之際,美國生命未來研究所(Future of Life)向全社會發布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少為6個月。
這封公開信已有1079人簽署。內容寫到,最近AI的迅猛發展是一場“失控的競賽”,他們沒有辦法理解、預測或可靠地控制自己創造的大模型。人類社會對其可能造成的影響也沒有做好準備。
截至目前,特斯拉 CEO(OpenAI 聯合創始人)馬斯克、蘋果聯合創始人 Steve Wozniak、圖靈獎得主 Yoshua Bengio、《人類簡史》作者赫拉利、紐約大學名譽教授 Gary Marcus、UC 伯克利教授 Stuart Russell 等千名科技大佬和 AI 專家已經簽署公開信。
公開信稱,正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統對社會和人類構成較大的風險。我們不應該冒著失去對文明控制的風險,將決定委托給未經選舉的技術領袖。
盡管最近幾個月人工智能實驗室掀起AI狂潮,但目前沒有人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。
當代人工智能系統現在在一般任務上表現與人類相當,我們必須反思——
- 我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?
- 我們應該自動化所有的工作,包括令人滿意的工作嗎?
- 我們是否應該發展最終可能超越我們并取代我們的非人類思維?
- 我們應該冒險失去對我們文明的控制嗎?
OpenAI 最近關于人工智能的聲明指出:「在開始訓練未來系統之前,進行獨立審查可能很重要,人們應該在合適的時間點限制用于創建新系統的計算增長率。」現在已經到了這個時間點。我們呼吁所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統,為期至少 6 個月。
人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。這些工作至少應該包括:
- 專門針對人工智能的新的、有能力的監管機構;
- 對高能力的人工智能系統和大型計算能力池的監督和跟蹤;
- 幫助區分真實和合成數據的溯源、水印系統,并跟蹤模型泄露;
- 強大的審計和認證生態系統;
- 對人工智能造成的傷害的責任認定;
- 對人工智能安全技術研究的強大公共資金;
- 資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂。
本次聯名信最后,Let's enjoy a long AI summer, not rush unprepared into a fall(讓我們享受一個漫長的 AI 盛夏,而不是毫無準備的進入深秋),這里是一個雙關,秋天英文 fall 另有墜落之意。這項提議試圖警醒眾人不要對人工智能過度樂觀,讓我們毫無準備的步入墜落的深淵。
公開信鏈接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
大佬們在擔心什么
發布公開信的“未來生活研究所”創立于2014年,一直關注“開發與人類相當的人工智能技術過程中出現的風險”,霍金、馬斯克都是這家機構的科學顧問。霍金在研究所成立當年,通過公開媒體發表對于AI技術最終將取代人類的一系列“預言”。
馬斯克在麻省理工學院AeroAstro百年學術研討會上發表講話將人工智能稱之為“我們面臨的最大威脅”。他說,“隨著人工智能的發展,我們將召喚出惡魔。”去年12月,馬斯克也在推特上公開表示,ChatGPT好得嚇人,我們離強大且危險的AI不遠了。上周,“人工智能教父”的 Geoffrey Hinton 受訪時表示,人工智能可能發展到對人類構成威脅“并非不可想象”的地步。
3月28日,AI領域專家蓋瑞·馬庫斯發文稱,人工智能風險≠通用人工智能風險,超級智能可能會也可能不會迫在眉睫,但在短期內,需要擔心“MAI(平庸人工智能)風險”。
ChatGPT之父”薩姆·阿爾特曼的話比較耐人尋味。他說,GPT系列為何會出現推理能力,OpenAI的研究者自己搞不明白。他們只知道,在不斷測試中,人們忽然發現從ChatGPT開始,GPT系列開始出現了推理能力。自主意識和無序競爭會把人類卷死。
歐洲刑警組織27日對采用ChatGPT類工具進行犯罪的可能性進行了討論,“大型語言模型檢測和重現語言模式的能力不僅有助于網絡釣魚和在線欺詐,而且通常還可以用來冒充特定個人或群體的講話風格。這種能力可能會被大規模濫用,以誤導潛在受害者將他們的信任交給犯罪分子。”
原標題:馬斯克、Bengio等千位大佬聯名喊停更強AI研發,GPT-5得罪了誰?