【中國智能制造網 智造快訊】當前,人工智能在網絡領域承擔了越來越多的工作份額,截至2014年,維基百科上約15%的編輯量是由機器人完成的。然而,在互聯網所觸及的很多領域,通過結成協作的僵尸網絡來工作的惡意機器人暗藏失控風險。有專家建議,人類應為知識和事實建立類似千年種子銀行那樣的保護計劃,以避免真相的喪失。
人工智能暗藏失控風險 保護知識與記錄事實需趁早
作為一項實驗,麥肯錫咨詢公司的通德?奧蘭雷瓦朱有一天給維基百科關于他雇主的條目——麥肯錫——搗了點亂。他編輯了該頁面,說自己創辦了這家咨詢公司。一位朋友將修改后的記錄截圖保存了。
幾分鐘內,奧蘭雷瓦朱收到來自維基百科的電子郵件,告知他的編輯操作被拒絕,麥肯錫真正創始人的名字已被恢復。幾乎可以肯定,管理維基百科網站上4000萬篇條目的機器人之一已發現、核對并糾正了被他編輯的條目。
我們非常欣慰地得知,大量如此聰明的算法正巡邏在保衛真實性的前線——并且可以比麥肯錫旗下數字業務的資深合伙人更聰明。2014年,維基百科上約15%的編輯量是由機器人完成的。
但是,世上的事情都是如此:算法既可以用于攻擊,也可以用于防御。有時,算法之間可以通過非故意和不可預測的方式相互作用。由于算法在諸如社交媒體、金融市場、網絡安全、自主武器系統和自動駕駛汽車網絡等不同領域發揮如此核心的作用,人類越來越迫切地需要理解這種相互作用。
今年2月研究期刊《公共科學圖書館?綜合》發表的一篇論文發現,即使那些出于完全善良意愿而設計的機器人,也可能會花費數年時間彼此爭斗。這篇論文分析了十年來維基百科上機器人的使用情況。
在一次這樣的爭斗中,Xqbot和Darknessbot在3629個條目——從亞歷山大大帝到阿斯頓維拉足球俱樂部——上發生了沖突,反復撤消和更正對方的編輯結果。
在保險科技領域,從事人工智能和物聯網業務的初創企業去年在吸引新投資方面成功,保險公司對相關技術寄予厚望。
來自牛津互聯網學院和圖靈研究所的幾位論文作者對這些發現感到吃驚。他們得出結論,我們需要對這些機器人之間的相互作用給予更多關注。“我們對我們的數字小黃人的生活和進化知之甚少。”
維基百科的機器人生態系統有門禁,受到監控。但在互聯網所觸及的許多其他領域,情況并非如此:惡意機器人——通常結成協作的僵尸網絡來工作——可能會失控。
幾位作者突出強調了這種機器人模仿人類、在社交媒體上“傳播政治宣傳言論或影響公共話語”的危險。數字操縱的威脅如此嚴峻,以致一群歐洲專家甚至質疑民主在大數據和人工智能時代還有沒有活路。
要說我們正在逼近一個緊要關頭,也許不太夸張。在某種意義上,真理是否正由電子手段確定?我們是否正如歐洲學者所害怕的那樣,正成為曾經聽命于我們的“數字小黃人”的“數字奴隸”?一些算法之間交互作用的規模、速度和效率開始達到人類無法理解的復雜程度。
如果你真的想在冬日暗夜里嚇唬自己的話,你應該讀一讀蘇珊?布萊克莫爾有關這個題材的作品。這位心理學家認為,通過創建這樣的計算機算法,我們也許已不經意地釋放出一個“第三復制因子”——她初稱之為技因,后來改稱為treme。
復制因子是決定我們生物進化的基因。第二復制因子是人類的迷因——如語言、寫作和金錢——迷因加速了文化演變。但現在,她認為,我們的迷因正在被非人類的treme取代,treme符合她對于復制因子的定義,即“可以有變化和有選擇地復制的信息”。
“我們人類正在被新技術所改造,”她在近的一次講座中說,“我們把一種驚人的力量放出來了。”
目前,布萊克莫爾教授的理論仍游離于學術辯論的邊緣。牛津大學機器學習教授斯蒂芬?羅伯茨說,treme或許是個有趣的概念,但他認為,我們并未失去控制權。
“人工智能算法失控將產生很多負面后果,”他說,“但現在,我們距離這個局面還有很遠的距離。”
更緊迫的問題是,用他的話說,政治和商業利益集團已學會了“侵入社會”。“謊言可以像真理一樣輕易地復制。我們作為個人和團體,都可能被操縱。”
他的解決方案是什么?為知識建立類似千年種子銀行那樣的保護計劃。千年種子銀行旨在保護瀕危植物免于滅絕。
“隨著人類讓這個世界上的物種減少,我們在試圖保護這些物種的DNA。隨著真相變得瀕危,我們有同樣的義務記錄下事實。”
但是,正如我們在維基百科中所看到的情況那樣,這并不總是那么簡單的任務。
(原標題:警惕人工智能的失控風險)