【中國智能制造網 行業動態】近年人工智能迎來了其第三個發展高峰,而這次的高峰被認為是不同以往的,其中原因被歸結為算力、算法以及數據等技術進步為人工智能科技提供了穩健前行的基礎。
AI迎來第三個發展高峰 信息安全成重要議題
01、前言:人工智能法律治理現狀
人工智能科技誕生于20世紀50年代,在六十多年的發展歷程中幾經潮起潮落,近年人工智能迎來了其第三個發展高峰,而這次的高峰被認為是不同以往的,其中原因被歸結為算力、算法以及數據等技術進步為人工智能科技提供了穩健前行的基礎:
首先,云計算技術與GPU處理器的應用以及前景可期的量子計算,它們為人工智能提供了強大的算力支撐;其次,人工智能領域以機器學習為代表的算法的突破以及大數據提供的海量數據資源煤礦,均為人工智能的發展賦予了能量。
人工智能技術與應用正在快速普及在社會生活的各個方面,世界各國均致力于制定與其發展相適應的法律規則,如歐盟于2016年10月制定了《歐盟機器人民事法律規則》(European Civil Law Rules in Robotics),提煉出人工智能觸及的民事法律問題的框架,從法律和倫理的角度評估和分析未來歐洲民法領域的機器人規則,給予這些法律問題以方向性的指導。
而以自動駕駛汽車的立法探索為例,美國共計23個州政府共制定了四十余部自動駕駛汽車法案,聯邦層面的自動駕駛汽車法案也正在推進。不可否認的是,世界各國的人工智能頂層戰略文件均不約而同提及應盡快建立相應的法律規范體系,而多國已經將這些建議與構想真正提上了立法議程。
世界各國積極推進人工智能領域的立法,主要有以下兩個方面的原因:
一方面,各國均希望在這場被稱為第四次的工業革命的浪潮真正到來之前,能夠搶占法律規則制定先機,促使本國的法律規則能夠在社會享有話語權與主導權;另一方面,人工智能衍生了一系列社會風險,包括:人工智能算法決策透明度與可解釋性的缺失、人工智能應用的個人信息與隱私的保護、人工智能系統安全、人工智能造成人類損害及責任分擔方案以及人工智能為人類就業帶來的負面影響等。
面對這些風險,制定與其現階段發展相適應的法律規則的重要性凸顯。
在眾多風險中,本文重點關注的則是人工智能安全的法律規制。安全所包含的內容范圍需要從以下兩個方面進行說明:
首先,本文主旨為探討人工智能技術與應用的網絡安全,根據我國現有網絡安全法律體系與人工智能技術與應用現狀,對人工智能帶來的新生網絡安全風險進行挖掘,提出將人工智能對應規范嵌入現有網絡安全法律框架的可行性建議。
其次,國外學術文獻對人工智能安全問題的探討,還包含了:機器確保人類人身安全的議題。造成這種提法差異的原因在于safety與security兩詞的含義誤差:在英語語境中,safety重在人身安全,如阿西莫夫的機器人三原則,其主旨為確保機器人不會傷害人類;而當談及security則意指數據安全和通信秘密等網絡空間的安全。但當兩詞翻譯為中文時,則被統一稱之為安全。
關于safety(人身安全)問題的探討目前聚焦于倫理范疇與技術標準領域,如探索設計機器的道德準則(如不傷害人類)并以有效方式將這些道德準則植入人工智能算法與系統的可行性,以及制定相關的機械安全技術標準與規范;關于safety問題的法律治理則更多聚焦于造成人身損害后的責任如何分擔,如操作系統服務商、汽車生產廠商與乘客誰會為損害承擔責任,采用無過錯侵權責任還是設計相應的責任豁免規則等問題的探索。
需要向讀者闡明的是,本文所探討的安全意為security,即為網絡安全,并不涉及人工智能確保人身安全的議題。
人工智能面臨哪些網絡安全風險,是否存在新生的安全風險形式?根據我國已有的網絡安全法律體系,網絡安全是指通過采取必要措施,防范對網絡的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網絡處于穩定可靠運行的狀態,以及保障網絡數據的完整性、保密性、可用性的能力。
以系統和數據兩個核心網絡安全要素為視角,將人工智能技術與應用的形式對應分析,我們將人工智能安全問題聚焦于:系統安全、算法透明度與問責性和數據隱私的保護。
以具體的人工智能應用舉例,如自動駕駛汽車系統:黑客可以從智能汽車端、移動應用端和云平臺以及三者交互的通信管道實施攻擊,復雜的系統組成要素則大大增加了安全風險。目前已實際發生過黑客通過盜取移動app賬號密碼而控制自動駕駛汽車的案例,這類系統脆弱性為乘客人身安全和社會安全帶來了巨大隱患。
與此同時,人工智能算法和系統對社會運行及公民個人利益的影響也日益重要起來。以目前內容分發所廣泛使用的用戶畫像技術為例,該技術會通過用戶的點擊歷史以及觸屏操作分析用戶行為,對用戶進行畫像分類,并添加相應的標簽,而后推送與標簽對應的內容,關于該項應用所引發的合理性爭議也隨之產生,它被質疑減少了用戶廣泛接觸各類信息的機會,剝奪了用戶平等獲取信息的權利。
反觀信息推送在2016年美國總統競選中所發揮的作用:在競選過程中存在著數量巨大的政治機器人,它們被用于在社交媒體傳播錯誤信息和虛假新聞。此種高度精密的技術將會通過大數據分析和人工智能技術判斷和預測每個選民的關注重點,而針對性地分發對應的具有煽動性的內容,有針對性地制造輿論假象,進而惡意引導民意。可以窺見,人工智能的法律治理已迫在眉睫。
本文正文分為三部分進行論述。部分介紹兩個基本問題,人工智能的含義及人工智能現有網絡安全問題的剖析,在這部分我們試圖從側重實用與技術落地的角度,對人工智能做一個更加具體化的界定。
第二部分,以智能硬件、智能網聯汽車以及物聯網為示例,分別對其系統安全的關鍵問題進行分析,提煉出具有共通性的人工智能系統安全風險要素,找到法律治理的切入點。
第三部分,通過將人工智能系統安全問題融入既有網絡安全法律框架,就核心問題具體分析,而提出在網絡安全法律體系的落實建議。
02、人工智能的含義試析
1955年,John McCarthy首先提出 Artificial Intelligence一詞,起初關于Artificial Intelligence的設想是:通過將人類的學習行為及其他智力主導行為進行解構分析,從而將人類智能地描述出來,繼而在機器上構建與人類智能相類似的智能,因此被稱為人工智能。
目前關于人工智能的含義劃定仍未有定論,在此引用人工智能專業教科書關于人工智能的定義,在該定義中,人工智能被描述為一種計算機系統,它包含以下特質:
(1)具備能夠像人類一樣思考的潛力,例如可以識別架構和神經網絡;
(2)與人類行為相似,可以借助自然語言處理并通過圖靈測試,進行自動推理和學習;
(3)能夠進行理性思考,例如邏輯運算,推理和優化;
(4)具備行為理性,例如通過感知、規劃、推理、學習、交流、決策和行動來實現目標。
現階段人工智能技術從本質來說屬于計算機技術的一種,因此準確理解人工智能算法與系統和普通計算機程序運行的核心區別則成為了理解人工智能技術的關鍵。
我們說當今的人工智能算法和系統或多或少都有一個特質:它們可以通過外界設定的一個輸出目標,由計算機程序自動尋找方法完成任務,輸出成果,而不同于傳統程序編程,需要工程師對輸出結果的每一個相關參數進行設計。
例如,圖像神經網絡如何學會識別貓,通常需要將標注好貓的圖片輸入圖像識別人工智能系統,系統會自行學習所有圖片中貓的特點,進而獲取辨識貓的能力,然而機器依賴辨識的特征可能是不具有任何人類知識含義的,因此其決策的過程及原理難以被人們所理解。
人工智能的應用復雜多樣,究其原因,首先是因為人工智能算法和系統可以內嵌至各類應用場景及解決方案之中;其次,在實操層面人們無法劃定什么是人工智能、什么不屬于人工智能的分界線,例如由人工智能研究者研發的處理大量數據的技術,現在被定義為大數據技術;在面對一個尚未解決的問題時,人們通常認為需要人工智能算法解決問題,然而一旦該解決方案被廣泛接受后,這套解決方案則會被認為是常規的數據處理流程。
談及人工智能的法律治理,在結合人工智能技術特點的基礎上,針對具體的應用類型制定針對性法律治理方案意義重大。值得注意的是,人工智能在現階段的應用突出表現在兩個層面:
(1)算法及系統層面的應用,也即具體的人工智能算法和軟件、解決方案等,如圖像識別、語音識別、信息推送應用的用戶畫像技術、金融領域的智能投顧技術等,它們可以幫助人們在短時間內處理人力所不能及的大量數據,并輔助預測、決策。
(2)硬件和基礎設施層面的應用,如機器人、自動駕駛汽車、無人機、智能硬件等,這類應用將硬件與人工智能算法和系統進行融合,賦予硬件以更高的智能。智能硬件廣泛協同后,形成物聯網(Internet of things),可用以打造特定行業網絡神經,成為基礎設施的重要組成部分。
綜上,鑒于人工智能算法與系統的特點,考慮到人工智能應用場景,可以認為人工智能衍生的安全風險集中于以下三個層面:
首先,在系統安全的風險層面,廣泛互聯的物聯網,智能硬件的系統漏洞、基礎安全技術缺失以及復雜的供應鏈條帶來的歸責困境為系統安全的監管帶來挑戰。
其次,在算法透明度與可解釋性的風險層面,人工智能算法的自動化學習與決策的過程、無法吸納人類知識的缺陷、機器學習依據的海量數據帶來的不確定性等,使得算法的決策過程和決策規則難以被人類明確知悉,由此引發人工智能算法的可解釋性和透明度缺失隱患。
后,在數據使用和隱私保護的風險層面,原有數據使用和個人信息使用和保護機制面臨失效的困境,例如在物聯網中巨大量級的用戶數據在各個設備和系統之間傳輸共享非常頻繁,如要獲取用戶的同意確認,將帶來大量的時間消耗并且不具備可操作性。同時引起創建數據收集與使用新規的探索,如機器學習的訓練數據的收集是否可以擊穿隱私數據收集小化原則和使用的必要性原則等。