科技倫理是科技活動需要遵循的價值理念與行為規范,對于科技發展來說至關重要。7月28日,為加強人工智能倫理道德治理,推動人工智能更加規范發展,我國科技部公開征求了對《關于加強科技倫理治理的指導意見(征求意見稿)》的意見,為我國人工智能倫理法治建設打下基礎。
人工智能陷入倫理困境
近年來,人工智能發展是愈發的火熱,除了人工智能產業本身,由其技術所加持的如自動駕駛、人臉識別、機器人、智能音箱等也十分蓬勃。人工智能的發展為人們的生產生活帶來利好,但與此同時,繁榮景象背后也暗藏風險。作為雙刃劍,人工智能當前不僅給人類的生存帶來沖擊,同時也在倫理道德方面帶來挑戰。
日常應用中,我們便時常能夠聽聞關于人工智能的各種不好消息。例如2018年,一款名為“諾曼”的人工智能便由于其變態的“思想和認知”,給人們留下了可怕印象,該人工智能甚至一度被稱為“精神病患者”。此外2019年,英國也曾出現教唆人類自己刺自己心臟的AI語音助手,不寒而栗的回答讓人毛骨悚然。
由于人工智能主要基于數據學習而進化,人類的一些負面情緒、負面數據不可避免的能對人工智能產生影響。如果放任這些負面東西打造人工智能,出來的技術必然對人類也會產生極大負面影響。而這,正是人工智能倫理道德挑戰出現的一大原因。當然,除了研發者的道德會影響人工智能道德外,技術本身也是另一原因。
在自動駕駛領域,有一個十分知名的“電車難題”,講的是一個瘋子把五個無辜的人綁在電車軌道上,一輛失控的電車朝這五個人駛來,并且片刻后就要碾壓到他們。此時你可以拉一個控制桿,讓電車開到另一條軌道上,但那個軌道上也綁著一個人。這種情況下,問你是否應該拉控制桿。
顯而易見,對于現有的自動駕駛或者人工智能技術來說,這是一個無法給出答案的倫理難題。對于技術發展來說,倫理道德有時就像一道牢牢套在身上的枷鎖,除了找到那個關鍵性的鑰匙,基本很難逃脫。但想要“自由的舞蹈”,又不得不解開枷鎖釋放雙手,在此背景下,就需要通過法治建設來打造出那把“鑰匙”。
法治建設掙脫倫理枷鎖
目前,面對人工智能帶來的倫理道德挑戰,各國政府已經愈發的重視。從2017年以來,全球已有多各國家和地區陸續出臺或準備出臺系列政策,加強對于人工智能倫理道德法治建設。如2017年美國頒布了人工智能14條政策準則;2018年歐盟出臺《通用數據保護條例》;以及韓國也推出了《機器人道德憲章》……
而在我國,對于人工智能的倫理道德建設也在有條不紊開展。2017年7月,我國政府發布了《新一代人工智能發展規劃》,其中明確到2025年,要初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力。到2030年,建成更加完善的人工智能法律法規、倫理規范和政策體系。
同時,之后工信部也發布了《人工智能創新發展道德倫理宣言》,規定人工智能的發展應當始終以造福人類為宗旨,不能將人工智能的自主意識等同于人類特有的自由意志,不能改變人工智能由人類創造的事實等。以及不少領域內企業也積極加強倫理道德關注,提升責任和意識,增強規范與治理。
當然,近日我國科技部再次公開征求對于《加強科技倫理治理的指導意見(征求意見稿)》意見,無疑更是為“健全科技倫理治理體制”、“健全科技倫理體系”正式邁出了最為堅實的一步。《意見》從基本要求、治理原則、治理體制、治理制度、審查監管、教育宣傳等方面對科技倫理治理進行了全面規范,為未來成熟、健康、良好發展打下基礎。
不以規矩,不成方圓。只有為人工智能的研發與應用制定完善的、合乎人類利益與道德標準的相關倫理規范與法律制度,才能確保人工智能的可持續發展,確保人類的生存權利與安全。各種負面的人工智能已經一再證明,人類的影響對于人工智能向善還是向惡至關重要,管住人遠比管住工具更為重要。
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。