大地资源网视频在线观看新浪,日本春药精油按摩系列,成人av骚妻潮喷,国产xxxx搡xxxxx搡麻豆

正在閱讀:人工智能如何增強現有的人類偏見?

人工智能如何增強現有的人類偏見?

2021-09-02 15:29:52來源:千家網 關鍵詞:人工智能數據閱讀量:23694

導讀:人工智能驅動的系統的決策僅反映用于模型訓練的輸入數據的類型。因此,如果AI模型吸收的數據集具有歧視性,則輸出推薦或決策將遵循相同的趨勢。
  根據定義,人工智能(AI)旨在模擬人腦的工作機制以優化組織活動。
 
  不幸的是,雖然我們已經能夠更接近于人工地重新創造人類智能,但人工智能也表現出另一種獨特的人類特征——基于種族、民族或性別對某人的偏見。人工智能中的偏見并不是一個新概念。最近和過去都發現了醫療保健、執法和招聘行業中存在偏見的算法示例。
 
  因此,幾個世紀以來的不容忍和歧視不斷以一種或另一種形式出現,即使世界似乎正在朝著對所有人包容的方向發展。要了解人工智能如何強化長期存在的人類偏見,我們需要找出偏見潛入人工智能模型和神經網絡的方式。
 
  用于訓練AI模型的有偏數據集
 
  人工智能驅動的系統的決策僅反映用于模型訓練的輸入數據的類型。因此,如果AI模型吸收的數據集具有歧視性,則輸出推薦或決策將遵循相同的趨勢。在初始機器學習階段,可以通過兩種方式創建有偏差的AI模型。首先,如前所述,用于訓練AI模型的數據(總體上)是狹窄且有偏見的。其次,由于給定數據集中的樣本存在偏差,因此創建了判別算法。由于疏忽或因為從事訓練過程的數據科學家本身保守、心胸狹窄,有偏見,輸入數據可能很窄。
 
  歧視性人工智能的最佳例子之一是臭名昭著的COMPAS系統,該系統在美國多個州使用。人工智能驅動的系統使用歷史監獄數據庫和回歸模型來預測被釋放的罪犯將來是否有可能再次犯罪。正如預期的那樣,該系統的預測表明,與白種人相比,非洲裔美國人的再犯人數幾乎翻了一番。這種偏見的主要原因之一是,網絡管理員在分析其預測時從未嘗試檢測系統的歧視性暗示。通常,人工智能偏見的受害者是女性、特定地區的少數族裔或有移民背景的人。正如他們所說,人工智能的模型不會引入新的偏見,而只是反映社會中已經存在的偏見。
 
  如上所述,機器訓練的數據收集過程也可能存在偏差。在這種情況下,指定的AI治理官員會意識到所收集數據中的偏差,但仍會選擇忽略它。例如,在收集與招生背景相關的數據時,學校可能只選擇白人候選人。此外,學校可能只是拒絕為其他孩子提供學習機會。在可能是一個循環中,AI模型可能會密切觀察學校選擇專門選擇白人學生的做法。稍后,該模型將繼承種族主義傳統,因為其模式分析僅表明這是學校招生期間的正確行動方案。因此,盡管存在處理這一過程的尖端技術,但種族主義仍被多次強化。
 
  除了種族或性別歧視,人工智能中的偏見甚至可能以對富人的優惠待遇的形式存在。因此,窮人在AI數據集中的代表性可能不足。在正在進行的醫療衛生事件時代,甚至可以想象出一個這樣的假設例子。一些國家開發了自己的移動應用程序,可用于跟蹤感染病毒的人,并提醒任何特定區域的其他人與這些人保持距離。雖然該計劃可能具有崇高的目的,但沒有智能手機的個人將在應用程序中完全不可見。雖然這種類型的偏見不是任何人的錯,但它首先違背了設計此類應用程序的目的。
 
  綜上所述,歧視性的訓練數據和操作實踐會直接導致人工智能系統和模型的偏差。
 
  由于代理相關原因導致的人工智能偏見
 
  偏見滲入人工智能模型的另一種方式可能是通過代理。用于機器訓練的一些細節和信息可能與受保護的特征相匹配。由此產生的偏差實例可能是無意的,因為用于做出理性和校準決策的數據可能最終作為類成員的代理。
 
  例如,假設一家金融機構使用人工智能系統來預測哪些貸款申請人可能難以還款。用于訓練AI系統的數據集將包含跨越三個多世紀的歷史信息。現在,此輸入數據不包含與申請人的膚色或性別相關的詳細信息。然而,假設系統預測居住在特定地點(與某個郵政編碼相關聯)的人將拖欠他們的貸款分期還款。此預測僅根據歷史記錄生成。當銀行因居住地而決定不批準他們的貸款申請時,居住在該地區的人可能會感到受到了歧視。人工智能中的這種偏見可以通過讓人類官員參與來消除,他們可以根據實際事實而不僅僅是歷史記錄推翻人工智能系統的決定。
 
  除此之外,還有其他幾種產生偏見的人工智能的方式,然后在當今時代繼續強化古老的偏見。有幾種方法可以徹底消除人工智能中的偏見,或者至少在很大程度上減少偏見。
 
  選擇更具代表性的數據集
 
  組織中的每個人都需要努力降低其AI系統在工作中存在偏見的可能性。正如我們所見,人工智能的偏見完全源于它為機器訓練或其日常操作接收的數據類型。收集大量培訓和運營數據的數據科學家和其他專家需要使用各種數據,其中包括屬于所有種族和少數種族的人。在此類數據集中,女性必須與男性一樣多。此外,僅當數據專家向類似分割的模型提供輸入數據時,才應存在AI模型中的分割。
 
  此外,使用人工智能應用的組織不得針對不同的種族和民族多樣性使用不同的模型。如果單個人群的數據不足,組織可以使用加權等技術來平衡其相對于其他人群的重要性。如果每個數據組沒有得到謹慎和同等權重的處理,就有可能在AI模型中產生偏見。
 
  識別潛在的偏見觸發因素或來源
 
  檢測某些類型的偏見可能進入AI系統的區域和操作是任何組織中AI治理團隊和執行級別員工的主要責任。理想情況下,必須在將AI納入組織之前執行此過程。組織可以通過檢查數據集并檢查它們是否會導致AI模型具有狹隘的“觀點”來減輕偏見。經過徹底檢查后,組織必須進行試運行,以查看其AI系統是否在工作中表現出偏見。最重要的是,組織必須列出涵蓋所有有偏見的人工智能領域的問題。然后,他們必須不斷尋找解決方案,以便一個接一個地回答這些問題。
 
  實施嚴格的人工智能治理指南
 
  AI治理團隊在防止AI系統隨著時間的推移變得歧視方面發揮著關鍵作用。為了避免人工智能的偏見,治理團隊必須定期更新人工智能模型。更重要的是,團隊應該制定不可協商的法規和指南,以檢測和消除或至少減輕用于機器訓練的輸入數據集的偏差。
 
  除此之外,必須建立清晰的溝通渠道,以便組織中任何級別的員工都可以在收到客戶關于人工智能歧視的投訴時通知治理團隊。即使員工自己發現他們組織的AI可能存在偏見,這些渠道也會起作用。
 
  人工智能中的偏見對于成為其決策犧牲品的個人或團體來說可能很痛苦。更成問題的是,有偏見的人工智能系統是人類歷史上不幸的受害者面臨數百年邊緣化和歧視的新一代象征。因此,我們必須通過確保模型訓練和有能力的AI治理的不同輸入數據集來確保將算法偏差扼殺在萌芽狀態。歧視性AI是每個人的問題,因此,組織中參與AI模型設計、實施和維護階段的所有各方都應該聯合起來解決它。
 
  (原標題:人工智能如何增強現有的人類偏見?)
我要評論
文明上網,理性發言。(您還可以輸入200個字符)

所有評論僅代表網友意見,與本站立場無關。

版權與免責聲明:

凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。

本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。

鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。

不想錯過行業資訊?

訂閱 智能制造網APP

一鍵篩選來訂閱

信息更豐富

推薦產品/PRODUCT 更多
智造商城:

PLC工控機嵌入式系統工業以太網工業軟件金屬加工機械包裝機械工程機械倉儲物流環保設備化工設備分析儀器工業機器人3D打印設備生物識別傳感器電機電線電纜輸配電設備電子元器件更多

我要投稿
  • 投稿請發送郵件至:(郵件標題請備注“投稿”)1271141964.qq.com
  • 聯系電話0571-89719789
工業4.0時代智能制造領域“互聯網+”服務平臺
智能制造網APP

功能豐富 實時交流

智能制造網小程序

訂閱獲取更多服務

微信公眾號

關注我們

抖音

智能制造網

抖音號:gkzhan

打開抖音 搜索頁掃一掃

視頻號

智能制造網

公眾號:智能制造網

打開微信掃碼關注視頻號

快手

智能制造網

快手ID:gkzhan2006

打開快手 掃一掃關注
意見反饋
我要投稿
我知道了
主站蜘蛛池模板: 墨玉县| 黄冈市| 嫩江县| 武宁县| 武义县| 邵阳县| 建阳市| 古丈县| 沧源| 米脂县| 清水河县| 沙洋县| 即墨市| 龙岩市| 山阴县| 肇源县| 清流县| 松潘县| 乌恰县| 新竹市| 昌江| 拜城县| 泸溪县| 靖安县| 洪泽县| 南安市| 嘉峪关市| 根河市| 天峻县| 林甸县| 马关县| 黄梅县| 襄垣县| 格尔木市| 临沭县| 巴彦县| 承德县| 台北市| 张家界市| 肃北| 宁津县|