近年來,隨著人工智能概念的走紅和落地,掀起了一股智能化風潮,為生物識別、機器視覺等產業的發展帶來了巨大利好。目前,以語音識別、人臉識別為代表的生物識別技術在世界各國得到了廣泛應用,并加速實現規模化商用。
其中,語音識別技術的發展與應用正越發成熟,智能音箱、聊天機器人、客服機器人等產品獲得了消費者的普遍認可。然而,近日斯坦福大學一項研究成果表明,亞馬遜、蘋果、谷歌、IBM和微軟這五大科技巨頭的語音識別系統可能存在種族差異。
該研究顯示,美國五大科技公司的語音識別系統在對白人用戶和黑人用戶的識別中,白人群體的錯誤率要比黑人群體少得多。此外,有高達20%的黑人用戶音頻片段被系統判定為不可讀。據此,斯坦福大學相關研究人員認為,這些公司的語音識別系統顯然存在歧視性。那么,真相是什么呢?
開發者因素影響
一般來說,借助人工智能技術,語音識別系統等智能化產品都具備自我學習能力,可以根據開發者提供的數據資源進行自我訓練,從而不斷成長、提高系統性能與服務水平,增強與人類用戶的溝通、理解能力。
但是在這一過程中,開發者提供的數據資源成為了關鍵。如果開發者本身存在種族偏見,選擇的數據資源也非常具有指向性,那么必然造成語音識別系統在初期學習中,就會養成類似種族偏見的“習慣”。
斯坦福大學的研究也表明,上述公司的語音識別系統在訓練時,所使用的數據就顯得有些片面化,不夠多樣性。因此,語音識別系統在訓練時如果得不到豐富、多元的數據,形成“歧視觀念”就難以避免。
使用者因素影響
相對于在初期訓練中具備的“本能”,語音識別系統在后期用戶使用過程中所受到的影響也是關鍵性的。如果語音識別系統的主要用戶是特定的某一群體,那么其持續自我學習數據的來源將變得非常“單調”。
從目前美國市場的反饋來看,五大科技巨頭開發的語音識別系統更多的使用群體是白人,黑人用戶相對而言較少。所以,在白人用戶偏多而黑人用戶偏少的情況下,語音識別系統所收集、利用的數據多樣性不足,就會造成對特定用戶群體的識別準確率偏差。
所以,針對這種情況,相關企業應當重視起來,通過人為干預等方式,補充黑人群體、亞裔群體、拉丁裔群體等其他種族人群的語音信息,以保證語音識別系統在學習過程中接收信息的平衡性,從而盡量避免出現歧視后果。
口音因素影響
除了開發者、使用者所提供的數據存在多樣性問題外,很多網友認為,這和不同群體之間的口音差異也應當有一定關聯。相對于白人群體,其他種族的人群在發音上或多或少都會與之有差異,這可能是語音系統在識別方面有偏見的原因之一。
其實在我國,也存在地方方言導致語音識別有差異的情況。從大的方面來說,北方人和南方人的發音就不盡相同,就普通話識別來說,肯定是北方人的識別準確率更高。因此,方言、發音等因素也應當被考慮在內,而不是簡單地判定為種族偏見。
可以看出,語音識別系統要想繼續拓展市場還存在不少挑戰,如果無法克服用戶群體傾向性、方言和發音等硬傷,那么顯然不利于語音識別產品實現進一步普及,也不利于其獲得更廣泛用戶的認可。對于語音識別行業來說,市場前景固然廣闊,但也必須努力克服眼下的困境,才能迎來真正的騰飛。
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。