讓AI模仿人類的學習方式,結果會怎樣?
8月26日,阿里達摩院語言技術實驗室取得一系列突破,斬獲自然語言處理(NLP)領域6大技術榜單。據介紹,參與競賽的6項自研AI技術均采用模仿人類的學習模式,多方位提升了機器的語言理解能力,部分能力甚至已超越人類。目前,這些技術均已大規模應用于閱讀理解、機器翻譯、人機交互等場景。
據悉,過去幾年,AI在圖像識別、語音識別等方面已逐步超越人類水平,但在復雜文本語義的理解上,AI與人類尚有差距,其主要原因就是傳統AI學習文本知識效率較低。
為此,業界提出了一種模仿人類的學習思路,即先讓AI在大規模的網頁和書籍文字中進行訓練,學習基本的詞法、語法和語義知識,然后再在固定領域內的文本上進行訓練,學習領域專有知識。
這一思想就是預訓練語言模型的核心創新。自Google提出模仿人類注意力機制的BERT模型以來,預訓練語言模型已成為NLP領域的熱點研究方向。
達摩院早在2018年就開始布局通用的預訓練語言模型,并逐漸將該思路拓展到了多語言、多模態、結構化和篇章文本理解和文本生成領域,如今已建立一套系統化的深度語言模型體系,其自研通用語言模型StructBERT、多語言模型VECO、多模態語言模型StructVBERT、生成式語言模型PALM等6大自研模型分別刷新了世界紀錄。
其中,StructBERT能讓機器更好地掌握人類語法,使機器在面對語序錯亂或不符合語法習慣的詞句時,仍能準確理解并給出正確的表達和回應,大大提高機器對詞語、句子以及語言整體的理解力。該模型以平均分90.6分在自然語言處理領域數據集GLUE Benchmark中位居第一,顯著超越人類水平(87.1分)。
達摩院語言技術實驗室團隊表示:“實驗室的目標是讓AI掌握人類知識的基礎技術,預訓練語言模型的誕生使得AI像人一樣學習新知識成為可能,未來達摩院會全面對外開放這些技術,讓特定領域的AI變得更加智能。”
過去兩年,阿里獲得了30多項NLP領域頂級賽事世界頭名,有100多篇相關頂會論文; 阿里自然語言技術已在金融、新零售、通訊、互聯網、醫療、電力、客服等領域服務超十億用戶和數萬企業客戶。
原標題:阿里達摩院包攬AI領域六大榜單:用人類的學習方式超越人類
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。