【中國智能制造網 行業精英】2016年12月10日下午,第十八屆北大光華新年論壇“智能浪潮下的商業價值與機遇”奧迪分論壇在北京大學光華管理學院舉行。北大光華管理學院與一汽-大眾奧迪攜手聚焦知名企業,探討人工智能的商業化應用、產業生態與布局,邀請專家與業內領軍人士,探索人工智能帶來的行業變革與商業價值。光華管理學院管理科學與信息系統系邱凌云教授主持了此次分論壇。

任萍萍:真正的人工智能爆發即將到來
科大訊飛公司的市場總監任萍萍在論壇上指出,隨著近年來深度學習概念的提出,2012年語音識別技術上DNN成功地應用,以及2012年CNN在圖像識別上的應用,以及2014年機器翻譯中的應用,在深度學習、機器翻譯以及圖象識別等等技術上的突破,以及我們的大數據、我們的運算能力不斷加強,我們覺得真正的人工智能爆發即將到來。
以下為演講實錄:
謝謝大家,很榮幸受到學院的邀請跟大家一起分享一下關于人工智能的話題,我們知道生物醫藥的突破讓人的預期壽命都會超過100歲,人工智能技術的突破會讓我們簡單重復的勞動會被機器所替代,人們的生活會越來越美好。
當下人工智能技術到底進展到什么程度?哪些技術又有哪些應用的突破?我想站在企業的角度,我們也做了一些嘗試和大家一起來分享一下。
講到人工智能我們不得不回顧60年前的Dartmouth會議,今天我們都說人工智能60周年,這60年當中有了幾次的起伏,比如說第二次人工智能的黃金期是90年代,90年代由于信息技術的發展解決了大家的問題,同樣人工智能也沒有達到大家想要的高度。
隨著近年來深度學習概念的提出,2012年語音識別技術上DNN成功地應用,以及2012年CNN在圖像識別上的應用,以及2014年機器翻譯中的應用,在深度學習、機器翻譯以及圖象識別等等技術上的突破,以及我們的大數據、我們的運算能力不斷加強,我們覺得真正的人工智能爆發即將到來。
其實不僅是我們這樣提,中國的學術界在這樣提,產業界在這樣提,放眼全球大家都在這樣提,2016世界經濟論壇當中有十大經濟技術,大家都提到了AR的生態,在人工智能的百年研究當中,斯坦福有一份報告當中也提出了2030年人工智能與我們的生活將有怎樣的關系。我們覺得人工智能比我們想象的要快,麥肯錫的一份報告提到我們有45%的工作都會被機器代替,連CEO20%的工作都會被機器人代替,所有報告上的展示我就不一一說了。
我們覺得人工智能發展經歷了三個階段,個階段我們所說的叫運算智能階段,也就是計算機計算的能力和存儲的能力,第二個是感知智能階段,我們會讓計算機會說話,就像奧巴馬一樣,說成英文、中文,以及未來還有韓語、日語等多語種,它不僅支持了我們的普通話,還支持了30多種方言,未來外語也會聽得懂,這是第二個階段。我們后人工智能一定會進入到認知智能的階段,它不僅能聽會說,它還要能理解、會思考,會幫我們做更多、更復雜的工作。
講了人工智能的三個階段,其實在人工智能發展過程中有一些比較核心技術的突破,接下來我就會把幾個核心的技術給大家做一些分享。
我們說的個技術一定是以語音為入口的人機交互的技術,它會有聲音的識別、學習的推理等等,首先我們看一下語音合成的技術,合成的技術其實剛剛奧巴馬的聲音就是已經很直觀地給大家感受到了,在我們過去的一些比賽當中,我們連續11年獲得了叫做自然度合成的一個比賽的。在這個比賽當中有美國的MIT等等有參加,訊飛有一個數據比較好玩,我們連續參加了七年訊飛都是,今年組委會改變了規則,我們不比中文,我們比亨利語,我們還是獲得了。
除了合成之外我們又講了識別,識別技術其實也有了比較大的突破,今天早上在我們新年論壇主論壇上展示的就是我們主要的識別技術,識別技術現在連續語音識別的轉寫率,如果是普通話水平的話,差不多能達到95%以上。其實我們在去年12月份跟速記員做過一場對比,我們找了五個業界資深的速記員和我們的機器進行PK,PK的結果是速記大概在一小時的轉寫的準確率可以達到70%,機器可以達到90%。
同樣我們在12月份也會有發布一些除了我們的聽見轉寫之外,在全球抗噪情況下,在噪音情況下的一些識別率,平時的時候都是比較安靜的情況,在噪聲環境下識別率到底怎么樣,等等一系列的比賽。
除了語音識別之外,我們想說一下我們的翻譯技術,翻譯技術這也是業界的一些包括我們跟MIT跟香港大學一起我們把翻譯技術也做到了比較高的水平,現在實時翻譯比如說是在日常交易的場景下,差不多能達到6級的水平。
有了合成、有了識別、有了翻譯,我們看看我們機器的認知智能到了哪個階段,我們做機器合成的時候有幾個好玩的例子,比如說爸爸舉起他的兒子,因為他很重。我們來理解這個很簡單,他很重一定是指兒子,對于機器來說它要理解這個邏輯是比較難的。我們在整個測試當中我們發現機器現在已經有了初步的認知智能的階段,它可以分清第二個他指的是誰,它有基礎的認知智能的階段。
有了識別的突破、合成的識別、翻譯的突破、認知智能的突破,人工智能就會像水和電一樣未來改變著我們的生活,比如說在機器人的助理領域,銀行領域,未來的銀行大廳當中會有越來越多的機器人給我們做服務。在我們汽車的駕駛領域一會兒重點應用當中也會講到,在安全駕駛的過程中我們眼睛沒有辦法看屏,我們跟這塊屏如何做交互?如何讓它幫助我們成為我們行駛當中的小助理,在智慧教育領域,如何做到全學科的自動閱卷等,在智慧醫療領域,我們現在做的圖象識別的技術已經能達到什么樣程度呢?對于一個肺部的圖片,我們經過深度神經網絡的學習,通過它的大小、胃部結節的位置來判斷這個腫瘤是良性還是惡性的。
講了這么多核心技術,我們也在這個行業的應用上做了一些探索,我們其實把核心的訊飛的超腦、語音技術、識別技術都開放給了合作伙伴,合作伙伴會進行二次開發,我們各種穿戴設備,我們的手表、我們的機器人、陪伴型機器人等等。在這個基礎上,我們現在已經有20萬的合作伙伴在這個基礎上進行開發,也會有9億的語音的總用戶,各種終端設備加在一起,每一天運用語音做交互的次數已經達到了30億。其實下面一組數據是一年前的數據,可以看到這個數據比較大的翻倍的增長。
我們想在萬物互聯的時代,語音作為重要的入口,如何能控制我們所有的智能穿戴式設備,我們如何能把未來的智能穿戴式設備聯合起來?比如說我一回家可能空調就自動打開,我的咖啡機就會給我煮一杯咖啡,一切穿戴式設備就會進入我在家,或者我離開家的一種模式。
這是我們在智能家居當中的一些探索,我們在汽車領域的一些探索,我們覺得在汽車行駛過程當中一定是高噪音的,如何做降噪的處理,機器需要喚醒,比如說汽車我們要喚醒它它才能為我們服務,有沒有可能機器在聽我講話的時候可以分析,比如說我現在說我想打電話給誰,機器知道我是有打電話的指令的,比如說來一首歌吧,我想聽什么歌,這時候機器發出我想聽音樂的指令,這個自由轉化的系統已經可以做到了,我們可以在汽車內直接跟它說我想打電話給誰,包括誰打電話進來了,包括路況的播報、查路況等等,都可以做到。整個過程中機器會有一個交互,傳統的方式是機器講完我接著說,現在我們做了隨意打斷,機器給我反饋的時候,我可以直接跟它說話,它會有一個像聽得懂我說話的朋友,我可以隨時打斷它,隨時跟它做交互。
我們所謂的在汽車領域做的叫飛魚助理,比如說麥克風的使用模式,比如說對話的識別、語意的理解等等,這個系統當中用到了人工智能領域關鍵的因素。
我們覺得未來的人工智能一定是以人機交互為主要的界面,這個界面需要有遠場,我原來傳統的識別需要把機器放在我的嘴邊,現在已經遠場去識別它,我們不能要求每個用戶都用普通話做交互,兩年前有一個山東大漢的視頻大家很開心,現在技術的突破、方言的識別做得已經有了一些突破,同樣的山東大漢這個過程當中必須等機器說完他才能說,現在叫全雙工,比如說還有一個糾錯,比如說他有一個說錯了,我可以糾錯等等。比如說我現在跟機器說我想查一下北京的天氣,接下來我會說上海的呢?我沒有說上海的天氣,他通過上下文的語意理解就知道我問的是上海的天氣。
隨著技術的突破,我們覺得人工智能+機器人,現在已經有3000多家合作伙伴,基于我們的基礎上做了很多開發,在這個基礎上我們覺得機器人未來是否能幫我們做更多的工作,是否能成為我們的助理,可能主要的是要它聽得懂我們的話,能理解我們的工作,越來越多地替代我們簡單重復的工作。
這里會講到一些在教育領域的嘗試,我們通過一些課堂作業,包括考試的過程中的監控,對它的大數據進行一些分析,我們會調取出來在整個學習的過程中有哪些知識點沒有掌握?以及一些深度的分析,告訴他要做哪些課題來提升他的學習效率。我們在上半年的時候跟工信部一起發布了中國的人工智能《深圳宣言》,我們希望在人工智能的領域是用產學研共同推動人工智能的核心技術、源頭技術的創新一定要控制在我們自己手里面。同時,我們希望人工智能的產業發展需要有一些標準的制定,包括一些未來萬物互聯的時代,大家要有共同的標準、共同的接口來對待人工智能的產業鏈。同樣的我們需要有更多的生態來打造人工智能的整個產業平臺,人工智能也會帶來一些新的話題,比如說機器人傷人等等一些法律法規。
同樣,我們希望我們一起共同迎接AR的降臨,我們希望超越不可能,在中國用人工智能改變世界,謝謝大家!
(原標題:任萍萍:真正的人工智能爆發即將到來)