【
中國智能制造網 市場分析】語音識別引擎的準確性已經提高了很多,現在達到了95%的準確度,略高于人類的成功識別率率。隨著這項技術的改進,語音優先的基礎設施變得越來越重要,導致亞馬遜,蘋果,谷歌,微軟和百度都迅速進行布局,發布軟件構建模塊和平臺。
近幾年來,我們取得了巨大的技術進步。語音識別引擎的準確性已經提高了很多,現在達到了95%的準確度,略高于人類的成功識別率率。隨著這項技術的改進,語音優先的基礎設施變得越來越重要,導致亞馬遜,蘋果,谷歌,微軟和百度都迅速進行布局,發布軟件構建模塊和平臺。語音似乎要興起了。
在本文中,作者總結了:我們目前掌握語音識別技術的現狀,以及基礎設施如何圍繞語音發展起來,以了解過去幾十年來這一領域發生了什么。
語音是自然的溝通方式,但語音并不是機器交互的主要界面。自從愛迪生發明留聲機之后,人們一直在和機器交談,但是主要為了與他人進行通信,而不是與機器本身進行通信。到了20世紀80年代,語音識別技術將口語轉化為文本的識別率開始足夠準確。2001年,計算機語音識別達到了80%的準確度。我們可以從口頭對話中提取意義,并做出回應。然而,在大多數情況下,語音技術仍然不足以提供比鍵盤等界面更好的體驗。
語音識別歷史
語音識別不是新鮮事,起源于上世紀五十年代,但多年來一直存在多種理解語音的方式。
個語音識別系統是基于簡單的模式匹配。這些早期系統的一個很好的例子是公用事業公司使用自動化系統讓客戶不用看儀表讀數。在這種情況下,客戶端對系統的回答是一個有限的選項列表中的一個字或數字,計算機只需要區分有限數量的不同聲音模式。它通過將每個聲音塊與其存儲器中的類似存儲模式進行比較來實現。
在1952年,貝爾實驗室的一個團隊設計了能夠理解口頭數字的機器Audrey。
1970年代
技術進步導致了基于模式和特征分析的語音識別系統的發展,其中每個單詞被分解成小部分并且從關鍵特征(例如它包含的元音)中被識別。這種方法涉及聲音的數字化和將數字數據轉換成頻譜圖,將其分解成聲音幀,分離單詞并識別每一個關鍵特征。為了識別可能已經說過的內容,計算機必須將每個單詞的關鍵特征與已知功能的列表進行比較。系統越來越好,因為它集成了來自用戶的反饋。這種方法比以前的方法要得多,因為口語的基本組件聲音數量相當有限。
從1971年到1976年,DARPA資助了五年的語音識別研究,目標是終能夠理解至少1000字的機器。該計劃導致卡耐基-梅隆大學大學創造了一個能夠理解1011個單詞的機器。
1980年代
但是此前的技術仍然不是非常的,因為言語中存在的巨大的復雜性:不同的人可以用不同的方式說出同一個詞,有許多相似的詞(例如two和too)等等。語音識別系統開始使用統計學方法。在此期間推出的關鍵技術是馬爾可夫模型(HMM),用于建立聲學模型和隨機語言模型。
聲學模型代表音頻信號和語言中的語音單元之間的關系,以重建實際發出的內容(特征→音位)。語言模型基于后一個單詞預測下一個單詞(單詞→句子),例如。“God save the“之后可能出現的單詞是Queen(天佑女王),另外,還有一個語音字典/詞典提供關于單詞及其發音的數據,并且連接聲學模型和語言模型(音素→單詞)。終,語言模型分數與當前單詞的聲學分數相結合,以確定單詞序列的排序。
玩具娃娃Julie Doll在1989年將家庭語音識別技術帶到家庭中。可以幫助兒童訓練語音、說話。
一直到20世紀90年代,語音識別系統的速度都太慢,無法開發有用的應用程序,但是當時出現的更快的微處理器可以進行重大改進,而個語音識別商業應用開始出現。
Dragon公司在1990年推出Dragon Dictate,是個消費級語音識別產品。在1997年,你可以在一分鐘內說100個字。
2000年代
計算機語音識別在2001年達到了80%的準確度,但沒有多少進展。
2010年代
在過去十年中,機器學習算法和計算機性能的進步已經導致了更有效的深層神經網絡(DNN)訓練方法。
因此,語音識別系統開始使用DNN,更具體地說,是DNN的特殊變體,即循環神經網絡(RNN)。基于RNN的模型顯示出比傳統模型更好的精度和性能。事實上,2016年的語音識別準確度達到了90%,Google聲稱在2017年6月達到95%的準確率。
這是非常驚人的,要知道研究人員估計人類轉錄精度略低于95%。然而,這些公布的結果應該仔細考慮,因為它們通常在的條件下測量,例如,沒有背景噪音和英語母語的錄音。在“非無菌條件下”的準確度可能快速下降到75-80%。
當你需要標記數據來訓練算法時,現在面臨的挑戰是獲取現實生活中數千小時的口語音頻,以提供給神經網絡并提高語音識別系統的準確性。這就是Google,亞馬遜,蘋果和微軟正在通過將Google Now,Siri和Cortana在手機免費提供服務,以便宜的價格銷售Alexa智能音響的原因。一切都是為了獲取訓練數據!
語音基礎設施的開發
語音基礎設施開發可以分為3個必需的層次:新的應用程序出現:(1)硬件允許更多的人使用語音作為接口(2)軟件構建塊,使開發人員能夠構建相關的語音優先的應用程序(3)生態系統,以實現有效的分配和商業化。
語音分析公司Voicelabs將語音優先設備定義為始終在線的智能硬件,而其中主界面是語音,包括輸入和輸出。市場上語音優先的硬件是2014年底發布的智能音箱Amazon Echo。根據2017年VoiceLabs的報告,2015年發布的語音優先設備達170萬臺,2016 年將達到650萬臺,2017年將有2450萬臺設備發貨,市場總流通設備數達到3300萬臺。
市場上的主要智能音響是Amazon Echo(2014年11月)和Google Home(2016年11月)。然而,新玩家正在迅速進入市場:索尼推出了內置Google助手(2017年9月)的LF-S50G,蘋果即將推出Homepod(2017年12月),三星也近宣布“即將發布”,Facebook可能會發布帶觸摸屏的智能揚聲器。Google助手還將來到一些新的智能音響,其中包括Anker的Zolo Mojo,Mobvoi的TicHome Mini和松下的GA10。
無疑,語音優先的硬件層正在快速發展,預計會有所增長!
語音優先應用程序的軟件構建門檻降低
從頭開始構建語音應用程序不是一件容易的事情。Nuance和其他大型公司已經向第三方開發人員提供語音識別API,但是使用這些API的成本歷來相當高昂,并沒有獲得很好的結果。
隨著語音識別技術開始取得更好的成果,語音優先應用的潛力越來越大,像Google,亞馬遜,IBM,微軟和蘋果以及Speechmatics這樣的大型公司開始在較低級別提供各種低價的API產品。
一些常用的包括2016年7月發布的Google Speech API,和2016年11月發布的亞馬遜Lex和Amazon Polly。
現在,大量開發人員可以以合理的成本構建語音優先的應用程序。
語音優先生態系統的出現
隨著越來越多的語音優先應用和硬件帶來越來越多的語音交互界面,平臺不僅需要解決了分發和商業化,分析和營銷自動化等第三方服務也越來越重要。
(原標題:為什么說語音可能是下一個Big thing? 本文原作者Savina van der Straten,Point Nine Capital 的投資人,由騰股創投編譯整理。)