12月19日,據(jù)《福布斯》網(wǎng)站報(bào)道,今年5月,當(dāng)人工智能專家吳恩達(dá)(Andrew Ng)加盟百度,擔(dān)任這家公司首席科學(xué)家時(shí),他對(duì)自己的團(tuán)隊(duì)可能開發(fā)的項(xiàng)目守口如瓶。但是,F(xiàn)在,百度突然向外界揭曉了這位前谷歌研究員,也是斯坦福大學(xué)教授的最新研究成果。吳恩達(dá)及10名百度研究團(tuán)隊(duì)表示,他們已經(jīng)開發(fā)出一種更為準(zhǔn)確的語(yǔ)音識(shí)別系統(tǒng)——百度Deep Speech。
吳恩達(dá)表示,以語(yǔ)音識(shí)別系統(tǒng)準(zhǔn)確率標(biāo)準(zhǔn)衡量,百度Deep Speech系統(tǒng)要強(qiáng)于谷歌和蘋果等對(duì)手的系統(tǒng)。
百度Deep Speech在噪音環(huán)境中(比如汽車內(nèi)和人群之中)的表現(xiàn)更為突出。吳恩達(dá)表示,在噪音環(huán)境下,測(cè)試顯示百度Deep Speech系統(tǒng)的出錯(cuò)率要比谷歌Speech API,Wit.AI,微軟Bing Speech以及蘋果Dictation低10%多。
跟其他語(yǔ)音識(shí)別系統(tǒng)一樣,百度Deep Speech基于一種被稱之為“深度學(xué)習(xí)”(Deep Learning)的人工智能技術(shù)。該軟件能夠以一種非常原始形式來模仿人大腦新皮層中的神經(jīng)活動(dòng),因此深度學(xué)習(xí)系統(tǒng)就能夠識(shí)別出數(shù)字形式的聲音、圖片等數(shù)據(jù)。在接受采訪時(shí),吳恩達(dá)表示,第一代深度學(xué)習(xí)語(yǔ)言識(shí)別正接近極限。
百度研究團(tuán)隊(duì)收集了9600個(gè)人長(zhǎng)達(dá)7000小時(shí)語(yǔ)音,這些語(yǔ)音大多發(fā)生在安靜的環(huán)境下。然后該團(tuán)隊(duì)使用了一種被稱之為“疊加”( superposition )的物理學(xué)原理,在這些語(yǔ)音樣本中增加了15類噪音。這樣,他們將這項(xiàng)語(yǔ)音樣本擴(kuò)容成一個(gè)10萬(wàn)小時(shí)的數(shù)據(jù)。然后,百度研究人員讓系統(tǒng)在噪音中識(shí)別語(yǔ)音。
吳恩達(dá)表示,百度Deep Speech要比目前的語(yǔ)音識(shí)別系統(tǒng)簡(jiǎn)單的多,他們使用了一系列模塊,這些模塊能夠分析音素和其他語(yǔ)音元素。通常情況下,音素的識(shí)別需要人工設(shè)計(jì)模塊,并依靠一種名為“隱馬爾可夫模型”(Hidden Markov Models)統(tǒng)計(jì)概率系統(tǒng),該系統(tǒng)需要大量的人力來調(diào)整模型噪音和語(yǔ)音變異。百度系統(tǒng)則使用深度學(xué)習(xí)算法來替代這些模型,這一算法基于遞歸神經(jīng)網(wǎng)絡(luò),因此使得語(yǔ)音識(shí)別系統(tǒng)變得更為簡(jiǎn)單。
不過,真正讓這項(xiàng)系統(tǒng)正常運(yùn)行的背后“功臣”是百度超強(qiáng)新計(jì)算機(jī)系統(tǒng),該系統(tǒng)使用很多圖像處理器GPU。GPU通常應(yīng)用在筆記本電腦中用于加速圖形處理。而在百度語(yǔ)音識(shí)別系統(tǒng)中,GPU可以讓語(yǔ)音識(shí)別模型運(yùn)行速度變得更快、更“經(jīng)濟(jì)”,該系統(tǒng)運(yùn)行速度大概是吳恩達(dá)在斯坦福大學(xué)和谷歌期間所開發(fā)系統(tǒng)運(yùn)行速度的40倍。
吳恩達(dá)表示:“百度語(yǔ)音識(shí)別系統(tǒng)要比其他基于GPU系統(tǒng)更為全面。我們正進(jìn)入Speech 2.0時(shí)代,現(xiàn)在才是個(gè)開始!
吳恩達(dá)并未透露百度何時(shí)會(huì)將這項(xiàng)語(yǔ)音識(shí)別技術(shù)整合到百度搜索和其他服務(wù)中。不過,外界猜測(cè)百度可能會(huì)在明年某個(gè)時(shí)候?qū)eep Speech技術(shù)整合到百度Cool Box小服務(wù)中。
產(chǎn)品特點(diǎn)
百度首席科學(xué)家吳恩達(dá)以及由Awni Hannun領(lǐng)導(dǎo)的10人研究團(tuán)隊(duì)在美國(guó)康奈爾大學(xué)圖書館網(wǎng)站上稱,他們已經(jīng)開發(fā)出了一種新的,更為準(zhǔn)確的語(yǔ)音識(shí)別系統(tǒng)Deep Speech,該系統(tǒng)使用了端對(duì)端的深度學(xué)習(xí)技術(shù)。語(yǔ)音識(shí)別是一項(xiàng)越來越重要的技術(shù),已經(jīng)被用于蘋果語(yǔ)音助手Siri、語(yǔ)音輸入功能Dictation以及谷歌語(yǔ)音搜索中。
吳恩達(dá)稱,按照衡量語(yǔ)音識(shí)別系統(tǒng)出錯(cuò)率的標(biāo)準(zhǔn)基準(zhǔn),Deep Speech的準(zhǔn)確性已經(jīng)超越了蘋果、谷歌的語(yǔ)音識(shí)別系統(tǒng)。特別是在汽車或人群等噪音環(huán)境下,Deep Speech的表現(xiàn)更為出色。
吳恩達(dá)稱,測(cè)試顯示,在噪音環(huán)境下,Deep Speech語(yǔ)音識(shí)別出錯(cuò)率比谷歌語(yǔ)音識(shí)別引擎(Google Speech API)、語(yǔ)音識(shí)別公司wit.ai、微軟必應(yīng)語(yǔ)音搜索、蘋果Dictation的語(yǔ)音系統(tǒng)低10%以上。
嘈雜環(huán)境下識(shí)別率超谷歌蘋果
美國(guó)康奈爾大學(xué)開放存取資源庫(kù)arXiv.org發(fā)布的一篇文章稱,吳恩達(dá)攜10人組成的百度研發(fā)團(tuán)隊(duì)研究出一種更準(zhǔn)確的語(yǔ)音識(shí)別技術(shù)。吳恩達(dá)說,Deep Speech深度學(xué)習(xí)語(yǔ)音識(shí)別技術(shù)能夠超越蘋果和谷歌相關(guān)的語(yǔ)音識(shí)別技術(shù)。
資料圖
吳恩達(dá)指出,Deep Speech的優(yōu)勢(shì)是,在類似人群或是車內(nèi)嘈雜的環(huán)境下能夠?qū)崿F(xiàn)將近81%的辨識(shí)準(zhǔn)確率,優(yōu)于谷歌的語(yǔ)音識(shí)別引擎(Google API)、Wit.AI、微軟Bing語(yǔ)音搜索、蘋果語(yǔ)音服務(wù)等。美國(guó)卡內(nèi)基梅隆大學(xué)的助理研究員Ian Lane對(duì)此表示,百度的該項(xiàng)成果有望打破語(yǔ)音識(shí)別的發(fā)展格局。
據(jù)悉,百度人工智能研發(fā)團(tuán)隊(duì)共收集了超過9600人、長(zhǎng)達(dá)7000多小時(shí)的語(yǔ)音數(shù)據(jù)資料,大多數(shù)是安靜環(huán)境中的語(yǔ)音,但百度公司還加入了15種嘈雜環(huán)境中的語(yǔ)音樣本,如在飯館、汽車、地鐵等。
在被問到何時(shí)會(huì)將Deep Speech語(yǔ)音識(shí)別系統(tǒng)應(yīng)用到其他研究和服務(wù)中時(shí),吳恩達(dá)顯得很謹(jǐn)慎,并未透露過多,但從言辭中可知,這一天不會(huì)太遠(yuǎn)。據(jù)猜測(cè),Deep Speech很有可能應(yīng)用于百度Cool Box產(chǎn)品中。