谷歌語音模型USM目前已支持100多種語音自動識別。
(相關(guān)資料圖)
編譯 | 吳菲凝
編輯 | 李水青
智東西3月7日報道,根據(jù)谷歌官網(wǎng),谷歌的通用語音模型USM目前已實現(xiàn)升級,支持100多個語種內(nèi)容的自動識別檢測。
去年11月,谷歌曾計劃創(chuàng)建一個支持1000個語種的AI模型USM。谷歌將其描述為“最先進的通用語音模型”,擁有20億個參數(shù),經(jīng)過涵蓋1200萬小時的語音、280億個句子和300多個語種數(shù)據(jù)集的預(yù)訓(xùn)練。
USM的強大效果目前已在Youtube的字幕生成中展現(xiàn)出來,可自動翻譯和檢測如英語、漢語等主流語種,還能識別出阿薩姆語這種小眾語種,可以說“精通方言”。
根據(jù)谷歌博客,與OpenAI的大型通用語音模型Whisper相比,USM的數(shù)據(jù)訓(xùn)練時長更短,錯誤率更低。
01.可自動檢測翻譯100+語種
USM面臨兩大挑戰(zhàn)
當(dāng)微軟和谷歌還在為誰家的AI聊天機器人更智能而爭論不休時,我們需要清楚,語音模型的用途遠(yuǎn)不止于此。
外媒The Verge的記者稱,除了相傳將在今年的I/O開發(fā)者大會中展示的20多款A(yù)I驅(qū)動產(chǎn)品之外,谷歌目前還在朝著更高目標(biāo)邁進——構(gòu)建一個支持1000種語種的機器學(xué)習(xí)模型。
在周一發(fā)布的更新中,谷歌分享了更多有關(guān)USM的信息,谷歌稱,這是構(gòu)建支持1000種語言的通用語音模型的“關(guān)鍵第一步”。
USM已被YouTube用于生成字幕,它還支持自動語音識別(ASR),可自動檢測和翻譯語言,不僅包括普通話、英語等廣泛使用的語言,還包括阿姆哈拉語、宿務(wù)語、阿薩姆語等冷門語言。
目前,谷歌稱USM可支持檢測100多個語種,并將作為構(gòu)建更大的系統(tǒng)的“基礎(chǔ)”。不過,這項技術(shù)似乎還有些遙遠(yuǎn),谷歌在I/O開發(fā)者大會期間對阿拉伯語的錯誤表述就已證明。
谷歌研究院科學(xué)家張宇(Yu Zhang)和軟件工程師詹姆斯·秦(James Qin)在谷歌博客上發(fā)文稱,為了實現(xiàn)USM這個雄心勃勃的目標(biāo),他們目前需要解決ASR面臨的兩個重大挑戰(zhàn)。
一是傳統(tǒng)的學(xué)習(xí)方法的缺乏可擴展性。語音技術(shù)擴展到多語種的一個基本挑戰(zhàn)是需要足夠的數(shù)據(jù)來訓(xùn)練高質(zhì)量的模型,使用傳統(tǒng)方法時,需要手動將音頻數(shù)據(jù)進行標(biāo)記,既耗時又價格高昂,對于那些小眾冷門的語種而言,也更難找到預(yù)先存在的來源收集。因此,研究院后續(xù)準(zhǔn)備將傳統(tǒng)學(xué)習(xí)方法轉(zhuǎn)變?yōu)樽晕冶O(jiān)督學(xué)習(xí),利用純音頻來收集數(shù)據(jù)。
二是在擴大語言覆蓋范圍和質(zhì)量的同時,模型必須以計算效率更高的方法來改進。這就要求學(xué)習(xí)算法更加靈活、高效、泛化。這些算法需要使用來源廣泛的數(shù)據(jù),并在不用完全訓(xùn)練的情況下更新模型,再推廣到新的語言中。
02.三個步驟降低識別錯誤率
擊敗OpenAI
據(jù)該團隊發(fā)表的論文稱,USM使用的是標(biāo)準(zhǔn)的編碼器-解碼器架構(gòu),其中解碼器是CTC、RNN-T和LAS,編碼器使用的是Conformer或卷積增強變換器。其中,Conformer使用的關(guān)鍵組件是Conformer塊,由注意力模塊、前饋模塊和卷積模塊組成,應(yīng)用一系列Conformer塊和投影層以最終嵌入。
據(jù)論文顯示,對于USM的訓(xùn)練共分為三個步驟。
第一步是使用BEST-RQ來對涵蓋數(shù)百種語種的語音音頻進行自我監(jiān)督學(xué)習(xí),已經(jīng)在多語言任務(wù)上展示了最先進的結(jié)果,在使用了大量的無監(jiān)督音頻數(shù)據(jù)后的證明結(jié)果是有效的。
第二步需要使用多目標(biāo)監(jiān)督預(yù)訓(xùn)練來整合來自于其他文本數(shù)據(jù)的信息。該模型引入了一個額外的編碼器模塊來輸入文本,并引入額外層來組合語音編碼器和文本編碼器的輸出,并在未標(biāo)記語音、標(biāo)記語音和文本數(shù)據(jù)上聯(lián)合訓(xùn)練模型。
最后一步需要USM對下游任務(wù)進行微調(diào),包括ASR(自動語音識別)和AST(自動語音翻譯)。
USM的整體培訓(xùn)渠道
對于USM的有效性,團隊通過Youtube Caption的多語言語音數(shù)據(jù)進行微調(diào)來驗證。
受監(jiān)督的Youtube數(shù)據(jù)包括有73種語種,每個語種的數(shù)據(jù)不到3000小時。盡管監(jiān)督的數(shù)據(jù)有限,但USM在73個語種當(dāng)中實現(xiàn)了平均低于30%的單詞容錯率(WER),與當(dāng)前內(nèi)部最先進的模型相比降低了6%。與進行了近40萬小時數(shù)據(jù)訓(xùn)練的大型模型Whisper相比,USM的錯誤率更低,它在18個語種中的解碼錯誤率僅有32.7%,而Whisper有40%。
在WER低于40%的情況下,USM在其支持的語言上優(yōu)于Whisper
在公開可用的數(shù)據(jù)上,與Whisper相比,USM在CORAAL(非裔美國人使用的英語)、SpeechStew和FLEURS這三個語言數(shù)據(jù)集上都顯示出了更低的單詞容錯率。
在ASR基準(zhǔn)上比較USM(有或沒有域內(nèi)數(shù)據(jù))和Whisper的結(jié)果。
對于語音翻譯,團隊在CoVoST數(shù)據(jù)集上微調(diào)USM,在有限的監(jiān)督數(shù)據(jù)上實現(xiàn)了最好的性能。為了評估模型性能的廣度,他們根據(jù)資源可用性將CoVoST數(shù)據(jù)集中的語言分為高、中、低三類,并計算每個部分中的BLEU分?jǐn)?shù)(機器翻譯評價指標(biāo)),根據(jù)最終展示出的結(jié)果,USM在所有細(xì)分市場上的表現(xiàn)都優(yōu)于Whisper。
他們認(rèn)為,谷歌若想實現(xiàn)連接全球信息并使每個人都能自由訪問的愿景,USM的開發(fā)將會是關(guān)鍵的一步,USM的基礎(chǔ)模型框架和訓(xùn)練通道已經(jīng)打下了一個基礎(chǔ),他們要做的就是在此基礎(chǔ)上將語音模型擴展至1000種語言。
03.結(jié)語:AI突破語言障礙
助全球打破信息繭房
目前,USM已支持100多個語種,未來將持續(xù)擴展到1000多個,屆時將會吸引到更大一部分用戶進行體驗,真正實現(xiàn)將信息分發(fā)到全球各個角落。
信息時代,科技進步將會進一步幫助各個國家地區(qū)的語言和文化突破地域的限制,很大程度上解決信息繭房帶來的困擾。
關(guān)鍵詞:
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 www.xnbt.net All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com
主站蜘蛛池模板: 动漫人物将机机插曲3d版视频 | 日本一卡二卡≡卡四卡精品| 看一级毛片| x8x8在线观看| 渣男渣女抹胸渣男渣女app | 亚洲午夜久久久久久尤物| 台湾一级淫片高清视频| 欧美日韩在线视频不卡一区二区三区 | 国产精品国产三级国产普通话a| 国产福利影院在线观看| 精品视频一区二区三区| 旧里番洗濯屋1一2集无删减| 久久综合综合久久| 夜夜爽免费888视频| 精品一卡2卡三卡4卡免费网站| 亚洲精品国产精品乱码不卞| 国产精品区免费视频| 两根手指就抖成这样了朝俞| 伊人久久大香线蕉综合电影网| av线上观看| 小向美奈子中出播放| 大胸年轻的搜子4理论| 日韩一卡2卡3卡4卡| 快一点使劲c我在线观看| 日本护士xxxxwww| 极品丝袜乱系列全集| 亚洲va久久久噜噜噜久久天堂| 在线观看国产一区二区三区| 蜜汁肉桃h全篇| 一级国产电影| 久久精品国产69国产精品亚洲| 性xxxxx大片免费视频| 成人免费高清完整版在线观看| 免费阿v| 国产在线精品一区二区 | zooslook欧美另类dogs| 大女小娟二女小妍| 直接观看黄网站免费视频| 337p色噜噜人体大胆欧美| 欧美三级电影免费| 韩国三级电影网|