• 深度
  • 行業
  • 行業
  • 互動

關注殘障用戶,谷歌Euphonia項目如何幫助語言障礙人士更好地交流

作為在無障礙領域的新進展,谷歌于今年五月在I/O大會上宣布推出Euphonia項目:試圖讓語音識別系統理解具有非標準語音或障礙的人。谷歌在近期發布的文章和論文中,解釋了人工智能的一些功能。

需要解決的問題是顯而易見的:那些有運動障礙的患者,如肌萎縮側索硬化癥(ALS)等退化性疾病,他們的說話聲音根本無法被現有的自然語言處理系統所理解。

研究小組將其描述如下:

ASR(自動語音識別)系統通常是從“典型”語音中訓練出來的,這意味著代表性不足的群體,比如那些有語音障礙或口音重的群體,無法體驗到同樣程度的實用功能。

目前最先進的ASR模型在服務中等語音障礙的ALS患者時,也會產生高誤碼率(WER)。

值得注意的是,這種情況至少在一定程度上要歸咎于訓練集,通常可以通過更具包容性的源數據來解決。這是我們在人工智能模型中發現的內隱偏見之一,這些偏見可能會在其他地方導致高錯誤率,比如面部識別。

對谷歌的研究人員來說,這意味著要從ALS患者那里收集數十小時的語音。正如你可能預期的那樣,每個人受自身狀況的影響都不一樣,這就對研究造成了不小的障礙。

為此,研究人員將一個標準的語音識別模型用作基準,然后以一些實驗性的方式進行調整,在新的音頻上進行訓練。僅這一點就大大降低了單詞錯誤率,而且對原始模型的更改相對較小,這意味著在調整到一個新的語音時不需要太多的計算。

研究人員發現,當這個模型仍然被一個給定的音素(即像“e”或“f”這樣的單個語音)所混淆時,它會出現兩種錯誤。首先,事實是,它不能識別意圖的音素,因此不能識別單詞。其次,模型必須猜測說話者想要表達的音素,在兩個或兩個以上單詞發音大致相似的情況下,可能會選擇錯誤的音素。

第二個錯誤是可以智能處理的錯誤。也許你說,“我要回到房子里去”,而系統卻不能識別出句子里的“b(back)”和“h(house)”;也有可能house在患者口中更像是mouse(鼠標),人工智能系統也許能夠利用它對人類語言的了解——以及你自己的聲音或你說話的語境——來聰明地填補空白。

但這要留給未來的研究。目前,你可以閱讀該團隊目前為止的研究成果,論文名為《Personalizing ASR for Dysarthric and Accented Speech with Limited Data》,將于下月在奧地利舉行的Interspeech大會上發表。

AD:還在為資金緊張煩惱嗎?獵云銀企貸,全面覆蓋京津冀地區主流銀行及信托、擔保公司,幫您細致梳理企業融資問題,統籌規劃融資思路,合理撬動更大杠桿。填寫只需兩分鐘,剩下交給我們!詳情咨詢微信:zhangbiner870616 (來源:獵云網)

下一篇:云數據存儲創企Clumio獲5100萬美元融資

(免責聲明:本網站內容主要來自原創、合作媒體供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )