亞大邀陽明交通大學陳信宏教授談聲控經濟!

  • 2021-06-21
  • kyle

陳教授強調,台灣需自行研發語音辨識,才能客製化在地需求,力求台灣在聲控經濟浪潮中佔有一片天地。

陽明交通大學陳信宏教授蒞臨亞洲大學演講「漫談─聲控經濟」。
圖說:陽明交通大學陳信宏教授蒞臨亞洲大學演講「漫談─聲控經濟」。

亞洲大學陽明交通大學電機系講座教授、交大前代理校長陳信宏,5月10日受亞洲大學(Asia University, Taiwan)校長蔡進發邀請,蒞臨亞大演講「漫談—聲控經濟」,和亞大一級主管分享人機對話的議題,陳教授分享過去及現在語音辨識系統的進展,並強調台灣需要自行研發語音辨識,才能客製化在地的需求,掌握台灣的聲控經濟。

亞大校長蔡進發表示,目前熱門的AI與自然語言處理有緊密關係,陳信宏講座教授在語音辨識方面是專家,台灣很多公部門的直播會議,倚賴陳教授團隊所開發的語音辨識系統,達到即時語音轉文字,如中央疫情流行指揮中心的記者會、立法院質詢、總統大選辯論會、行政院會後記者會等。陳教授為美國德州理工大學電機博士,曾多次獲得國科會傑出研究獎、教育部傑出教師獎、中國工程師學會傑出工程教授獎、中國電機工程學會傑出電機工程教授獎等,曾任國科會工程處電信學門召集人、電信/網通國家型科技計畫執行長、國立交通大學物聯網智慧系統研究中心主任等。

亞大校長蔡進發致詞歡迎陳信宏教授。
圖說:亞大校長蔡進發致詞歡迎陳信宏教授。

陳教授演講一開始時分享,語音是最自然的人機介面媒介,使用語音和電腦溝通是人類一直在追求的目標,就在今年4月,微軟以 197 億美元收購語音辨識巨頭 Nuance,語音系統已從賦能技術(enabling technology)走向聲控產業。2010年前的傳統語音技術,運用短小的語音及文字資料庫開發語音辨認系統,發展出如電話總機、語音查詢、機場導覽、餐廳點餐等;2010年後,走向AI 語音技術新時代,運用大數據、深度神經網絡(Deep Neural Network, DNN)發展出如Siri、Alexa等的語音助理。

陳教授指出,人機對話主要透過語音辨識、文字理解及語音合成三個步驟,語音辨識的訓練語料至少需要數千小時,像Google這類高科技企業擁有海量的大數據,訓練語料遠遠超過學術界,且免費提供中文自動語音辨識,這代表台灣就不用發展自己的系統嗎?陳教授說,很常會被挑戰這類的問題,但他認為台灣市場小,本土語言只能靠自己做,在地團隊才能及時支援如增加字彙、訓練辨識當地口音等工作,和中央疫情流行指揮中心的合作就是個成功的例子,首創直撥時的即時字幕,正確率達90~94%,運用6000小時本土語料訓練,外加指揮中心專用語言模型、詞庫(如普篩、疫調、磐石艦),客製化專屬語音辨識,大幅降低聽打人員打字的時間,提升效能,是政府與學校合作的典範。

陳教授強調,語音處理技術已進入AI 時代,未來仍需要本土的團隊發展自有的語音處理技術,本土語言如台語、客語、原住民語,需在地自行研發,努力朝國際化及本土化兩大目標發展,未來在醫療照護、機器人、語音助理、語言學習、VR、虛擬社群等應用,尚待大力發展,力求台灣在聲控經濟浪潮中佔有一片天地。

亞大校長蔡進發(右)致贈禮物給陳信宏教授。
圖說:亞大校長蔡進發(右)致贈禮物給陳信宏教授。
陳信宏教授分享聲控經濟。
圖說:陳信宏教授分享聲控經濟。
亞大校長蔡進發(前排左二)、陳信宏教授(前排左)與亞大副校長柯慧 貞(前排左三)、曾憲雄(前排左四),及亞大一級主管合影。
圖說:亞大校長蔡進發(前排左二)、陳信宏教授(前排左)與亞大副校長柯慧 貞(前排左三)、曾憲雄(前排左四),及亞大一級主管合影。