TWI576826B - Discourse Recognition System and Unit - Google Patents

Discourse Recognition System and Unit Download PDF

Info

Publication number
TWI576826B
TWI576826B TW104109414A TW104109414A TWI576826B TW I576826 B TWI576826 B TW I576826B TW 104109414 A TW104109414 A TW 104109414A TW 104109414 A TW104109414 A TW 104109414A TW I576826 B TWI576826 B TW I576826B
Authority
TW
Taiwan
Prior art keywords
parameter
tongue
voice
signal
module
Prior art date
Application number
TW104109414A
Other languages
English (en)
Other versions
TW201604864A (zh
Inventor
jing-feng Liu
xiao-han Chen
Original Assignee
jing-feng Liu
xiao-han Chen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by jing-feng Liu, xiao-han Chen filed Critical jing-feng Liu
Priority to TW104109414A priority Critical patent/TWI576826B/zh
Priority to CN201510277768.8A priority patent/CN105321519B/zh
Priority to JP2015146577A priority patent/JP2016031534A/ja
Priority to EP15178370.1A priority patent/EP2980788A1/en
Priority to US14/809,739 priority patent/US9424842B2/en
Publication of TW201604864A publication Critical patent/TW201604864A/zh
Application granted granted Critical
Publication of TWI576826B publication Critical patent/TWI576826B/zh
Priority to JP2017197027A priority patent/JP6484317B2/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

話語辨識系統與單元
本發明是有關於一種辨識系統與單元,特別是指一種用以辨識吶語症病患所說話語的話語辨識系統,及一種用以程式化建構於電子設備以辨識吶語症病患所說話語的話語辨識單元。
一般人說話時,需要身體的多個系統相互協調才能說出正確語音。主要是由呼吸系統供應說話氣流,氣流上升通過喉部時,喉部系統會被氣流驅動產生喉音,此喉音即為說話聲音的來源,接著,再藉由口腔內之舌頭與牙齒及唇形所構成的構音系統,將喉音轉變成不同音色、語調的語音,進而將大腦所要表達的內容透過說話動作呈現出來。但是當大腦、中樞或周圍神經受損,而影響到呼吸系統、喉部系統與嘴部構音系統的功能時,就會使得該等系統於講話時之構音組合運動的安排失常,而無法清楚表達呈現出正確的語音,此症狀統稱為「吶語症」。
吶語症非為失語症般的語言異常,也不是失智症患者的那種認知障礙,吶語症病患本身對於語言仍有正確認知,也知道如何透過語言來與他人溝通,只是因為其 講話系統的部分組織器官無法正常運作,造成所講出的話語構音不正確,而難以理解。雖然吶語症患者無法發出清楚明確的語音,但每次在講出同一個字詞時,其嘴部構音系統中的舌頭、牙齒與嘴唇都仍會做出特定的運作模式,所以每次都會發出極為類似的語音,也因此,久而久之,每一位吶語症患者周圍的人多少仍可瞭解其所要表達的正確話語,但對於鮮少與該吶語症患者互動的人而言,卻會相當困擾,且經常發生理解錯誤的尷尬場面。因此,若能夠讓吶語症患者所說的話可被他人聽懂,將促使吶語症患者更願意進入人群,而大幅增進吶語症患者的生活品質。
因此,本發明之目的,即在提供一種可用以辨識吶語症患者所講之話語的話語辨識系統。
本發明之另一個目的,即在提供一種可用以程式化建構於一個電子設備,而可藉由該電子設備進行吶語症患者之話語辨識的話語辨識單元。
於是,本發明話語辨識系統,適用於安裝在一位吶語症患者身上,並包含一個影像擷取裝置、一個口腔參數擷取裝置、一個話語辨識裝置,及一個輸出裝置。該影像擷取裝置可擷取該吶語症患者之嘴唇影像,而對應輸出一個唇形訊號。該口腔參數擷取裝置包括一個用以安裝在該吶語症患者口腔內而位於其舌部上方之載具,及分別安裝於該載具之一個顎位感測單元與一個舌距感測單元,該顎位感測單元與該舌距感測單元可於該吶語症患者講話 時,分別感測該舌部觸抵該載具之觸抵變化模式,而對應輸出一個顎位訊號,以及感測該舌部與該載具之間距的舌距變化模式,而對應輸出一個舌距訊號。該話語辨識裝置是訊號連接於該影像擷取裝置與該口腔參數擷取裝置,包括一個可接收分析該唇形訊號、該舌距訊號與該顎位訊號而對應輸出一個語音參數組的話語辨識單元。該輸出裝置是訊號連接於該話語辨識裝置,並可輸出該話語辨識裝置輸出之該語音參數組。
於是,本發明話語辨識單元,適用於程式化建構在一個電子設備,並可接收分析一個口腔參數擷取裝置輸出之顎位訊號與舌距訊號,及一個影像擷取裝置輸出之唇形訊號。該話語辨識單元包含一個唇形分析模組、一個顎位分析模組、一個舌距分析模組,及一個參數彙整模組。該唇形分析模組內建有多個分別對應不同唇形變化模式之唇形參數,並可分析該唇形訊號所代表之唇形變化模式而比對出對應的唇形參數。該顎位分析模組內建有多個分別對應不同之觸抵變化模式的顎位參數,且可分析該顎位訊號所代表之觸抵變化模式而比對出對應的顎位參數。該舌距分析模組內建有多個分別對應不同舌距變化模式的舌距參數,並可分析該舌距訊號所代表之舌距變化模式而比對出對應的舌距參數。該參數彙整模組可彙整該唇形參數、該顎位參數與該舌距參數而得出一個語音參數組。
本發明之功效:透過該話語辨識系統與單元可在吶語症患者講話過程中,自動分析吶語症患者之唇形變 化與舌部變化,而得到與特定語音資料對應的語音參數組的設計,可方便進一步利用根據該語音參數組所比對出的語音資料來進行語音合成輸出,讓吶語症患者所講的話能夠被清楚理解。
3‧‧‧配戴件
31‧‧‧配戴部
32‧‧‧安裝部
33‧‧‧延伸桿部
4‧‧‧影像擷取裝置
5‧‧‧口腔參數擷取裝置
50‧‧‧電路板
51‧‧‧載具
52‧‧‧顎位感測單元
521‧‧‧壓力感測器
522‧‧‧顎位訊號處理器
53‧‧‧舌距感測單元
531‧‧‧距離感測器
532‧‧‧舌距訊號處理器
54‧‧‧氣流感測單元
55‧‧‧第一通訊單元
6‧‧‧話語辨識裝置
61‧‧‧第二通訊單元
62‧‧‧啟動單元
621‧‧‧啟動開關
63‧‧‧話語辨識單元
631‧‧‧語音資料庫
632‧‧‧唇形分析模組
633‧‧‧顎位分析模組
634‧‧‧舌距分析模組
635‧‧‧氣流分析模組
636‧‧‧參數彙整模組
637‧‧‧語音合成模組
638‧‧‧字詞比對模組
64‧‧‧傳輸端子
65‧‧‧記憶體單元
7‧‧‧輸出裝置
71‧‧‧聲音輸出模組
72‧‧‧顯示模組
721‧‧‧第三通訊單元
800‧‧‧電子設備
900‧‧‧吶語症患者
901‧‧‧頭部
902‧‧‧嘴唇
903‧‧‧口腔
904‧‧‧上顎
905‧‧‧舌部
906‧‧‧上排牙齒
本發明之其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:圖1是本發明話語辨識系統之一個第一實施例的立體圖;圖2是該第一實施例安裝於一位吶語症患者時的示意圖;圖3是該第一實施例的功能方塊圖;圖4是該第一實施例之一個口腔參數擷取裝置的立體圖;圖5是該第一實施例之該口腔參數擷取裝置安裝於該吶語症患者口腔內的側剖示意圖;圖6是本發明話語辨識系統之一個第二實施例的立體圖;圖7是本發明話語辨識系統之一個第三實施例的立體圖;及圖8是該第三實施例的功能方塊圖。
在本發明被詳細描述之前,應當注意在以下的 說明內容中,類似的元件是以相同的編號來表示。
如圖1、2、5所示,本發明話語辨識系統的第一實施例,可安裝設置在一位吶語症患者900身上,可用以協助辨識該吶語症患者900講出之話語,並進行語音合成以發出可讓其他人聽懂的正確字詞的語音。
該話語辨識系統包含一個用以安裝配戴於該吶語症患者900之頭部901的配戴件3、一個安裝於該配戴件3之影像擷取裝置4、一個用以安裝固定於該吶語症患者900之口腔903內的口腔參數擷取裝置5、一個安裝於該配戴件3並訊號連接於該影像擷取裝置4與該口腔參數擷取裝置5的話語辨識裝置6,及一個與該話語辨識裝置6訊號連接之輸出裝置7。
該配戴件3具有一個用以配戴於頭部901的配戴部31、兩個分別固接於該配戴部31兩端之安裝部32,及一個自其中一個安裝部32往前延伸至該吶語症患者900臉部前側並可調整彎曲角度之延伸桿部33。
在本實施例中,該配戴部31是概呈C字型,而使得整個配戴件3外形概呈一個耳罩式耳機,但實施時,該配戴部31與該等安裝部32也可設計成眼鏡型式,也就是分別設計成眼鏡之鏡腳與鏡框樣式,例如google glasses,且實施時也可僅設置一個安裝部32,但實施時,該配戴件3外形不以上述態樣為限。
該影像擷取裝置4是安裝於該延伸桿部33末端段,可用以擷取該吶語症患者900之嘴唇902影像,並對 應出一個唇形訊號,並透過一條設置於該延伸桿部33中之訊號線(圖未示)與該話語辨識裝置6訊號連接。
如圖3、4、5所示,該口腔參數擷取裝置5包括一個安裝固定於該吶語症患者900之口腔903內的載具51,及分別安裝於該載具51之一個顎位感測單元52、一個舌距感測單元53、一個氣流感測單元54與一個第一通訊單元55。該載具51外形是根據該吶語症患者900之上顎904與上排牙齒906外形所模製成型,可用以套置於上排牙齒906外,並往上貼抵固定於上顎904表面,主要是用以模擬該吶語症患者900的上顎904與上排牙齒906,並可被該舌部905觸抵。該載具51安裝於上顎904表面時,可以採用黏著劑黏固方式,或者是以勾件(圖未示)勾卡於設置在口腔903內的定位輔具(圖未示),由於該載具51安裝固定於上顎904表面的方式眾多,且非本案之創作重點,因此不再詳述。
該顎位感測單元52包括多個間隔佈設於該載具51之壓力感測器521,及一個訊號連接於該等壓力感測器521的顎位訊號處理器522。該等壓力感測器521可分別被往上觸抵於該載具51的舌部905觸動,而對應輸出一個壓力感測訊號,可用以在該吶語症患者900講話過程中,相配合感測出該舌部905往上觸抵該載具51底面的觸抵變化模式。該顎位訊號處理器522會彙整該等壓力感測訊號而對應產生一個顎位訊號,該顎位訊號內容包括該等壓力感測器521分別測得之觸抵力道,以及該等壓力感測器521 被觸抵之時間先後順序等。
在本實施例中,該顎位感測單元52是透過該等壓力感測器521感測舌部905的觸抵,進而感測該吶語症患者900講話時,其舌部905是否有出現往上觸抵其上顎904及/或上排牙齒906的動作、其觸抵位置,以及在整個講話過程中的觸抵位置變化與觸抵力道變化。
該舌距感測單元53包括多個前後佈設外露於該載具51底面之距離感測器531,及一個訊號連接於該等距離感測器531之舌距訊號處理器532。該等距離感測器531可分別往下發射一個偵測訊號,並感測其下方之該舌部905部位所反射之偵測訊號,進而得出其與該舌部905部位的間距,並對應輸出一個距離感測訊號。所以可藉由該等距離感測器531之前後佈設方式,來感測出該吶語症患者900講話過程中,其舌部905前後多個部位分別相對於上顎904之間距的變化模式。該舌距訊號處理器532可接收處理該等距離感測訊號,並對應輸出一個舌距訊號。
在本實施例中,該等距離感測器531為利用光進行測距的感測器類型,由於距離感測器531為習知構件,且類型眾多,因此不再詳述,且不以上述類型為限。
該氣流感測單元54是嵌裝外露於該載具51前端部,且外露於該吶語症患者900的口腔903中,可感測該吶語症患者900講話時,於口腔903中所產生之對外氣流變化模式,而對應產生一個氣流訊號。
該第一通訊單元55可與該話語辨識裝置6無線 通訊,並可無線發送該顎位訊號、該舌距訊號與該氣流訊號至該話語辨識裝置6。由於該第一通訊單元55和該話語辨識裝置6進行無線通訊的方式眾多,例如ANT+無線通訊技術、藍芽、ZigBee、NFC或其它短距無線通訊技術等,因此不再詳述,且實施時不以上述類型為限。
在本實施例中,該顎位訊號處理器522、該舌距訊號處理器532與該第一通訊單元55是彙整在一個電路板50,而包埋固定在該載具51中,但實施時不以此為限。
如圖1、3、5所示,該話語辨識裝置6是安裝於該配戴件3之該配戴部31與該等安裝部32中,包括一個第二通訊單元61、一個啟動單元62、一個話語辨識單元63、一個記憶體單元65,及一個傳輸端子64。
該第二通訊單元61可透過無線通訊方式與該第一通訊單元55進行通訊與資料傳輸,可無線接收該顎位訊號、該舌距訊號與該氣流訊號,並可透過訊號線(圖未示)之有線通訊方式與該影像擷取裝置4訊號連接,可接收該唇形訊號。實施時,該第二通訊單元61與該影像擷取裝置4間也可採用無線通訊方式傳輸資料。
該啟動單元62具有一個嵌裝外露於其中一個安裝部32表面之啟動開關621,且會於該啟動開關621被操作啟動時,經由該第二通訊單元61無線發送一個啟動訊號至該第一通訊單元55,並經由該訊號線傳送該啟動訊號至該影像擷取裝置4。
該話語辨識單元63包括一個語音資料庫631、 一個唇形分析模組632、一個顎位分析模組633、一個舌距分析模組634、一個氣流分析模組635一個參數彙整模組636、一個語音合成模組637,及一個字詞比對模組638。
該語音資料庫631內建有多個語音資料、多個分別與該等語音資料對應之語音參數組,及多個分別與特定語音資料之組合對應的字詞資料。在本實施例中,該等語音資料分別為某個字詞的一個音節的語音,可用以作為語音合成時的合成元素,並可被輸出以供聆聽。該等字詞資料是分別為單一個文字,或者是多個文字所構成的詞句。
該等語音參數組分別為該位吶語症患者900針對該等語音資料進行發音時,該影像擷取裝置4與該口腔參數擷取裝置5分別測得之唇形變化模式、該載具51被舌部905觸抵之觸抵變化模式、該舌部905與該載具51間的舌距變化模式,及口腔903內氣流的氣流變化模式,每一個語音參數組包括一個唇形參數、一個顎位參數、一個舌距參數與一個氣流參數。
該唇形分析模組632內建有多個分別對應不同唇部變化模式之唇形參數,並可分析該唇形訊號所代表之唇形變化模式,而比對出對應的唇形參數。該顎位分析模組633內建有多個分別對應不同之觸抵變化模式的顎位參數,且可分析該顎位訊號所代表之觸抵變化模式而比對出對應的顎位參數。該舌距分析模組634內建有多個分別對應不同舌距變化模式的舌距參數,並可分析該舌距訊號所代表之舌距變化模式而比對出對應的舌距參數。該氣流分 析模組635內建有多個分別對應不同氣流變化模式的氣流參數,並可分析該氣流訊號所代表之氣流變化模式而比對出對應之氣流參數。該參數彙整模組636可接收彙整該唇形參數、該顎位參數、該舌距參數與該氣流參數,而得到一個語音參數組或多個連續的語音參數組。
該語音合成模組637可根據該參數彙整模組636所得到之所有語音參數組,分別比對分析該語音資料庫631中是否存在對應之語音參數組,若有,則會進一步根據每一個對應之語音參數組比對出對應的語音資料,並透過語音合成方法將多個語音資料合成為一個字詞的合成語音,然後驅使該輸出裝置7輸出該語音資料或該合成語音,且會將所得到之所有語音參數組、對應之語音資料與對應合成的合成語音綁定儲存於該記憶體單元65;若未比對出對應的語音參數組,則驅使該輸出裝置7輸出一個提示訊息。
本實施例所述之語音合成方法是將上述語音資料當作一個音節或半音節的方式,將多個語音資料組合構成一個字詞,但實施時,也可以其它語音合成方法取代,例如共振峰合成法、串接合成法、Diphone合成法、Domain-specific合成法與正弦波合成法等,皆可用以將該等語音資料合成以構成合成語音,由於語音合成為現有技術,且類型眾多,因此不再詳述。
該字詞比對模組638可根據該語音合成模組637合成一個合成語音時所使用之語音資料的組合,自該語 音資料庫631中比對出與該合成語音所採用之語音資料組合對應的字詞資料,並將該字詞資料與該合成語音綁定儲存於該記憶體單元65中,且會透過該第二通訊單元61無線發送該字詞資料至該輸出裝置7。
該字詞比對模組638內建有語意分析功能,可透過分析先後比對出之字詞資料的組合的語意,找出最可能之字詞資料組合,可藉此提高比對出之字詞資料的準確度。但因為根據語意分析進行字詞資料的選字為習知技術且方式眾多,因此不再詳述,且實施時,該字詞比對模組638並不以具備語意分析之選字功能為限。
該傳輸端子64為micro USB介面,可供一條傳輸線(圖未示)電連接插裝,而與一個電子裝置(圖未示)訊號連接,例如連接於平板電腦、智慧型手機、筆記型電腦或者桌上型電腦等,可供該電子裝置讀取該記憶體單元65所儲存之語音參數組、語音資料、合成語音與字詞資料,或者是將資料寫入該語音資料庫631,或者是設定其它單元或模組之功能參數等,但實施時,該傳輸端子64之介面型式與功能都不以此為限,也可設計成兼具有輸入直流電源以進行充電之功能。
該輸出裝置7包括一個安裝固定於該延伸桿部33末端的聲音輸出模組71,及一個可供該吶語症患者拿持且可顯示影像之顯示模組72。該聲音輸出模組71是經由一條設置於該延伸桿部33的訊號線(圖未示)而訊號連接於該話語辨識裝置6,可被該話語辨識裝置6驅動而擴音輸出 該語音資料與該合成語音。
該顯示模組72具有一個可與該第二通訊單元61無線通訊之第三通訊單元721,可經由該第三通訊單元721接收該話語辨識裝置6傳送之字詞資料,並顯示出所接收之每一個字詞資料,以供講話對象觀看。由於該第三通訊單元721與該第二通訊單元61間之無線通訊方式類型眾多,因此不再詳述,且實施時,兩者間亦可改為有線通訊技術進行資料傳輸。
在本實施例中,該顯示模組72可以是單純的顯示器,例如液晶面板,也可以是行動電話、平板電腦、筆記型電腦、桌上型電腦或電視等電子設備的顯示面板,但實施時不以上述類型為限。
本發明話語辨識系統供吶語症患者900使用時,可先將該配戴件3配戴於該吶語症患者900的頭部901,使該影像擷取裝置4可擷取其嘴唇902影像,並將該載具51安裝於該吶語症患者900之口腔903內,也就是將該口腔參數擷取裝置5安裝固定於該吶語症患者900之口腔903內,便完成系統架設。
正式使用前,可於該語音資料庫631中內建多個日常生活中經常會使用之字詞的字詞資料、多個用以合成該等字詞資料的語音資料,也就是建立該等字詞資料對應之字詞的各個音節的語音資料,並請該位吶語症患者900逐一說出該等語音資料,同時透過該影像擷取裝置4擷取講話過程中的唇形變化模式,並透過該口腔參數擷取裝置5 感測舌部905觸抵該載具51之觸抵變化模式、該舌部905相對於該載具51之舌距變化模式,及感測口腔903內之氣流變化模式,然後建立該吶語症患者900講出每一個語音資料時的語音參數組,並將該語音資料與其對應之該語音參數組綁定,且儲存於該語音資料庫631中。
在建立該吶語症患者900之針對特定語音資料進行發音的語音參數組後,該位吶語症患者900便可透過本發明話語辨識系統與他人溝通。當吶語症患者900要講話時,可操作該啟動單元62之該啟動開關621,藉以透過該第二通訊單元61無線發送該啟動訊號以遙控該口腔參數擷取裝置5致能,並同時經由訊號線傳送該啟動訊號以控制該影像擷取裝置4致能,接著,該吶語症患者900便可開始講話,並於講話結束時,關閉該啟動開關621,使該口腔參數擷取裝置5與該影像擷取裝置4分別停止擷取感測訊號與影像。
在該位吶語症患者900講話過程中,該影像擷取裝置4會擷取該位吶語症患者900之嘴唇902形狀的變化模式,並對應輸出一個唇形訊號,該口腔參數擷取裝置5會感測該吶語症患者900之舌部905的運動與口腔內氣流變化,而對應發出該顎位訊號、該舌距訊號,及該氣流訊號。
該話語辨識裝置6會接收分析該唇形訊號、該顎位訊號、該舌距訊號與該氣流訊號,以比對出對應之唇形參數、顎位參數、舌距參數與氣流參數,並進一步將該 等參數彙整成一個或多個連續的語音參數組,然後分析該語音資料庫631中是否存在對應之語音參數組,若有,則比對出所有語音參數組對應之語音資料,並進一步經由語音合成方法,將一個或多個語音資料合成為代表一個字詞的合成語音,若僅比對出一個語音資料,則該合成語音即為該語音資料,該話語辨識裝置6會經由該聲音輸出模組71擴音輸出該語音資料或該合成語音。於此同時,該話語辨識裝置6還會根據合成每一個合成語音所使用之語音資料的組合,比對出與每一個合成語音對應之最可能字詞資料,並將該等字詞資料傳送至該顯示模組72顯示出,以供講話對象觀看。
若該語音資料庫631沒有對應的語音參數組,則該話語辨識裝置6會驅使該聲音輸出模組71及/或該顯示模組72發出該提示訊息,藉以提醒該吶語症患者900,該吶語症患者900可重新講述所要講的字詞,以供該話語辨識裝置6重新進行分析辨識,以及進行語音合成與字詞資料的比對。藉此方式,周圍的人便可清楚知道該吶語症患者900所要說的話語,將有助於該位吶語症患者900與他人的溝通。
在本實施例中,該聲音輸出模組71是直接設置於該配戴件3之該延伸桿部33,而位於該吶語症患者900嘴前,使該聲音輸出模組71輸出之語音資料與合成語音可以類似由嘴巴部位自然發出,但實施時,該聲音輸出模組71設置於該配戴件3的部位可根據需要調整,且不以設置 於該配戴件3為必要,可將該聲音輸出模組71直接整合於該顯示模組72,也就是使整個輸出裝置7合為一體,並使該話語辨識裝置6透過有線及/或無線通訊方式,將比對出之語音資料、字詞資料與合成語音一併傳送至該輸出裝置7輸出。
必須說明的是,實施時,該顯示模組72與該聲音輸出模組71可設計成能夠供該吶語症患者依據需求個別啟動之型式,例如僅啟動該顯示模組72,而僅透過影像型式輸出字詞資料以進行溝通。且實施時,該輸出裝置7可僅設置該聲音輸出模組71或該顯示模組72,不以兩者都設置為必要。
此外,在本實施例中,是透過該語音合成模組637合成語音時所採用之語音資料的組合來比對出對應的字詞資料,但實施時,在完成語音合成後,再進一步比對出相同文義之對應字詞資料的技術眾多,且非本發明之創作重點,因此不再詳述,且實施時不以上述實施態樣為限。
再者,本實施例於該口腔參數擷取裝置5設置該氣流感測單元54以提供該氣流參數之目的,是要用以感測該吶語症患者900所講的字詞是否含有氣音成分,以及根據氣流參數變化判斷講話之語氣輕重,有助於更準確辨識該吶語症患者的話語,並可用以調變合成語音的聲音大小,但實施時,該口腔參數擷取裝置5不以設置該氣流感測單元54為必要。
如圖3、6所示,本發明話語辨識系統之第二實施例與該第一實施例差異處在於:第二實施例未設置該配戴件,以及該影像擷取裝置4、該話語辨識裝置6與該輸出裝置7之結構型式。為方便說明,以下將僅針對本實施例與該第一實施例差異處進行描述。
在本實施例中,是將該影像擷取裝置4、該話語辨識裝置6,以及該輸出裝置7整合在一起,藉以構成一台電子設備800型式,例如筆記型電腦、平板電腦或智慧型手機等類型,其中,該影像擷取裝置4、該顯示模組72與該聲音輸出模組71會設置於該電子設備800前方,以便擷取影像,以及顯示字詞資料和輸出聲音,此外,還可將該第二通訊單元61設計成能夠透過行動通訊網路、區域無線網路及/或網際網路而與其他通訊設備進行通訊與資料傳輸。該口腔參數擷取裝置5可透過有線及/或無線通訊技術與該電子設備800訊號連接。
藉此設計,吶語症患者900不需再於頭上配戴該第一實施例之該配戴件,僅需將該口腔參數擷取裝置5安裝於口腔903中,並將該電子設備800擺放於其前方,可方便該吶語症患者900直接朝該電子設備800進行說話,該話語辨識裝置6會接收分析該唇形訊號、該顎位訊號、該舌距訊號與該氣流訊號,以比對出對應之語音參數組和語音資料,並進一步合成語音與比對出對應之字詞資料,可經由該輸出裝置7輸出合成語音與子詞資料,且實施時,也可設計成由該電子設備800直接將合成語音及/或字 詞資料輸入一個用以和另外一個通訊設備進行對話的通訊介面中,而可方便吶語症患者900經由該電子設備800以社群軟體來和他人對話互動,相當方便實用。
此外,必須說明的是,當本發明話語辨識系統是將該影像擷取裝置4、該話語辨識裝置6與該輸出裝置7整合成一台電子設備800時,於實施時,該話語辨識裝置6之該話語辨識單元63可採用程式軟體的方式,例如APP型式,另外安裝於一個具有該影像擷取裝置4、該輸出裝置7、第二通訊單元61、該記憶體單元65與該傳輸端子64的設備中,藉以構成本案之該電子設備800,例如將該話語辨識單元63以軟體程式型式下載安裝於一個行動裝置或電腦等設備,藉以構成該電子設備800。
如圖7、8所示,本發明話語辨識系統之第三實施例與該第一實施例差異處在於:該口腔參數擷取裝置5與該話語辨識裝置6間之訊號連接方式。
在本實施例中,該第一通訊單元55是一條延伸出該載具51外並用以插裝於其中一個安裝部32的傳輸線,並可與該話語辨識裝置6之該第二通訊單元61訊號連接,藉由有線通訊方式進行通訊與資料傳輸。此外,該口腔參數擷取裝置5之該顎位訊號處理器522與該舌距訊號處理器532是安裝設置於該配戴件3中,該第一通訊單元55可直接將該等壓力感測訊號與該等偵測訊號分別傳送至位在該配戴件3中之該顎位訊號處理器522與該舌距訊號處理器532進行處理。
藉由該口腔參數擷取裝置5與該話語辨識裝置6間之有線訊號連接設計,以及將該顎位訊號處理器522與該舌距訊號處理器532設置在該配戴件3中的設計,可更進一步精簡設置於該載具51中之電子元件數量,使該載具51更輕薄。但是實施時,該顎位訊號處理器522與該舌距訊號處理器532也可保持設置在該載具51中的態樣。
綜上所述,透過本發明話語辨識系統之設計,可預先感測記錄該吶語症患者900講述用以合成語音之特定語音資料時的唇形參數、顎位參數、舌距參數與氣流參數,以建立各個語音資料之語音參數組,以及建立不同語音資料之組合所構成的字詞資料,便完成專屬該位吶語症患者900的語音資料庫631的建立,也就是說,每一位吶語症患者900可於其使用之該話語辨識系統中建立專屬的語音資料庫631,然後,該吶語症患者900便可透過本系統與他人溝通。在講話過程中,該話語辨識系統會自動比對分析出對應之語音資料,並透過語音合成方式將比對出之語音資料合成為一個字詞的合成語音,並由合成語音過程所採用之語音資料的組合,進一步比對出對應的字詞資料,再經由該輸出裝置7輸出該合成語音與字詞資料,讓講話對象可清楚瞭解其說話內容。因此,本發明話語辨識系統將有助於吶語症患者900與他人之溝通互動,可大幅提高吶語症患者900之生活品質,是一種創新的話語辨識技術。因此,確實可達到本發明之目的。
惟以上所述者,僅為本發明之實施例而已,當 不能以此限定本發明實施之範圍,即大凡依本發明申請專利範圍及專利說明書內容所作之簡單的等效變化與修飾,皆仍屬本發明專利涵蓋之範圍內。
3‧‧‧配戴件
31‧‧‧配戴部
32‧‧‧安裝部
33‧‧‧延伸桿部
4‧‧‧影像擷取裝置
5‧‧‧口腔參數擷取裝置
51‧‧‧載具
62‧‧‧啟動單元
621‧‧‧啟動開關
64‧‧‧傳輸端子
7‧‧‧輸出裝置
71‧‧‧聲音輸出模組
72‧‧‧顯示模組

Claims (15)

  1. 一種話語辨識系統,適用於安裝在一位吶語症患者身上,並包含:一個影像擷取裝置,可擷取該吶語症患者之嘴唇影像,而對應輸出一個唇形訊號;一個口腔參數擷取裝置,包括一個用以安裝在該吶語症患者口腔內而位於其舌部上方之載具,及分別安裝於該載具之一個顎位感測單元與一個舌距感測單元,該顎位感測單元與該舌距感測單元可於該吶語症患者講話時,分別感測該舌部觸抵該載具之觸抵變化模式,而對應輸出一個顎位訊號,以及感測該舌部與該載具之間距的舌距變化模式,而對應輸出一個舌距訊號;一個話語辨識裝置,訊號連接於該影像擷取裝置與該口腔參數擷取裝置,包括一個可接收分析該唇形訊號、該舌距訊號與該顎位訊號而對應產生一個語音參數組的話語辨識單元;及一個輸出裝置,訊號連接於該話語辨識裝置,並可輸出該話語辨識裝置產生之該語音參數組。
  2. 如請求項1所述的話語辨識系統,其中,該話語辨識單元包括一個唇形分析模組、一個顎位分析模組、一個舌距分析模組,及一個參數彙整模組,該唇形分析模組內建有多個分別對應不同唇形變化模式之唇形參數,並可分析該唇形訊號所代表之唇形變化模式而比對出對應的唇形參數,該顎位分析模組內建有多個分別對應不同 之觸抵變化模式的顎位參數,且可分析該顎位訊號所代表之觸抵變化模式而比對出對應的顎位參數,該舌距分析模組內建有多個分別對應不同舌距變化模式的舌距參數,並可分析該舌距訊號所代表之舌距變化模式而比對出對應的舌距參數,該參數彙整模組可彙整該唇形參數、該顎位參數與該舌距參數而得出該語音參數組。
  3. 如請求項2所述的話語辨識系統,其中,該顎位感測單元包括多個間隔安裝於該載具且可分別被該舌部觸抵而對應輸出一個壓力訊號的壓力感測器,及一個可彙整該等壓力感測器之壓力訊號而對應輸出該顎位訊號的顎位訊號處理器。
  4. 如請求項2所述的話語辨識系統,其中,該舌距感測單元包括多個間隔安裝於該載具底面並可分別感測其與該舌部之間距而輸出一個距離訊號的距離感測器,及一個可彙整該等距離感測器之距離訊號而對應輸出該舌距訊號的舌距訊號處理器。
  5. 如請求項2所述的話語辨識系統,其中,該口腔參數擷取裝置還包括一個安裝於該載具且位於該吶語症患者之口腔內的氣流感測單元,該氣流感測單元可感測該吶語症患者講話時於該口腔內所產生之氣流變化模式,而對應輸出一個氣流訊號,該話語辨識裝置還可接收該氣流訊號,且該話語辨識單元還包括一個氣流分析模組,該氣流分析模組內建有多個分別對應不同氣流變化模式的氣流參數,並可分析該氣流訊號所代表之氣流變化 模式而比對出對應之氣流參數,該參數彙整模組是彙整該唇形參數、該顎位參數、該舌距參數與該氣流參數而產生該語音參數組。
  6. 如請求項5所述的話語辨識系統,其中,該口腔參數擷取裝置還包括一個可與該話語辨識裝置進行通訊與資料傳輸之第一通訊單元,該話語辨識裝置還包括一個可與該第一通訊單元訊號連接以進行通訊與資料傳輸的第二通訊單元,且該第一通訊單元與該第二通訊單元間可採用有線及/或無線通訊技術進行訊號連接。
  7. 如請求項6所述的話語辨識系統,其中,該話語辨識裝置還包括一個啟動單元,該啟動單元可被操作啟動而經由該第二通訊單元發送一個啟動訊號至該第一通訊單元,並同時將該啟動訊號傳送至該影像擷取裝置,該顎位感測單元、該舌距感測單元、該氣流感測單元與該影像擷取裝置會被該啟動訊號觸發致能,而分別感測輸出該顎位訊號、該舌距訊號、該氣流訊號與該唇形訊號。
  8. 如請求項1、2或5所述的話語辨識系統,其中,該話語辨識單元還包括一個語音資料庫,及一個語音合成模組,該語音資料庫內建有多個語音資料,及多個分別與該等語音資料綁定之語音參數組,該語音合成模組可根據該參數彙整模組輸出之該語音參數組,自該語音資料庫中比對出對應的語音資料,並將比對出之一個或多個語音資料合成產生一個合成語音,且驅使該輸出裝置輸出該合成語音。
  9. 如請求項8所述的話語辨識系統,其中,該話語辨識單元還包括一個字詞比對模組,該語音資料庫還儲存有多個分別與特定之語音資料的組合對應的字詞資料,該字詞比對模組可根據該語音合成模組合成該合成語音所使用之語音資料的組合,自該語音資料庫中比對出對應的字詞資料,並驅使該輸出裝置輸出該字詞資料。
  10. 如請求項9所述的話語辨識系統,其中,該輸出裝置包括一個可輸出該字詞資料的顯示模組,及一個可輸出語音資料與該合成語音之聲音輸出模組,該顯示模組與該聲音輸出模組是分別透過有線及/或無線通訊技術與該話語辨識裝置訊號連接。
  11. 如請求項10所述的話語辨識系統,還包含一個安裝於該吶語症患者並供該影像擷取裝置與該話語辨識裝置架設之配戴件,該配戴件包括一個可供配戴於該吶語症患者之配戴部,及一個自該配戴部往外延伸至該吶語症患者臉部前側之延伸桿部,該影像擷取裝置與該聲音輸出模組是安裝於該延伸桿部。
  12. 一種話語辨識單元,適用於程式化建構在一個電子設備,並可分析一個口腔參數擷取裝置輸出之顎位訊號與舌距訊號,及一個影像擷取裝置輸出之唇形訊號,該話語辨識單元包含:一個唇形分析模組,內建有多個分別對應不同唇形變化模式之唇形參數,並可分析該唇形訊號所代表之唇形變化模式而比對出對應的唇形參數; 一個顎位分析模組,內建有多個分別對應不同之觸抵變化模式的顎位參數,且可分析該顎位訊號所代表之觸抵變化模式而比對出對應的顎位參數;一個舌距分析模組,內建有多個分別對應不同舌距變化模式的舌距參數,並可分析該舌距訊號所代表之舌距變化模式而比對出對應的舌距參數;及一個參數彙整模組,可彙整該唇形參數、該顎位參數與該舌距參數而產生一個語音參數組。
  13. 如請求項12所述之話語辨識單元,該口腔參數擷取裝置還會輸出一個氣流訊號,該話語辨識單元還包含一個氣流分析模組,該氣流分析模組內建有多個分別對應不同氣流變化模式的氣流參數,並可分析該氣流訊號所代表之氣流變化模式而比對出對應之氣流參數,該參數彙整模組是彙整該唇形參數、該顎位參數、該舌距參數與該氣流參數而產生該語音參數組。
  14. 如請求項12或13所述之話語辨識單元,還包含一個語音資料庫,及一個語音合成模組,該語音資料庫內建有多個語音資料,及多個分別與該等語音資料綁定之語音參數組,該語音合成模組可根據該參數彙整模組輸出之該語音參數組,自該語音資料庫中比對出對應的語音資料,並將比對出之語音資料合成產生一個合成語音。
  15. 如請求項14所述之話語辨識單元,還包含一個字詞比對模組,該語音資料庫還儲存有多個分別與特定之語音資料的組合對應的字詞資料,該字詞比對模組可根據該 語音合成模組合成該合成語音所使用之語音資料的組合,自該語音資料庫中比對出對應的字詞資料。
TW104109414A 2014-07-28 2015-03-24 Discourse Recognition System and Unit TWI576826B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
TW104109414A TWI576826B (zh) 2014-07-28 2015-03-24 Discourse Recognition System and Unit
CN201510277768.8A CN105321519B (zh) 2014-07-28 2015-05-27 话语辨识系统与单元
JP2015146577A JP2016031534A (ja) 2014-07-28 2015-07-24 発話認識システム、発話認識装置、および発話認識方法
EP15178370.1A EP2980788A1 (en) 2014-07-28 2015-07-24 Speech recognition device, speech recognition system and method for speech recognition
US14/809,739 US9424842B2 (en) 2014-07-28 2015-07-27 Speech recognition system including an image capturing device and oral cavity tongue detecting device, speech recognition device, and method for speech recognition
JP2017197027A JP6484317B2 (ja) 2014-07-28 2017-10-10 発話認識システム、発話認識装置、および発話認識方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW103125713 2014-07-28
TW104109414A TWI576826B (zh) 2014-07-28 2015-03-24 Discourse Recognition System and Unit

Publications (2)

Publication Number Publication Date
TW201604864A TW201604864A (zh) 2016-02-01
TWI576826B true TWI576826B (zh) 2017-04-01

Family

ID=53724088

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104109414A TWI576826B (zh) 2014-07-28 2015-03-24 Discourse Recognition System and Unit

Country Status (5)

Country Link
US (1) US9424842B2 (zh)
EP (1) EP2980788A1 (zh)
JP (2) JP2016031534A (zh)
CN (1) CN105321519B (zh)
TW (1) TWI576826B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201416311D0 (en) * 2014-09-16 2014-10-29 Univ Hull Method and Apparatus for Producing Output Indicative of the Content of Speech or Mouthed Speech from Movement of Speech Articulators
GB201416303D0 (en) * 2014-09-16 2014-10-29 Univ Hull Speech synthesis
US10542929B2 (en) * 2016-02-23 2020-01-28 Dustin Ryan Kimmel Determining conditions based on intraoral sensing
CN105551327A (zh) * 2016-03-07 2016-05-04 浙江理工大学 一种基于柔性电子皮肤的互动式发音矫正系统及方法
JP6813176B2 (ja) * 2016-10-17 2021-01-13 イノベーション・ラボラトリ株式会社 音声抑制システム及び音声抑制装置
KR20180115601A (ko) * 2017-04-13 2018-10-23 인하대학교 산학협력단 영상 객체의 발화 및 표정 구현을 위한 조음기관 물리 특성 기반의 발화-표정 데이터 맵핑 시스템
WO2018190668A1 (ko) * 2017-04-13 2018-10-18 인하대학교 산학협력단 두경부 조음기관의 물리 특성을 이용한 발화 의도 표현 시스템
CN107274736B (zh) * 2017-08-14 2019-03-12 牡丹江师范学院 一种校园互动式英语口语语音教学装置
KR102364032B1 (ko) * 2017-09-28 2022-02-17 인하대학교 산학협력단 조음기관의 물리 특성과 음성 및 문자 간 매칭을 통한 발화 의도 측정 및 발화 구현 시스템
US10529355B2 (en) * 2017-12-19 2020-01-07 International Business Machines Corporation Production of speech based on whispered speech and silent speech
NL2021041B1 (nl) * 2018-01-31 2019-08-07 Iebm B V Spraakherkenning met beeld signaal
CN108538283B (zh) * 2018-03-15 2020-06-26 上海电力学院 一种由唇部图像特征到语音编码参数的转换方法
CN108648745B (zh) * 2018-03-15 2020-09-01 上海电力学院 一种由唇部图像序列到语音编码参数的转换方法
KR102071421B1 (ko) * 2018-05-31 2020-01-30 인하대학교 산학협력단 청음 향상을 위한 두경부 물리 특성 기반 복합시스템
US11373653B2 (en) * 2019-01-19 2022-06-28 Joseph Alan Epstein Portable speech recognition and assistance using non-audio or distorted-audio techniques
TWI725668B (zh) * 2019-12-16 2021-04-21 陳筱涵 注意力集中輔助系統
CN111986674B (zh) * 2020-08-13 2021-04-09 广州仿真机器人有限公司 基于三级特征采集的智能语音识别方法
KR102426792B1 (ko) 2020-09-16 2022-07-29 한양대학교 산학협력단 무음 발화 인식 방법 및 장치
US11908478B2 (en) 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone
AU2022323822A1 (en) * 2021-08-04 2024-02-08 Q (Cue) Ltd. Detection of silent speech
CN115294838A (zh) * 2022-02-14 2022-11-04 浙江理工大学 一种基于唇语识别的聋儿发音训练方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4223411A (en) * 1978-08-07 1980-09-23 Massachusetts Institute Of Technology Internal laryngeal prosthesis
WO2012087345A1 (en) * 2010-12-03 2012-06-28 Forbes Rehab Services, Inc. Audio output module for use in artificial voice systems
WO2013013319A1 (en) * 2011-07-25 2013-01-31 Rudzicz Frank System and method for acoustic transformation

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2814551C2 (de) * 1978-04-04 1986-03-13 Siemens AG, 1000 Berlin und 8000 München Vorrichtung zur Messung des Ortes, der Lage und/oder der Orts- bzw. Lageänderung eines starren Körpers im Raum
JPS55125845A (en) * 1979-03-22 1980-09-29 Rion Co Method of measuring breathing current
DK155420C (da) * 1979-05-10 1989-10-09 Rion Co Kunstig gane
JPS55149970A (en) * 1979-05-12 1980-11-21 Rion Co Artificial mouth for electroparatography
JPS58150997A (ja) * 1982-03-03 1983-09-07 工業技術院長 発音特徴抽出装置
JPH01259414A (ja) * 1988-04-06 1989-10-17 Res Triangle Inst 視聴覚発話認識装置
US5523745A (en) * 1988-12-16 1996-06-04 Zofcom Systems, Inc. Tongue activated communications controller
JP2985976B2 (ja) * 1991-02-12 1999-12-06 日本電信電話株式会社 舌動作検出型音節認識装置
DE4212907A1 (de) * 1992-04-05 1993-10-07 Drescher Ruediger Spracherkennungsverfahren für Datenverarbeitungssysteme u.s.w.
DE69616623T2 (de) * 1995-03-31 2002-08-01 International Business Machines Corp., Armonk Intraorales Kommunkationssystem
JP3894691B2 (ja) * 1999-10-18 2007-03-22 株式会社国際電気通信基礎技術研究所 口蓋プレートを用いたデータ入力装置
WO2002077972A1 (en) * 2001-03-27 2002-10-03 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
JP3908965B2 (ja) * 2002-02-28 2007-04-25 株式会社エヌ・ティ・ティ・ドコモ 音声認識装置及び音声認識方法
JP2003255993A (ja) * 2002-03-04 2003-09-10 Ntt Docomo Inc 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム
US7071844B1 (en) * 2002-09-12 2006-07-04 Aurelian Phillip Moise Mouth mounted input device
US20040243416A1 (en) * 2003-06-02 2004-12-02 Gardos Thomas R. Speech recognition
US20050071166A1 (en) * 2003-09-29 2005-03-31 International Business Machines Corporation Apparatus for the collection of data for performing automatic speech recognition
CN1556496A (zh) * 2003-12-31 2004-12-22 天津大学 唇形识别发声器
GB2422238A (en) * 2005-01-17 2006-07-19 Univ Hull Generation of data from speech or voiceless mouthed speech
JP2007111335A (ja) * 2005-10-21 2007-05-10 Yamaha Corp 口腔センサ及び音素判定装置
US8044766B2 (en) * 2005-10-31 2011-10-25 North Carolina State University Tongue operated magnetic sensor based wireless assistive technology
WO2007098577A1 (en) * 2006-02-28 2007-09-07 Saringer Research Inc. Training device and method to suppress sounds caused by sleep and breathing disorders
EP2027572B1 (en) * 2006-05-22 2009-10-21 Philips Intellectual Property & Standards GmbH System and method of training a dysarthric speaker
US7890193B2 (en) * 2007-08-15 2011-02-15 Tingey Terrell F Oral device
WO2010004397A1 (en) * 2008-07-11 2010-01-14 University Of Witwatersrand, Johannesburg An artificial larynx
WO2010070552A1 (en) * 2008-12-16 2010-06-24 Koninklijke Philips Electronics N.V. Speech signal processing
EP2575699A1 (en) * 2010-05-25 2013-04-10 Tks A/S A tongue sensor
US20110311144A1 (en) * 2010-06-17 2011-12-22 Microsoft Corporation Rgb/depth camera for improving speech recognition
US20130090931A1 (en) * 2011-07-05 2013-04-11 Georgia Tech Research Corporation Multimodal communication system
US9911358B2 (en) * 2013-05-20 2018-03-06 Georgia Tech Research Corporation Wireless real-time tongue tracking for speech impairment diagnosis, speech therapy with audiovisual biofeedback, and silent speech interfaces
CN103705218B (zh) * 2013-12-20 2015-11-18 中国科学院深圳先进技术研究院 构音障碍识别的方法、系统和装置
CN103699227A (zh) * 2013-12-25 2014-04-02 邵剑锋 一种新的人机交互系统
CN103943107B (zh) * 2014-04-03 2017-04-05 北京大学深圳研究生院 一种基于决策层融合的音视频关键词识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4223411A (en) * 1978-08-07 1980-09-23 Massachusetts Institute Of Technology Internal laryngeal prosthesis
WO2012087345A1 (en) * 2010-12-03 2012-06-28 Forbes Rehab Services, Inc. Audio output module for use in artificial voice systems
WO2013013319A1 (en) * 2011-07-25 2013-01-31 Rudzicz Frank System and method for acoustic transformation

Also Published As

Publication number Publication date
JP6484317B2 (ja) 2019-03-13
US20160027441A1 (en) 2016-01-28
JP2018028681A (ja) 2018-02-22
CN105321519A (zh) 2016-02-10
EP2980788A1 (en) 2016-02-03
US9424842B2 (en) 2016-08-23
TW201604864A (zh) 2016-02-01
CN105321519B (zh) 2019-05-14
JP2016031534A (ja) 2016-03-07

Similar Documents

Publication Publication Date Title
TWI576826B (zh) Discourse Recognition System and Unit
US20190272810A1 (en) Smart detecting and feedback system for smart piano
US20180182396A1 (en) Multi-speaker speech recognition correction system
CN108133709B (zh) 语音识别装置和语音识别方法
EP2562746A1 (en) Apparatus and method for recognizing voice by using lip image
US10409324B2 (en) Glass-type terminal and method of controlling the same
JP2007334149A (ja) 聴覚障害者用ヘッドマウントディスプレイ装置
US10275021B2 (en) Display apparatus of front-of-the-eye mounted type
KR20150076128A (ko) 3차원 멀티미디어 활용 발음 학습 지원 시스템 및 그 시스템의 발음 학습 지원 방법
Freitas et al. An introduction to silent speech interfaces
CN110992927A (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP2012230534A (ja) 電子機器および電子機器の制御プログラム
JP6775218B2 (ja) 嚥下情報提示装置
JP5929811B2 (ja) 画像表示装置および画像表示プログラム
KR20180017905A (ko) 발음 교정 장치 및 발음 데이터 수집 장치
KR102360665B1 (ko) 다중마이크로폰을 이용한 비성도 분석 시스템 및 방법
JP6894081B2 (ja) 語学学習装置
JP2017062347A (ja) データ処理装置及びプログラム
JP2019087798A (ja) 音声入力装置
JP4517838B2 (ja) 音声処理装置
GB2547909A (en) System for computer-assisted communication and/or computer-assisted human analysis
US20240119684A1 (en) Display control apparatus, display control method, and program
KR101757426B1 (ko) 음성 녹음 기능을 구비한 헤어웨어, 그리고 이를 이용한 사용자 언어 및 감정 인식 시스템
CN117174086A (zh) 一种语音处理方法及装置