JP2016031534A - 発話認識システム、発話認識装置、および発話認識方法 - Google Patents
発話認識システム、発話認識装置、および発話認識方法 Download PDFInfo
- Publication number
- JP2016031534A JP2016031534A JP2015146577A JP2015146577A JP2016031534A JP 2016031534 A JP2016031534 A JP 2016031534A JP 2015146577 A JP2015146577 A JP 2015146577A JP 2015146577 A JP2015146577 A JP 2015146577A JP 2016031534 A JP2016031534 A JP 2016031534A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- subject
- signal
- distance
- tongue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000088 Lip Anatomy 0.000 claims abstract description 64
- 238000000034 method Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 79
- 238000004458 analytical method Methods 0.000 claims description 36
- 230000000875 corresponding Effects 0.000 claims description 30
- 210000003254 Palate Anatomy 0.000 claims description 28
- 210000000214 Mouth Anatomy 0.000 claims description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 13
- 238000003786 synthesis reaction Methods 0.000 claims description 13
- 230000002194 synthesizing Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 3
- 238000005206 flow analysis Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 206010013887 Dysarthria Diseases 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000000056 organs Anatomy 0.000 description 3
- 210000003128 Head Anatomy 0.000 description 2
- 201000001448 articulation disease Diseases 0.000 description 2
- 210000003205 Muscles Anatomy 0.000 description 1
- 230000001070 adhesive Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 230000004768 organ dysfunction Effects 0.000 description 1
- 230000000241 respiratory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Abstract
Description
本出願は、2014年7月28日に出願された台湾特許出願第103125713号と、2015年3月24日に出願された台湾特許出願第104109414号との優先権を主張する。
前記距離分析モジュールは、前記距離検知ユニットと前記対象者の舌との距離の異なる変化パターンにそれぞれ関連付けられている複数の舌パラメータを保存している。前記距離分析モジュールは、前記距離信号を解析して発話中にいずれの距離変化パターンが発生したかを判断し、その距離変化パターンに関連付けられている、対応の一つの前記舌パラメータを取得できるようにプログラムされている。
前記画像取得装置によって前記対象者の発話中に前記対象者の唇の画像を継続的に取得するステップと、
前記口腔内検知装置によって前記対象者の舌との接触を検知して、その前記舌との接触に基づいて接触信号を生成するステップと、
前記口腔内検知装置によって前記対象者の発話中に前記対象者の舌との距離を検知して、その前記舌との距離に基づいて距離信号を生成するステップと、
前記発話認識装置によって前記対象者の唇の画像を前記画像取得装置から受信すると共に前記口腔内検知装置から前記接触信号と前記距離信号とを受信するステップと、
前記発話認識装置によって前記唇の画像と前記接触信号と前記距離信号とを処理して前記対象者の発話内容を取得するステップと、を具える。
Claims (19)
- 対象者(900)に用いられる発話認識システム(3)であって、
前記対象者(900)の発話中に前記対象者(900)の唇(902)の画像を継続的に取得する画像取得装置(4)と、
前記対象者(900)の口腔(903)内で前記対象者(900)の口蓋に装着されるように構成された装着座(51)と、前記装着座(51)に配置され、前記対象者(900)の発話中に前記対象者(900)の舌(905)との接触を検知して、その舌(905)との接触に基づいて接触信号を生成するように構成された接触検知ユニット(52)と、前記装着座(51)に配置され、前記対象者(900)の舌(905)との距離を検知して、その舌(905)との距離に基づいて距離信号を生成するように構成された距離検知ユニット(53)と、を含む、口腔内検知装置(5)と、
前記対象者(900)の唇(902)の画像と、前記接触信号と、前記距離信号とをそれぞれ受信するように前記画像取得装置(4)と前記口腔内検知装置(5)に接続されると共に、前記唇(902)の画像と前記接触信号と前記距離信号とを処理して前記対象者(900)の発話内容を取得するようにプログラムされている発話認識装置(6)と、を具える、発話認識システム(3)。 - 前記発話認識装置(6)に接続されて前記発話認識装置(6)から前記発話内容を受信すると共に前記発話内容を出力する出力装置(7)を更に具える、請求項1に記載の発話認識システム(3)。
- 前記発話認識装置(6)は、
前記唇(902)の異なる動作にそれぞれ関連付けられている複数の唇パラメータを保存している上に、前記唇(902)の画像を解析して前記対象者(900)の発話中に前記唇(902)のいずれの動作が生じたかを判断し、その前記唇(902)の動作に関連付けられている、対応の一つの前記唇パラメータを取得するようにプログラムされている唇動作分析モジュール(632)と、
前記舌(905)との異なる接触パターンにそれぞれ関連付けられている複数の口蓋パラメータを保存している上に、前記接触信号を解析して発話中に舌(905)とのいずれの接触パターンが発生したかを判断し、その接触パターンに関連付けられている、対応の一つの前記口蓋パラメータを取得できるようにプログラムされている接触分析モジュール(633)と、
前記距離検知ユニット(53)と前記対象者(900)の舌(905)との距離の異なる変化パターンにそれぞれ関連付けられている複数の舌パラメータを保存している上に、前記距離信号を解析して発話中にいずれの距離変化パターンが発生したかを判断し、その距離変化パターンに関連付けられている、対応の一つの前記舌(905)パラメータを取得できるようにプログラムされている距離分析モジュール(634)と、
前記対応の一つの前記唇パラメータと、前記対応の一つの前記口蓋パラメータと、前記対応の一つの前記舌(905)パラメータとを収集して前記発話内容に対応する発話パラメータセットを生成するようにプログラムされているパラメータ収集モジュール(636)と、を含む、請求項1に記載の発話認識システム(3)。 - 前記接触検知ユニット(52)は、
それぞれ前記舌(905)に接触されると圧力検知信号を出力するように構成された互いに間隔を置いた複数の圧力センサ(521)と、
前記圧力検知信号を処理して前記接触信号を生成するように構成された信号プロセッサ(522)と、を含む、請求項1に記載の発話認識システム(3)。 - 前記距離検知ユニット(53)は、
前記装着座(51)が前記対象者(900)の口蓋に装着された時に前記舌(905)に向かう面である前記装着座(51)の底面に複数が互いに間隔を置いて設けられ、それぞれ前記舌(905)からの距離を検知して距離検知信号を出力するように構成された距離センサ(531)と、
前記距離検知信号を処理して前記距離信号を生成するように構成された信号プロセッサ(532)と、を含む、請求項1に記載の発話認識システム(3)。 - 前記口腔内検知装置(5)は、前記装着座(51)に配置され、前記対象者(900)の口腔(903)内での気流を検知して気流信号を生成する気流検知ユニット(54)を更に含む、請求項3に記載の発話認識システム(3)。
- 前記発話認識装置(6)は、前記対象者(900)の口腔(903)内における気流の異なる変化パターンにそれぞれ関連付けられている複数の気流パラメータを保存している気流解析モジュール(635)を更に含み、前記気流解析モジュール(635)は、
発話中の前記口腔(903)内においていずれの気流変化パターンが発生したかを判断するために気流信号を解析し、
その気流変化パターンに関連付けられている、対応の一つの前記気流パラメータを取得するようにプログラムされていて、
前記パラメータ収集モジュール(636)は、前記対応の一つの前記気流パラメータを更に収集して前記発話パラメータセットを生成する、請求項6に記載の発話認識システム(3)。 - 前記口腔内検知装置(5)と前記発話認識装置(6)とはそれぞれ、前記口腔内検知装置(5)と前記発話認識装置(6)との間で信号を送信し合うための通信ユニット(55、61)を含む、請求項1に記載の発話認識システム(3)。
- 前記口腔内検知装置(5)は、オンに切り替えられたときに、前記画像取得装置(4)と前記口腔内検知装置(5)とを起動させて前記対象者(900)の唇(902)の画像と前記接触信号と前記距離信号とを取得するために前記画像取得装置(4)と前記口腔内検知装置(5)とに起動コマンドを送信するスイッチユニット(62)を含む、請求項1に記載の発話認識システム(3)。
- 前記発話認識装置(6)は、
複数の発話パラメータセットと各前記発話パラメータセットにそれぞれ関連付けられた複数の発音データセットとを保存しているデータベース(631)と、発話合成モジュール(637)とを更に含み、
前記発話合成モジュール(637)は、
前記パラメータ収集モジュール(636)により生成された前記発話パラメータセットと、前記データベース(631)に保存されている各前記発話パラメータセットとを比較し、
前記パラメータ収集モジュール(636)により生成された前記発話パラメータセットと一致する一つの前記発話パラメータセットに関連する一つの前記発音データセットを取得し、
前記一つの前記発音データセットから合成発音信号を生成するようにプログラムされていて、且つ、
前記発話認識システム(3)は、前記発話認識装置(6)に接続されていて前記合成発音信号を受信する上に前記発話内容として前記合成発音信号を出力する出力装置(7)を更に具える、請求項3に記載の発話認識システム(3)。 - 前記データベース(631)は、前記発音データセットの少なくとも一つの特定の組み合わせとそれぞれ関連付けられた複数の単語データセットを更に保存していて、
前記発話認識装置(6)は、単語検索モジュールを更に含み、前記単語検索モジュールは、前記合成発音信号を生成するのに用いられた前記一つの前記発音データセットと関連付けられた一つの前記単語データセットを検索し、前記一つの前記単語データセットを出力するべく前記出力装置(7)に送信するようにプログラムされている、請求項10に記載の発話認識システム(3)。 - 前記出力装置(7)は、前記合成発音信号を出力する音声出力モジュール(71)と、前記一つの前記単語データセットを表示するディスプレイモジュール(72)とを更に含む、請求項11に記載の発話認識システム(3)。
- 前記対象者(900)に装着される主要部と、前記主要部に連結され且つ前記主要部から前方に延伸する延伸部とを含む装身具を更に具え、前記画像取得装置(4)と前記音声出力モジュール(71)とが前記延伸部に配置されている、請求項12に記載の発話認識システム(3)。
- 画像取得装置(4)に接続され、前記画像取得装置(4)から対象者(900)の唇(902)の画像を受信すると共に、口腔内検知装置(5)に接続され、前記対象者(900)の発話中における前記口腔内検知装置(5)の前記対象者(900)の舌(905)との接触に関連する接触信号と、前記口腔内検知装置(5)の前記舌(905)との距離に関連する距離信号とを受信する発話認識装置(6)であって、
前記唇(902)の異なる動作にそれぞれ関連付けられている複数の唇パラメータを保存している上に、前記対象者(900)の発話中に前記唇(902)のいずれの動作が生じたかを判断するために前記唇(902)の画像を解析し、その前記唇(902)の動作に関連付けられている、対応の一つの前記唇パラメータを取得するようにプログラムされている唇動作分析モジュール(632)と、
前記舌(905)との異なる接触パターンにそれぞれ関連付けられている複数の口蓋パラメータを保存している上に、発話中に前記舌(905)とのいずれの接触パターンが発生したかを判断するために前記接触信号を解析し、その接触パターンに関連付けられている、対応の一つの前記口蓋パラメータを取得できるようにプログラムされている接触分析モジュール(633)と、
距離検知ユニット(53)と前記対象者(900)の舌(905)との距離の変化パターンにそれぞれ関連付けられている複数の舌パラメータを保存している上に、発話中にいずれの距離変化パターンが発生したかを判断するために前記距離信号を解析し、その距離変化パターンに関連付けられている、対応の一つの前記舌(905)パラメータを取得できるようにプログラムされている距離分析モジュール(634)と、
前記対応の一つの前記唇パラメータと、前記対応の一つの前記口蓋パラメータと、前記対応の一つの前記舌(905)パラメータとを収集して発話内容に対応する発話パラメータセットを生成するようにプログラムされているパラメータ収集モジュール(636)と、を具える、発話認識装置(6)。 - 前記対象者(900)の口腔(903)内における気流に関連する気流信号を更に受信すると共に、気流解析モジュール(635)を更に具え、
前記気流解析モジュール(635)は、
前記対象者(900)の口腔(903)内における気流の変化パターンにそれぞれ関連付けられている複数の気流パラメータを保存し、
前記気流信号を解析して発話中の前記口腔(903)内においていずれの気流変化パターンが発生したかを判断し、
その気流変化パターンに関連付けられている、対応の一つの気流パラメータを取得するようにプログラムされていて、
前記パラメータ収集モジュール(636)は、前記対応の一つの前記気流パラメータを更に収集して前記発話パラメータセットを生成する、請求項14に記載の発話認識装置(6)。 - 複数の発話パラメータセットと各前記発話パラメータセットにそれぞれ関連付けられた複数の発音データセットとを保存しているデータベース(631)と、発話合成モジュール(637)とを更に具え、
前記発話合成モジュール(637)は、
前記パラメータ収集モジュール(636)により生成された前記発話パラメータセットと、前記データベース(631)に保存されている各前記発話パラメータセットとを比較し、
前記パラメータ収集モジュール(636)により生成された前記発話パラメータセットと一致する一つの前記発話パラメータセットに関連する一つの前記発音データセットを取得し、
前記一つの前記発音データセットから合成発音信号を生成するようにプログラムされていて、且つ、
前記発話認識装置(6)は、前記合成発音信号を受信する上に前記発話内容として前記合成発音信号を出力する出力装置(7)に更に接続されている、請求項14に記載の発話認識装置(6)。 - 前記データベース(631)は、前記発音データセットの少なくとも一つの特定の組み合わせとそれぞれ関連付けられた複数の単語データセットを更に保存しており、
前記合成発音信号を生成するのに用いられた前記一つの前記発音データセットと関連付けられた一つの前記単語データセットを検索し、前記一つの前記単語データセットを出力するべく前記出力装置(7)に送信するようにプログラムされている単語検索モジュールを更に含む、請求項16に記載の発話認識装置(6)。 - 対象者(900)に用いられ、発話認識システム(3)によって実行される発話認識方法であって、前記発話認識システム(3)は、画像取得装置(4)と、前記対象者(900)の口腔(903)内で前記対象者(900)の口蓋に装着される口腔内検知装置(5)と、前記画像取得装置(4)と前記口腔内検知装置(5)とに接続された発話認識装置(6)を含むものであり、
前記画像取得装置(4)によって前記対象者(900)の発話中に前記対象者(900)の唇(902)の画像を継続的に取得するステップと、
前記口腔内検知装置(5)によって前記対象者(900)の舌(905)との接触を検知して、その前記舌(905)との接触に基づいて接触信号を生成するステップと、
前記口腔内検知装置(5)によって前記対象者(900)の発話中に前記対象者(900)の舌(905)との距離を検知して、その前記舌(905)との距離に基づいて距離信号を生成するステップと、
前記発話認識装置(6)によって前記対象者(900)の唇(902)の画像を前記画像取得装置(4)から受信すると共に前記口腔内検知装置(5)から前記接触信号と前記距離信号とを受信するステップと、
前記発話認識装置(6)によって前記唇(902)の画像と前記接触信号と前記距離信号とを処理して前記対象者(900)の発話内容を取得するステップと、を具える、発話認識方法。 - 前記発話認識システム(3)は、前記発話認識装置(6)に接続されている出力装置(7)を更に含むものであって、
前記出力装置(7)によって前記発話認識装置(6)から前記発話内容を受信して前記発話内容を出力するステップを更に具える、請求項18に記載の発話認識方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103125713 | 2014-07-28 | ||
TW103125713 | 2014-07-28 | ||
TW104109414 | 2015-03-24 | ||
TW104109414A TWI576826B (zh) | 2014-07-28 | 2015-03-24 | Discourse Recognition System and Unit |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017197027A Division JP6484317B2 (ja) | 2014-07-28 | 2017-10-10 | 発話認識システム、発話認識装置、および発話認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016031534A true JP2016031534A (ja) | 2016-03-07 |
Family
ID=53724088
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015146577A Pending JP2016031534A (ja) | 2014-07-28 | 2015-07-24 | 発話認識システム、発話認識装置、および発話認識方法 |
JP2017197027A Active JP6484317B2 (ja) | 2014-07-28 | 2017-10-10 | 発話認識システム、発話認識装置、および発話認識方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017197027A Active JP6484317B2 (ja) | 2014-07-28 | 2017-10-10 | 発話認識システム、発話認識装置、および発話認識方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9424842B2 (ja) |
EP (1) | EP2980788A1 (ja) |
JP (2) | JP2016031534A (ja) |
CN (1) | CN105321519B (ja) |
TW (1) | TWI576826B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018066780A (ja) * | 2016-10-17 | 2018-04-26 | イノベーション・ラボラトリ株式会社 | 音声抑制システム及び音声抑制装置 |
KR20180115639A (ko) * | 2017-04-13 | 2018-10-23 | 인하대학교 산학협력단 | 발화의도표현을 위한 두경부 조음기관 물리특성 기반시스템 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201416311D0 (en) * | 2014-09-16 | 2014-10-29 | Univ Hull | Method and Apparatus for Producing Output Indicative of the Content of Speech or Mouthed Speech from Movement of Speech Articulators |
GB201416303D0 (en) * | 2014-09-16 | 2014-10-29 | Univ Hull | Speech synthesis |
US10542929B2 (en) * | 2016-02-23 | 2020-01-28 | Dustin Ryan Kimmel | Determining conditions based on intraoral sensing |
CN105551327A (zh) * | 2016-03-07 | 2016-05-04 | 浙江理工大学 | 一种基于柔性电子皮肤的互动式发音矫正系统及方法 |
WO2018190668A1 (ko) * | 2017-04-13 | 2018-10-18 | 인하대학교 산학협력단 | 두경부 조음기관의 물리 특성을 이용한 발화 의도 표현 시스템 |
CN107274736B (zh) * | 2017-08-14 | 2019-03-12 | 牡丹江师范学院 | 一种校园互动式英语口语语音教学装置 |
KR102364032B1 (ko) * | 2017-09-28 | 2022-02-17 | 인하대학교 산학협력단 | 조음기관의 물리 특성과 음성 및 문자 간 매칭을 통한 발화 의도 측정 및 발화 구현 시스템 |
US10529355B2 (en) | 2017-12-19 | 2020-01-07 | International Business Machines Corporation | Production of speech based on whispered speech and silent speech |
NL2021041B1 (nl) * | 2018-01-31 | 2019-08-07 | Iebm B V | Spraakherkenning met beeld signaal |
CN108648745B (zh) * | 2018-03-15 | 2020-09-01 | 上海电力学院 | 一种由唇部图像序列到语音编码参数的转换方法 |
CN108538283B (zh) * | 2018-03-15 | 2020-06-26 | 上海电力学院 | 一种由唇部图像特征到语音编码参数的转换方法 |
KR102071421B1 (ko) * | 2018-05-31 | 2020-01-30 | 인하대학교 산학협력단 | 청음 향상을 위한 두경부 물리 특성 기반 복합시스템 |
US11373653B2 (en) * | 2019-01-19 | 2022-06-28 | Joseph Alan Epstein | Portable speech recognition and assistance using non-audio or distorted-audio techniques |
CN111986674B (zh) * | 2020-08-13 | 2021-04-09 | 广州仿真机器人有限公司 | 基于三级特征采集的智能语音识别方法 |
WO2023012527A1 (en) * | 2021-08-04 | 2023-02-09 | Q (Cue) Ltd. | Detection of silent speech |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55125845A (en) * | 1979-03-22 | 1980-09-29 | Rion Co | Method of measuring breathing current |
JPS55149970A (en) * | 1979-05-12 | 1980-11-21 | Rion Co | Artificial mouth for electroparatography |
JPS58150997A (en) * | 1982-03-03 | 1983-09-07 | Kogyo Gijutsuin | Speech feature extractor |
JPH01259414A (en) * | 1988-04-06 | 1989-10-17 | Res Triangle Inst | Device for recotnizing visual and auditory sense talk |
JPH04257900A (en) * | 1991-02-12 | 1992-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Tongue operation detection type syllable recognition device |
DE4212907A1 (de) * | 1992-04-05 | 1993-10-07 | Drescher Ruediger | Spracherkennungsverfahren für Datenverarbeitungssysteme u.s.w. |
US20020194005A1 (en) * | 2001-03-27 | 2002-12-19 | Lahr Roy J. | Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech |
US20050071166A1 (en) * | 2003-09-29 | 2005-03-31 | International Business Machines Corporation | Apparatus for the collection of data for performing automatic speech recognition |
JP2007111335A (ja) * | 2005-10-21 | 2007-05-10 | Yamaha Corp | 口腔センサ及び音素判定装置 |
US20140342324A1 (en) * | 2013-05-20 | 2014-11-20 | Georgia Tech Research Corporation | Wireless Real-Time Tongue Tracking for Speech Impairment Diagnosis, Speech Therapy with Audiovisual Biofeedback, and Silent Speech Interfaces |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2814551C2 (de) * | 1978-04-04 | 1986-03-13 | Siemens AG, 1000 Berlin und 8000 München | Vorrichtung zur Messung des Ortes, der Lage und/oder der Orts- bzw. Lageänderung eines starren Körpers im Raum |
US4223411A (en) * | 1978-08-07 | 1980-09-23 | Massachusetts Institute Of Technology | Internal laryngeal prosthesis |
DK155420C (da) * | 1979-05-10 | 1989-10-09 | Rion Co | Kunstig gane |
US5523745A (en) * | 1988-12-16 | 1996-06-04 | Zofcom Systems, Inc. | Tongue activated communications controller |
DE69616623T2 (de) * | 1995-03-31 | 2002-08-01 | Ibm | Intraorales Kommunkationssystem |
JP3894691B2 (ja) * | 1999-10-18 | 2007-03-22 | 株式会社国際電気通信基礎技術研究所 | 口蓋プレートを用いたデータ入力装置 |
JP3908965B2 (ja) * | 2002-02-28 | 2007-04-25 | 株式会社エヌ・ティ・ティ・ドコモ | 音声認識装置及び音声認識方法 |
JP2003255993A (ja) * | 2002-03-04 | 2003-09-10 | Ntt Docomo Inc | 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム |
US7071844B1 (en) * | 2002-09-12 | 2006-07-04 | Aurelian Phillip Moise | Mouth mounted input device |
US20040243416A1 (en) * | 2003-06-02 | 2004-12-02 | Gardos Thomas R. | Speech recognition |
CN1556496A (zh) * | 2003-12-31 | 2004-12-22 | 天津大学 | 唇形识别发声器 |
GB2422238A (en) * | 2005-01-17 | 2006-07-19 | Univ Hull | Generation of data from speech or voiceless mouthed speech |
WO2007053562A2 (en) * | 2005-10-31 | 2007-05-10 | North Carolina State University | Tongue operated magnetic sensor based wireless assistive technology |
US20070239225A1 (en) * | 2006-02-28 | 2007-10-11 | Saringer John H | Training device and method to suppress sounds caused by sleep and breathing disorders |
EP2027572B1 (en) * | 2006-05-22 | 2009-10-21 | Philips Intellectual Property & Standards GmbH | System and method of training a dysarthric speaker |
US7890193B2 (en) * | 2007-08-15 | 2011-02-15 | Tingey Terrell F | Oral device |
DE202009018698U1 (de) * | 2008-07-11 | 2012-11-27 | University Of The Witwatersrand Johannesburg | Künstlicher Kehlkopf |
CN102257561A (zh) * | 2008-12-16 | 2011-11-23 | 皇家飞利浦电子股份有限公司 | 语音信号处理 |
EP2575699A1 (en) * | 2010-05-25 | 2013-04-10 | Tks A/S | A tongue sensor |
US20110311144A1 (en) * | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Rgb/depth camera for improving speech recognition |
WO2012087345A1 (en) * | 2010-12-03 | 2012-06-28 | Forbes Rehab Services, Inc. | Audio output module for use in artificial voice systems |
US20130090931A1 (en) * | 2011-07-05 | 2013-04-11 | Georgia Tech Research Corporation | Multimodal communication system |
WO2013013319A1 (en) * | 2011-07-25 | 2013-01-31 | Rudzicz Frank | System and method for acoustic transformation |
CN103705218B (zh) * | 2013-12-20 | 2015-11-18 | 中国科学院深圳先进技术研究院 | 构音障碍识别的方法、系统和装置 |
CN103699227A (zh) * | 2013-12-25 | 2014-04-02 | 邵剑锋 | 一种新的人机交互系统 |
CN103943107B (zh) * | 2014-04-03 | 2017-04-05 | 北京大学深圳研究生院 | 一种基于决策层融合的音视频关键词识别方法 |
-
2015
- 2015-03-24 TW TW104109414A patent/TWI576826B/zh active
- 2015-05-27 CN CN201510277768.8A patent/CN105321519B/zh active Active
- 2015-07-24 JP JP2015146577A patent/JP2016031534A/ja active Pending
- 2015-07-24 EP EP15178370.1A patent/EP2980788A1/en not_active Withdrawn
- 2015-07-27 US US14/809,739 patent/US9424842B2/en active Active
-
2017
- 2017-10-10 JP JP2017197027A patent/JP6484317B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55125845A (en) * | 1979-03-22 | 1980-09-29 | Rion Co | Method of measuring breathing current |
JPS55149970A (en) * | 1979-05-12 | 1980-11-21 | Rion Co | Artificial mouth for electroparatography |
JPS58150997A (en) * | 1982-03-03 | 1983-09-07 | Kogyo Gijutsuin | Speech feature extractor |
JPH01259414A (en) * | 1988-04-06 | 1989-10-17 | Res Triangle Inst | Device for recotnizing visual and auditory sense talk |
JPH04257900A (en) * | 1991-02-12 | 1992-09-14 | Nippon Telegr & Teleph Corp <Ntt> | Tongue operation detection type syllable recognition device |
DE4212907A1 (de) * | 1992-04-05 | 1993-10-07 | Drescher Ruediger | Spracherkennungsverfahren für Datenverarbeitungssysteme u.s.w. |
US20020194005A1 (en) * | 2001-03-27 | 2002-12-19 | Lahr Roy J. | Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech |
US20050071166A1 (en) * | 2003-09-29 | 2005-03-31 | International Business Machines Corporation | Apparatus for the collection of data for performing automatic speech recognition |
JP2007111335A (ja) * | 2005-10-21 | 2007-05-10 | Yamaha Corp | 口腔センサ及び音素判定装置 |
US20140342324A1 (en) * | 2013-05-20 | 2014-11-20 | Georgia Tech Research Corporation | Wireless Real-Time Tongue Tracking for Speech Impairment Diagnosis, Speech Therapy with Audiovisual Biofeedback, and Silent Speech Interfaces |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018066780A (ja) * | 2016-10-17 | 2018-04-26 | イノベーション・ラボラトリ株式会社 | 音声抑制システム及び音声抑制装置 |
KR20180115639A (ko) * | 2017-04-13 | 2018-10-23 | 인하대학교 산학협력단 | 발화의도표현을 위한 두경부 조음기관 물리특성 기반시스템 |
KR102180551B1 (ko) * | 2017-04-13 | 2020-11-18 | 인하대학교 산학협력단 | 발화의도표현을 위한 두경부 조음기관 물리특성 기반시스템 |
Also Published As
Publication number | Publication date |
---|---|
JP6484317B2 (ja) | 2019-03-13 |
US20160027441A1 (en) | 2016-01-28 |
EP2980788A1 (en) | 2016-02-03 |
CN105321519B (zh) | 2019-05-14 |
JP2018028681A (ja) | 2018-02-22 |
CN105321519A (zh) | 2016-02-10 |
TWI576826B (zh) | 2017-04-01 |
US9424842B2 (en) | 2016-08-23 |
TW201604864A (zh) | 2016-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6484317B2 (ja) | 発話認識システム、発話認識装置、および発話認識方法 | |
US10433052B2 (en) | System and method for identifying speech prosody | |
US10157626B2 (en) | Voice affect modification | |
US10275021B2 (en) | Display apparatus of front-of-the-eye mounted type | |
JP6580497B2 (ja) | 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 | |
US11517252B2 (en) | Using a hearable to generate a user health indicator | |
WO2018201688A1 (en) | Microphone, vocal training apparatus comprising microphone and vocal analyzer, vocal training method, and non-transitory tangible computer-readable storage medium | |
Freitas et al. | An Introduction to Silent Speech Interfaces | |
Bedri et al. | Toward silent-speech control of consumer wearables | |
Smith et al. | Infant-directed visual prosody: Mothers’ head movements and speech acoustics | |
WO2020079918A1 (ja) | 情報処理装置及び情報処理方法 | |
KR20190067662A (ko) | 로봇을 이용한 수화통역시스템 | |
Freitas et al. | Multimodal corpora for silent speech interaction | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
KR20160028868A (ko) | 안면부 영상 인식 및 외부 입력 장비를 이용한 음성 합성 시스템 및 음성 합성 방법 | |
KR20090070325A (ko) | 멀티모달 정보기반 응급상황 인식 시스템 및 방법 | |
KR20210100831A (ko) | 인공지능 기반 수어통역 서비스 제공 시스템 및 방법 | |
JP2012230534A (ja) | 電子機器および電子機器の制御プログラム | |
JP4381404B2 (ja) | 音声合成システム、音声合成方法、音声合成プログラム | |
EP4131256A1 (en) | Voice recognition system and method using accelerometers for sensing bone conduction | |
KR20170029390A (ko) | 음성 명령 모드 진입 방법 | |
WO2022198234A1 (en) | Method and apparatus for improved speaker identification and speech enhancement | |
KR20210100832A (ko) | 사용자의 감정상태를 판단하는 인공지능 기반 수어통역 서비스 제공 시스템 및 방법 | |
Freitas et al. | SSI Modalities II: Articulation and Its Consequences | |
JP2018007723A (ja) | 嚥下情報提示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170613 |