JPH04257900A - 舌動作検出型音節認識装置 - Google Patents

舌動作検出型音節認識装置

Info

Publication number
JPH04257900A
JPH04257900A JP3038845A JP3884591A JPH04257900A JP H04257900 A JPH04257900 A JP H04257900A JP 3038845 A JP3038845 A JP 3038845A JP 3884591 A JP3884591 A JP 3884591A JP H04257900 A JPH04257900 A JP H04257900A
Authority
JP
Japan
Prior art keywords
syllable
signal
light
tongue
syllable recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3038845A
Other languages
English (en)
Other versions
JP2985976B2 (ja
Inventor
Akira Hiraiwa
明 平岩
Katsunori Shimohara
勝憲 下原
Tadashi Uchiyama
匡 内山
Kazuhiko Shinosawa
一彦 篠沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3038845A priority Critical patent/JP2985976B2/ja
Publication of JPH04257900A publication Critical patent/JPH04257900A/ja
Application granted granted Critical
Publication of JP2985976B2 publication Critical patent/JP2985976B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radio Transmission System (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ユーザ(発声者)の発
声または発声動作(発声の口動作)に伴う舌の動作を検
出して音節の認識を行う舌動作検出型音節認識装置に関
するものである。
【0002】
【従来の技術】従来、コンピュータなどへの音声による
情報の入力を目的として、ユーザが発声した音節の認識
を行う音節認識装置の開発が進んでいる。
【0003】この種の音節認識装置としては、たとえば
、以下に示すものが提案されている。
【0004】(1)マイクで検出した音声波形をDPマ
ッチングによって解析して音節認識を行うもの(迫江 
 他,音響学会誌,2,9,P.43ー49,1978
)。
【0005】(2)マイクで検出した音声波形を隠れマ
ルコフモデルによって解析して音節認識を行うもの(R
abiner.L.R. et al,Bell  S
yst.Tech.J.,62,4,p.1075ー1
105,1983)。
【0006】(3)マイクで検出した音声波形を神経回
路網によって解析して音節認識を行うもの(河原  他
,電子情報通信学会,音声技報SP88ー31,198
8)。しかし、これらの音節認識装置は、マイクで検出
した音声波形にノイズが混入されていると音節の認識率
が低下するため、静寂な環境が要求される反面、マイク
で検出できる程度の大きさで音声を発しなければ認識す
ることができないという欠点がある。
【0007】この欠点を解消するため、音声以外の発声
に関わる情報を補完的に利用する音節認識装置が考えら
れ、その一つとして、リップリーディングをコンピュー
タにより行う音節認識装置が提案されている(Peta
jan  E.,IEEE  CVPR’85,p.4
0ー47,1985)。
【0008】
【発明が解決しようとする課題】しかしながら、上述し
た、リップリーディングをコンピュータにより行う音節
認識装置は、カメラを用いてユーザの唇の動きを検出す
ることによってリップリーディングを行うため、カメラ
をユーザの顔の正面に設置する必要があるので、使用可
能な場所が制限されてしまうという欠点があった。
【0009】本発明の目的は、使用場所に制限されず、
かつ騒音環境下においても使用することができる舌動作
検出型音節認識装置を提供することにある。
【0010】
【課題を解決するための手段】本発明の舌動作検出型音
節認識装置は、口腔内に設置される舌動作検出送信部と
、口腔外に設置される音節認識部とからなり、前記舌動
作検出送信部が、近赤外光を照射する発光素子と、前記
近赤外光の反射光を受光して受光信号に変換する受光素
子と、該受光素子で変換された前記受光信号を送信信号
に変換して前記音節認識部へ送信する送信機と、該送信
機と前記発光素子と前記受光素子とへ電力を供給する電
池とを含み、前記音節認識部が、前記送信信号を受信す
るアンテナと、該アンテナで受信された前記送信信号か
ら前記受光信号を復調する受信機と、該受信機で復調さ
れた前記受光信号に応じて各出力ユニットの出力値を出
力する神経回路網と、該神経回路網から出力された前記
各出力ユニットの出力値の大小比較を行って、該出力値
が最大となる前記出力ユニットに対応する音節を出力す
る比較器とを含む。
【0011】
【作用】本発明の舌動作検出型音節認識装置では、発光
素子から舌面に向けて照射された近赤外光の反射光を受
光素子で検出して得た、ユーザの発声または発声動作に
伴う舌の動作に応じた受光信号を用いて、神経回路網お
よび比較器で音節認識を行うため、ユーザが発した音声
を検出することなく音声認識を行うことができるので、
騒音環境下および絶対的な静寂性が要求される環境下に
おいても音節を精度よく認識することができる。また、
受光信号は送信信号に変換されて舌動作検出送信部から
音節認識部へ送信されるため、音節認識部の設置場所は
送信信号が受信できる場所であればどこでもよいので、
使用場所が制限されることがない。
【0012】音節認識部が、学習動作時に発せらた音声
を検出して検出音声信号に変換するマイクと、該マイク
で変換された検出音声信号を増幅する増幅器と、該増幅
器で増幅された検出音声信号から音節を認識して、該音
節を示す教師信号パターンを出力する音声認識回路とを
さらに含むとともに、神経回路網が、音声認識回路から
入力された教師信号パターンおよび学習動作時に受信機
で復調された受光信号より該受光信号と音節との関係を
学習する学習機能をさらに有することにより、ユーザご
とに学習動作を行わせたのち、認識動作を行わせること
ができる。
【0013】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
【0014】図1(A),(B)は本発明の舌動作検出
型音節認識装置の第1の実施例を示すブロック図、図2
は図1(A)の舌動作検出送信部10の格納容器15の
外観を示す図、図3は図1(A)の舌動作検出送信部1
0の口腔内への設置方法を示す図、図4は図1(B)の
神経回路網26の構成を示す図である。
【0015】本実施例の舌動作検出型音節認識装置は、
口腔内に設置される舌動作検出送信部10と、口腔外に
設置される音節認識部20とからなる。
【0016】舌動作検出送信部10は、図1(A)に示
すように、近赤外光Lを照射する複数個の発光素子11
と、近赤外光Lの反射光を受光して受光信号α,β,γ
に変換する複数個の受光素子12と、受光素子12で変
換された受光信号α,β,γを送信信号Wに変換して音
節認識部20へ送信する送信機13と、送信機13と各
発光素子11と各受光素子12とへ電力を供給する電池
14とからなる。
【0017】音節認識部20は、図1(B)に示すよう
に、送信信号Wを受信するアンテナ21と、アンテナ2
1で受信された送信信号Wから各受光信号α,β,γを
復調する受信機22と、学習動作時に発せられた音声を
検出して検出音声信号Sに変換するマイク23と、マイ
ク23で変換された検出音声信号Sを増幅する増幅器2
4と、増幅器24で増幅された検出音声信号Sから音節
を認識して、この音節を示す教師信号パターンを出力す
る音声認識回路25と、音声認識回路25から入力され
た教師信号パターンおよび学習動作時に受信機22で復
調された各受光信号α,β,γより各受光信号α,β,
γと音節との関係を学習する学習機能を有するとともに
、受信機22で復調された各受光信号α,β,γに応じ
て各出力ユニット531〜53Nの出力値y1〜yN(
図4参照)を出力する神経回路網26と、神経回路網2
6から出力された各出力ユニット531〜53Nの出力
値y1〜yN の大小比較を行い、出力値が最大となる
出力ユニットに対応する音節を出力する比較器27とか
らなる。
【0018】舌動作送信部10は、図2に示す格納容器
15に格納されており、舌動作送信部10の口腔内への
設置は、図3に示すように、格納容器15の図2図示両
端近傍に設けられた2つのY字形状のブリッジ16が、
歯と歯の間にそれぞれ差込まれることにより行われる。 このとき、発光素子11から近赤外光Lを舌面19に向
けて照射し、近赤外光Lの舌面19からの反射光を受光
素子12で受光することができるように、格納容器15
は発光素子11および受光素子12が舌面19と対向す
るよう上顎部に設置される。
【0019】また、神経回路網26は、図4に示すよう
に、各受光信号α,β,γのサンプル値d1〜d5,e
1〜e5,f1〜f5(図7参照)が数値パターンとし
て入力される、複数個の入力ユニット511〜5115
 からなる入力層31と、重み39を有する第1のリン
ク36を介して入力層31と接続された、複数個の中間
ユニット521〜52Mからなる中間層32と、重み3
9を有する第2のリンク37を介して中間層32と接続
された、複数個の出力ユニット531〜53Nからなる
出力層33と、各受光信号α,β,γのサンプル値d1
〜d5,e1〜e5,f1〜f5からなる数値パターン
,出力層33の各出力ユニット531〜53Nの出力値
y1〜yNからなる出力パターンおよび音声認識回路2
5から入力される教師信号パターンを用いて、第1およ
び第2のリンク36,37の各重み39を更新する重み
制御部34とからなる。なお、各出力ユニット531〜
53Nは、各単音節に対応するようになっている(たと
えば、出力ユニット531 が単音節“あ”に、出力ユ
ニット532 が単音節“い”に、出力ユニット533
 が単音節“う”に対応)。
【0020】次に、本実施例の舌動作検出型音節認識装
置の動作について、学習動作および認識動作に分けて説
明する。
【0021】まず、学習動作について、図5に示すフロ
ーチャート,図6に示す各信号の流れを示す図,図7に
示す波形図および図8に示す波形図を用いて説明する。 なお、簡単のため、発光素子11および受光素子12の
数は3個として説明する。
【0022】学習動作は、音声認識回路25において正
しく音節認識ができる程度に静寂な環境下で行われる。 この環境下で、ユーザ40により単音節からなる音声が
発せられる(ステップ110 )。発せられた音声はマ
イク23で検出され検出音声信号Sに変換される。検出
音声信号Sは増幅器24で増幅されたのち、音声認識回
路25に入力される。音声認識回路25において、検出
音声信号Sによる音声認識が行われることにより、発声
された単音節が何であったかが認識される(ステップ1
11 )。一方、単音節からなる音声が発せられたとき
の舌の動作が、発光素子11から近赤外光Lが舌面19
に向けて照射され、近赤外光Lの舌面19からの反射光
が受光素子12で受光されることによって検出され、た
とえば図7(A)〜(C)にそれぞれ示すような各受光
信号α,β,γに変換される。各受光信号α,β,γは
、送信機12で送信信号Wに変換されたのち、音節認識
部20へ送信される(ステップ112 )。なお、発光
素子11,受光素子12および送信機12を動作させる
ために必要な電力は、電池13からそれぞれに供給され
る。送信信号Wは、音節認識部20のアンテナ21で受
信されて受信機22で復調されることにより、各受光信
号α,β,γに戻されたのち、神経回路網26に入力さ
れる。
【0023】神経回路網26における各受光信号α,β
,γの抜取りは、以下のようにして行われる(ステップ
113 )。
【0024】図8(A)に示す増幅器24より入力され
る検出音声信号Sを全波整流することにより、同図(B
)に示す包絡線波形Eを得る。その後、包絡線波形Eの
振幅が所定のいき値θ1 となる時刻tL1,tL2を
求め、同図(C)に示す時刻tL1から時刻tL2まで
振幅が“1”となるゲート信号Gを作成する。このゲー
ト信号Gで、受信機22から入力される受光信号αに同
図(D)で示すような観測窓をかけることにより、受光
信号αの抜取りを行う。他の2つの受光信号β,γの抜
取りも同様にして行われる。
【0025】このようにして抜取られた各受光信号α,
β,γは、図7(A)〜(C)にそれぞれ示すように所
定の時間間隔でサンプリングされ、各サンプル値d1〜
d5,e1〜e5,f1〜f5が、数値パターンとして
神経回路網26の入力層31の各入力ユニット511〜
5115 にそれぞれに入力される(ステップ114 
)。一方、音声認識回路25で認識された単音節は、学
習用の教師信号パターンとして神経回路網26の重み制
御部34に入力される。たとえば、単音節が“う”の場
合には、学習用教師信号パターン“00100・・・・
0”として神経回路網26の重み制御部34に入力され
る。
【0026】神経回路網26は、各サンプル値d1〜d
5,e1〜e5,f1〜f5からなる数値パターンと音
声認識回路25で認識された単音節の学習用の教師信号
パターンとの関係を公知の誤差逆伝播法(D.E  R
umelhart  et al.,Parallel
  Distributed  Processing
,MIT  Press.,1986)により繰返し学
習する(ステップ115 )。この学習は、たとえば、
教師信号パターン“00100・・・・0”に対して、
神経回路網26の各出力ユニット531〜53Nの出力
値y1〜yNのうち単音節“う”に対応する出力ユニッ
ト533 の出力値y3 が最大となり、単音節“う”
が比較器27から出力されるまで、重み制御部34によ
る第1,第2のリンク36,37の重み39の更新を繰
返すことにより行われる(ステップ116 )。
【0027】このようにして一つの単音節の学習が終了
すると、他の単音節の学習が同様にして行われ、すべて
の単音節の学習が終了すると、学習動作が終了される(
ステップ117 )。
【0028】次に、本実施例の舌動作検出型音節認識装
置の認識動作について、図9に示すフローチャート,図
10に示す各信号の流れを示す図、および図11に示す
波形図を用いて説明する。
【0029】騒音環境下においては、ユーザ40は複数
の単音節からなる音声を発する必要は必ずしもなく、発
声動作(発声の口動作)だけ行えばよい(ステップ21
0 )。発光素子11から近赤外光Lが舌面19に向け
て照射され、近赤外光Lの舌面19からの反射光が受光
素子12で受光されることによって、ユーザ40の発声
または発声動作に伴う舌の動作が検出され、各受光信号
α,β,γに変換される。各受光信号α,β,γは、送
信機12で送信信号Wに変換されたのち、音節認識部2
0へ送信される(ステップ211 )。送信信号Wは、
音節認識部20のアンテナ21で受信されて受信機22
で復調されることにより、各受光信号α,β,γに戻さ
れたのち、神経回路網26に入力される。認識動作時に
は、ユーザ40が発声するとは限らないので、神経回路
網26における各受光信号α,β,γの抜取りを学習動
作時と同様に検出音声信号Sを用いて行うことができな
い。 そこで、騒音環境下であっても各受光信号α,β,γに
重畳されるノイズは、静寂な環境下における場合に比べ
て大差がないことに着目して、図11に示すように、各
受光信号α,β,γの振幅が所定のいき値θ2 を最初
に横切る時刻tK1から所定の時間幅TW の観測窓を
定め、この観測窓を各受光信号α,β,γにかけること
により、各受光信号α,β,γの抜取りが行われる(ス
テップ212 )。このようにして観測窓がかけられた
各受光信号α,β,γは、所定の時間間隔でサンプリン
グされ、各サンプル値d1〜d5,e1〜e5,f1〜
f5が、数値パターンとして神経回路網26の入力層3
1に入力される(ステップ213 )。神経回路網26
の出力層33の各出力ユニット531〜53Nの出力値
y1 〜yN が比較器27に入力されたのち、比較器
27で、各出力値y1〜yNの大小比較が行われ、出力
値が最大となる出力ユニットに対応する単音節が比較器
27から順次出力される(ステップ214 )。以上の
動作は、すべての認識動作が終了するまで繰返される(
ステップ215 )。
【0030】したがって、本実施例の舌動作検出型音節
認識装置では、ユーザ40が発する音声を用いずに認識
動作が行えるため、騒音環境下においても精度よく音節
認識ができる。また、ユーザ40の口腔内に設置された
舌動作検出送信部10から各受光信号α,β,γを送信
信号Wに変換して音節認識部20へ送信するため、音節
認識部20の設置場所が制限されることがない。
【0031】なお、神経回路網26における各受光信号
α,β,γの抜取りは、図11に示したものに限らず、
たとえば、図12に示すように行ってもよい。すなわち
、各受光信号α,β,γを所定の時間間隔でサンプリン
グしてメモリに格納したのち、任意の時刻t0 から所
定の時間幅の各加速度信号α,β,γの各サンプル値を
前記メモリから読出すことにより、各受光信号α,β,
γに第1の観測窓をかけ、次に、時刻t0 +Δtから
前記所定の時間幅の各受光信号α,β,γの各サンプル
値を前記メモリから読出すことにより、各受光信号α,
β,γに第2の観測窓をかけ、次に、時刻t0 +2・
Δtから前記所定の時間幅の各受光信号α,β,γの各
サンプル値を前記メモリから読出すことにより、各受光
信号α,β,γに第3の観測窓をかける。以上の動作を
所定回数だけ繰返すことにより、各受光信号α,β,γ
の抜取りを行ってもよい。ただし、この場合には、たと
えば、図12の第2の観測窓がかけられた各受光信号α
,β,γに対応する単音節はないので、神経回路網26
の誤動作を防止するために、神経回路網26の出力層3
3に“音節なし”を示す出力ユニットを追加しておいた
方がよい。
【0032】また、図1に示した舌動作検出型音節認識
装置では、各受光信号α,β,γのみ用いて認識動作を
行ったが、騒音があまり大きくなく、ユーザ40が発し
た音声がマイク23である程度検出できる場合には、図
13に示すように検出音声信号Sを補完的に用いて認識
動作を行ってもよい。すなわち、この場合には、図4に
示した神経回路網26の入力層31に、検出音声信号S
の各サンプル値がそれぞれ入力される複数個の入力ユニ
ットを追加し、各受光信号α,β,γと検出音声信号S
と教師信号パターンとを用いて前述した学習動作と同様
な学習動作を行ったのち、各受光信号α,β,γと検出
音声信号Sを用いて前述した認識動作と同様な認識動作
を行ってもよい。
【0033】さらに、学習動作にあたり、単音節ごとに
学習を行ったが、神経回路網26の入力層31の入力ユ
ニットの数,中間層32の中間ユニットの数および出力
層33の出力ユニットの数を増やして、複数の単音節ご
とに学習を行ってもよい。
【0034】単音節の学習方法として、図4に示したよ
うな時空間パターンを空間パターンに展開して認識する
多層神経回路網からなる神経回路網26を用い、誤差逆
伝播法によって学習する方法を採用したが、たとえば、
電子情報通信学会,音声技報,SP87ー100,19
87年11月に記載されている時間遅れニューラルネッ
トワーク(TDNN:Phoneme  recogi
nition  using  time−delay
  neural  networks)のような時空
間パターンを処理する他の神経回路網を用いてもよい。
【0035】図14は、本発明の舌動作検出型音節認識
装置の第2の実施例を示す音節認識部70のブロック図
である。
【0036】本実施例の舌動作検出型音節認識装置は、
神経回路網76として、不特定多数のユーザに対応でき
るよう予め学習動作を行ったものを用いている点が、図
1に示した舌動作検出型音節認識装置と異なる。したが
って、本実施例の舌動作検出型音節認識装置では、前述
した学習動作が不要であるため、音節認識部70には、
ユーザが発した音声を検出して検出音声信号Sに変換す
るマイク,検出音声信号Sを増幅する増幅器および学習
動作時に教師信号パターンを出力する音声認識回路が不
要となる。なお、本実施例の舌動作検出型音節認識装置
における認識動作は、前述した図9に示したフローチャ
ートに従って同様にして行われる。
【0037】以上の説明においては、各受光信号α,β
,γの抜取りは、神経回路網26で行われたが、受信機
22がこの機能を有してもよいし、抜取り装置を別途設
けてもよい。また、舌動作検出送信部10は、図3に示
すように、2つのブリッジ16を歯と歯との間にそれぞ
れ差込んで設置されたが、たとえば、入れ歯と連結また
は一体化することも可能である。
【0038】本発明の舌動作検出型音節認識装置の応用
分野としては、コンピュータへの音声入力装置のほか、
ワードプロセッサ,機械翻訳機,自動車電話の電話番号
,車内積載コンピュータおよび航空機コクピット内積載
コンピュータへの音声入力装置や、音節認識部のネット
ワーク化による内緒話ツールとしての応用などが考えら
れる。
【0039】
【発明の効果】以上説明したように、本発明は次のよう
な効果がある。
【0040】(1)舌動作検出送信部に設けられた発光
素子および受光素子で、ユーザの発声または発声動作に
伴う舌の動作を検出して受光信号に変換するとともに、
神経回路網と比較器とが設けられた音節認識部に前記受
光信号を送信することにより、該受光信号を用いて音節
を認識するため、騒音環境下および絶対的な静寂性が要
求される環境下においても音節を精度よく認識すること
ができる。また、音節認識部の設置場所は送信信号が受
信できる場所であればどこでもよいため、使用場所が制
限されることがない。
【0041】(2)神経回路網に学習機能をもたせるこ
とにより、ユーザごとに学習動作を行ったのち、認識動
作を行うことができるため、いかなるユーザに対しても
精度よく認識動作を行うことができる。
【図面の簡単な説明】
【図1】本発明の舌動作検出型音節認識装置の第1の実
施例を示すブロック図であり、(A)はその舌動作検出
送信部のブロック図であり、(B)はその音節認識部の
ブロック図である。
【図2】図1(A)に示した舌動作検出送信部10の格
納容器15の外観を示す図である。
【図3】図1(A)に示した舌動作検出送信部10の口
腔内への設置方法を示す図である。
【図4】図1(B)に示した神経回路網26の構成を示
す図である。
【図5】図1に示した舌動作検出型音節認識装置の学習
動作を説明するフローチャートである。
【図6】図1に示した舌動作検出型音節認識装置の学習
動作を説明する各信号の流れを示す図である。
【図7】各受光信号を示す波形図であり、(A)は受光
信号αの波形図、(B)受光信号βの波形図、(C)は
受光信号γの波形図である。
【図8】図1(B)に示した神経回路網26における学
習動作時の各受光信号の抜取り方法を説明する波形図で
あり、(A)は検出音声信号Sの波形図、(B)包絡線
波形Eの波形図、(C)はゲート信号Gの波形図、(D
)は受光信号αの波形図である。
【図9】図1に示した舌動作検出型音節認識装置の認識
動作を説明するフローチャートである。
【図10】図1に示した舌動作検出型音節認識装置の認
識動作を説明する各信号の流れを示す図である。
【図11】図1(B)に示した神経回路網26における
認識動作時の各受光信号の抜取り方法を説明する波形図
である。
【図12】図1(B)に示した神経回路網26における
認識動作時の各受光信号の他の抜取り方法を説明する波
形図である。
【図13】図1に示した舌動作検出型音節認識装置の他
の認識動作を説明する各信号の流れを示す図である。
【図14】本発明の舌動作検出型音節認識装置の第2の
実施例を示す音節認識部のブロック図である。
【符号の説明】
10        舌動作検出送信部11     
   発光素子 12        受光素子 13        送信機 14        電池 15        格納容器 16        ブリッジ 19        舌面 20,70        音節認識部21,71  
      アンテナ 22,72        受信機 23        マイク 24        増幅器 25        音声認識回路 26,76        神経回路網27,77  
      比較器 31        入力層 32        中間層 33        出力層 34        重み制御部 36,37        リンク 39        重み 511〜5115     入力ユニット521〜52
M      中間ユニット531〜53N     
 出力ユニットα,β,γ        受光信号 S          検出音声信号 W          送信信号 d1〜d5,e1〜e5,f1〜f5       サ
ンプル値y1〜yN          出力値

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】  口腔内に設置される舌動作検出送信部
    と、口腔外に設置される音節認識部とからなり、前記舌
    動作検出送信部が、近赤外光を照射する発光素子と、前
    記近赤外光の反射光を受光して受光信号に変換する受光
    素子と、該受光素子で変換された前記受光信号を送信信
    号に変換して前記音節認識部へ送信する送信機と、該送
    信機と前記発光素子と前記受光素子とへ電力を供給する
    電池とを含み、前記音節認識部が、前記送信信号を受信
    するアンテナと、該アンテナで受信された前記送信信号
    から前記受光信号を復調する受信機と、該受信機で復調
    された前記受光信号に応じて各出力ユニットの出力値を
    出力する神経回路網と、該神経回路網から出力された前
    記各出力ユニットの出力値の大小比較を行って、該出力
    値が最大となる前記出力ユニットに対応する音節を出力
    する比較器とを含む舌動作検出型音節認識装置。
  2. 【請求項2】  前記音節認識部が、学習動作時に発せ
    られた音声を検出して検出音声信号に変換するマイクと
    、該マイクで変換された前記検出音声信号を増幅する増
    幅器と、該増幅器で増幅された前記検出音声信号から音
    節を認識して、該音節を示す教師信号パターンを出力す
    る音声認識回路とをさらに含み、前記神経回路網が、前
    記音声認識回路から入力された前記教師信号パターンお
    よび学習動作時に前記受信機で復調された受光信号より
    該受光信号と音節との関係を学習する学習機能をさらに
    有する請求項1記載の舌動作検出型音節認識装置。
JP3038845A 1991-02-12 1991-02-12 舌動作検出型音節認識装置 Expired - Fee Related JP2985976B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3038845A JP2985976B2 (ja) 1991-02-12 1991-02-12 舌動作検出型音節認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3038845A JP2985976B2 (ja) 1991-02-12 1991-02-12 舌動作検出型音節認識装置

Publications (2)

Publication Number Publication Date
JPH04257900A true JPH04257900A (ja) 1992-09-14
JP2985976B2 JP2985976B2 (ja) 1999-12-06

Family

ID=12536537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3038845A Expired - Fee Related JP2985976B2 (ja) 1991-02-12 1991-02-12 舌動作検出型音節認識装置

Country Status (1)

Country Link
JP (1) JP2985976B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6272466B1 (en) 1997-03-04 2001-08-07 Fuji Xerox Co., Ltd Speech detection apparatus using specularly reflected light
US6343269B1 (en) 1998-08-17 2002-01-29 Fuji Xerox Co., Ltd. Speech detection apparatus in which standard pattern is adopted in accordance with speech mode
JP2012232065A (ja) * 2011-05-09 2012-11-29 Iwate Univ 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
JP2016031534A (ja) * 2014-07-28 2016-03-07 リウ チン フォンChing−Feng LIU 発話認識システム、発話認識装置、および発話認識方法
CN109259732A (zh) * 2018-10-09 2019-01-25 广东数相智能科技有限公司 一种识别模型构建方法和基于舌诊的病症预警方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230372146A1 (en) * 2020-10-09 2023-11-23 The University Of North Carolina At Chapel Hill Intraoral speech devices, methods, and systems

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6272466B1 (en) 1997-03-04 2001-08-07 Fuji Xerox Co., Ltd Speech detection apparatus using specularly reflected light
US6343269B1 (en) 1998-08-17 2002-01-29 Fuji Xerox Co., Ltd. Speech detection apparatus in which standard pattern is adopted in accordance with speech mode
JP2012232065A (ja) * 2011-05-09 2012-11-29 Iwate Univ 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
JP2016031534A (ja) * 2014-07-28 2016-03-07 リウ チン フォンChing−Feng LIU 発話認識システム、発話認識装置、および発話認識方法
CN109259732A (zh) * 2018-10-09 2019-01-25 广东数相智能科技有限公司 一种识别模型构建方法和基于舌诊的病症预警方法

Also Published As

Publication number Publication date
JP2985976B2 (ja) 1999-12-06

Similar Documents

Publication Publication Date Title
KR100215946B1 (ko) 게임장치,음성선택장치,음성인식장치및음성응답장치
JP3697748B2 (ja) 端末、音声認識装置
KR101201146B1 (ko) 최적의 추정을 위한 중요한 양으로서 순간적인 신호 대 잡음비를 사용하는 잡음 감소 방법
TWI383377B (zh) 多重感測語音辨識系統及方法
US20220319538A1 (en) Voice interactive wakeup electronic device and method based on microphone signal, and medium
CN110648691B (zh) 基于语音的能量值的情绪识别方法、装置和系统
US10002623B2 (en) Speech-processing apparatus and speech-processing method
US20040199384A1 (en) Speech model training technique for speech recognition
JP2021184087A (ja) サウンド特徴に対する音響モデル条件付け
CN111883135A (zh) 语音转写方法、装置和电子设备
KR20090025939A (ko) 음성 인식을 이용한 홈 미디어 pc 시스템 및 그 제어방법
WO2023104122A1 (en) Methods for clear call under noisy conditions
US11361783B2 (en) Computer-aided conversion test system and method for generating intelligible speech
KR102037789B1 (ko) 로봇을 이용한 수화통역시스템
JPH04257900A (ja) 舌動作検出型音節認識装置
US7216078B2 (en) Learning device, mobile communication terminal, information recognition system, and learning method
CN111210812A (zh) 一种人工智能语音中转系统
CN103295571A (zh) 使用时间和/或频谱压缩的音频命令的控制
JPH04257899A (ja) 顎動作加速度検出型音節認識装置
JPH04271398A (ja) 骨伝導マイク検出型音節認識装置
JP2004024863A (ja) 口唇認識装置および発生区間認識装置
KR102023356B1 (ko) 웨어러블 수화통역장치
KR20210150372A (ko) 신호 처리 장치, 신호 처리 방법 및 프로그램
KR20080023033A (ko) 지능형 로봇 서비스 시스템에서 무선 마이크로폰을 이용한화자 인식 방법 및 장치
JP2000311077A (ja) 音声情報入力装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees