JPH04271398A - 骨伝導マイク検出型音節認識装置 - Google Patents

骨伝導マイク検出型音節認識装置

Info

Publication number
JPH04271398A
JPH04271398A JP3053688A JP5368891A JPH04271398A JP H04271398 A JPH04271398 A JP H04271398A JP 3053688 A JP3053688 A JP 3053688A JP 5368891 A JP5368891 A JP 5368891A JP H04271398 A JPH04271398 A JP H04271398A
Authority
JP
Japan
Prior art keywords
syllable
conduction microphone
bone conduction
signal
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3053688A
Other languages
English (en)
Inventor
Akira Hiraiwa
明 平岩
Katsunori Shimohara
勝憲 下原
Tadashi Uchiyama
匡 内山
Kazuhiko Shinosawa
一彦 篠沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3053688A priority Critical patent/JPH04271398A/ja
Publication of JPH04271398A publication Critical patent/JPH04271398A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Radio Transmission System (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ユーザ(発声者)の発
声時の顔面の振動を骨伝導マイクで検出して音節の認識
を行う骨伝導マイク検出型音節認識装置に関する。
【0002】
【従来の技術】従来、コンピュータなどへの音声による
情報の入力を目的として、ユーザが発声した音節の認識
を行う音節認識装置の開発が進んでいる。
【0003】この種の音節認識装置としては、たとえば
、以下に示すものが提案されている。
【0004】(1)マイクで検出した音声波形をDPマ
ッチングによって解析して音節認識を行うもの(迫江 
 他,音響学会誌,2,9,P.43ー49,1978
)。
【0005】(2)マイクで検出した音声波形を隠れマ
ルコフモデルによって解析して音節認識を行うもの(R
abiner.L.R. et al,Bell  S
yst.Tech.J.,62,4,p.1075ー1
105,1983)。
【0006】(3)マイクで検出した音声波形を神経回
路網によって解析して音節認識を行うもの(河原  他
,電子情報通信学会,音声技報SP88ー31,198
8)。しかし、これらの音節認識装置は、自動車の運転
席および工場内などの騒音がある環境下では、マイクで
検出した音声波形にノイズが混入されるため、音節の認
識率が低下するという欠点がある。
【0007】この欠点を解消するため、音声以外の発声
に関わる情報を補完的に利用する音節認識装置が考えら
れ、その一つとして、リップリーディングをコンピュー
タにより行う音節認識装置が提案されている(Peta
jan  E.,IEEE  CVPR’85,p.4
0ー47,1985)。しかし、リップリーディングを
コンピュータにより行う音節認識装置は、カメラを用い
てユーザの唇の動きを検出することによってリップリー
ディングを行うため、カメラをユーザの顔の正面に設置
する必要があるので、使用可能な場所が制限されてしま
うという欠点がある。
【0008】そこで、使用可能な場所が制限されない音
節認識装置として、骨伝導マイク(Ono,JASA,
Vol.62,No.3,p.760ー768,197
7)を顔面に密着させて、ユーザの発声に伴う顔面の振
動を骨伝導マイクで検出し、骨伝導マイクから出力され
る顔面振動信号をコンピュータで解析して音節認識を行
う骨伝導マイク検出型音節認識装置が考えられる。
【0009】
【発明が解決しようとする課題】しかしながら、上述し
た骨伝導マイク検出型音節認識装置は、空間に伝播した
音声信号を解析して音節認識を行うことを目的として開
発された、従来のコンピュータ解析による音節認識(音
声認識)用アルゴリズムを単純に利用することができな
いため、顔面振動信号を解析して音節を認識する音節認
識用アルゴリズムを新たに開発しなければならないとい
う欠点があり、また、発声に伴う顔面の振動は各個人の
頭蓋骨の形状および皮下組織の厚みなどによって異なる
ため、新たに開発する音節認識用アルゴリズムは、不特
定多数のユーザに対応可能なものでなければならないと
いう欠点がある。
【0010】本発明の目的は、既製の音節認識用アルゴ
リズムによらずに、顔面振動信号に基づいて音節認識を
行うことができ、また不特定多数のユーザにも対応可能
な骨伝導マイク検出型音節認識装置を提供することにあ
る。
【0011】
【課題を解決するための手段】本発明の骨伝導マイク検
出型音節認識装置は、発声に伴う顔面の振動を検出して
顔面振動信号に変換する骨伝導マイクと、該骨伝導マイ
クで変換された前記顔面振動信号より音節を認識する音
節認識部とからなる骨伝導マイク検出型音節認識装置で
あって、前記音節認識部が、前記顔面振動信号に応じて
各出力ユニットの出力値を出力する神経回路網と、該神
経回路網から出力された前記各出力ユニットの出力値の
大小比較を行って、該出力値が最大となる前記出力ユニ
ットに対応する音節を出力する比較器とを含む。
【0012】
【作用】本発明の骨伝導マイク検出型音節認識装置は、
顔面振動信号と精度よく対応した各出力ユニットの出力
値を出力する神経回路網で顔面振動信号の解析をし、か
つ比較器で各出力ユニットの出力値の大小比較をして音
節認識を行う音節認識部を有するため、既製の音節認識
用アルゴリズムによらずに、顔面振動信号に基づく音節
認識を行うことができる。また、神経回路網は顔面振動
信号が多少変化しても精度よく解析を行うことができる
ため、不特定多数のユーザに対しても音節認識を行うこ
とができる。
【0013】また、音節認識部が、学習動作時に発せら
れた音声を検出して検出音声信号に変換するマイクと、
マイクで変換された検出音声信号を増幅する増幅器と、
増幅器で増幅された検出音声信号から音節を認識して、
音節を示す教師信号パターンを出力する音声認識回路と
をさらに含み、神経回路網が、音声認識回路から入力さ
れた教師信号パターンおよび学習動作時に骨伝導マイク
で変換された顔面振動信号より顔面振動信号と音節との
関係を学習する学習機能をさらに有することにより、ユ
ーザごとに学習動作を行わせたのち、認識動作を行わせ
ることができる。
【0014】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
【0015】図1(A),(B)は本発明の骨伝導マイ
ク検出型音節認識装置の第1の実施例を示すブロック図
、図2は図1(A)の骨伝導マイク装具部10の顔面へ
の設置方法を示す図、図3は図1(B)の神経回路網2
6の構成を示す図である。
【0016】本実施例の骨伝導マイク検出型音節認識装
置は、ユーザ40の顔面に設置される骨伝導マイク装具
部10と、ユーザ40から離れた任意の場所に設置され
る音節認識部20とからなる。
【0017】骨伝導マイク装具部10は、図1(A)に
示すように、本体11と、本体11の図示左端に取付け
られ、発声に伴う顔面の振動を検出して顔面振動信号α
に変換する骨伝導マイク12と、骨伝導マイク12で変
換した顔面振動信号αを増幅し送信信号Wに変換して音
節認識部20へ送信する送信機13と、送信機13へ電
力を供給する電池14とからなる。ここで、送信機13
および電池14は本体11に内蔵されている。また、本
体11の形状はL字状となっており、骨伝導マイク装具
部10のユーザ40の顔面への設置は、図2に示すよう
に、骨伝導マイク12をユーザ40の顔面に密着させた
状態で、本体11をユーザ40の耳に掛けることにより
行えるようになっている。
【0018】音節認識部20は、図1(B)に示すよう
に、送信信号Wを受信するアンテナ21と、アンテナ2
1で受信された送信信号Wから顔面振動信号αを復調す
る受信機22と、学習動作時に発せられた音声を検出し
て検出音声信号Sに変換するマイク23と、マイク23
で変換された検出音声信号Sを増幅する増幅器24と、
増幅器24で増幅された検出音声信号Sから音節を認識
して、この音節を示す教師信号パターンを出力する音声
認識回路25と、音声認識回路25から入力された教師
信号パターンおよび学習動作時に受信機22で復調され
た顔面振動信号αより顔面振動信号αと音節との関係を
学習する学習機能を有するとともに、受信機22で復調
された顔面振動信号αに応じて各出力ユニット531〜
53Nの出力値y1〜yN(図3参照)を出力する神経
回路網26と、神経回路網26から出力された各出力ユ
ニット531〜53Nの出力値y1〜yNの大小比較を
行い、出力値が最大となる出力ユニットに対応する音節
を出力する比較器27とからなる。神経回路網26は、
図3に示すように、顔面振動信号αのサンプル値d1 
〜dn(図6参照)が数値パターンとして入力される、
複数個の入力ユニット511〜5115からなる入力層
31と、重み39を有する第1のリンク36を介して入
力層31と接続された、複数個の中間ユニット521〜
52Mからなる中間層32と、重み39を有する第2の
リンク37を介して中間層32と接続された、複数個の
出力ユニット531〜53Nからなる出力層33と、顔
面振動信号αのサンプル値d1〜dnからなる数値パタ
ーン,出力層33の各出力ユニット531〜53Nの出
力値y1〜yNからなる出力パターンおよび音声認識回
路25から入力される教師信号パターンを用いて、第1
および第2のリンク36,37の各重み39を更新する
重み制御部34とからなる。なお、各出力ユニット53
1〜53Nは、各単音節に対応するようになっている(
たとえば、出力ユニット531 が単音節“あ”に、出
力ユニット532 が単音節“い”に、出力ユニット5
33 が単音節“う”に対応)。
【0019】次に、本実施例の骨伝導マイク検出型音節
認識装置の動作について、学習動作および認識動作に分
けて説明する。
【0020】まず、学習動作について、図4に示すフロ
ーチャート,図5に示す各信号の流れを示す図,図6に
示す波形図および図7に示す波形図を用いて説明する。
【0021】学習動作は、音声認識回路25において正
しく音節認識ができる程度に静寂な環境下で行われる。 この環境下で、ユーザ40により単音節からなる音声が
発せられる(ステップ110 )。発せられた音声はマ
イク23で検出され検出音声信号Sに変換される。検出
音声信号Sは増幅器24で増幅されたのち、音声認識回
路25に入力される。音声認識回路25において、検出
音声信号Sによる音声認識が行われることにより、発声
された単音節が何であったかが認識される(ステップ1
11 )。一方、単音節からなる音声が発せられたとき
のユーザ40の顔面の振動が、骨伝導マイク12によっ
て検出され、たとえば図6に示すような顔面振動信号α
に変換される。顔面振動信号αは、送信機13で送信信
号Wに変換されたのち、音節認識部20へ送信される(
ステップ112 )。なお、送信機13を動作させるた
めに必要な電力は電池14から供給される。送信信号W
は、音節認識部20のアンテナ21で受信されて受信機
22で復調されることにより、顔面振動信号αに戻され
たのち、神経回路網26に入力される。
【0022】神経回路網26における顔面振動信号αの
抜取りは、以下のようにして行われる(ステップ113
 )。
【0023】図7(A)に示す増幅器24より入力され
る検出音声信号Sを全波整流することにより、同図(B
)に示す包絡線波形Eを得る。その後、包絡線波形Eの
振幅が所定のいき値θ1 となる時刻tL1,tL2を
求め、同図(C)に示す時刻tL1から時刻tL2まで
振幅が“1”となるゲート信号Gを作成する。このゲー
ト信号Gで、受信機22から入力される顔面振動信号α
に同図(D)で示すような観測窓をかけることにより、
顔面振動信号αの抜取りを行う。
【0024】このようにして抜取られた顔面振動信号α
は、図6に示すように、所定の時間間隔でサンプリング
され、各サンプル値d1〜dnが、数値パターンとして
神経回路網26の入力層31の各入力ユニット511〜
51nにそれぞれに入力される(ステップ114 )。 一方、音声認識回路25で認識された単音節は、学習用
の教師信号パターンとして神経回路網26の重み制御部
34に入力される。たとえば、単音節が“う”の場合に
は、学習用の教師信号パターン“00100・・・・0
”として神経回路網26の重み制御部34に入力される
【0025】神経回路網26は、各サンプル値d1〜d
nからなる数値パターンと音声認識回路25で認識され
た単音節の学習用の教師信号パターンとの関係を公知の
誤差逆伝播法(D.E  Rumelhart  et
 al.,Parallel  Distribute
d  Processing,MIT  Press.
,1986)により繰返し学習する(ステップ115)
。この学習は、たとえば、教師信号パターン“0010
0・・・・0”に対して、神経回路網26の各出力ユニ
ット531 〜53N の出力値y1〜yNのうち単音
節“う”に対応する出力ユニット533 の出力値y3
 が最大となり、単音節“う”が比較器27から出力さ
れるまで、重み制御部34による第1,第2のリンク3
6,37の重み39の更新を繰返すことにより行われる
(ステップ116 )。
【0026】このようにして一つの単音節の学習が終了
すると、他の単音節の学習が同様にして行われ、すべて
の単音節の学習が終了すると、学習動作が終了される(
ステップ117 )。
【0027】次に、本実施例の骨伝導マイク検出型音節
認識装置の認識動作について、図8に示すフローチャー
ト,図9に示す各信号の流れを示す図および図10に示
す波形図を用いて説明する。
【0028】ユーザ40は複数の単音節からなる音声を
発する(ステップ210 )。ユーザ40の発声に伴う
顔面の振動が、骨伝導マイク12によって検出され、顔
面振動信号αに変換される。顔面振動信号αは、送信機
12で送信信号Wに変換されたのち、音節認識部20へ
送信される(ステップ211 )。送信信号Wは、音節
認識部20のアンテナ21で受信されて受信機22で復
調されることにより、顔面振動信号αに戻されたのち、
神経回路網26に入力される。認識動作は、静寂な環境
下で行われるとは限らないので、神経回路網26におけ
る顔面振動信号αの抜取りを学習動作時と同様に検出音
声信号Sを用いて行うことができるとは限らない。そこ
で、騒音環境下であっても顔面振動信号αに重畳される
ノイズは、静寂な環境下における場合に比べて大差がな
いことに着目して、図10に示すように、顔面振動信号
αの振幅が所定のいき値θ2 を最初に横切る時刻tK
1,tK2から所定の時間幅TW の観測窓を定め、こ
の観測窓を顔面振動信号αにかけることにより、顔面振
動信号αの抜取りが行われる(ステップ212 )。こ
のようにして観測窓がかけられた顔面振動信号αは、所
定の時間間隔でサンプリングされ、各サンプル値d1〜
dnが、数値パターンとして神経回路網26の入力層3
1に入力される(ステップ213 )。神経回路網26
の出力層33の各出力ユニット531〜53Nの出力値
y1 〜yN が比較器27に入力されたのち、比較器
27で、各出力値y1〜yNの大小比較が行われ、出力
値が最大となる出力ユニットに対応する単音節が比較器
27から順次出力される(ステップ214 )。以上の
動作は、すべての認識動作が終了するまで繰返される(
ステップ215 )。
【0029】したがって、本実施例の骨伝導マイク検出
型音節認識装置では、ユーザ40が発する音声を用いず
に認識動作が行えるため、騒音環境下においても精度よ
く音節認識ができる。また、ユーザ40の耳に掛けられ
た骨伝導マイク装具部10から顔面振動信号αを送信信
号Wに変換して音節認識部20へ送信するため、音節認
識部20の設置場所が制限されることがない。
【0030】なお、神経回路網26における顔面振動信
号αの抜取りは、図10に示したものに限らず、たとえ
ば、図11に示すように行ってもよい。すなわち、顔面
振動信号αを所定の時間間隔でサンプリングしてメモリ
に格納したのち、任意の時刻t0 から所定の時間幅の
顔面振動信号αの各サンプル値を前記メモリから読出す
ことにより、顔面振動信号αに第1の観測窓をかけ、次
に、時刻t0 +Δtから前記所定の時間幅の顔面振動
信号αの各サンプル値を前記メモリから読出すことによ
り、顔面振動信号αに第2の観測窓をかけ、次に、時刻
t0 +2・Δtから前記所定の時間幅の顔面振動信号
αの各サンプル値を前記メモリから読出すことにより、
顔面振動信号αに第3の観測窓をかける。以上の動作を
所定回数だけ繰返すことにより、顔面振動信号αの抜取
りを行ってもよい。ただし、この場合には、たとえば、
図11の第2の観測窓がかけられた顔面振動信号αに対
応する単音節はないので、神経回路網26の誤動作を防
止するために、神経回路網26の出力層33に“音節な
し”を示す出力ユニットを追加しておいた方がよい。
【0031】また、図1に示した骨伝導マイク検出型音
節認識装置では、顔面振動信号αのみ用いて認識動作を
行ったが、騒音があまり大きくなく、ユーザ40が発し
た音声がマイク23である程度検出できる場合には、図
12に示すように検出音声信号Sを補完的に用いて認識
動作を行ってもよい。すなわち、この場合には、図3に
示した神経回路網26の入力層31に、検出音声信号S
の各サンプル値がそれぞれ入力される複数個の入力ユニ
ットを追加し、顔面振動信号αと検出音声信号Sと教師
信号パターンとを用いて前述した学習動作と同様な学習
動作を行ったのち、顔面振動信号αと検出音声信号Sを
用いて前述した認識動作と同様な認識動作を行ってもよ
い。この場合には、顔面振動信号αの抜取り動作を、前
述した学習動作時と同様に検出音声信号Sを用いて行う
こともできる。
【0032】さらに、学習動作にあたり、単音節ごとに
学習を行ったが、神経回路網26の入力層31の入力ユ
ニットの数,中間層32の中間ユニットの数および出力
層33の出力ユニットの数を増やして、複数の単音節ご
とに学習を行ってもよい。
【0033】単音節の学習方法として、図3に示したよ
うな時空間パターンを空間パターンに展開して認識する
多層神経回路網からなる神経回路網26を用い、誤差逆
伝播法によって学習する方法を採用したが、たとえば、
電子情報通信学会,音声技報,SP87ー100,19
87年11月に記載されている時間遅れニューラルネッ
トワーク(TDNN:Phoneme  recogi
nition  using  time−delay
  neural  networks)のような時空
間パターンを処理する他の神経回路網を用いてもよい。
【0034】図13は、本発明の骨伝導マイク検出型音
節認識装置の第2の実施例を示す音節認識部70のブロ
ック図である。
【0035】本実施例の骨伝導マイク検出型音節認識装
置は、予め学習動作を行った神経回路網76を用いてい
る点が、図1に示した骨伝導マイク検出型音節認識装置
と異なる。したがって、本実施例の骨伝導マイク検出型
音節認識装置では、前述した学習動作が不要であるため
、音節認識部70には、ユーザが発した音声を検出して
検出音声信号Sに変換するマイク,検出音声信号Sを増
幅する増幅器および学習動作時に教師信号パターンを出
力する音声認識回路が不要となる。なお、本実施例の骨
伝導マイク検出型音節認識装置における認識動作は、前
述した図8に示したフローチャートに従って同様にして
行われる。
【0036】なお、この骨伝導マイク検出型音節認識装
置においても、複数のユーザに対して神経回路網76の
学習動作を予め行っておくことにより、不特定多数のユ
ーザに対応させることができる。
【0037】図1および図13に示した骨伝導マイク検
出型音節認識装置では、顔面振動信号αを送信信号Wに
変換して骨伝導マイク装具部10から音節認識部20,
70へ送信したが、骨伝導マイク12と神経回路網26
,76とを電気的に接続して、顔面振動信号αを骨伝導
マイク12から神経回路網26,76に直接入力しても
よい。この場合には、骨伝導マイク装具部10の送信機
13および電池14と、音節認識部20,70のアンテ
ナ21,71および受信機22,72とは不要となる。
【0038】骨伝導マイク装具部10は図2に示すよう
に耳掛け式としたが、たとえば、骨伝導マイクを電話受
話器に装着し、ユーザが電話受話器を使用するときに骨
伝導マイクを顔面に密着させるようにしてもよい。また
、骨伝導マイク12を顔面に密着させて発声に伴う顔面
の振動を検出する代わりに、米国特許第4588867
号明細書に記載されている耳栓形骨導送受話器のような
イヤホン形状の骨伝導マイク装具部に骨伝導マイクを装
着して、骨導音の加速度を骨伝導マイクで検出すること
により、発声に伴う顔面の振動を検出してもよい。
【0039】顔面振動信号αの抜取りは、神経回路網2
6,76で行われたが、受信機22,72がこの機能を
有してもよいし、抜取り装置を別途設けてもよい。また
、神経回路網26,76は、オフセットを有する公知の
ものであってもよい。
【0040】本発明の骨伝導マイク検出型音節認識装置
の応用分野としては、コンピュータへの音声入力装置の
ほか、ワードプロセッサ,機械翻訳機,自動車電話の電
話番号,車内積載コンピュータおよび航空機コクピット
内積載コンピュータへの音声入力装置や、音節認識部の
ネットワーク化による内緒話ツールとしての応用などが
考えられる。
【0041】
【発明の効果】以上説明したように、本発明は次のよう
な効果がある。
【0042】(1)顔面振動信号が入力された神経回路
網の各出力ユニットの出力値を大小比較して音節認識を
行う音節認識部を有するため、骨伝導マイクで検出した
、ユーザの発声に伴う顔面の振動に応じた顔面振動信号
に基づく音節認識を既製の音節認識用アルゴリズムによ
らずに行うことができ、また、神経回路網を用いて顔面
振動信号の解析を行うため、不特定多数のユーザに対し
ても容易に音節認識を行うことができる。
【0043】(2)神経回路網に学習機能をもたせるこ
とにより、神経回路網におけるユーザごとの解析精度を
向上させることができる。
【図面の簡単な説明】
【図1】本発明の骨伝導マイク検出型音節認識装置の第
1の実施例を示すブロック図であり、(A)はその骨伝
導マイク装具部のブロック図であり、(B)はその音節
認識部のブロック図である。
【図2】図1(A)に示した骨伝導マイク装具部10の
ユーザ40の顔面への設置方法を示す図である。
【図3】図1(B)に示した神経回路網26の構成を示
す図である。
【図4】図1に示した骨伝導マイク検出型音節認識装置
の学習動作を説明するフローチャートである。
【図5】図1に示した骨伝導マイク検出型音節認識装置
の学習動作を説明する各信号の流れを示す図である。
【図6】顔面振動信号αの一例を示す波形図である。
【図7】図1(B)に示した神経回路網26における学
習動作時の顔面振動信号αの抜取り方法を説明する波形
図であり、(A)は検出音声信号Sの波形図、(B)包
絡線波形Eの波形図、(C)はゲート信号Gの波形図、
(D)は顔面振動信号αの波形図である。
【図8】図1に示した骨伝導マイク検出型音節認識装置
の認識動作を説明するフローチャートである。
【図9】図1に示した骨伝導マイク検出型音節認識装置
の認識動作を説明する各信号の流れを示す図である。
【図10】図1(B)に示した神経回路網26における
認識動作時の顔面振動信号の抜取り方法を説明する波形
図である。
【図11】図1(B)に示した神経回路網26における
認識動作時の顔面振動信号の他の抜取り方法を説明する
波形図である。
【図12】図1に示した骨伝導マイク検出型音節認識装
置の他の認識動作を説明する各信号の流れを示す図であ
る。
【図13】本発明の骨伝導マイク検出型音節認識装置の
第2の実施例を示す音節認識部のブロック図である。
【符号の説明】
10        骨伝導マイク装具部11    
    本体 12        骨伝導マイク 13        送信機 14        電池 20,70        音節認識部21,71  
      アンテナ 22,72        受信機 23        マイク 24        増幅器 25        音声認識回路 26,76        神経回路網27,77  
      比較器 31        入力層 32        中間層 33        出力層 34        重み制御部 36,37        リンク 39        重み 511〜5115     入力ユニット521〜52
M      中間ユニット531〜53N     
 出力ユニットα          顔面振動信号 S          検出音声信号 W          送信信号

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】  発声に伴う顔面の振動を検出して顔面
    振動信号に変換する骨伝導マイクと、該骨伝導マイクで
    変換された前記顔面振動信号より音節を認識する音節認
    識部とからなる骨伝導マイク検出型音節認識装置であっ
    て、前記音節認識部が、前記顔面振動信号に応じて各出
    力ユニットの出力値を出力する神経回路網と、該神経回
    路網から出力された前記各出力ユニットの出力値の大小
    比較を行って、該出力値が最大となる前記出力ユニット
    に対応する音節を出力する比較器とを含む骨伝導マイク
    検出型音節認識装置。
  2. 【請求項2】  前記音節認識部が、学習動作時に発せ
    られた音声を検出して検出音声信号に変換するマイクと
    、該マイクで変換された前記検出音声信号を増幅する増
    幅器と、該増幅器で増幅された前記検出音声信号から音
    節を認識して、該音節を示す教師信号パターンを出力す
    る音声認識回路とをさらに含み、前記神経回路網が、前
    記音声認識回路から入力された前記教師信号パターンお
    よび学習動作時に前記骨伝導マイクで変換された前記顔
    面振動信号より該顔面振動信号と音節との関係を学習す
    る学習機能をさらに有する請求項1記載の骨伝導マイク
    検出型音節認識装置。
JP3053688A 1991-02-27 1991-02-27 骨伝導マイク検出型音節認識装置 Pending JPH04271398A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3053688A JPH04271398A (ja) 1991-02-27 1991-02-27 骨伝導マイク検出型音節認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3053688A JPH04271398A (ja) 1991-02-27 1991-02-27 骨伝導マイク検出型音節認識装置

Publications (1)

Publication Number Publication Date
JPH04271398A true JPH04271398A (ja) 1992-09-28

Family

ID=12949757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3053688A Pending JPH04271398A (ja) 1991-02-27 1991-02-27 骨伝導マイク検出型音節認識装置

Country Status (1)

Country Link
JP (1) JPH04271398A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43519E1 (en) 1995-11-13 2012-07-17 Acacia Patent Acquisition Corporation Electromagnetically protected hearing aids
US8595774B2 (en) 1999-10-29 2013-11-26 Intel Corporation Identifying ancillary information associated with an audio/video program
KR20200124310A (ko) * 2018-03-21 2020-11-02 시러스 로직 인터내셔널 세미컨덕터 리미티드 바이오메트릭 프로세스들

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61128700A (ja) * 1984-11-28 1986-06-16 Showa Denko Kk スピ−カ−用振動板
JPS63316899A (ja) * 1987-06-19 1988-12-26 三洋電機株式会社 音声認識システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61128700A (ja) * 1984-11-28 1986-06-16 Showa Denko Kk スピ−カ−用振動板
JPS63316899A (ja) * 1987-06-19 1988-12-26 三洋電機株式会社 音声認識システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43519E1 (en) 1995-11-13 2012-07-17 Acacia Patent Acquisition Corporation Electromagnetically protected hearing aids
US8595774B2 (en) 1999-10-29 2013-11-26 Intel Corporation Identifying ancillary information associated with an audio/video program
US8984563B2 (en) 1999-10-29 2015-03-17 Intel Corporation Identifying ancillary information associated with an audio/video program
US9338385B2 (en) 1999-10-29 2016-05-10 Intel Corporation Identifying ancillary information associated with an audio/video program
KR20200124310A (ko) * 2018-03-21 2020-11-02 시러스 로직 인터내셔널 세미컨덕터 리미티드 바이오메트릭 프로세스들

Similar Documents

Publication Publication Date Title
EP3726856A1 (en) A hearing device comprising a keyword detector and an own voice detector and/or a transmitter
KR100933107B1 (ko) 함축적인 화자 적응을 사용하는 음성 인식 시스템
US8082149B2 (en) Methods and apparatuses for myoelectric-based speech processing
CN107799126A (zh) 基于有监督机器学习的语音端点检测方法及装置
CN110770827B (zh) 基于相关性的近场检测器
JPH11511567A (ja) パターン認識
US10460729B1 (en) Binary target acoustic trigger detecton
KR101414233B1 (ko) 음성 신호의 명료도를 향상시키는 장치 및 방법
US8200488B2 (en) Method for processing speech using absolute loudness
US10002623B2 (en) Speech-processing apparatus and speech-processing method
US20040199384A1 (en) Speech model training technique for speech recognition
WO2023104122A1 (en) Methods for clear call under noisy conditions
KR20090025939A (ko) 음성 인식을 이용한 홈 미디어 pc 시스템 및 그 제어방법
KR102037789B1 (ko) 로봇을 이용한 수화통역시스템
Shimizu et al. Speech recognition based on space diversity using distributed multi-microphone
JPH04271398A (ja) 骨伝導マイク検出型音節認識装置
JP2985976B2 (ja) 舌動作検出型音節認識装置
Singh et al. A critical review on automatic speaker recognition
Hu et al. Speaker change detection and speaker diarization using spatial information
CN116312561A (zh) 一种电力调度系统人员声纹识别鉴权降噪和语音增强方法、系统及装置
KR20080023033A (ko) 지능형 로봇 서비스 시스템에서 무선 마이크로폰을 이용한화자 인식 방법 및 장치
KR20210150372A (ko) 신호 처리 장치, 신호 처리 방법 및 프로그램
JPH04257899A (ja) 顎動作加速度検出型音節認識装置
AU1222688A (en) An adaptive multivariate estimating apparatus
Lee et al. Space-time voice activity detection