JPS6069696A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPS6069696A
JPS6069696A JP58178690A JP17869083A JPS6069696A JP S6069696 A JPS6069696 A JP S6069696A JP 58178690 A JP58178690 A JP 58178690A JP 17869083 A JP17869083 A JP 17869083A JP S6069696 A JPS6069696 A JP S6069696A
Authority
JP
Japan
Prior art keywords
circuit
signal
parameter
supplied
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58178690A
Other languages
English (en)
Inventor
平岩 篤信
雅男 渡
誠 赤羽
曜一郎 佐古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP58178690A priority Critical patent/JPS6069696A/ja
Publication of JPS6069696A publication Critical patent/JPS6069696A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は不特定話者を対象とした音声認識装置に関す、
る。
背景技術とその問題点 音声認識においては、特定話者に対する単語認識による
ものがずでに実用化されている。これは認識対象とする
全ての単語について特定話者にこれらを発音させ、バン
ドパスフィルタバンク等によりその音響パラメータを検
出して記憶(登録)しておく。そして特定話者が発声し
たときその音響パラメータを検出し、登録された各単語
の音響パラメータと比較し、これらが一致したときその
単語であるとの認識を行う。
このような装置において、話者の発声の時間軸が登録時
と異なっている場合には、一定時間(5〜20m se
c )毎に抽出される音響パラメータの時系列を伸縮し
て時間軸を整合させる。これによって発声速度の変動に
対処させるようにしている。
ところがこの装置の場合、認識対象とする全ての単語に
ついてその単語の全体の音響パラメータをあらかじめ登
録格納しておかなければならず、膨大な記憶容しと演算
を必要とする。このため認識語い数に限界があった。
これに対して音韻(日本語でいえばローマ文表記したと
き(7)A、I、U、E、O,に、S、T等)あるいは
音節(K^、 K1. KU等)fli位での認識を行
うことが提案されている。しかしこの場合に、母音等の
準定常部を有”する音韻の認識は容易であっζも、破裂
音(K、T、P等)のように音韻的特徴が非常に短いも
のを音響パラメータのみで一つの音韻に特定することば
極めて困難である。
さらに不特定話者を認識対象とした場合には、音響パラ
メータにO1d人斧による大きな分散があり、上述のよ
うに時間軸の整合だけでは認識を行うことができない。
そごで例えば一つの単語について複数の音響パラメータ
を登録して近似の音響パラメータを認識する方法や、単
語全体を固定次元のパラメータに変換し、識別函数によ
って判別する方法が提案されているが、いずれも膨大な
記憶容量を必要としたり、演算肪が多く、認識語い数が
極めて少くなってしまう。
ところで音(tilの発声現象を観察すると、母音や摩
擦音(S、H等)等の音韻は長く伸して発声することが
できる。例えば“はい”という発声を考えた場合に、こ
の音韻は第1図Aに示すように、1無音→■(→A→I
→無音」に変化する。これに対して同じ“はい゛の発声
を第1図Bのように行うこともできる。ここでH,A、
Iの準定常部の長さは発声ごとに変化し、これによって
時間軸の変動を生じる。ところがこの場合に、各音Ql
1間の過渡部(41線で示す)は比較的時間軸の変動が
少いことが111明した。
そごで本願発明者は先にこの点に着目しC以)のような
装置を提案した。
第2図におい°C1マイクロフォン(1)に供給された
音声信号がマイクアンプ(2)、5.5kHz以下のロ
ーパスフィルタ(3)を通じてAD変換回路(4)に供
給される。またクロック発生器(5)からの12.5k
lLz(80μsec間隔)のザンプリンタクロソクが
A D変換回路(4)に供給され、このタイミングで音
声信号がそれぞれ所定ビット数(−1ワード)のデジタ
ル信号に変換される。
このデジタル信号が、周波数分析用のバンドパスフィル
タ(61)、(62)・・・ (63o)に15(給さ
れ、人間の聴覚特性に合せた周波数メルスケールに応じ
て例えば30の帯域に分割される。この分割された各帯
域の信号がエンファシス回路(71)、 (72)・・
・ (7ao)にイ共給され、人間の聴覚性41Fに合
せた面域増強が行われる。この信号が絶対(174回路
(81)、(82)・・・(830)に(J(給されて
一極性とされ、東均値回路(9>)、(92)・・・ 
(93o)に供給されて信号の包絡線が取り出される。
こよにJ−ッ’で例えば5.12m sec間の256
ワードのデジタル信号が、音響的特徴を保存したまま3
0ワードに圧縮される。
この信号が対数回路(10i )、(102) ・・・
(1030)にイj(給され、各信号の対数値に変換さ
れる。これによって上述のエンファシス回路(71)(
72)・・・ (730)での重み付は等による冗長度
が排除される。ここで、例えばTの時間長に含まれるn
 f(IAIのサンプリングデータによ−、て表される
波形函数を Unf T(++ ・−−(1) としたとき、これを周波数分析して、対数を取った対数
パワースペクトル 1ogl Unf T(f)l ・・121をスペクト
ルパラメータx(i) (i =0+1・・・29)と
称する。
このスペクトルパラメータX (lが団1敗的フーリコ
ニ変換(D F T)回j@[11)に供給される。こ
こでこのDFT回路(11)において、例えば分割され
た帯域の数をMとすると、このM次元スペクトルパラメ
ータx(++(i=0.i −Ml)を2M−1点の実
数対称パラメータとみなして2 M −2aのDFTを
行う。従って m = 0. l 、 −−−2M−3となる。さらに
ごのDFTを行・う函数は偶函数とめなされるため π・1・m ト1 となり、これらより となる。このD F Tによりスペクトルの包絡特性を
表現する音響パラメータが抽出される。
このようにしてDFTされたスペクトラムパラメータX
 (i)についζ、0〜P−1(例えばP=8)次まで
のP次元の値を取り出し、これをローカルパラメータL
(P) (p = 0.1・・・P−1)とするととな
り、ここでスペクトルパラメータが対称であることを考
慮して x (b−x (2M−1−2) とおくと、ローカルパラメータL (P)は但し、p=
o、1・・・P−t とycる。このようにして30ワードの信号がP (例
えば8)ワードに圧縮される。
このローカルパラメータT、、 (P)がメモリ装fi
¥(12)に供給される。このメモリ装置(12)は1
行Pワードの記憶部が例えば16行マトリクス状に配さ
れたもので、ローカルパラメータL (P)が各次元ご
とに順次記憶されると共に、上述のクロック発生器(5
)からの5.12m5ec間隔のフレームクロックが供
給されて、各行のパラノータカ91自炊横方向ヘシフト
される。これによってメモリ装置i!7(14)には5
.12m5ec間隔のP次元のローカルパラメータT、
(ρ)が16フレーム(81,92m5ec )分記憶
され、フレームクロックごとに順次新しいパラメータに
更新される。
さらに音声過渡点検出回路(20)が以トのように構成
される。すなわち平均値回路(91)〜(9ao)から
のそれぞれの帯域の信号の量に応じり(FtQV(n)
(n = O+1・・・29)がバイアス付き対数回路
(211)、(212) ・・・ (2130)に供給
されて V’(Ill’ log (V(n++ R) ・−・
(71が形成される。また信号V (n)が累算平均回
路(22)に供給されζ 0 が形成され、この信pJ−Vaが対数回路(21x )
に供給されて v′a−1og(■a+B) ・・・(8)。
が形成される。そしてこれらの信号が演算回路(23)
にイj(給されて V+n+=Va −V(n) −−191が形成される
ここで、ト述のような信号V (n)を用いることによ
り、この信号は音韻から音韻への変化に対し゛ζ各次(
n−0,1・・・29)の変化が同程度となり、音韻の
種類による変化量のばら9きを回避できる。また対数を
とり演算を行って正規化パラメータV (n)を形成し
たごとにより、入力音声のレベルの変化によるパラメー
タV (II)の変動が排除される。さらにバイアスB
を加算して演算を行ったことにより、仮りにB −−と
するとパラメータV (n)→0となることから明らか
なように、入力音声の微少成分(ノイズ等)に対する感
度をトげることができる。
このパラメータV (n)がメモリ装f41(24)に
供給されて2w+1(例えば9)フレーム分が記憶され
る。この記憶された信号が演算回路(25)に(l給さ
れζ 但し GFt−(1;−w+t≦■≦W→−t)が形成
され、この信号とパラメータV (nlが演算回11各
(26)にイj(給され°C ・・・ (11) が形成される。このT+が過渡点検出パラメータであっ
て、このT土がピーク判別回路(27)に(J(給され
て、入力音声信号の音韻の過渡点が検出される。
ここでパラメータTjが、フレームtを1火んで+ii
i t& Wフレーム1゛つで定義されているので、不
要な凹凸や多極を71しるおそれがない。なお第3図は
例えば°゛ゼしz”という発声を、サンプリング周波数
12.5kHz 、 12ビツトデジタルデータとし、
フレーム周11JI −5,12m sec 、帯域数
N−30、バイアスB−0、検出フレーム数2w+ 1
−9で上述の検出を行った場合をボしている。図中Aは
音声波形、[3は音韻、Cは検出信号であって、「無音
−Z」(Z−→lF、J rP、−RJ rR−OJ 
l−0→無音」の各過渡部で顕著なピークを発生ずる。
ここで無音部にノイズによる多少の凹凸が形成されるが
これはバイアスBを大きくすることにより破線図下のよ
うに略()にt「る。
この過渡点検出山号T ff)がメモリ装造:(12)
に供給され、この検出信号のタイミングに相当する[1
−カルパラメータt−+p+が8番目の行にシフトされ
た時点でメモリ装W(12)の読み出しが行われる。こ
こでメモリ装置(12)の銃ノ出しは、各次元Pごとに
16フレ一ム分の信号が横方向に読み出される。そして
読み出された信号がDFT回路(13)に(共給される
この回路(13)において上述と同様にDFTが行われ
、音響パラメータの時系列変化の包絡特性が抽出される
。このDFTされた信号の内から0−Q−1(例えばQ
−3)次までのQ次元の値を取り出す。このD F T
を斉次A;Pごとに行い、全体でPXQ(−24)ワー
ドの過渡点パラメータK(ρ、q)> (p−0,1・
・・P−1) (q=0.1・・・Q−1)が形成され
る。ここで、K ((1,O)は音声波形のパワーを表
現しているので、パワー正規化のためp−0のときにq
=1〜Qとしてもよい。
すなわち第4図において、Aのような人力音声信号(H
AI)に対してBのような過渡点が検出されている場合
に、この信号の全体のパワースペクトルはCのようにな
っている。そして例えは1’ H→A」の過渡点のパワ
ースペクトルがDのようであったとすると、この信号が
エンファシスされてEのようになり、メルスケールで圧
縮されてFのようになる。この信号がDFTされてGの
ようになり、Hのように前後の16フレ一ム分がマトリ
ックスされ、この44号が−iミロ待時間軸方向にDF
Tされて過渡点パラメータK (P、 Q)が形成され
る。
この過渡点パラメータK (P、 (11がマノ\ラノ
ビス距離算出回路(14)に供給されると共に、メモリ
装置1W(15)からのクラスタ糸数が回路(14)に
供給されて各クラスタ糸数とのマノ\ラノビス距離が算
出される。ここでクラスタ系数は複数の話者の発音から
−l−述と同様に過渡点パラメータを抽出し、これを音
韻の内容に応じて分類し統計解析して得られたものであ
る。
そしてごの算出されたマハラノビス距離が判定回1♂ニ
(16)に供給され、検出された過渡点が何の音111
Sから何の音韻への過渡点であるかが判定され、出力端
子(17)に取り出される。
すなわち例えば″はい”゛いいえ”′0 (ゼロ)へ・
“9 (キュウ)゛の12単dAについて、あらかじめ
多数(白人以」−4)の話者の音辺を前述の装置に(J
u給し、過渡点を検出し過渡点パラメータを抽出−4−
る。この過渡点パラメータを例えば第5図にボずような
テーブルに分類し、この分類(クラスタ)ごとに統81
・解析する。図中*は無音をボす。
これらの過渡点パラメータについ°ζ、任意のザンプル
をRJ”A (r =L2−24) (aはクラスタ指
標で例えばa=1は*−+H,a=2はH−Aに対応す
る。nは話者番号)として、共分散マトリクス Eはアンザンブル平均 を計数し、この逆マトリクス B FJ =(A捏)−Ls ・・・ (I3)をめる
ここで任意の過渡どλパラメータに「とクラスタaとの
距離が、マハラノビス距離 (K、−R7’) −(14) でめられる。
従ってメモリ装置F7(15)に−上述のB R1シ及
びRjp3をめて記憶して才?くことにより、マハラノ
ビス距離算出回路(14)に゛ζ入力音声の過渡点パラ
メータとのマハラノヒス距離が算出される。
これによって回IM、(14)から入力音声の過渡点ご
とに各クラスタとの最少距離と過渡点の順位が取り出さ
れる。これらが判定回路(16)に供給され、人力音声
が無音になった時点におい゛ζ認a81I″t’ll定
を行う。例えば各単語ごとに、各過渡点パラメータとク
ラスタとの最少距離のj11方根の平均値によるff1
語距離をめる。なお過渡点の一部脱落を考IEニジて各
単語は脱落を想定した複数のタイプについて単語距離を
める。ただし過渡点の順位関係がテーブルと異なってい
るものはりジェツトする。そしてごの屯語距別が最少に
なる単語を認識判定する。
このようにし°ζ音声認識が行われるわけであるが、こ
の装置vによれば音声の過渡点の音韻の変化を検出して
いるので、時間軸の変動がなく、不特定話者に9いても
良好な認識を行うことができる。
また過渡点において上述のようなパラメータの抽出を行
ったことにより、一つの過渡点を例えば24次元で認識
することができ、認識を極め′ζ容易かつ出値に行うこ
とができる。
なお上述の装置において120名の話者にて学習を行い
、この120名以外の話者にて十述の121! iAに
ついて実験を1−1った結果、98.2%の+p均認識
率が得られた。
さらに上述の例で“はい′のI+−1−AJと8(ハチ
)″のr I−1→A1は同じクラスタに分類i’+J
能である。従って認6八ずべき呂゛語の音flit数を
αとしてcIC21固のクラスタをあらかじめδIWし
てクラスタ係数をメモリ装置I′Jl(15)に記1a
さ一μmて」召Jば、種々の単語の認識に適用でき、多
くの語いの認識を容易に行うことかできる。
ところがこの装置において、エンファシス回路(71)
〜(7so)はそれぞれ所定の定数を乗算するものであ
って、乗算器が必要とされる。この場合にデジタルの乗
算器は構成が複雑であり、このような乗算器を各帯域ご
とに設ルノることは回路構成上好ましくない。またコン
ピュータを用いてソフトウェアで処理1−る場合にも多
(の複雑な演算が必要となり、問題であ−2た。
また上述の装置において、人力音声信号に含まれるノイ
ズ成分がパラメータの精度を劣化させ、これによゲC1
t−確な認識が行えない場合が多くある。その場合に、
例えば入力端にてノイズ量を評価し”Cノイズの除去を
行うと、周波数帯域にかかわらず一率に除去が行われる
ごとになり、ノイズの)4波数特竹によっては一部の帯
域で必要以上に信号成分が除去されてしまうおそれがあ
った。
発明のl−」的 本発明はこのような点にかんがみ、簡単な構成で良好な
音声認識が9−1えるようにするものである。
発明の概要 本発明は、人力音声信号を周波数分析して上記人力音声
焙りの特徴を抽出するようにした音声認識装置においr
、人間の千と覚特竹に合せるためのエンファシス回路を
上記周波数分析の前段に設け、このエンファシス回路は
、上記周波数分析の面域側で差分、低域側で無補1]−
1となるように構成すると共に、この差分と無袖止との
切換L’LをF記差分の伝達関数が1になる点としたこ
とを特徴と1−る音声認識装置であっ°乙これによれば
簡単な構成で良好な音声認識を行うこ古ができる。
実施例 第6図において、バンドパスフィルタ(6I)〜(63
0)の前段にエンファシス回路(7)が設けられる。そ
してこのエンファシス回路(7)において、例えば(固
成(頁すの1〜16番の11)域では(金時が)敗1i
1i +Fでバンドパスフィルタ(61)〜(6xs)
にイ1(給され、高kli側の17へ・30番の帯域で
は信号が差分量b’8(31)を通じてバンドパスフィ
ルタ(Fixt)〜・(630)に供給される。
このエンファシス回路(7)において、差分量+z8(
31)の特性は ytm−X(n)X(n−+1H++(+5)で現わさ
れ、この式をZ変換すると Y<n)−(1−Z−1) X(+1> ・・・(lf
i)となる。さらにこの回路の伝達関数H(Z)はIH
(Z>1−l H(Z) ・H(Z−”) 1= 1 
2−’l cosωT I ・・(17)となり、第7
図に小才ように低域側で小、高域側で人となる特性とな
っ゛(いる。そしてこの伝達関数が1となるのは、角周
波数ωがπ/2となる点Cある。−・力上述のメルスケ
ールで30の帯域に分割した場合に、角周波数ωがπ/
2の点は、16番と17番の帯域の間になっ”ζいる。
そこで−ト述のよ・)に1〜16番の帯域で無補止、1
7〜30番の帯域で部分と1−るごとにより、第8図に
示すように人間の聴覚時4T[に合せたIgJ域増強を
行うことができる。
またそれぞれの帯域のjp均(iff回[iA (9>
 )〜(93o)からの信号がノイズ除去回路(321
)〜(3230)にU(給される。一方AD変換回路(
4)からの信号が無音状態の検出回路(33)に(l給
され、この検出14号が除去量l/3 (32工) 〜
(3230)に供給される。そして除去回路(32+ 
) ” (323o)にて、無音状態での信号(ノイズ
)が測定され、この平均値(またはピーク値あるいはこ
れらを演算し°ζfMた稙)をスレショルドレベルNと
して、入力信号XがごのレベルNより小のとき01大の
とき(x−N)の信号が出力される。ごのイ4号力救・
1数回路(101)〜(1030)にイJ(給される。
すなわちノイズ除去回路(321)〜(3230)にお
いて、−の帯域の除去回路に第9図式に小ずような信号
が供給されている場合に、検出回路(33)にて無音部
が検出、され、この部分の信号−の例えば11i均値か
らなるスI/シコルl〜ルヘルNによっテ第9図Bに示
すような信号が出力される。そしてこの場合にノイズレ
ベルが各帯域ごとに測定されており、ノイズの周波数特
性に応じたノイズ除去が行われる。
他は第2図と同様に構成される。
こうしてこの装置において音声認識が行われるわけであ
るが、この装置によれば乗算器を用いずに簡単な差分回
路のみで人間の聴覚特性に合せた良好なエンファシスを
行うことができる。またソフトウェアで処理する場合に
も演算量を少くすることができる。
ざらにノイズの周波数特性に応したノイズ除去を行うこ
とができ、パラメータの精度が極めて向上する。
発明の効果 本発明によれば、簡単な構成で良好な音声認識が行える
ようになった。
【図面の簡単な説明】
第1図は音声の説明のための図、第2図〜第5図は従来
の装置の説明のための図、第6図は本発明の一例の系統
図、第7図〜第9図はその説明のための図である。 (1)はマイクロフォン、(3)はローパスフィルタ、
(4)はAD変換回路、(5)はクロック発生器、(6
)はバンドパスフィルタ、(7)はエンファシス回IL
 f81ハ絶対値回路、(9)は平均値回路、(Iωは
対数回1.’8、(11) 、(13)は離散的フーリ
エ変換回路、(12)。 (15)はメモリ装置、(14)はマハラノビス距離算
出回1?R1(16)は判定回路、(17)は出力端子
、(20)は過渡点検出回路、(31)は差分回路、(
32)はノイズ除去回路、(33)は無音部検出回路で
ある。 第5図 −Fvご礼li jE書 昭和58年10月27日 昭和58年 特 許 願 第178690号2、発明の
名称 音声認識装置 3、補11−を4−る者 弔(’lとの関係 特許出願人 任 所 東京部品用区北品用6丁目7番35に+名4(
1・(2] 8)ソニー株式会社代表取締役 人 負 
典 雄 4、代理人 住 所 東京都新宿区西新宿1丁目8番1号置 03−
3,13−5820+や (新宅ビル)6、補II−に
より増加する発明の数 7、補11−の対象 明細舊の発明の詳細な説明の欄。 8、補11ミの内容 +11 明細νを中、第5頁7〜9行1こよによって・
・・圧縮される。」とあるを削除する。 (2)同、第8頁5行1−16行」とあるを1−83行
1と訂正する。 (3)間、同頁8行l” 5.12m sec間隔のフ
レームクロック」とあるをr O,96m sec間隔
のクロック1と訂正する。 (4)同、同頁11行r 5.12m sec Jとあ
るをl 0.96rnsecJと訂正する。 (5) 同、同頁12〜13行「16フレーム・・・フ
レームクロック」とあるを「83ポイント(78,78
m5ec )分配環され、クロック」と訂正する。 (6) 同、第10頁5行及び最−F行にそれぞれ1−
フレーム」とあるを「ポイント」と訂正する。 (7)同、第11頁4〜5行1−フレーム周期」とある
を「ポイント間隔」と訂正する。 (8) 同、同頁19行及び第12頁20行にそれぞれ
116フレーム」とあるを「83ポイント」と訂正する
。 以」二

Claims (1)

    【特許請求の範囲】
  1. 人力音声信号を周波数分析して」1記人力音声信号の特
    徴を抽出するようにした音声認識装置において、人間の
    聴覚特性に合せるためのエンファシス回路を上記周波数
    分析の前段に設け、このエンファシス回路は、上記周波
    数分析のla域側で差分、低域側で無補IEとなるよう
    に構成すると共に、この差分と無補正との切換点を上記
    差分の伝達関数が1になる点としたことを特徴とする音
    声認識装置。
JP58178690A 1983-09-27 1983-09-27 音声認識装置 Pending JPS6069696A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58178690A JPS6069696A (ja) 1983-09-27 1983-09-27 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58178690A JPS6069696A (ja) 1983-09-27 1983-09-27 音声認識装置

Publications (1)

Publication Number Publication Date
JPS6069696A true JPS6069696A (ja) 1985-04-20

Family

ID=16052842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58178690A Pending JPS6069696A (ja) 1983-09-27 1983-09-27 音声認識装置

Country Status (1)

Country Link
JP (1) JPS6069696A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019760B2 (en) * 2016-06-13 2021-05-25 Fuji Corporation Feeder management method and feeder management device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019760B2 (en) * 2016-06-13 2021-05-25 Fuji Corporation Feeder management method and feeder management device

Similar Documents

Publication Publication Date Title
KR910002198B1 (ko) 음성인식방법과 그 장치
US20100332222A1 (en) Intelligent classification method of vocal signal
JPH0990974A (ja) 信号処理方法
US11611581B2 (en) Methods and devices for detecting a spoofing attack
Zhang et al. Advancements in whisper-island detection using the linear predictive residual
JPS6069696A (ja) 音声認識装置
JPH0441357B2 (ja)
Singh et al. A novel algorithm using MFCC and ERB gammatone filters in speech recognition
WO2014155652A1 (ja) 話者検索システム、プログラム
JPH01255000A (ja) 音声認識システムに使用されるテンプレートに雑音を選択的に付加するための装置及び方法
JPH04369698A (ja) 音声認識方式
JPS6086599A (ja) 音声認識装置
JPS6069697A (ja) 音声認識装置
JPH0546558B2 (ja)
JPH0552509B2 (ja)
JPS6086600A (ja) 音声認識方法
JPH0552510B2 (ja)
JP2975808B2 (ja) 音声認識装置
JPH0552515B2 (ja)
JP3008404B2 (ja) 音声認識装置
JPH0546559B2 (ja)
JPH0546560B2 (ja)
Park et al. Zero-crossing-based feature extraction for voice command systems using neck-microphones
JP2891259B2 (ja) 音声区間検出装置
Sahu et al. Odia isolated word recognition using DTW