JPH0552510B2 - - Google Patents

Info

Publication number
JPH0552510B2
JPH0552510B2 JP58045233A JP4523383A JPH0552510B2 JP H0552510 B2 JPH0552510 B2 JP H0552510B2 JP 58045233 A JP58045233 A JP 58045233A JP 4523383 A JP4523383 A JP 4523383A JP H0552510 B2 JPH0552510 B2 JP H0552510B2
Authority
JP
Japan
Prior art keywords
signal
circuit
parameter
parameters
supplied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58045233A
Other languages
English (en)
Other versions
JPS59170897A (ja
Inventor
Yoichiro Sako
Masao Watari
Makoto Akaha
Atsunobu Hiraiwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP58045233A priority Critical patent/JPS59170897A/ja
Publication of JPS59170897A publication Critical patent/JPS59170897A/ja
Publication of JPH0552510B2 publication Critical patent/JPH0552510B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は音声認識に使用して好適な音声過渡点
検出方法に関する。
背景技術とその問題点 音声認識においては、特定話者に対する単語認
識によるものがすでに実用化されている。これは
認識対象とする全ての単語について特定話者にこ
れらを発音させ、バンドパスフイルタバンク等に
よりその音響パラメータを検出して記憶(登録)
しておく。そして特定話者が発声したときその音
響パラメータを検出し、登録された各単語の音響
パラメータと比較し、これらが一致したときその
単語であるとの認識を行う。
このような装置において、話者の発声の時間軸
が登録時と異なつている場合には、一定時間(5
〜20m sec)毎に抽出される音響パラメータの時
系列を伸縮して時間軸を整合させる。これによつ
て発声速度の変動に対処させるようにしている。
ところがこの装置の場合、認識対象とする全て
の単語についてその単語の全体の音響パラメータ
をあらかじめ登録格納しておかなければならず、
膨大な記憶容量と演算を必要とする。このため認
識語い数に限界があつた。
一方音韻(日本語でいえばローマ字表記したと
きのA,I,U,E,O,K,S,T等)あるい
は音節(KA,KI,KU,等)単位での認識を行
うことが提案されている。しかしこの場合に、母
音等の準定常部を有する音韻の認識は容易であつ
ても、破裂音(K,T,P等)のように音韻的特
徴が非常に短いものを音響パラメータのみで一つ
の音韻に特定することは極めて困難である。
そこで従来は、各音節ごとに離散的に発音され
た音声を登録し、離散的に発声された音声を単語
認識と同様に時間軸整合させて認識を行つてお
り、特殊な発声を行うために限定された用途でし
か利用できなかつた。
さらに不特定話者を認識対象とした場合には、
音響パラメータに個人差による大きな分散があ
り、上述のように時間軸の整合だけでは認識を行
うことができない。そこで例えば一つの単語につ
いて複数の音響パラメータを登録して近似の音響
パラメータを認識する方法や、単語全体を固定次
元のパラメータに変換し、識別函数によつて判別
する方法が提案されているが、いづれも膨大な記
憶容量を必要としたり、演算量が多く、認識語い
数が極めて少くなつてしまう。
これに対して本発明者は先に、不特定話者に対
しても、容易かつ確実に音声認識を行えるように
した新規な音声認識方法を提案した。以下にまず
その一例について説明しよう。
ところで音韻の発声現象を観察すると、母音や
摩擦音(S,H等)等の音韻は長く伸して発声す
ることができる。例えば“はい”という発声を考
えた場合に、この音韻は第1図Aに示すように、
「無音→H→A→I→無音」に変化する。これに
対して同じ“はい”の発声を第1図Bのように行
うこともできる。ここでH,A,Iの準定常部の
長さは発声ごとに変化し、これによつて時間軸の
変動を生じる。ところがこの場合に、各音韻間の
過渡部(斜線で示す)は比較的時間軸の変動が少
いことが判明した。
そこで第2図において、マイクロフオン1に供
給された音声信号がマイクアンプ2、5.5kHz以下
のローパスフイルタ3を通じてA−D変換回路4
に供給される。またクロツク発生器5からの
12.5KHz(80μ sec間隔)のサンプリングクロツ
クがA−D変換回路4に供給され、このタイミン
グで音声信号がそれぞれ所定ビツト数(=1ワー
ド)のデジタル信号に変換される。この変換され
た音声信号が5×64ワードのレジスタ6に供給さ
れる。またクロツク発生器5からの5.12m sec間
隔のフレームクロツクが5進カウンタ7に供給さ
れ、このカウント値がレジスタ6に供給されて音
声信号が64ワードずつシフトされ、シフトされた
4×64ワードの信号がレジスタ6から取り出され
る。
このレジスタ6から取り出された4×64=256
ワードの信号が高速フーリエ変換(FFT)回路
8に供給される。ここでこのFFT回路8におい
て、例えばTの時間長に含まれるnf個のサンプリ
ングデータによつて表される波形函数を UofT(f) ……(1) としたとき、これをフーリエ変換して、 UofT(f)=∫T/2 -T/2 UofT(f)e-2jftdt ≡ U1ofT(f)+jU2ofT(f) ……(2) の信号が得られる。
さらにこのFFT回路8からの信号がパワース
ペクトルの検出回路9に供給され、 |U2|=U2 1ofT(f)+U2 2ofT(f) ……(3) のパワースペクトル信号が取り出される。ここで
フーリエ変換された信号は周波数軸上で対称にな
つているので、フーリエ変換によつて取り出され
るnf個のデータの半分は冗長データである。そこ
で半分のデータを排除して1/2nf個のデータが取
り出される。すなわち上述のFFT回路8に供給
された256ワードの信号が変換されて128ワードの
パワースペクトル信号が取り出される。
このパワースペクトル信号がエンフアシス回路
10に供給されて聴感上の補正を行うための重み
付けが行われる。ここで重み付けとしては、例え
ば周波数の高域成分を増強する補正が行われる。
この重み付けされた信号が帯域分割回路11に
供給され、聴感特性に合せた周波数メルスケール
に応じて例えば32の帯域に分割される。ここでパ
ワースペクトルの分割点と異なる場合にはその信
号が各帯域に按分されてそれぞれの帯域の信号の
量に応じた信号が取り出される。これによつて上
述の128ワードのパワースペクトル信号が、音響
的特徴を保存したまま32ワードに圧縮される。
この信号が対数回路12に供給され、各信号の
対数値に変換される。これによつて上述のエンフ
アシス回路10での重み付け等による冗長度が排
除される。ここでこの対数パワースペクトル log|U2 ofT(f)| ……(4) をスペクトルパラメータx(i)(i=0,1……31)
と称する。
このスペクトルパラメータx(i)が離散的フーリ
エ変換(DFT)回路13に供給される。ここで
このDFT回路13において、例えば分割された
帯域の数をMとすると、このM次元スペクトルパ
ラメータx(i)(i=0,1……M−1)を2M−1
点の実数対称パラメータとみなして2M−2点の
DFTを行う。従つて X(n)2M-3i=0 x(i)Wmi 2M-2 ……(5) 但し、 Wmi 2M-2=e−j(2π・i・m/2M−3) m=0,1……2M−3 となる。さらにこのDFTを行う函数は遇函数と
みなされるため Wmi 2M-2=cos(2π・i・m/2M−2) =cosπ・i・m/M−1 となり、これらより X(n)2M-3i=0 x(i)cosπ・i・m/M−1 ……(6) となる。このDFTによりスペクトルの包絡特性
を表現する音響パラメータが抽出される。
このようにしてDFTされたスペクトルパラメ
ータx(i)について、0〜P−1(例えばP=8)次
までのP次元の値を取り出し、これをローカルパ
ラメータL(p)(P=0,1……P−1)とすると L(p)2M-3i=0 x(i)cosπ・i・p/M−1 ……(7) となり、ここでスペクトルパラメータが対称であ
ることを考慮して x(i)=x(2M-i-2) ……(8) とおくと、ローカルパラメータL(p)は L(p)=x(p)M-2 〓 〓i=1 x(i){cosπ・i・p/M−1+cosπ(2M−2−i
)p/M−1} +x(M−1)cosπ・p/M ……(9) 但し、p=0,1……p−1 となる。このようにして32ワードの信号がP(例
えば8)ワードに圧縮される。
このローカルパラメータL(p)がメモリ装置14
に供給される。このメモリ装置14は1行Pワー
ドの記憶部が例えば16行マトリクス状に配された
もので、ローカルパラメータL(p)が各次元ごとに
順次記憶されると共に、上述のクロツク発生器5
からの5.12m sec間隔のフレームクロツクが供給
されて、各行のパラメータが順次横方向へシフト
される。これによつてメモリ装置14には5.12m
sec間隔のP次元のローカルパラメータL(p)が16フ
レーム(81.92m sec)分記憶され、フレームク
ロツクごとに順次新しいパラメータに更新され
る。
さらに例えばエンフアシス回路10からの信号
が音声過渡点検出回路20に供給されて音韻間の
過渡点が検出される。
この過渡点検出信号T(t)がメモリ装置14に供
給され、この検出信号のタイミングに相当するロ
ーカルパラメータL(p)が8番目の行にシフトされ
た時点でメモリ装置14の読み出しが行われる。
ここでメモリ装置14の読み出しは、各次元Pご
とに16フレーム分の信号が横方向に読み出され
る。そして読み出された信号がDFT回路15に
供給される。
このDFT回路15において上述と同様にDFT
が行われ、音響パラメータの時系列変化の包絡特
性が抽出される。このDFTされた信号の内から
0〜Q−1(例えばQ=3)次までのQ次元の値
を取り出す。このDFTを各次元Pごとに行い、
全体でP×Q(=24)ワードの過渡点パラメータ
K(p,q)(p=0,1……P−1)(q=0,1……
Q−1)が形成される。ここで、K(0,0)は音声波
形のパワーを表現しているのでパワー正規化のた
め、p=0のときにq=1〜Qとしてもよい。
すなわち第3図において、第3図Aのような入
力音声信号(HAI)に対して第3図Bのような
過渡点が検出されている場合に、この信号の全体
のパワースペクトルは第3図Cのようになつてい
る。そして例えば「H→A」の過渡点のパワース
ペクトルが第3図Dのようであつたとすると、こ
の信号がエンフアシスされて第3図Eのようにな
り、メルスケールで圧縮されて第3図Fのように
なる。この信号がDFTされて第3図Gのように
なり、第3図Hのように前後の16フレーム分がマ
トリツクされ、この信号が順次時間軸t方向に
DFTされて過渡点パラメータK(p,q)が形成される。
この過渡点パラメータK(p,q)がマハラノビス距
離算出回路16に供給されると共に、メモリ装置
17からのクラスタ係数が回路16に供給されて
各クラスタ係数とのマハラノビス距離が算出され
る。ここでクラスタ係数は複数の話者の発音から
上述と同様に過渡点パラメータを抽出し、これを
音韻の内容に応じて分類し統計解析して得られた
ものである。
そしてこの算出されたマハラノビス距離が判定
回路18に供給され、検出された過渡点が、何の
音韻から何の音韻への過渡点であるかが判定さ
れ、出力端子19に取り出される。
すなわち例えば“はい”“いいえ”“0(ゼロ)”
〜“9(キユウ)”の12単語について、あらかじめ
多数(百人以上)の話者の音声を前述の装置に供
給し、過渡点を検出し過渡点パラメータを抽出す
る。この過渡点パラメータを例えば第4図に示す
ようなテーブルに分類し、この分類(クラスタ)
ごとに統計解析する。図中*は無音を示す。
これらの過渡点パラメータについて、任意のサ
ンプルR(a)r,o(r=1,2……24)(aはクラスタ指
標で例えばa=1は*→H,a=2はH→Aに対
応する。nは話者番号)として、共分散マトリク
ス A(a) r,s≡E(R(a) r,o(a) r)(R(a) s,os (a)
……(15) 但し、r (a)=E(R(a) r,o) Eはアンサンブル平均 を計数し、この逆マトリクス B(a) r,s≡=(A(a) t,v-1 r,s ……(16) を求める。
ここで任意の過渡点パラメータKrとクラスタ
aとの距離が、マハラノビスの距離 D(Kra)≡d 〓rs (Krr (a))・B(a) r,s・(Krs (a)) ……(17) で求められる。
従つてメモリ装置17に上述のB(a)r,s及びr (a)
求めて記憶しておくことにより、マハラノビス距
離算出回路16にて入力音声の過渡点パラメータ
とのマハラノビス距離が算出される。
これによつて回路16から入力音声の過渡点ご
とに各クラスタとの最小距離と過渡点の順位が取
り出される。これらが判定回路18に供給され、
入力音声が無声になつた時点において認識判定を
行う。例えば各単語ごとに、各過渡点パラメータ
とクラスタとの最小距離の平均値による単語距離
を求める。なお過渡点の一部脱落を考慮して各単
語は脱落を想定した複数のタイプについて単語距
離を求める。ただし過渡点の順位関係がテーブル
と異なつているものはリジエクトする。そしてこ
の単語距離が最小になる単語を認識判定する。
従つてこの装置によれば音声の過渡点の音韻の
変化を検出しているので、時間軸の変動がなく、
不特定話者について良好な認識を行うことができ
る。
また過渡点において上述のようなパラメータの
抽出を行つたことにより、一つの過渡点を例えば
24次元で認識することができ、認識を極めて容易
かつ正確に行うことができる。
なお上述の装置において120名の話者にて学習
を行い、この120名以外の話者にて上述12単語に
ついて実験を行つた結果、98.2%の平均認識率が
得られた。
さらに上述の例で“はい”の「H→A」と“8
(ハチ)”の「H→A」は同じクラスタに分類可能
である。従つて認識すべき言語の音韻数をαとし
てαP2個程度のクラスタをあらかじめ計算してク
ラスタ係数をメモリ装置17に記憶させておけ
ば、種類の単語の認識に適用でき、多くの語いの
認識を容易に行うことができる。
ところで従来の過渡点検出としては例えば音響
パラメータL(p)の変化量の総和を用いる方法があ
る。すなわちフレームごとにP次のパラメータが
抽出されている場合に、Gフレームのパラメータ
をL(p)(G)(p=0,1……P−1)としたとき T(G)=p-0p=0 |L(p)(G)−L(p)(G−1)| ……(9′) のような差分量の絶対値の総和を利用して検出を
行う。
ここでP=1次元のときには、第5図A,Bに
示すようにパラメータL(p)(G)の変化点において
パラメータT(G)のピークが得られる。ところが例
えばP=2次元の場合に、第5図C,Dに示す0
次,1次のパラメータL(0)(G)、L(1)(G)が上述
と同様の変化であつても、それぞれの差分量の変
化が第5図E,Fのようであつた場合に、パラメ
ータT(G)のピークが2つになつて過渡点を一点に
定めることができなくなつてしまう。これは2次
元以上のパラメータを取つた場合に一般的に起こ
りうる。
また上述の説明ではL(p)(G)の変化は第5図H
のようになり、これから検出されたパラメータ
T(G)には第5図Iに示すように多数の凹凸が生じ
てしまう。
このため上述の方法では、検出が不正確である
と共に、検出のレベルも不安定であるなど、種々
の欠点があつた。
発明の目的 本発明はこのような点に鑑み、容易かつ安定な
音声過渡点検出方法を提供するものである。
発明の概要 本発明は入力音声信号を人間の聴覚特性に応じ
て等しく重み付けして音響パラメータを抽出し、
この音響パラメータのレベルに対して正規化を行
い、この正規化された音響パラメータを複数フレ
ームにわたつて監視し、上記音響パラメータのピ
ークを検出するようにした音声過渡点検出方法に
おいて、上記複数フレームの中心フレーム及びそ
の前後の所定フレームを除いて音響パラメータの
平均値を求め、該平均値と上記複数フレームの音
響パラメータとの差をそれぞれ求め、該差の総和
を用いて上記音響パラメータのピークを検出する
ことを特徴とするものである。
実施例 以下に図面を参照しながら本発明音声過渡点検
出方法の一実施例について説明しよう。
第6図において、第2図のエンフアシス回路1
0からの重み付けされた信号が帯域分割回路21
に供給され、上述と同様にメルスケールに応じて
N(例えば20)の帯域に分割され、それぞれの帯
域の信号の量に応じた信号V(o)(n=0,1……
N−1)が取り出される。この信号がバイアス付
き対数回路22に供給されて v′(o)=log(V(o)+B) ……(10) が形成される。また信号V(o)が累算回路23に供
給されて Va20n=1 V(o)/20 が形成れ、この信号Vaが対数回路22に供給さ
れて v′a=log(Va+B) ……(11) が形成される。そしてこれらの信号が演算回路2
4に供給されて v(o)=v′a−v′(o) ……(12) が形成される。
ここで上述のような信号V(o)を用いることによ
り、この信号は音韻から音韻への変化に対して各
次(n=0,1……N−1)の変化が同程度とな
り、音韻の種類による変化量のばらつきを回避で
きる。また対数をとり演算を行つて正規化パラメ
ータv(o)を形成したことにより、入力音声のレベ
ルの変化によるパラメータv(o)の変動が排除され
る。さらにバイアスBを加算して演算を行つたこ
とにより、仮りにB→∞とするとパラメータv(o)
→0となることから明らかなように、入力音声の
微少成分(ノイズ等)に対する感度を下げること
ができる。
このパラメータv(o)がメモリ装置25に供給さ
れて2w+1(例えば9)フレーム分が記憶され
る。この記憶された信号が平均値を求める演算回
路26に供給される。この場合、この演算回路2
6は複数フレーム2w+1の中心フレーム(例え
ば5番目のフレーム)及びその前後の所定フレー
ムz(例えば1フレーム)を除いて平均値を求め
る如くなされる。この演算回路26に於いて平均
値信号 但し w>z が形成され、この平均値信号Yo,tとパラメータ
v(o)が演算回路27に供給されて T(t)Nn=0 w1=-w |v(o)(I+t)−Yo,ta ……(14) 但し a≧1 が形成される。このT(t)が過渡点検出パラメータ
であつて、このT(t)がピーク判別回路28に供給
されて、入力音声信号の音韻の過渡点が検出さ
れ、出力端子29に取り出されて例えば第2図の
メモリ装置14の出力回路に供給される。
ここでパラメータT(t)が、フレームtを挾んで
前後wフレームずつで定義されているので、不要
な凹凸や多極を生じるおそれがない。更に複数フ
レームの平均値を求め、この平均値よりのこの複
数フレームの夫々の差を求めこれより音響パラメ
ータT(t)のピークを検出するようにしているので
より安定し過渡点を検出できる。又更に平均値を
得るのに1次元過渡検出パラメータにあまり役に
立つていない複数フレームの中心フレーム及びそ
の前後の所定フレームを除去して演算しているの
でより安定なピーク検出をすることができ安定な
過渡点を検出できる。なお第7図は例えば“ゼ
ロ”という発音を、サンプリング周波数12.5kHz、
12ビツトデジタルデータとし、5.12m secフレー
ム周期で256点のFETを行い、帯域数=20、バイ
アスB=0、検出フレーム数2w+1=9で上述
の検出を行つた場合を示している。第7図Aは音
声波形、第7図Bは音韻、第7図Cは検出信号で
あつて、「無音→Z」「Z→E」「E→R」「R→
O」「O→無音」の各過渡部で顕著なピークを発
生する。ここで無音部にノイズによる多少の凹凸
が形成されるがこれはバイアスBを大きくするこ
とにより破線図示のように略0になる。
こうした音声過渡点が検出されるわけである
が、本発明によれば音韻の種類や入力音声のレベ
ルの変化による検出パラメータの変動が少く、常
に安定な検出を行うことができる。
なお本発明は上述の新規な音声認識方法に限ら
ず、検出された過渡点と過渡点の間の定常部を検
出したり、検出された過渡点を用いて定常部の時
間軸を整合する場合にも適用できる。また音声合
成において、過渡点の解析を行う場合などにも有
効に利用できる。又本発明は上述実施例に限らず
本発明の要旨を逸脱することなくその他種々の構
成が取り得ることは勿論である。
発明の効果 本発明に依れば容易かつ安定に音声過渡点を検
出することができる利益がある。
【図面の簡単な説明】
第1図〜第4図は音声認識装置の例の説明に供
する線図、第5図は過渡点検出の説明に供する線
図、第6図は本発明音声過渡点検出方法の一例の
系統図、第7図は本発明の説明に供する線図であ
る。 1はマイクロフオン、3はローパスフイルタ、
4はA−D変換回路、5はクロツク発生器、6は
レジスタ、7はカウンタ、8は高速フーリエ変換
回路、9はパワースペクトル検出回路、10はエ
ンフアシス回路、21は帯域分割回路、22は対
数回路、23,24,26,27は演算回路、2
5はメモリ装置、28はピーク判別回路、29は
出力端子である。

Claims (1)

  1. 【特許請求の範囲】 1 入力音声信号を人間の聴覚特性に応じて等し
    く重み付けして音響パラメータを抽出し、この音
    響パラメータのレベルに対して正規化を行い、こ
    の正規化された音響パラメータを複数フレームに
    わたつて監視し、上記音響パラメータのピークを
    検出するようにした音声過渡点検出方法におい
    て、 上記複数フレームの中心フレーム及びその前後
    の所定フレームを除いて音響パラメータの平均値
    を求め、該平均値と上記複数フレームの音響パラ
    メータとの差をそれぞれ求め、該差の総和を用い
    て上記音響パラメータのピークを検出することを
    特徴とする音声過渡点検出方法。
JP58045233A 1983-03-17 1983-03-17 音声過渡点検出方法 Granted JPS59170897A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58045233A JPS59170897A (ja) 1983-03-17 1983-03-17 音声過渡点検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58045233A JPS59170897A (ja) 1983-03-17 1983-03-17 音声過渡点検出方法

Publications (2)

Publication Number Publication Date
JPS59170897A JPS59170897A (ja) 1984-09-27
JPH0552510B2 true JPH0552510B2 (ja) 1993-08-05

Family

ID=12713539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58045233A Granted JPS59170897A (ja) 1983-03-17 1983-03-17 音声過渡点検出方法

Country Status (1)

Country Link
JP (1) JPS59170897A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59174899A (ja) * 1983-03-25 1984-10-03 ソニー株式会社 音声過渡点検出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58145998A (ja) * 1982-02-25 1983-08-31 ソニー株式会社 音声過渡点検出方法
JPS58145999A (ja) * 1982-02-25 1983-08-31 ソニー株式会社 音声認識方法
JPS59166999A (ja) * 1983-03-11 1984-09-20 ソニー株式会社 音声過渡点検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58145998A (ja) * 1982-02-25 1983-08-31 ソニー株式会社 音声過渡点検出方法
JPS58145999A (ja) * 1982-02-25 1983-08-31 ソニー株式会社 音声認識方法
JPS59166999A (ja) * 1983-03-11 1984-09-20 ソニー株式会社 音声過渡点検出方法

Also Published As

Publication number Publication date
JPS59170897A (ja) 1984-09-27

Similar Documents

Publication Publication Date Title
JPH0441356B2 (ja)
JPH036517B2 (ja)
Kamble et al. Emotion recognition for instantaneous Marathi spoken words
JPH0441357B2 (ja)
JPH0552509B2 (ja)
JPH0552510B2 (ja)
Chen et al. Teager Mel and PLP fusion feature based speech emotion recognition
JPH0546558B2 (ja)
JPH0552511B2 (ja)
Saha et al. Modified mel-frequency cepstral coefficient
JPH0552515B2 (ja)
JPH0546559B2 (ja)
JPH0546560B2 (ja)
Mahesha et al. Vector Quantization and MFCC based classification of Dysfluencies in Stuttered Speech
JPH0552512B2 (ja)
Naing et al. Comparison of Three Auditory Frequency Scales in Feature Extraction on Myanmar Digits Recognition
Srinivasan Real time speaker recognition of letter ‘zha’in Tamil language
JPH0426479B2 (ja)
JPS6069697A (ja) 音声認識装置
JPS6086599A (ja) 音声認識装置
JPS6069696A (ja) 音声認識装置
JPS58146000A (ja) 音声認識方法
Bansal et al. Enhanced feature vector set for VQ recogniser in isolated word recognition
JP2000137495A (ja) 音声認識装置および音声認識方法
JPS6227798A (ja) 音声認識装置