JPH01204171A - 学習機構を有するダイナミック・ニューラル・ネットワーク - Google Patents

学習機構を有するダイナミック・ニューラル・ネットワーク

Info

Publication number
JPH01204171A
JPH01204171A JP63029674A JP2967488A JPH01204171A JP H01204171 A JPH01204171 A JP H01204171A JP 63029674 A JP63029674 A JP 63029674A JP 2967488 A JP2967488 A JP 2967488A JP H01204171 A JPH01204171 A JP H01204171A
Authority
JP
Japan
Prior art keywords
learning
output
time
input
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63029674A
Other languages
English (en)
Inventor
Kenichi Iso
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63029674A priority Critical patent/JPH01204171A/ja
Publication of JPH01204171A publication Critical patent/JPH01204171A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は音声等の時系列パターンの認識に用いるパター
ン学習機構を有するダイナミック・ニューラル・ネット
ワークに関する。
(従来の技術) ニューラル・ネ・ソトワークは生体の脳神経系が比較的
単純な動作特性を有する神経細胞とその間の多数の結合
から構成されている情報処理システムであることを黍考
にして考案された情報処理モデルで、神経細胞に相当す
る処理ユニット(以下ユニットと略す)とその間を結ぶ
ユニット間結合を有する。このユニット間結合の係数を
変えることによってシステムはさまざまな情報処理動作
を行なう。
このニューラル・ネットワーク・モデルは情報処理シス
テムとして特に画像や音声等のパターン認識処理に有効
であろうと期待されており、その詳細に関しては「日経
エレクトロニクス」誌、第427号の第115頁(昭和
62年8月10日発行)[ニューラル・ネットをパター
ン認識、信号処理、知識処理に使う」に解説されている
。(以下、文献1と称する。) 上記文献1によるとニューラル・ネットワークは第2図
に示したように、入力層、中間層、出力層と呼ばれる階
層構造を有しており、各層は複数のユニットから構成さ
れている。またユニット間結合は隣接する層の間にだけ
許され、層内でのユニット間結合は禁止されている。認
識時にはネッワークは入力層の各ユニットの活性度とし
て入力データを与えられ、ユニット間結合を通じて順次
隣接する中間層へ情報を伝達し、最後に出力層にまで到
達する。こうして入力データに対するネットワークの応
答結果が出力層のユニットの活性度のパターンとして得
られる。
ネットワークが指定した動作を行なうようにユニット間
結合を定める為には教師付き学習と呼ばれる手法を用い
る。即ち、入力層に学習させたいパターンを提示し、出
力層には対応して出力すべき教師信号を提示して、出力
層での教師信号と実際の出力値との差異を小さくするよ
うに結合係数を決定する。上記のような構成のニューラ
ル・ネットワークの場合には、この出力誤差最小化学習
はパックプロパゲーション学習と呼ばれており、その詳
細なアルゴリズムに関しては文献1に詳しい。
(発明が解決しようとする問題点) このようなニューラル・ネットワークを音声認識に用い
ることができれば、音声パターンの有する多様性を学習
によって吸収して、良好な認識性能を実現できる可能性
があるが、実際に上記のニューラル・ネットワークを音
声認識に用いる為には、いくつかの解決しなければなら
ない問題が存在する。
第一に音声は同じカテゴリ(例えば単語)のパターンで
も発声の度に、或は話者毎にその継続時間長が異なるの
で、長さの異なる音声パターンを同じニューラル・ネ・
ソトワークの入力層に提示する為の工夫が必要となる。
第二に長さの異なる音声パターンをニューラル・ネット
ワークの入力に提示できたときに、ネットワークが期待
する認識動作を行なうようにユニット間結合を定める学
習方法を確立しなければならない。
本発明は固定時間長の特徴パラメータ時系列を入力でき
る入力層を持つニューラル・ネットワークに長さの異な
る音声パターンを提示する為に認識時は出力層の出力が
最大になるように入力層の時間軸と入力音声時系列との
対応付けを行い、ユニット間結合係数を定める学習時に
は提示するパターンを時間軸の線形伸縮によって固定継
続時間長に正規化してネットワークに提示して出力層で
の誤差を最小にする教師付きの学習機構を有するダイナ
ミック・ニューラル・ネットワークを提供しようとする
ものである。
(問題点を解決するための手段) 本発明は音声等の時系列パターンを認識するニューラル
・ネットワークで、入力・出力層と複数の中間層から構
成される階層構造を有し、更に入力層と中間層が時間軸
に対応する時系列的構造を有し、認識時には動的計画法
によって入力時系列パターンの時間軸をニューラル・ネ
ットワークの出力が最大になるように入力層の持つ時間
軸と対応付けを行い、その時の出力層の出力を認識結果
とするダイナミック・ニューラル・ネットワークに於て
、その各階層間のユニット間結合係数を学習するに際し
て、学習用時系列パターンの時間軸を入力層の時間長と
同じ一定の継続時間長に線形伸縮によって正規化して入
力層に提示し、出力層には対応して出力すべき教師信号
を提示して、出力層での教師信号と実際の出力値の差異
を小さくするように結合係数を決定する教師付き学習を
行なう機構を有することを特徴とする。
(作用) 本発明の詳細な説明を簡単のなめに中間層を1層にした
3層構造のモデルを用いて行なう。中間層が2層以上の
場合にも同様に適用できることは言うまでもない。
モデルの入力層はP次元の特徴ベクトルの時系列(長さ
J)を受は取ることができるようにJ×P個のユニツか
ら構成されている。この入カニニットの出力値をy(し
J(P) (j・1〜J、 p・1〜P)とする。一般
には入力層の時間軸の長さJと認識時に入力される入力
時系列パターンaI(p)(i=l〜I、p・l〜P〉
の長さ■は異なるので、入力時系列の時間軸になんらか
の伸縮変換を施して長さJに揃えなければならない。入
力層の時間軸jと入力時系列パターンの時間軸iで構成
される平面(i、j)上での対応関係を次式で表わす。
c(k)  ; (i(k>、  j(k))  、 
 (k−1〜K)     −1ll但し、 c(1)  = (1,1)、  c(k)  = <
1.J)i(k)≧ 1(k−1)、  j(k)≧j
(k−1>          ・・・(21この関係
を用いて入力ユニ・ソトの出力値y(11、。+(p)
  (j=l〜J、  p=l〜P)はy”’jtk+
(p)  : azk+(p>           
    ・・・(3)と表わされる。即ち、入カニニッ
トは時間軸を整合して入力されたデータをそのまま次の
層へ伝達することになる。
中間層はJ X M個のユニット(隠れユニットと呼ぶ
)から構成され、各ユニットへの入力値X ”J(1)
  (J・1〜J、 m・1〜M)は入カニニットの出
力値y”’j(p)と入カニニットと隠れユニットの間
の結合係数βOt(m、p>、  β’j(m、p)を
用いて次式のように与えられる。
x    J(m>=Σ くβ j(■・P)V   
  j+h+(p戸β jp=1 (m、p)y”’j+に−++(p))al(k−レ(
p))          ・・・(4)このようにj
<k)番目の隠れユニットは入力層の1(k)番目と1
(k−1)番目のユニットがらだけ情報を受は取るよう
にユニット間結合を制限したニューラル・ネットワーク
の構造を時系列構造と呼ぶことにする。このようなネッ
トワークの構造は音声パターン等のようにデータ自体が
時系列的な構造を持っている場合には、完全結合(すべ
ての入力ユニ・ソトとすべての隠れユニットを結ぶ)に
比べて少ないユニット間結合でモデルが構成できるので
、認識・学習時の計算量を大幅に削減することができる
。(4)式で与えられる入力に対する隠れユニットの応
答は次のようになる。
”! ”’J(1)”f (x ”’、+(m)−θ”
’J(1))    −(51f (x)  ・1/ 
< 1 +e−X)        −161ここでθ
f2Z(1)は隠れユニット(j、m>が持つ閾値であ
る。式6から明らかなように隠れユニットは一種の閾値
論理の働きをしている。
出力層は認識対象となるN個のカテゴリに対応するN個
のユニットから構成されている9層番目の出カニニット
への入力1a x ”(n)(n=l〜N)は隠れユニ
ットの出力値yf21.(■)と隠れユニットと出カニ
ニットの間の結合係数α”(j、m)を用いて次式のよ
うに与えられる。
x ”(n)□  I’   f’a ”(j(k)、
m)  y  ”J+に+(1)=l’77に=I  
 m=1 出カニニットの入出力の応答間係は式2と同じである。
y  (3)(n)=  f (x  (31(n)−
θ (3’ (n ) )         −・・(
81ここでθ(31(n)は出カニニットnの持つ閾値
である。
こうして得られるネットワークの出力値y(3)(n)
は式1で与えられている入力時系列の時間軸と入カニニ
ット層の時間軸の対応関係(C(kン)に依存している
。最終的なカテゴリnのネットワークによる認識結果は
(c (k)’tに関して最適化されたく最大化された
)出力値o8として得られる。
on” ?c’:L7+(3)(n)]−(91ここで
8)式は単調関数なので(9)式は普τL、x、”(n
)1 ・、5ax、l、  ;”−1zでy  ”(j(k>
、m)f  (β ’i<m)azk+1β ’ j(
m)az k−x+)   )  ]        
         −(10)と置き換えても同じであ
る。ここでfOの中の特徴ベクトルの成分pに関する和
は省略した。
(10〉式の()の中の式を 7 (c(k)、 c(k−1>)= I−f    
    −(11)と定義すると、(10)式は となり、この最適化は良く知られた動的計画法を用いて
解くことができることが分かる。即ち、γ(c(k>、
c(k−1))の累積和をK(k)として、次の漸化式
を計算してo、、・g(k>を求めればよい。
g(k)= max[7(c<k>、c(k−1))”
g(k−1)]    =i13)fk−11 次にニューラル・ネットワーク・モデルのパラメータで
あるユニット間結合係数(β0J(1,P)。
β1J(1,P)、αu (J、鳳)と閾値(θ(21
,(論)、θ(3)(n))を決定する学習法について
説明する。
カテゴリnの学習に用いる特徴ベクトルの時系列の組を
A(′+9・ (a ”q、 +(p) )とする。こ
こでqは同じカテゴリ内の複数の時系列パターンを区別
する添字、iは時系列の時間軸を表わす添字、pは各時
刻での特徴ベクトルの成分を表わす添字である。各添字
の範囲は n:1〜N、q:1〜Qn、i:1〜Iq、p;l〜P
・・・(14)ネットワークにこのデータA(n 1.
を提示する為には時系列の長さI 11をネ・ソワーク
の入力層の時間軸の長さJに正規化しなければならない
。学習時にはモデルのパラメータが最適化されていない
ので、認識時のように動的計画法を用いることは難しい
そこで学習の為にはカテゴリnのデータの集合A(fi
’q(q・1〜Q″)の中から代表となる時系列パター
ンA+01qoを選び出し、それ以外のデータA(fi
)q(q≠qo>の時間軸を線形伸縮によって前記代表
パターンの時間軸に対応付ける。その方法を以下に示す
。代表パターンA(O’QOの時間軸をj(j・1〜J
)、時間軸の対応付け(正規化)を行ないたいデータA
 (fl’q (q # q O)の時間軸をi(i・
1〜I)とする。このとき2つのパターンの時間軸の線
形伸縮による対応付けi=iりj)はi =i(j> 
=(j−1>[(1−1)/(J−1)]+1゜となる
。時間軸iは整数値を取るので上式で得られるi(小数
値)は最も近い整数値に置き換える。あるいは近傍のフ
レームのデータを平滑化しても良い。
この結果、データ毎にばらついていた時間長■9が一定
の長さ1qOに正規化される。ネットワークの入力層の
時間長Jはこの1qOに等しく設定する。
ここでカテゴリーnの代表パターンの選び方としては様
々な方法が考えられるが、例えばカテゴリnのパターン
集合の中でパターン間の線形伸縮対応付けによる累積距
離d (AqO,A、)をパターン間距離として、次式
で与えられる量Δ、を最小にするようなqoとする(こ
こで[]2は特徴ベクトルの成分の差の2乗和を表わし
ている)。このqoはすべてのq=l〜Q’を90と仮
定してΔを計算する総当たり法によって容易に求めるこ
とができる。この他にも任意の1パターンを代表にする
ことも可能である。
こうして時間軸を長さJに正規化した入力学習データを
A”’ 、、= (a″Q、 1(P) ) (i・1
〜J)とする。また、同じ長さJに正規化された池のカ
テゴリの学習データをB(−1r、  (b″″r、+
(p) ’j (r”l〜R)とする(以後このBを反
学習データと呼ぶ)。
このときq番目の学習データに対するネットワークの出
力値をy (37,(n) 、望ましい出力値をZq(
n)(・1.0)、r番目の反学習データに対する第n
ユニットの出力値をy′31r(n)、望ましい出力値
をz 、(n)(=0.0)とすると、出カニニット層
に於ける出力値の誤差Eは で与えられる。この誤差量Eは学習によって決定しなけ
ればならないユニット間結合係数(βOJ(m、p)、
β1j(■、p)、α’(j、s))と閾値(θ(2Z
(1)。
θ”(nNの関数と考えられるのでEを評価関数として
最小化するようにこれらのパラメータを決定すればよい
。またユニットの閾値は常に1を出力するユニットを仮
想的に考えて、そのユニットとの結合係数と考えればユ
ニット間結合と同じように学習することができる。そこ
で隣接する2層、第n層のユニットiと第n+1層のユ
ニットjを結ぶユニット間結合係数をω”IJとすると
、このω□」に関するEの微係数を用いてとすれば、必
ず、 E(L+1)   ≦ E  (t)        
                     ・・・ 
(18)となる。ここでtは繰り返し学習のステップを
表わす整数値、εは修正の程度を決める定数である。結
局、Eを小さくするようにω″1」を繰り返し修正する
ことがパラメータの学習になるのである。ここでωfi
IJと前記モデルのユニット間結合係数(β’i(i、
p)β1.(■、p)、α″(j、m)、θ(21J(
鳳)、θ”(n) )とは例えば次のように対応付けれ
ばよい。
β0J(s、p) =(a) 1psJ+p、M*J+
+mβ 1j(、・P)  =  ω ’pm(J+J
 )+p、ll111J+−α ”(j、m)   ・
 ω  M*J+m、o              
 ・・・(19)θ (21,(鵬) ・ ω3□、+
、、□、+。
θ(3)(n)・ω4...fi Eの微係数は解析的な計算の結果次式のようになること
が分かる。
ここでδ(n411 +、qはq番目の学習(または反
学習)データを入力層に提示した場合の第n+1層のユ
ニッiの入力値に換算された誤差で、y0′11.、は
q番目の学習データに対する第n層のユニットjの出力
値である。δ(figl、、は次のような漸化式を用い
て計算することができる。
δ(nl、、、 、  ΣδL″” ” @、q ωZ
 I (df/ dx)x−g ” ’ lここでf 
(x)は式6で与えられるユニットの入出力応答関数で
、x(nl、は第n層のユニットiへ入力値、Z、は第
N層(出力層)のユニットiがとるべき値で学習の時に
は1.0で反学習の時には0.0である。この式21に
基づいて、各ユニットに換算された誤差量δを求める計
算が出力層から入力層の方向に進むので、この学習法は
逆伝播学習法(バック・プロパゲーション学習法)と呼
ばれている(詳細は文献1を参照のこと)。
結局、ユニット閤結合係数に任意の初期値を与えたモデ
ルから出発して、複数の学習・反学習データを提示して
、各ユニット間結合に関して上記の繰り返し訂正学習を
行なえば、出力層での誤差を極小化するユニット間結合
の組を得ることができる。
(実施例〉 以下に式13の漸化式計算の為の(i、j)平面上での
時間軸整合部は規則(c(k)とc(k−1)の相対位
置関係)として第3図のような規則を用いた場合の本発
明の詳細な説明する。第3図の場合はc(k)=(i、
nとするとc(k−1)としては(i−1,j) 、(
i−1,j−1) 、(i−1,j−2)の3点だけが
可能になる。このような対応付は規則の場合にはニュー
ラル・ネットワークの出力を決める(12)、(13)
式は次のように書ける。
γ (i、j)・Σ α (j、m)f (β j(麿
)a++β 。
@ + 1 <m)  a  1−1)             
     −−−(23)g ”  (i、j>  ・
 7 ’(i、j)lax [g ’(i−1,j)。
g ”  (i−1,j−1)、g ”(i−1,j−
2))           ・・・(24)第1図は
輯2)〜(24)式に基づいて本発明を実現した一実施
例を示したブロック図である。分析部10は入力された
音声波形データを分析して特徴ベクトルの時系列に変換
して、パターンバッファ部20に記憶する。パターンバ
ッファ部20には学習動作時には学習用時系列データが
記憶され、認識動作時には未知発声の分析データが記憶
される。続く切り替えスイッチによって学習動作と認識
動作の切り替えを行なう。
時間軸整合部30は学習データ群中の各カテゴリの代表
パターンを式15に基づいて決定して、他の学習データ
の時間軸を代表パターンの時間軸へ線形伸縮対応付けに
よって整合し、すべての学習データの時間長を長さJへ
規格化する。修正量計算部40は時間軸整合部30から
送られた学習データとユニット間結合係数記憶部50に
蓄えられた結合係数を用いて、式17.20.21に基
づいて結合係数ω″1jの修正量Δω−jを算出して、
結合係数修正部60に送る。結合係数修正部60はユニ
ット間結合係数記憶部50に蓄えられた結合係数に前記
修正量Δωf11を加えて、書き戻す。修正量計算部4
0はすべての結合係数に対する修正量Δω″1が予め定
められた閾値より小さくなるまでか、あるいは修正回数
が予め定められた回数を越えるまで、この修正動作を繰
り返す。
格子点計算部70はパターンバッファ部20から送られ
た未知発声データとユニット間結合係数記憶部50に蓄
えられた結合係数を用いて、式23に基づいて格子点デ
ータγ″’(i、j)(i・1〜I、j・1、〜J、 
n・1〜N)を計算する。計算された格子点データは格
子点記憶部80に格納される。漸化式計算部90は格子
点記憶部80に蓄えられた格子点データを用いて、式2
4に基づく漸化式計算を行なって累積値g ’(1,J
)を作業用記憶部100に格納する。作業用記憶部10
0は漸化式計算途中にもg ”(i、j>の記憶に用い
られる。認識判定部110は作業用記憶部100に格納
された累積値g”(1゜J〉の中から最大の累積値を与
えるnの値を認識結果として出力する。
(発明の効果) 以上述べたように、本発明によれば認識動作時に未知音
声データの発声時間長の変動を動的計画法によって正規
化してニューラル・ネットワークに入力することができ
る時間軸の正規化能力を有するニューラル・ネッワーク
を提供できる。
このように本発明のニューラル・ネットワークは認識動
作時に時間軸正規化能力を有するので、学習動作時には
音声データの発声毎の特徴パラメータの変動を少数の学
習データ(発声時間長の変動による多様性を持たなくて
よい〉を用いて学習することによって、良好な認識装置
を提供することができる。
【図面の簡単な説明】
第1図は本発明の一実施例を示すブロック図、第2図は
ニューラル・ネッワークの階層構造を表わす図、第3図
は漸化式計算の為の(i、j>平面上での時間軸整合部
は規則の例を表わす図である。 図に於いて、10は分析部、20はパターンバッファ部
、30は時間軸整合部、40は修正量計算部、50はユ
ニット間結合係数記憶部、60は結合係数修正部、70
は格子点計算部、80は格子点記憶部、90は漸化式計
算部、100は作業用記憶部、110は認識判定部であ
る。

Claims (2)

    【特許請求の範囲】
  1. (1)音声等の時系列パターンを認識するニューラル・
    ネットワークで、入力・出力層と複数の中間層から構成
    される階層構造を有し、更に入力層と中間層が時間軸に
    対応する時系列的構造を有し、認識時には動的計画法に
    よって入力時系列パターンの時間軸をニューラル・ネッ
    トワークの出力が最大になるように入力層の持つ時間軸
    と対応付けを行い、その時の出力層の出力を認識結果と
    するダイナミック・ニューラル・ネットワークに於て、
    その各階層間のユニット間結合係数を学習するに際して
    、学習用時系列パターンの時間軸を入力層の時間長と同
    じ一定の継続時間長に線形伸縮によって正規化して入力
    層に提示し、出力層には対応して出力すべき教師信号を
    提示して、出力層での教師信号と実際の出力値との差異
    を小さくするように結合係数を決定する教師付き学習を
    行なう機構を有するダイナミック・ニューラル・ネット
    ワーク。
  2. (2)上記ユニット間結合係数の教師付き学習を、バッ
    クプロバゲーション学習法によって実現することを特徴
    とする特許請求範囲第(1)項記載のダイナミック・ニ
    ューラル・ネットワーク。
JP63029674A 1988-02-09 1988-02-09 学習機構を有するダイナミック・ニューラル・ネットワーク Pending JPH01204171A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63029674A JPH01204171A (ja) 1988-02-09 1988-02-09 学習機構を有するダイナミック・ニューラル・ネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63029674A JPH01204171A (ja) 1988-02-09 1988-02-09 学習機構を有するダイナミック・ニューラル・ネットワーク

Publications (1)

Publication Number Publication Date
JPH01204171A true JPH01204171A (ja) 1989-08-16

Family

ID=12282658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63029674A Pending JPH01204171A (ja) 1988-02-09 1988-02-09 学習機構を有するダイナミック・ニューラル・ネットワーク

Country Status (1)

Country Link
JP (1) JPH01204171A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04111185A (ja) * 1989-12-29 1992-04-13 Ricoh Co Ltd 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH06112931A (ja) * 1992-09-30 1994-04-22 Victor Co Of Japan Ltd デジタル信号の前処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04111185A (ja) * 1989-12-29 1992-04-13 Ricoh Co Ltd 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH06112931A (ja) * 1992-09-30 1994-04-22 Victor Co Of Japan Ltd デジタル信号の前処理方法

Similar Documents

Publication Publication Date Title
Levin Word recognition using hidden control neural architecture
US10325200B2 (en) Discriminative pretraining of deep neural networks
US5600753A (en) Speech recognition by neural network adapted to reference pattern learning
EP0342630B1 (en) Speech recognition with speaker adaptation by learning
JP3003276B2 (ja) 信号解析装置
Lee et al. Ensemble of jointly trained deep neural network-based acoustic models for reverberant speech recognition
US5181256A (en) Pattern recognition device using a neural network
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
KR102199158B1 (ko) 방위각-주파수 표현법과 합성곱 신경망 모델을 이용한 음원 위치 추정 방법 및 시스템
JP3521429B2 (ja) ニューラルネットワークを用いた音声認識装置およびその学習方法
JP3014177B2 (ja) 話者適応音声認識装置
JPH01138597A (ja) 連続音声認識方式
JPH01204171A (ja) 学習機構を有するダイナミック・ニューラル・ネットワーク
JPH01241667A (ja) 学習機構を有するダイナミック・ニユーラル・ネットワーク
JPH01204172A (ja) 学習機構を有するダイナミック・ニューラル・ネットワーク
JP2897220B2 (ja) 信号処理装置
JPH01241668A (ja) 学習機構を有するダイナミック・ニユーラル・ネットワーク
JPH11265197A (ja) 可変入力神経網を利用した音声認識方法
JP3052520B2 (ja) パターン分類装置
JPH05204399A (ja) 不特定話者音素認識方法
JPH0744195A (ja) 音声認識用リカレントニューラルネットワーク
JPH03201027A (ja) 学習を用いた動的計画法
JP2778047B2 (ja) 時系列パターンを認織するニューラルネットワーク
JPH04194999A (ja) 学習を用いた動的計画法
Makino et al. Recognition of phonemes in continuous speech using a modified LVQ2 method