JPH01116869A - ダイナミックプログラミング機能を有するニューラルネットワーク - Google Patents

ダイナミックプログラミング機能を有するニューラルネットワーク

Info

Publication number
JPH01116869A
JPH01116869A JP62276398A JP27639887A JPH01116869A JP H01116869 A JPH01116869 A JP H01116869A JP 62276398 A JP62276398 A JP 62276398A JP 27639887 A JP27639887 A JP 27639887A JP H01116869 A JPH01116869 A JP H01116869A
Authority
JP
Japan
Prior art keywords
output
layer
input
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62276398A
Other languages
English (en)
Other versions
JPH0752439B2 (ja
Inventor
Hiroaki Sekoe
迫江 博昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP62276398A priority Critical patent/JPH0752439B2/ja
Priority to US07/263,208 priority patent/US4975961A/en
Priority to DE3855035T priority patent/DE3855035T2/de
Priority to EP88118009A priority patent/EP0314170B1/en
Publication of JPH01116869A publication Critical patent/JPH01116869A/ja
Publication of JPH0752439B2 publication Critical patent/JPH0752439B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は音声等のパターン認識システムに利用されるニ
ューラルネットワークの改良に関する。
(従来の技術) 生物の神経回路を模擬した情報処理機構であるニューラ
ルネットワークはパターン認識等の諸問題の解決に有望
と期待され、世界中で研究開発が盛んに行なわれている
ニューラルネットワークに関しては日経エレクトロニク
ス誌、第427号の第115頁(昭和62年8月10日
発行)に「ニューラルネットワークをパターン認識」知
識処理に使うと題して発表された記事(以下文献(1)
と呼ぶ)に分り易く解説されている。それによると、ニ
ューラルネットワークの基本構成要素はニューロンユニ
ット(以下ユニットと略す)と呼ばれる素子で、複数の
入力の荷重和を計算し、それに応じた出力を発生する。
ニューラルネットワごりは多層構造をとり、典型的には
入力層、中間層、出力層の3層構成となる。入力層の各
ユニットの出力は中間層の各ユニットに伝達され、それ
らへの入力となる。中間層の各ユニットの出力は出力層
の各ユニットに伝達され、それらへの入力となる。
音声認識に例をとると、入力層では計測と制御、第22
巻第1号(昭和58年1号発行)の第99頁に[音声認
識におけるパターンマツチング手法」と題して発表され
た論文(以下文献(2)と呼ぶ)の図2に示される如き
音声パターンを入力信号として受は取る。ここに図2の
行列の各元を入力層の各ユニットに対応させるものとす
る。出力層の各ユニットは認識対象語いの各単語に対応
する。最大の出力を示す出力層ユニットに対応する単語
が認識結果となる。出力層が1個のユニットより成る場
合も有る。このようなニューラルネットワークは全体と
して、入力パターンが、ある単語である確がらしさを示
す量(マツチング量)を算出するパターンマツチング手
段として動作する。出カニニットの出力がマツチング量
となるのである。
このような認識動作ないしはパターンマツチング動作を
有効に機能さすためには、あらかじめ各ユニットの入力
に付せられる荷重の係数を学習する必要がある。これに
は前記文献(1)の第118頁に詳述されるパックプロ
パゲーション法を用いることができる。
(発明が解決しようとする問題点) 以上の如き構成と機能を有するニューラルネットワーク
は理論的に解決が不可能なパターン認識問題に対して、
学習という高度な機能を発揮して、対処可能な解法を与
えるものと期待されている。しかし現在までに提案され
ているニューラルネットワークは、文献(1)の図2に
示されるように、層間では、ユニット間で全く自由な結
合が行なわれている点で極めて一般的な形態のものであ
る。
それゆえ万能ではあるかも知れないが、特定の問題を扱
かう場合には能率が悪い。
音声認識の例を考えると、文献(2)の第3.1節に記
される如く、音声パターンには時間軸の伸縮変動が存在
する。この変動は複雑な非線形性を有し、極めて大量の
歪みパターンを発生する。これら総てを対象として学習
を行なうことは計算時間的に見て不可能である。かと言
って少量の学習パターンを対象として学習を済ませたの
では、学習してぃない型の歪みパターンが入力されたと
き誤認識を生じる恐れがある。
すなわち、従来提案されているニューラルネッヮークは
、−船釣ではあるが、伸縮変動を処理するのに適してい
ないという欠点があった。本発明はこ°の点を改善する
ことを目的として、ダイナミックプログラミング機能を
有するニューラルネットワーク構成を提案するものであ
る。
(問題点を解決するための手段) 本発明によるニューラルネットワークは、少なくとも入
力層、中間層及び出力層とよりなり、入力層と中間層の
ユニット配列及び層間の接続を時系列的に構成し、この
時系列上の各時刻に対して入力パターン時系列中のベク
トルを重複と跳越しを許す関係で対応づけ、出力層ユニ
ットの出力を最大とする処理をダイナミックプログラミ
ングによって行なう機能を有することを特徴とする。
(作用) 第1図を引用して本発明の詳細な説明する。第1図のニ
ューラルネットワークは入力層、中間層、出力層の3層
よりなる。入力層は時刻jで指定される時系列的構成を
とり、その入力線上の信号をベクトル X、= (X1jl・IXkj・XKj)      
    (1)で示す。この時系列 X = X1X2−Xj・XJ           
 (2)全体が入力層への入力となる。入力層のユニッ
トはこれらを受は入れるべくKXJ個の行列状の配置と
なっている。これらを (入カニニット(kj))(3) とする。また人カニニット(j)というときは時刻jの
入カニニット(kj)の組を意味する。
中間層はLXJ個の行列状の配置となっている。
これらを (中間ユニット(lj))             
(4)とする。中間ユニット(j)と記すとき時刻jの
中間ユニット(lj)の組を意味する。これらのユニッ
ト間では、中間ユニット(lj)に対しては同時刻jの
近傍の入カニニット1列あるいは複数列が接続される。
図では第1列と第j−1との2列が接続される。
このような時系列的構成が本発明の特徴である。これら
の接続によって入カニニット(kj)がら中間ユニット
(lj)に入力がなされるとき次のような荷重づけがな
される。
43o、(k、1)・xkj D17(k、1) 、xkJ−。
それゆえ中間層ユニット(IJ)への入力和は力 y(lj) =f(net(lj))        
        (7)が発生される。関゛数fとして
は文献(1)の(3)式に示される如きsigmoid
関数 f(net(lj)) = 1/(1+ exp(−n
et(lj)十〇(1,j))    (8)を用いる
ことができる。以上の(5)〜(7)式を次のように略
記することとする。
y(lj)= h+t(jlOj(1) −% + L
7(1) ・xi−1)(9)ここにり。、(1)=(
IB。、(1,1)、・、13o、(K、l))、13
.(1)=(131,(t、I)、 ・。
131、(K、1)であり、ベクトルとベクトルとの積
″・″は内債を意味する。
出力層は一般には(1,2・・・n・・・N)のNユニ
ットより成る。以下でユニット(n)に着目して動作を
説明する。中間ユニット(Ij)の出力y(Ll)が入
力となる。これらには係数06(1)が荷重され、それ
らの和カニニット(n)の出力Z(n)となる。
Z(n)= 1/(1+ exp(−、Net(n)+
on)      (11)ここで(9)式と同様に記
法の整理を行なっておく。
Z(n)= Hn(Σ叶−y(j))        
  (12)ここに、吋=[窄1)・・・・αfi(L
)、y(j)=(y(lj)・・・y(lj川である。
以上の如く人力層と中間層を時系列的構成をとることに
よって文献(2)の図2の如き時系列的パターンを扱か
うのに適したニューラルネットワークを構成することが
できる。特に入力層と中間層の接続を、時刻jの中間層
ユニットに対して、その近傍時刻の複数個の入カニニッ
トを接続した構成は一種のマツチドフィルタを構成し、
音素等の局所的な特徴を抽出する機構となり、音声認識
に適したものとなる。
本発明の最大の特徴は、中間ユニットと入カニニットの
組みを人カバターンの特徴と最適に組み合わせるという
機構を有することにある。さらにはこのための処理を動
的計画法によって行なうことを特徴とする。いま入力パ
ターンをに次元のベクトルai = (ali”・ak
i”・aKi)の時系列A=a1a2−ai−a1(1
3) で示す。この時間軸iと時間軸jの間に写像i=iψで
入力パターンのベクトル町を入カニニットψの入力X、
とするという時間軸の変換を行なうこととする。
この写像は単語(n)の音声パターンを学習して荷重係
数(亭1)、13つ(k、1)、!31.(k、1))
として抽象化されて記憶されているものに最もよく一致
するように行なう。すなわち、出カニニット(n)の出
力である(12)式が最大となるように行なうのである
Sigmoid関数が単調増加であることから、(12
)式の最大化のためには、(10)式のNet(n)す
なわちΣc7y(i)を最大とすればよい。これに(9
)式を代入してx、=a、(i=iψ)なる変換を行な
うと次の如き最大化問題に帰着される。
ここに9(ij)は9(ij、1)・・・y(ij、1
)・・・y(ij、L)なるベクトルであって y(ij、1)=h、、43゜、(1) −ai+ l
11.(1) ・ai−1)     (15)このベ
クトル9(ij)は入カニニットψにX、=a、を、人
カニニット(j−1)に×j−1=”i−1を対応づけ
た場合、出カニニット(i)に発生する出力である。@
噛9(ij)なる値は(n、ij)の組みを与えると定
まる量であるのでr(n、ij) =ニジ・V(ij)
             (16)と置くと、(14
)式は max [、Σ r(n、ij)]         
          (l17シー1c5ンJal と簡略表現ができる。
以上の如き解析の結果、この時系列構造を有するニュー
ラルネットワークの時間軸歪除去の問題は(17)式の
如< r(n、ij)の総和をi = 1(j)に関し
て最大にする問題と簡単化できた。このことから文献(
2)と同様に、動的計画法(ダイナミックプログラミン
グ)の適用が可能なことが知られる。解法の一例は以下
の如くである。
(初期条件) g(n、1j)=r(n、1.1)         
    (18)(漸化式) %式%) これによって出カニニット(n)の出力はZ(n) =
 H(g(n、、T、J))            
 (20)と定まる。
(18)式の計算は第2図の格子点上で正順に行なわれ
る。1(j−1)と1(j)の間には、増加が0.1.
2の3種の自由度が許される。これらの内、増加0はi
軸上で停留することを意味し、増加2は1点分だけ追越
すことを意味する。このような自由度の対応づけを「入
力パターンベクトルの停留、追越しを許す対応]と呼ぶ
(実施例) 第3図に本発明を音声認識に応用した一実施例を示す。
本実施例は第1図、第2図で説明した本発明の作用をマ
イクロプロセッサで実行する場合の例である。
入力パターンバッファ10には(13)式の如き入力パ
ターンが保持され、中間層処理部20よりベクトルai
がアクセスできるようになっている。この部分は通常の
RAMで構成される。中間層係数記憶部30には荷重係
数の群(13,、(k、1)J3.、(k、l))及び
閾値群(θ(lj))が記憶される。
マイクロプロセッサよりなる中間層処理部20では以下
のような処理が行なわれる。
yQjJ)=h14(Ii’(14(’) □ aけI
B1μ)・ai−1)     (21)これらがベク
トルy(ij)を構成することは(14)式(15)式
に関連して説明した通りであり、入力ユニットリ)にa
iを入カニニットq−1)にa、−1を対応づけたとき
に中間ユニット(i)に生じる出力である。このy(i
j)は必要な(i、i)の組みに対して計算され、中間
層出力バッファ40に記憶される。
マイクロプロセッサより成る動的計画性処理部50では
出力層係数記憶部に記憶される係数の群(c9(1))
、閾値群(e(n))と前記中間層出力バッファ40に
記憶される中間層出力を参照しつつ(18)、(19)
、(20)式の動的計画性演算を行なう。(19)式の
r(n、ij)は次の式によって計算される。
r(n、1j)=a’j−y(ij)        
   (22)これによってr(n、ij)を算出しつ
つ(19)式の漸化式計算を進めることによってg(n
、I、J)が得られる。
sigmoid関数が単調増加であることに着目して、
sigmoid関数を省略して Z(n) = g(n、I、J)−〇(n)     
      (23)を出力とする。
この動的計画性処理は出カニニット (n=1.2.・・・N)のそれぞれに関して行なわれ
、それぞれに対して出力層出力z(n)が出力される。
判定処理部70では、上記出力層z(n)を相互比較し
てz(n)が最大となるn2品を認識結果として出力す
る。
以上、本発明の原理、作用を実施例に基づいて説明した
がこれらの記載は本願の権利範囲を限定するものではな
い。例えば、中間層処理はマイクロプロセッサによらず
、第1図そのままの分散型プロセッサによって行なう構
成も考えられる。また本願発明によってニューラルネッ
トワークと動的計画法の結合が可能となったが、これに
応じて従来音声認識の分野でDPマツチング法として研
究されてきた分野の各種の工夫が本発明のダイナミック
ニューラルネットワークでも採用できることになった。
例えば文献(2)の図5に示される[整合窓]の手法、
「日経エレクトロニクス誌、第329号(昭和58年1
1月7日発行)の第184頁、表Hに記載される傾斜制
限、[白井良明編“パターン理解″(オーム社、昭和6
2年8月25日発行)1の第210頁に記される連続D
P法、などの手法である。これらの組込みは本願発明の
権利範囲内である。
(効果) 以上述べた構成によると時間軸歪みを補正する能力を有
するので、少数の学習パターンで学習した場合でも良効
な認識性能を得ることができる。
しかも、動的計画法の採によって処理は高速に実行でき
る。
【図面の簡単な説明】
第1図と第2図は原理説明図、第3図は実施例である。 図において、 10・・・入力パターンバッファ、20・・・中間層処
理部、30・・・中間層係数記憶部、40・・・中間層
出力バッファ、50・・・動的計画法処理部、60・・
・出力層係数記憶部、70・・・判定部。

Claims (1)

    【特許請求の範囲】
  1. 少なくとも入力層と中間層および出力層とよりなるニュ
    ーラルネットワークにおいて、入力層と中間層のニュー
    ラルユニットの配列と層間の接続を時系列的に構成し、
    この時系列上の各時刻に対して入力パターン時系列中の
    ベクトルを停留と追越しを許す関係で対応づけ、出力層
    ユニットの出力を最大とする処理をダイナミックプログ
    ラミングで行なう機能を有することを特徴とするニュー
    ラルユニット。
JP62276398A 1987-10-28 1987-10-30 ダイナミックプログラミング機能を有するニューラルネットワーク Expired - Lifetime JPH0752439B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP62276398A JPH0752439B2 (ja) 1987-10-30 1987-10-30 ダイナミックプログラミング機能を有するニューラルネットワーク
US07/263,208 US4975961A (en) 1987-10-28 1988-10-27 Multi-layer neural network to which dynamic programming techniques are applicable
DE3855035T DE3855035T2 (de) 1987-10-28 1988-10-28 Mehrschichtiges Neuronalnetzwerk mit dynamischer Programmierung
EP88118009A EP0314170B1 (en) 1987-10-28 1988-10-28 Multi-layer neural network to which dynamic programming techniques are applicable

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62276398A JPH0752439B2 (ja) 1987-10-30 1987-10-30 ダイナミックプログラミング機能を有するニューラルネットワーク

Publications (2)

Publication Number Publication Date
JPH01116869A true JPH01116869A (ja) 1989-05-09
JPH0752439B2 JPH0752439B2 (ja) 1995-06-05

Family

ID=17568852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62276398A Expired - Lifetime JPH0752439B2 (ja) 1987-10-28 1987-10-30 ダイナミックプログラミング機能を有するニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH0752439B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02300393A (ja) * 1989-05-10 1990-12-12 Toshiba Corp 回収ボイラのチャーベッド形状制御装置
JPH0333968A (ja) * 1989-06-30 1991-02-14 Hitachi Ltd ニューラルネツトを用いた情報処理システム及びパターン認識システム
JPH05281199A (ja) * 1992-03-31 1993-10-29 Nuclear Fuel Ind Ltd 探傷データ評価装置及び方法
JPH06274197A (ja) * 1993-03-18 1994-09-30 Sharp Corp 音声認識装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02300393A (ja) * 1989-05-10 1990-12-12 Toshiba Corp 回収ボイラのチャーベッド形状制御装置
JPH0333968A (ja) * 1989-06-30 1991-02-14 Hitachi Ltd ニューラルネツトを用いた情報処理システム及びパターン認識システム
JPH05281199A (ja) * 1992-03-31 1993-10-29 Nuclear Fuel Ind Ltd 探傷データ評価装置及び方法
JPH06274197A (ja) * 1993-03-18 1994-09-30 Sharp Corp 音声認識装置

Also Published As

Publication number Publication date
JPH0752439B2 (ja) 1995-06-05

Similar Documents

Publication Publication Date Title
Sivanandam et al. Introduction to artificial neural networks
Schäfer et al. Recurrent neural networks are universal approximators
Uhrig Introduction to artificial neural networks
Hajela et al. Neurobiological computational models in structural analysis and design
US5483620A (en) Learning machine synapse processor system apparatus
US5255347A (en) Neural network with learning function
Wu Neural network-based material modeling
Lisboa et al. Complete solution of the local minima in the XOR problem
US5630023A (en) Signal processor
US5170071A (en) Stochastic artifical neuron with multilayer training capability
JPH01116869A (ja) ダイナミックプログラミング機能を有するニューラルネットワーク
JPH01114899A (ja) ダイナミックなニューラルネットワーク
JPH076146A (ja) 並列データ処理システム
De Veaux et al. A brief introduction to neural networks
JPH04237388A (ja) ニューロプロセッサ
JPH01116868A (ja) ダイナミックプログラミング・ニューラルネットワーク
Tokunaga et al. Modular network SOM: Self-organizing maps in function space
JPH01114900A (ja) ダイナミックニューラルネットワーク
Dawwd et al. A reconfigurable interconnected filter for face recognition based on convolution neural network
JPH02100757A (ja) 並列ニューラルネットワーク学習方式
JPH01114896A (ja) 時系列パターン認識用のダイナミック・ニューラルネットワーク
Shin et al. A least distance estimator for a multivariate regression model using deep neural networks
JPH0652139A (ja) ニューラルネットワークのデータ構造
JPH02178758A (ja) ニューラルネット構成情報処理装置
Tang et al. A model of neurons with unidirectional linear response