JPH01116868A - ダイナミックプログラミング・ニューラルネットワーク - Google Patents

ダイナミックプログラミング・ニューラルネットワーク

Info

Publication number
JPH01116868A
JPH01116868A JP62276397A JP27639787A JPH01116868A JP H01116868 A JPH01116868 A JP H01116868A JP 62276397 A JP62276397 A JP 62276397A JP 27639787 A JP27639787 A JP 27639787A JP H01116868 A JPH01116868 A JP H01116868A
Authority
JP
Japan
Prior art keywords
input
output
layer
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62276397A
Other languages
English (en)
Other versions
JPH0752438B2 (ja
Inventor
Hiroaki Sekoe
迫江 博昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP62276397A priority Critical patent/JPH0752438B2/ja
Publication of JPH01116868A publication Critical patent/JPH01116868A/ja
Publication of JPH0752438B2 publication Critical patent/JPH0752438B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は音声等のパターン認識システムに利用されるニ
ューラルネットワークの改良に関する。
(従来の技術) 生物の神経回路を模擬した情報処理機構であるニューラ
ルネットワークはパターン認識等の諸問題の解決に有望
と期待され、世界中で研究開発が盛んに行なわれている
ニューラルネットワークに関しては日経エレクトロニク
ス誌、第427号の第115頁(昭和62年8月10日
発行)に「ニューラルネットワークをパターン認識、知
識処理に使う」と題して発表された記事(以下文献(1
)と呼ぶ)に分り易く解説されている。それによると、
ニューラルネットワークの基本構成要素はニューロンユ
ニット(以下ユニットと略す)と呼ばれる素子で、複数
の入力の荷重和を計算し、それに応じた出力を発生する
。ニューラルネットワークは多層構造をとり、典型的に
は入力層、中間層、出力層の3層構成となる。人力層の
各ユニットの出力は中間層の各ユニットに伝達され、そ
れらへの入力となる。中間層の各ユニットの出力は出力
層の各ユニットに伝達され、それらへの入力となる。
音声認識に例をとると、入力層では計測と制御第22巻
第1号(昭和58年1号発行)の第99頁に[音声認識
におけるパターンマツチング手法Jと題して発表された
論文(以下文献(2)と呼ぶ)の図2に示される如き音
声パターンを入力信号として受は取る。ここに図2の行
列の各元を人力層の各ユニットに対応させるものとする
。出力層の各ユニットは認識対象語いの各単語に対応す
る。最大の出力を示す出力層ユニットに対応する単語が
認識結果となる。
出力層が1個のユニットより成る場合も有る。このよう
なニューラルネットワークは全体として、入力パターン
が1.ある単語である確からしさを示す量(マツチング
量)を算出するパターンマツチング手段として動作する
。出カニニットの出力がマツチング量どなるのである。
このような認識動作ないしはパターンマツチング動作を
有効に機能さすためには、あらかじめ各ユニットの入力
に付せられる荷重の係数を学習する必要がある。これに
は前記文献(1)の第118頁に詳述されるパックプロ
パゲーション法を用いることができる。
(発明が解決しようとする問題点) 以上の如き構成と機能を有するニューラルネットワーク
は理論的に解決が不可能なパターン認識問題に対して、
学習という高度な機能を発揮して、対処可能な解法を与
えるものと期待されている。しかし現在までに提案され
ているニューラルネットワークは、文献(1)の図2に
示されるように、層間では、ユニット間で全く自由な結
合が行なわれている点で極めて一般的な形態のものであ
る。
それゆえ万能ではあるかも知れないが、特定の問題を扱
かう場合には能率が悪い。
音声認識の例を考えると、文献(2)の第3.1節に記
される如く、音声パターンには時間軸の伸縮変動が存在
する。この変動は複雑な非線形性を有し、極めて大量の
歪みパターンを発生する。これら総てを対象として学習
を行なうことは計算時間的に見て不可能である。かと言
って少量の学習パターンを対象として学習を済ませたの
では、学習していない型の歪みパターンが入力されたと
き誤認識を生じる恐れがある。
すなわち、従来提案されているニューラルネッワークは
、−船釣ではあるが、伸縮変動を処理するのに適してい
ないという欠点があった。本発明はこの点を改善するこ
とを目的として、ダイナミックプログラミング機能を有
するニューラルネットワーク構成を提案するものである
(問題点を解決するための手段) 本発明によるダイナミックプログラミング・ニューラル
ネットワークは、少なくとも入力層、中間層、出力層よ
り成り、入力層と中間層のユニット配列及び層間接続を
時系列的に構成し、入力層時系列上の各時刻に対して入
力パターン時系列中のベクトルを停留と追越しを許す関
係で対応づけ、出力層ユニットの出力を最大とする処理
をダイナミックプログラミングにより行なう機能を有す
ることを特徴とする。
(作用) 第1図を引用して本発明の詳細な説明する。第1図のニ
ューラルネットワークは入力層、中間層、出力層の3層
より成る。入力層は時刻jで指定される時系列的構成を
とり、その入力線上の信号をベクトル xj=(xlj、−,xkj”−xKj)      
     (1)で示す。この時系列 x=×1×2・・・)・・・xJ(2)全体が入力層へ
の入力となる。入力層のユニットはこれらを受は入れる
べくKXJ個の行列状の配置となっている。これらを (入カニニット(kj))(3) とする。また入カニニット(i)というときは時刻jの
入カニニット(kj)の組を意味する。
中間層はLXJ個の行列;大の配置となっている。
これらを (中間ユニット(lj))             
(4)とする。中間ユニット(j)と記すときは時刻j
の中間ユニット(lj)の組を意味する。これらのユニ
ット間では、中間ユニット(1j)に対しては同時刻j
の近傍の人カニニット1列あるいは複数列が接続される
。図では第1列と第j−1との2列が接続される。
このような時系列的構成が本発明の特徴である。これら
の接続によって入カニニット(kj)から中間ユニット
(1j)に入力がなされるとき次のような荷重づけがな
される。
13o、(k、1)・XkJ p、j(k、1)−xkj−1 それゆえ中間層ユニット(1j)への入力和は力 y(lj)= f(net(lj))        
    (7)が発生される。関数fとしては文献(1
)の(3)式に示される如きsigmoid関数 f(net(lj)) = 1/(1+ exp(−n
et(lj)十〇(1,i))    (8)を用いる
ことができる。以上の(5)〜(7)式を次のように略
記することとする。
y(lj)=hu(f’oi(1) ・x;+lB14
(1) ・xj−1)     (9)二  二  に
1110I(1)=(pOi(Ll)、・・・、130
1(K、1)、l1ll、(1) = (f31.(1
,1)、・・・。
131、(K、1)であり、ベクトルとベクトルとの積
“パは内積を意味する。
出力層は一般には(1,2・・・n・・・N)のNユニ
ットより成る。以下でユニッ) (n)に着目して動作
を説明する。中間二二ソ) (lj)の出力y(1,1
)が入力となる。これらには係数αy1)が荷重され、
それらの和が計算され、これにsigmoid関数をか
けたものが出カニニット(n)の出力Z(n)となる。
Z(n)= 1/(1+ exp(−、Net(n) 
+ (E)n)       (11)ここで(9)式
と同様に記法の整理を行なっておく。
Z(n)=Hn(釜cn7 ・y(j>>      
   (12)ここに、αだ[α7(1)・・・・α7
(L)、Vθ)=(y(1j)・・・y(Lj))]で
ある。
以上の如く入力層と中間層を時系列的構成をとることに
よって文献(2)の図2の如き時系列的パターンを扱か
うのに適したニューラルネットワークを構成することが
できる。特に人力層と中間層の接続を、時刻jの中間層
ユニットに対して、その近傍時刻の複数個の入カニニッ
トを接続した構成は一種のマツチドフィルタとなり、音
素等の局所的な特徴を抽出する機構となり、音声認識に
適したものとなる。
本発明の最大の特徴は、入カニニットを入力パターン時
系列中のベクトルと最適に組み合わせるという機構を有
することにある。さらには、このための処理を動的計画
法によって行なうことを特徴とする。
いま入力パターンをに次元のベクトル ai ” (ali”・aki””Ki)の時系列に=
a1a2−ai・a、          (13)で
示す。この時間軸iと入カニニットの時間軸jの間に写
像1=i(j)で入力パターンのベクトルa、を入カニ
ニット(j)の入力×、とするという時間軸変換を行な
うこととする。この写像は単語(n)の音声パターンを
学習して荷重係数(α7(1)、pOi(k、■)、1
31j(k、1))として抽象化されて記憶されている
ものに最もよく一致するように行なう。すなわち、出カ
ニニット(n)の出力である(12)式が最大となるよ
うに行なうのである。
sigmoid関数が単調増加であることから、(12
)式の最大化のためには、(10)式のNet(n)す
なわちΣa;−y(j)を最大とすればよい。これに(
9)式を代入してx、=a、(i=i(i))なる変換
を行なうのと次の如き最大化問題に帰着される。
ここに9(ij)は(9(i、j、1)・・・;(ij
、1)・・・9(i、j、L))なるベクトルであって y(ij+1)=h、j(IIoμ)−ai(j)+ 
11.μ)・a、、−0,)    (15)このベク
トル9(ij)は入カニニット(j)にairj)を、
入カニニットθ−1)にxj−1”ai(i−1)を対
応づけた場合、出カニニットq)に発生する出力である
。吋・9(ij)なる量は(n、1(j)、i(j −
1)j)の組みを与えると定まる量であるので r(n、1(j)、iθ−1)j)=a7・y(iJ)
        (16)と置くと、(14)式は max  [f  r(n、1(j)、1(j−1)j
月           (17)と簡略表現ができる
以上の如き解析の結果、この時系列構造を有するニュー
ラルネットワークの時間軸歪補正の問題は(17)式の
如く、r(n、1(j)、i(j −1)j)の総和を
1=i(j)に関して最大にする問題と定式化ができた
。このことから以下の如く動的計画法(ダイナミックプ
ログラミング)の適用が可能なことが知られる。解決の
一例は以下の如くである。
(初期条件) g(n、1.1) =h、、(13o1(1) ・a、
)          (18)(漸化式) %式%) これによって出力、ユニット(n)の出力はZ(n)=
 H(g(n、I、J))             
(20)と定まる。
(18)式の計算は第2図の格子点上で正順に行なわれ
る。1(j−1)と1(i)の間には、増加が0.1,
2.の3種の自由度が許される。これらの、内、増加0
はi軸上で停留(重複)することを意味し、増加2は1
点分だけ追越すことを意味する。このような自由度の対
応づけを[入力パターンベクトルの停留、追越しを許す
対応」と呼ぶ。
(実施例) 第3図に本発明を音声認識に応用した一実施例を示す。
第1図、第2図で説明した本発明の原理をマイクロプロ
セッサで実行する場合の例である。
入力パターンバッファ10には(13)式の如き入力パ
ターンが保持され、中間層処理部20よりベクトルa1
がアクセスできるようになっている。このバッファはR
AMで構成される。中間層係数記憶部30には荷重係数
群(1’03(k、l))、(13t4(k−1))及
び閾値群(θ(1,j))が記憶される。マイクロプロ
セッサより成る中間層処理部20では以下のような3系
統の中間層出力群が計算される。
■(9,(ij)) 9o(ij)=廿。(ij、1)) 90(IJ 11) =h1r(lot(1) ・at
 +IBIJ(1) ・aρ      (21−a)
■(9,(ij)) 9、(ij)=仇(ij、1)) ’/lQJJ)=h17(71g3(1) ・at+ 
91μ)−a、−1)    (21−b)■(92(
ij)) 92(ij)=仔2(ij、1)) y□(ij+1)=h、、1B。、(1)・ai+IB
1.(1)・a、−2)    (21−c)■の9゜
(ij)は町が入カニニット(i)に、同じ町が入カニ
ニット(j−1)に対応づけられたときの中間ユニット
(i)の出力である。■の91(IJ)はaiが入カニ
ニット(i)に、ai−1が入カニニット(j−1)&
、こ対応づけられたときの中間層(i)の出力である。
■の9□(ij)はaiが入力ユニッ1−(i)に、a
i−2が入カユニッ)(j−1)に対応づけられたとき
の中間層(j)の出力である。これらは必要な(ij)
の組みに対して計算され、中間層出力バッファ40に出
力され記憶される。
マイクロプロセッサよりなる動的計画洗処理部50では
出力層係数記憶部に記憶される係数の群(α伴1))、
閾値群((E)(n))と前記中間層出力バッファ40
に記憶される中間層出力を参照しつつ(18)、(19
)、(20)の動的計画性演算を行なう。(19)式右
辺のr(n、i、ij)等は(21−a)〜(21−c
)式の中間層出力をもとにして次のように計算され使用
される。
r(n、i、1j)=吋・!1’0(iJ)     
     (22−a)r(n、i、1−1j)=c’
j−9□(ij)         (22−b)r(
n、i、i −2j)= c;・9□(ij)    
     (22−c)これらによってr(n、i、i
j)等の算出しつつ(19)式の漸化式計算を進めるこ
とによってg(n、I、J)が得られる。sigmoi
d関数が単調増加であることに着目して、これを省略し
て Z(n)= g(n、LJ)−〇(n)       
    (23)を出カニニット(n)の出力とする。
以上の動的計測法処理は出カニニット (n=1.2.・・・N)のそれぞれに対して行なわれ
、それぞれに対して出力層出力z(n)が出力される。
判定処理部70では動的計測法処理50より出力される
出力層出力Z(n)を相互比較して、Z(n)が最大と
なるn=丘を認識結果として出力する。
以上、本発明の原理、作用を実施例に基づいて説明した
がこれらの記載は本願の権利範囲を限定するものではな
い。例えば、中間層処理はマイクロプロセッサによらず
、第1図そのままの分散型プロセッサによって行なう構
成も考えられる。また本願発明によってニューラルネッ
トワークと動的計画法の結合が可能となったが、これに
応じて従来音声認識の分野でDPマツチング法として研
究されてきた分野の各種の工夫が本発明のダイナミック
ニューラルネットワークでも採用できることになった。
例えば文献(2)の図5に示される「整合窓」の手法、
日経エレクトロニクス誌、第329号(昭和58年11
月7日発行)の第184頁、表1に記載される傾斜制限
などの手法である。これらの組込みは本願発明の権利範
囲内である。
(効果) 以上述べた構成によると、時間軸歪みを補正する能力を
有す仝ので、少数の学習パターンで学習した場合でも良
好な認識性能を得ることができる。しかも、動的計画法
の採によって処理は高速に実行できる。
【図面の簡単な説明】
第1図と第2図は原理説明図、第3図は実施例である。 図において、 10・・・入力パターンバッファ、20・・・中間層処
理部、30・・・中間層係数記憶部、40・・・中間層
出力バッファ、50、・・動的計測法処理部、60・・
・出力層係数記憶部、70・・・判定部。

Claims (1)

    【特許請求の範囲】
  1. 少なくとも入力層と中間層および出力層とより成るニュ
    ーラルネットワークにおいて、入力層と中間層のニュー
    ラルユニットの配列と層間の接続を時系列的に構成し入
    力層のニューラルユニットに対して入力パターン時系列
    中のベクトルを停留と追越を許す関係で対応づけ、出力
    層ユニットの出力を最大とする処理をダイナミックプロ
    グラミングで行なう機能を有することを特徴とするダイ
    ナミックプログラミング・ニューラルネットワーク。
JP62276397A 1987-10-30 1987-10-30 ダイナミックプログラミング・ニューラルネットワーク Expired - Lifetime JPH0752438B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62276397A JPH0752438B2 (ja) 1987-10-30 1987-10-30 ダイナミックプログラミング・ニューラルネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62276397A JPH0752438B2 (ja) 1987-10-30 1987-10-30 ダイナミックプログラミング・ニューラルネットワーク

Publications (2)

Publication Number Publication Date
JPH01116868A true JPH01116868A (ja) 1989-05-09
JPH0752438B2 JPH0752438B2 (ja) 1995-06-05

Family

ID=17568837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62276397A Expired - Lifetime JPH0752438B2 (ja) 1987-10-30 1987-10-30 ダイナミックプログラミング・ニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH0752438B2 (ja)

Also Published As

Publication number Publication date
JPH0752438B2 (ja) 1995-06-05

Similar Documents

Publication Publication Date Title
CN108960419B (zh) 用于使用知识桥的学生-教师迁移学习网络的装置和方法
US4979126A (en) Neural network with non-linear transformations
Schäfer et al. Recurrent neural networks are universal approximators
JP2746350B2 (ja) 学習機械シナプス・プロセッサ・システム装置
Lin Self-improving reactive agents: Case studies of reinforcement learning frameworks
US5613044A (en) Learning machine synapse processor system apparatus
KR102396447B1 (ko) 파이프라인 구조를 가지는 인공신경망용 연산 가속 장치
US20210133540A1 (en) System and method for compact, fast, and accurate lstms
Mandic et al. Toward an optimal PRNN-based nonlinear predictor
US12020141B2 (en) Deep learning apparatus for ANN having pipeline architecture
JPH01114899A (ja) ダイナミックなニューラルネットワーク
JPH01116869A (ja) ダイナミックプログラミング機能を有するニューラルネットワーク
JPH01116868A (ja) ダイナミックプログラミング・ニューラルネットワーク
CN115994221A (zh) 一种基于忆阻器的文本情感检测系统及方法
JPH076146A (ja) 並列データ処理システム
Tokunaga et al. Modular network SOM: Self-organizing maps in function space
De Veaux et al. A brief introduction to neural networks
JPH0583920B2 (ja)
JPH04237388A (ja) ニューロプロセッサ
Dawwd et al. A reconfigurable interconnected filter for face recognition based on convolution neural network
JPH01114896A (ja) 時系列パターン認識用のダイナミック・ニューラルネットワーク
JPH01173202A (ja) ロボット制御方式
Viredaz Design and analysis of a systolic array for neural computation
Lehtokangas Modified constructive backpropagation for regression
Weissenbacher et al. A Quadratic Actor Network for Model-Free Reinforcement Learning