JPH0276062A - 神経回路網の構成方法および神経回路網 - Google Patents

神経回路網の構成方法および神経回路網

Info

Publication number
JPH0276062A
JPH0276062A JP63228189A JP22818988A JPH0276062A JP H0276062 A JPH0276062 A JP H0276062A JP 63228189 A JP63228189 A JP 63228189A JP 22818988 A JP22818988 A JP 22818988A JP H0276062 A JPH0276062 A JP H0276062A
Authority
JP
Japan
Prior art keywords
output
input
layer
neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63228189A
Other languages
English (en)
Inventor
Hidenori Kawahara
英紀 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63228189A priority Critical patent/JPH0276062A/ja
Publication of JPH0276062A publication Critical patent/JPH0276062A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、パターン認識、機械やシステムの制御等に用
いられる層状の神経回路網を構成・設計する方法とその
結果実現される神経回路網に関する。
〔従来の技術〕
神経回路網は、生物の神経素子の働きを模した第14図
に示すような多久カー出力の人工的神経素子を多数結合
することにより、信号処理、情報処理の機能を実現する
回路網の総称である。第14図において、1は神経素子
への入力(X□〜xn)、2は各々の入力と神経素子本
体を結ぶ枝であり、入力が神経素子の内部状態に影響す
る度合を表わす荷重を持っている。3は神経素子本体、
4は神経素子の内部状態を出力信号に変換する時の特性
を表わす出力関数、5は神経素子からの出力(y)であ
る。最も典型的に用いられる神経回路網の入出力関係は
1次の式で表わされるようなものである。
こ\で、xiはi番目の入力値、Wiは1番目の入力に
ついての重み、Nは入力線の本数、yは出力、f (x
)は出力関数、aは神経素子の感度、θはいき値を表わ
す、これらの神経素子が層状あるいは網状に結合されて
神経回路網を構成する。
第15図は層状神経回路網の構成例で、3は第14図に
示したような神経素子本体であり、6の部分は入力層、
7の部分は出力層、8および9の部分は中間層もしくは
隠れ層、10の部分は入力層から中間子への枝、11の
部分は異なる中間層の間を結ぶ枝、12の部分は中間層
から出力層への枝である。この層状神経回路網は、13
に示す入力x1〜XQを14に示す出力ZL””’!、
に変換する機能を持つ。一般に入力の次元数、中間層で
の次元数、出力の次元数は異なっている。
第16図は網状神経回路網で、神経素子が網状に結合さ
九ている6なお、網状神経回路網は本発明の対象外であ
るので、詳細な説明は省略する。
神経回路網の機能は、このような神経素子の結合の仕方
と、入力線に対する重みとして表わされる結合の強さ、
神経素子の感度およびいき値により定められる。
第14図に示した神経素弊モデルを実現する従来の技術
としては、第17図に示すようなCMOSインバータを
用いる方法がある。第17図の回路の入出力特性は、第
18図に示したような非線形の飽和特性を有しており、
第14図の神経素子モデルの出力の非線形関数部分4の
実現手段として用いられる。また、第14図に示した神
経素子モデルにおける入力に対する荷重の付与部分2は
、第19図に示すような回路網により実現される。
第19図においては、上方から入った入力は上部の回路
により、正極性の信号と負極性の信号とに分れられ、中
央の抵抗回路網により、重み付きの和が計算される。こ
のように、入力信号から正極性の信号と、負極性の信号
が作られることから、第19図の抵抗回路網により、正
及び負の荷重が実現される。第19図における抵抗は、
実際の抵抗によっても、スイッチドキャパシタ等、LS
I化に適合した様々な技術により実現される。これらの
要素を半導体基盤上に集積することにより。
第20図に例示するように、神経回路網をLSI化する
ことができる。むろん、これらの素子および回路を、A
/D変換器、D/A変楠変器換器ディジタル信号処理回
路を組合せて、ディジタル的に実現している例もある。
なお、神経回路網のLSIについては1例えばAl5p
ector、  J  and  A11en、  R
,B、:  A  Neu−ro+norphic  
Learning  System、in  Adva
ncedResearch  in  V L S I
 :  Procaedings of  1987 
5tanford  Conference、Paul
  Losleben(E d 、)IMI T   
Press、Cambride、MA。
1987、pp、313−349.に実際に構成例が紹
介されている。
〔発明が解決しようとする課題〕
N個の入力とL個の出力の間の関係が連続写像で表わさ
れるものであるなら、3層以上の層数の層状の神経回路
網により、任意の精度で近似できることが知られている
(舟橋二ニューラルネットワークのcapabilit
yについて、電子情報通信学会技術研究報告、MBE8
8−52.(1988゜7))、Lかし、従来、ある連
続写像が入出力の関係を表わす関数や、入力とそれに対
応する出力を組合わせたデータの集まりとして与えられ
た場合に、どのようにすればその連続写像を近似する層
状の神経回路網を実際に構成できるかは明らかではなか
った。
従来、層状の神経回路網を構成する方法としては、誤差
逆向き伝播法が広く用いられてきた(Ruvaelha
rt、 Hinton and Williams :
”Learning Internal Repres
enations byError BackProp
agation、” in Rumalhart an
dMcClelland(eds、)、 Parall
el DistributedPricessing、
 vol、 1 、 pp、 318−362 。
M I T Press、 Cambridge (1
986) )。
この誤差逆向き伝播法を適用した神経回路網を第21図
に示す。第21図において、13で表わされる入力x1
〜Xfiは、8の中間層と7の出力層を通ることにより
、先の(1)式に示した変換を受け、14で表わされる
出力28〜Znを生ずる。この出力2.〜2.は、15
で表わされる望ましい出力(教師信号と呼ばれる)11
〜t1と比較器16により比較され、17で表わされる
誤差信号を生ずる0通常、14の出力2□〜Zlと15
の教師信号t工〜t、は一致しないため、比較器16の
出力誤差信号を入力して、この誤差信号を減少させるよ
うな中間層と出力層の間の枝の荷重の更新量が荷重計算
回路18によって計算され、12で表わされる枝の荷重
が更新される6次いで、17で表わされる誤差信号を1
2で表わされる枝の重みを用いて誤差計算回路19によ
り、中間層での誤差に換算した誤差信号20を求める。
こうして求められた中間層での誤差信号20を減少させ
るような入力層と中間層の間の枝の重みの更新量が荷重
計算回路21により計算され、10で表わされる枝の荷
重が更新される。以上の操作を、入力が与えられる毎に
実行することを、教師信号と実際の神経回路網の誤差が
十分に小さくなるまで繰り返すことにより、枝の重を決
定する。
層の数が3層以上の場合も同様にして、逐次、誤差を前
段階の層における誤差に換算することを繰り返すことに
より、全ての層間の枝の荷重を決定することが出来る。
なお、神経素子の感度は、枝の重みの大きさに、いき値
は、常に1を出力する神経素子からの枝への荷重として
表わされており、枝の荷重のみを指定すること、神経回
路網の特性を規定できる。
ところで、以上説明した誤差逆向き伝播法の手順は、誤
差信号を減少させる方向に枝の重みを変化させるという
条件から導き出されており、基本的には、枝の重みと誤
差の局所的な関係に基づき、誤差の極小点を求める方法
であるといえる。従って、誤差逆向き伝播法には以下の
ような問題がある。
1、求められた枝の重みが全体的な誤差の最小値を与え
るものである保証は無い。
2、枝の荷重を調整する場合に、−度にたくさんの調整
を行うと発散してしまうことがあるため、微少な調整を
多数繰り返す必要があり、枝の荷重を決定するまでの計
算量が極端に大きくなる。
3、入力信号の性質等について予め保有している知識や
、入出力間の写像について予め保有している知識を枝の
荷重に予め組込んでおく方法が明らかでない。
4、構成された神経回路網に、構成するときに用いたも
のと異なった入力が入った場合にどのような出力が生ず
るかが予測できない。
5、ある機能を実現するための神経回路網がどの様な規
模になるかを予め見積ることが困難である。
本発明の目的は、上述の誤差逆向き伝播法の問題点を解
消し、少ない計算量で、事前の知識を組込むことが可能
で、回路網の規模の見積や、異常入力時の応答の見積が
可能な神経回路網の構成方法と、そのようにして構成さ
れた神経回路網を提供することにある。
〔課題を解決するための手段〕
上記目的を達成するため、本発明の神経回路網構成方法
は1人工的神経素子を層状に結合した神経回路網におい
て、人力信号空間の凸な領域に対応する部分的な神経回
路網を構成し、該構成される一つ乃至複数の部分的神経
回路網を用いて学習用の入力パターンを変換して作成さ
れる中間パターンと望ましい出力を出力素子の入力側の
値に逆変換した値とを用いて神経素子間の枝の荷重を決
定することを特徴とするものである。
又、本発明の神経回路網は、人工的神経素子を入力層、
中間層、出力層の層状に結合した神経回路網において、
入力信号空間中の凸な領域に対応する点を基準点とし、
該基準点から入力層と中間層の間の枝の荷重および中間
層の非線形性を定めるパラメータを求める回路と、望ま
しい出力を表わす教師信号を出力層の入力側に換算する
回路と。
入力側に換算された教師信号と中間層の出力より中間層
と出力層の間の枝の荷重を決定する回路と、教師信号、
教師信号を出力層の入力側に換算した信号、中間層の出
力信号、出力層への入力信号、出力層の間からの出力信
号に基づき中間層と出力層の枝の荷重を決定する回路と
を有することを特徴とするとするものである。
〔作 用〕
本発明は、N次元の入力信号を、2層の神経回路網によ
る写像で凸な閉領域を識別領域として形成する方法と、
識別に用いられる関数として不連続な階段状の関数では
なく飽和特性を持つ準線形の関数を用いることで入力の
N次元空間内の点を中間層の神経素子の出力により構成
されるD次元の空間に連続的に写像すること\、目的と
する最終層の出力値を最終層の神経素子の出力関数の逆
関数を用いて出力層の神経素子の入力側の値に換算する
ことで種々の入力信号を与えた場合の中間層の出力と出
力層の入力側に換算された教師信号により構成される線
形の連立−次方程式を解くことにより中間層から出力層
への枝の荷重を決定すること\、入力信号の存在する空
間の中に、幾つかの基準となる点を配置してその基準点
の位置を入力層から中間層への枝の荷重に変換する。こ
れにより、収束性や最適性の保証されない繰返し計算に
よらず、直接的な演算により枝の荷重を決定できる。
〔実施例〕
以下、本発明の一実施例について図面により説明する。
第1図は、本発明の一実施例を説明する図であって、1
3は入力、16は入力層、10は入力層から中間層への
枝、8は中間層、12は中間層から出力層への枝、7は
出力層を示す。本発明では、段階的に枝の荷重、各層の
神経素子の非線形特性を定めることにより、目的とする
神経回路網を構成する。
以下、第1図の各部の動作の説明を行う。まず、入力と
して考えられるものN中から、中間層の神経素子の個数
と等しい個数のものを選び出す。それらは、入力の存在
する空間の中の点と考えることが出来るので、基準点と
呼ぶことへする。基準点の選択に当っては、入力の性質
についての事前の知識を利用してもよく、事前の知識が
利用できない場合には、乱数を用いて、入力の存在する
空間内に一様に基準点をばらまいてもよい、22にその
ような基準点の一つを示す、22の基準点から、荷重計
算回路23を用いて、入力から中間層への枝10の荷重
と中間層8の神経素子の非線形性のパラメータを決定す
る0以上の孫作により、入力13からの中間層8の出力
24を求める部分の神経回路網が構成される。
次に、入力13を中間層の出力24に変換したものと、
その入力に対応する望ましい出力を表わす教師信号15
を、予め定めである出力層の神経素子の出力特性の逆関
数からなる換算回路25により出力層の神経素子の入力
側に換算した教師信号26とを用いて、24の信号と2
6の信号の誤差が最小になるような枝12の荷重を最小
自乗法を実行する荷重計算回路27を用いて計算し、中
間層から出力層にいたる部分の枝の荷重を決定する。出
力層の神経素子の非線形性のパラメータは、予め定めで
あるので、こNまでの操作で、目的とする機能を実現す
る神経回路網が構成される。
このようにして構成された層状の神経回路網を、必要に
応じて、次の手順で、更に性能を向上させることができ
る。こNまでの操作で、層状の神経回路網のパラメータ
は全て定まっているため、入力13が与えられた場合の
出力層の出力14を求めることが出来る。従って、出力
素子の入力側で計算した誤差と出力素子の出力側で計算
した誤差との違いを反映させて重み付きの最小自乗法に
より中間層から出力層への枝の荷重13を計算する荷重
計算回路28に、中間層の出力24.出力層の格経素子
の入力側に換算した教師信号15、出力層の神経素子へ
の実際の入力29、出力層の出力14、教師信号15と
を入力して、中間層から出力層への枝の荷重を決定する
以下、図に即して各部の詳細な働きを説明する。
こ\で、入力層の各々の神経素子への入力をまとめて、 X”  (Xxt  X21  ”’*  XN)” 
      (2)なる列ベクトルで表わす。たゾし、
Nは入力の次元数を表わし、入力素子の個数に対応して
いる。
こ\で、入力は、 1lxll=1             (3)の条
件を満たしているものとする。すなわち、Xは、半径が
1の超球表面上の点である。すると、8の中間層の神経
素子のi番目のものに注目した場合、その神経素子に対
する入力の総和i工は、i t= Wi x     
         (4)という内積演算により求めら
れる。こNで。
Wi= (wt + ・・・t WN )      
  (5)は、中間層のi番目の神経素子の入力の枝の
荷重からなる列ベクトルである。
ところで、 とすれば、g、も半径が1の超球表面上の点となる。し
たがって、ある入力Xに対する中間層のi番目の神経素
子への総入力は、Xとg□との距離d1が、 dよ=(x−g□)T(x−g□) =2 (1gix)        (7)と表わされ
ることを用いれば、 ’/ i = a□(1−dよ/ 2 )      
 (8)のように、diの関数として表わされる。こ\
で、a □=llWtll             
(9)である。以上から、中間層8のi番目の神経素子
の出力り、は、 hi=f (ai (L  dt/2) )    (
10)として求められる。すなわち、中間層の神経素子
の出力は、その素子に対応する、超球の表面に設定され
た点(基準点)と、入力に対応する点との距離により定
まること>なる。
中間層8の出力は具体的には、第2図に示すような形を
している。30は、8式により表わされる中間層の神経
素子への総入力である。中間層の出力31は、総入力3
0を、非線形の連続的な飽和型の関数f (x)により
変換したものである。
非線形の関数f(x)を(1)式のようにモデル化した
場合には、式に含まれるパラメータaとθについては、
図中に示すパラメータ、すなわち、32で表わされてい
る入力と基準点が一致した場合に生ずるべき中間層の出
力f工と、出力が33のようにf□の半分となるような
34により示される距’Wb d hを用いて次のよう
に計算することが出来る。
特別の場合として、f、=0.5とすると。
θ =−a という簡単な表示が得られる。すなわち、中間層の神経
素子の出力が基準点のまわりでどの様に広がっているか
を定めてやれば、枝の荷重から構成されるベクトルの長
さに相当するa、を定めることができ、同時にいき値θ
を定めることできる。
したがって、基準点の配置と、中間層の神経素子の出力
の広がりを定めることにより、入力層から中間層への枝
の荷重が規定される。
以上により、もし、入力がどの様に分布しているかが予
め分かっていれば、分布と相似の密度で。
基蒲点を配置し、そのような知識が利用できない場合に
は、−様に基準点を配置して、基準点の回りでの中間層
の出力の広がりを定めることにより。
入力層から中間層への枝の荷重を直接計算することが出
来る。
このようにして入力層から中間層への枝の荷重と中間層
の神経素子の感度といき値が定まれば、この部分を既知
のものとして利用することにより、中間層から出力層へ
の枝の荷重と出力層の神経素子の感度といき値を以下の
手順で定めることができる。
こシで、ある出カニニットが目標とする教師信号を1i
と表わする。これを出カニニットの出力関数の逆関数を
用いて出カニニットの入力側の値として表わしたものを
、o4と記す。具体的には、Oi= f−1(t L)
           (13)により定義する。たゾ
し、f (x)は、出カニニットの入出力関係を表わす
関数であり、例えばsigmoid等が用いられる。
入出力関係を学習するための学習サンプルの第1番目の
ものをベクトルで表わし、 i=1.2.・・・2M とした場合に、i番目の入力に対する中間層の出力全体
から構成される列ベクトルを、 i=1,2.  ・・2M とする。これらの学習サンプルに対応する教師信号の値
の出カニニットの入力側への読み変え値(or)t、□
、−,Mからなるベクトルをotgとし、−連の学習サ
ンプルを与えたときに実際に出カニニットの入力側に生
じる値からなるベクトルを次のように定義する。
y=H”w              (15)こ\
で。
W:  (W、、W、、−、WD)” H=  (h□、h2.・・・、hM)Tである。こへ
で出カニニットの入力側に読み変えた自乗誤差 (1” = (o tt  y )”(o tt  y
 )    (17)を最小にすることによって導かれ
る次の正規化方程式の解として、中間層から出力層l\
の枝の重みが求められる。
W:= (H”H)−1H”o tg        
(18)こうして求められた解は、入力側のネットワー
クを固定する限り、最小自乗の意味において最適なもの
であるが、次に、誤差の評価について、出力層に非線形
性に基づく、出力の値に対応する変化を反映させて重み
をつけた誤差に対しての最小自乗解を求める。具体的に
は、こうして求められたネットワークにより求められる
、出力神経素子の入力側に読み変えた重み付き自乗誤差
σ= (otg−y)”C(otg−y)    (1
9)を最小とすることによって導かれる次の正規方程式
の解として、修正された枝の重みが求められる。
w=(H丁CH)−’ H”Co tg       
 (20)二\で。
あるいは。
たゾし。
yl=h1w t□=f(yi) である。
本発明の方法により構成された神経回路網の能力を例に
よって具体的に示す。目標関数をt=0.5+0.2s
in(2πx)     (23)0 < x < 1 として、実験を行った結果を第3図に示す。比較の対象
として、通常の誤差逆向き伝播法を用いた。
この例の場合、1人力1出力であり、5PANの中間層
のユニットとしては、3個から10個までについて、各
々10回の繰返しを行い、確かめた。
基準点の一つは、x=1に設定し、残りを乱数により設
定した、5PANの学習サンプルは100個である。誤
差は、学習サンプルとは異なったサンプルを用いて評価
した、第3図中の35は3個の隠れユニットを有する誤
差逆向き伝播法に8゜00個のデータを与えて学習させ
た場合の教師信号との誤差の自乗平均値である。36は
3個の隠れユニットを有する誤差逆向き伝播法に200
00個のデータを与えて学習させた場合の教師信号との
誤差の自乗平均値である。37は3個の隠れユニットを
有する誤差逆向き伝播法に50000個のデータを与え
て学習された場合の教師信号との誤差の自乗平均値であ
る。38は3個の隠れユニットを有する誤差動向き伝播
法に350000個のデータを与えて学習された場合の
教師信号との誤差の自乗平均値である。このような条件
の下では、4個以上の中間ユニットを用いた5PANに
より、誤差逆向き伝播法よりも平均として優れた結果が
得られている。このような結果を得るための学習点数は
、誤差逆向き伝播法の約500分の1以下である。なお
、こNでは、全体特性の補正を行っていない。
次に目標関数を t = 0.5 + 0.2sin(2x x、)si
n(2πx、)0<x、、 x2<1   (24) として、実験を行った結果を第4図に示す。この関数は
、定義域の中で、2つのピークと2つのデイツプを有し
ており、例えば、同一のカテゴリに属するパターンが飛
び離れた領域にある場合を模擬するものである。この場
合も同様に、誤差逆向き伝播法と比較した。ニューラル
ネットとしては、2人力1出力のものを用い、中間層の
ユニットとしては、4個から17個までについて調べた
。学習サンプルとして300個のデータを用いた。誤差
の評価には、学習サンプルとは別の資料を用いた。
第4図中の39は8個の隠れユニットを有する誤差逆向
き伝播法に4oooo個のデータを与えて学習させた場
合の教師信号との誤差の自乗平均値である。40は8個
の隠れユニットを有する誤差逆向き伝播法に70000
個のデータを与えて学習させた場合の教師信号との誤差
の自乗平均値である。41は8個の隠れユニットを有す
る誤差逆向き伝播法に250000個のデータを与えて
学習させた場合の教師信号との誤差の自乗平均値である
。基準点の一つは、(1,1)に設定し、残りの基準点
は、−様乱数により設定した。このような設定の下では
、14個以上の中間層ユニットを設けることにより、平
均して誤差逆向き伝播法と同等の精度で入出力関数を近
似することができる。この場合の、学習用サンプルの個
数は、誤差逆向き伝播法の約800分の1である。
第5図は第1図のニューラルネットを音声認識に用いる
場合の例である。二\では、入力として音声の自己相関
関数(自己相関係数)を用いている場合の構成を示す。
41で表わされる音声信号を、42の全新装置により自
己相関係数とし、ニューラルネットへの入力13及び、
中間層8を構成する際の基準パターン22とする。訓練
の終了後は、出力14の結果に基づいて入力のカテゴリ
を判定する判定回路43により最終的な判定結果44を
出力する。このように音声認識に本発明方法を適用する
場合には、最終的な判定の直前まで、連続量としての処
理が行われるため、入力の位相が保たれており、最終判
定に入力の微細な構造についての情報を利用でき、認識
率の向上を図ることが出来る。
自己相関係数を入力する場合には、基準点となる自己相
関係数から計算される最尤スペクトルパラメタ(Aよ)
の定数倍を入力層6から中間層8への枝の荷重とするこ
とで、中間層の出力を基準点との距離の関数とすること
ができ、後は、第1図と同様にして中間層8と出力層7
の間の荷重を計算することが出来る。最尤スペク1−ル
パラメタは、以下のようにして計算する。
fori=o、±1 ! ”’ )±nである。二5で
、α−は、入力X、から構成される次の方程式の解であ
る。
α、=4       (27) 最尤スペクトルパラメータと自己相関係数の積和がスペ
クトル領域での距離の関数になることについては、例え
ば抜食、斎藤:統計的手法による音声スペクトル密度と
ホルマント周波数の推定(電子通信学会論会誌、53−
A、11 PP、35−42(昭和45年))の論文に
詳しく4論的説明がδ己載されている。
第6図は、第1図のニューラルネットをシステムの制御
に適用した例であり、連続量から連続量への変換の例で
あるとメもに、超球の表面上に入力がない場合でも、入
力に新たに一つの格経回路素子をつけ加えることにより
、一つ高い次元の超球の表面上に入力を写像することで
、本発明の方法を適用できるようにする構成法の一実施
例である。
システムの各部に配置されたセンサーのwl測値および
制御指令からなる入力45から構成されるベクトルは、
通常は超球の表面のみに存在する保証はない。新たにつ
け加えた回路素子46(神経素子で構成されていてもよ
い)により、後で述へる方法によりベクトルの要素を一
つ加えれば、そのようにして作成された入力ベクトル1
3が常に超球の表面にあるようにすることが出来る。同
様に、超球に乗らなかった見準点47も、付加回路48
により次元の上がった基準点22を作れば、基準点が常
に超球の表面にあるようにすることが出来る。
このような回路46.48を付加すれば、一般の入力に
ついても本発明方法によ、る層状のニューラルネットの
構成法が適用でき、システム制御に必要な出力を高い精
度で近似する出力14を得ることが出来る。この出力か
らシステムを1駆動する信号に変換する駆動回路49を
用いて、システムの制御信号をつくり出すことにより、
センサーからの読出しと、操作指令に基づいてシステム
の制御を行うことが出来る。
入力を超球にのせるための付加回路46では、具体的に
は、以下の方法を用いることが出来る。
n次元の空間をn+1の超球に写像することは例えば、
次のようにしてn+1番目の神経素子の出力を求めれば
よい。
二\で、新たに、 N = n + 1         (29)と置け
ばよい。
第7図は本発明による神経回路網を構成する演算を、汎
用のプロセッサ用のソフトウェアにより行うようにした
実施例である。第7図において、51は中央処理装置と
主記憶装置を含むプロセッサ本体であり、52は補助記
憶装置、53はアナログセンサーやマニピュレータ等を
含む入出力装置、54はネットワーク接続装置を含む通
信装置である。学習用の人力と教師信号は、予め補助記
憶装置52に格納されていてもよく、あるいは、入出力
装置53を通して与えられてもよく、通信装置54を介
して与えられてもよい。これらの学習用のサンプルによ
り構成された神経回路網により、予め補助記憶装置52
に格納されていた入力や、入出力装置53からの入力や
、通信装置54を介して与えられる入力から、出力を計
算して、補助記憶装置52に格納したり、入出力装置5
3を介してマニピュレータを操作したり、通信回線を介
して出力を返すために用いる。
第7図のプロセッサ本体51に格納されている主要な手
続と゛データを第8図に示す、51aは神経回路網の波
荷重を計算し、神経回路網を設計する手続である。51
bはこのようにして設計された神経回路網をシミュレー
トする手続本体である。
51cは神経回路網を規定する波荷重および神経素子の
感度、いき値データの集まりである。51dは制御部で
ある。
第9図に51aの神経回路網設計手続についての一例を
示す。101は入力データについての事前の知識に基づ
いて基準点(例えば第1図における22)を設定するス
テップである。102は、設定された基準点の座標と、
あらかじめ定められた基準点の回りの関数の広がりに基
づき、基市点に対応する中間層の神経素子への波荷重を
計算するステップであり、第1図における回路23に相
当する。103はそのようにして求められた波荷重を用
いて、学習用の入力データのサンプルを中間層の神経素
子の出力データのサンプル(第1図における24)に変
換するステップである。104は、中間層の神経素子の
出力データのサンプルと、教師信号を出力層の入力側に
読み変えた信号に基づき、正規方程式を計算するステッ
プであり、第1図における換算回路25と荷重計算回路
27の機能を実現している。105は、このようにして
作成された正規方程式を解くことにより、中間層から出
力層へ〇波荷重を決定するステップであり、第1図の荷
重計算回路27の機能に相当している。
以上で、神経回路網は基本的には構成できるが、より精
度を向上させる場合には、106の手続きにより、さら
に中間層から出力層への波荷重を補正する。107は、
構成された神経回路網全体を用いて、学習用の入力デー
タのサンプルを出力層の入力側のサンプル(第1図にお
ける29)に変換することを介して、出力層の出力デー
タのサンプル(第1図における14)に変換するステッ
プである。108は、これらのサンプルに基づき、正規
方程式を更新するステップであり、第1図の荷重計算回
路28に相当する。109は、こうして更新さ胆た正規
方程式を解いて、中間層から出力層への波荷重を更新す
る部分であり、第1図の同じく荷重計算回路28に相当
する。
第10図は、このようにして構成された神経回路網をシ
ミュレートする手続の一例である。111は入出力装置
からのデータを取り込むステップであり1例えば第5図
における分析装置42の機能に相当する部分である。1
12は、このようにして取込まれたデータを本発明方法
が適用できる性質を持つデータに変換する前処理部分で
あり、第5図における同じく分析装置42や第6図にお
ける付加回路46の機能に相当する部分である。
113は、このようにして用意されたデータを中間層の
神経素子への入力に変換する部分であり、第1図におけ
る10に相当する。114は、このようにして求められ
た。中間層の神経素子への入力を中間層の素子の出力に
変換する部分であり、第1図の8に相当する。115は
、以上のようにして求められた中間層の神経素子の出力
データを出力層の神経素子の入力データへ変換する部分
であり、第1図の12に相当する。116は、出力層へ
の入力データを出力層の出力データに変換する部分であ
り、第1図の7に相当する。117は、このようにして
求められた出力データを、実際に利用できる形に変換す
る部分であり、第5図における判定回路43や第6図に
おける駆動回路49に相当する部分である。
第11図は本発明による神経回路網を構成する演算を、
汎用の中央処理装置に付加された専用の演算装置を用い
て計算するようにした場合の実施例である。55は中央
処理装置と主記憶装置を含むプロセッサ本体であり、5
6は神経回路網の動作に必要な計算を行う専用の演算装
置であり、57は補助記憶装置、58はアナログセンサ
やマニピュレータ等を含む入出力装置、59はネットワ
ーク接続装置を含む通信装置である。学習用の入力と教
師信号は、予め補助記憶装置57に格納されていてもよ
く、あるいは、入出力装置58を通して与えられてもよ
く、通信装置59を介して与えられてもよい、これらの
学習用サンプルにより構成された神経回路網により、予
め補助記憶装置57に格納されていた入力や、入出力装
置58からの入力や、通信袋@59を介して与えられる
入力から、出力を計算して、補助記憶装置57に格納し
たり、入出力装置58を介してマニピュレータを操作し
たり、通信回線を介して出力を返すために用いる。
第12図にプロセッサ本体55と専用の演算装置56の
構成例を示す。55aは神経回路網の波荷重を計算し、
神経回路網を設計する手続であり、これは第8図の51
aと同様の手順(第9図の手順)から構成される。55
bは神経回路網用の専用演算装置56を制御する手続で
あり、第13図に示すような手順から構成されている。
55cは神経回路網の波荷重や、いき値や、神経素子の
感度等からなる設定データおよび、制御指例等のコマン
ド、バックエンドプロセッサとして使用する場合の入力
データ等を通す制御用インタフェースである。55dは
専用演算装置56の動作状態等を報告したり、バンクエ
ンドプロセッサとして使用する場合の出力データ等を通
す、読みだし用インタフェースである。55eは制御部
である。
神経回路網用の専用の演算装置56は、56aに示す神
経回路網を実現するハードウェア本体(フレームウェア
、LS 1.ないしは、個別部品による回路、光演算装
置も含む)と、本体と外界をつなぐ入力インタフェース
56bおよび出力インターフェイス56cからモカ成さ
れる。56dは外界からの入力線、56eは外界への出
力線である。
第13図は、神経回路網用の専用の演算装置56を制御
する手続55bの構成例である。201は神経回路網設
計手続により求められた波荷重や、神経素子のいき値や
感度を、専用の演算装置56の必要な部分に設定するス
テップである。202は専用の演算量[56が動作する
上で必要な条件。
例えば、データの読み取り周期や、読み取りの条件(本
体のプロセッサを介してか、直接56d。
56eの入出力を用いてか等)などを設定する部分であ
る。203は条件設定が終了した後に、神経回路網用の
専用の演算装置56を起動するための制御や、その他の
必要な制御を行う部分である。
その他に、専用の演算装置56をバックエンドプロセッ
サとして用いる場合には、プロセッサ本体55が受は取
った入力データを、専用の演算装置用のデータに変換す
るステップや、専用の演算装置56から転送されてきた
データをプロセッサ本体55から外部に転送できる形に
変換するステップを用いる。また、これらのデータをプ
ロセッサ本体55と、準用の演算装置56との間で相互
に転送するための転送制御手順と、動作中の異常などを
検出し、必要な制御を行う監視手順を有する。
〔発明の効果〕
以上説明したように、本発明は、層状の神経回路網への
入力パターン空間における凸な領域を表わす部分的な神
経回路網を構成することにより、対象となる入力パター
ンについての知識と、様々な入力とその各々の入力に対
応する望ましい出力との組合せの例を用いて直接的に神
経回路網の枝の荷重と各々の神経素子の感度とひき値を
決定することができるため、以下に述べる利点がある。
1、対象について持っている知識を、神経回路網の枝の
重み、素子の感度およびいき値の決定に反映することが
できる。
2、従来の誤差逆向き伝播法を用いた場合には、神経回
路網の構成要素である神経素子の数を増やしても、神経
回路網のパラメタと誤差の関係に多数の極値(局所的な
最小値)が生ずるため全体的な性能が向上せず、かつ、
有効に使用されない神経画素子が生ずる場合があった。
しかるに、本方法では、神経素子の数の増加を性能の向
上に結びつけることができる。
3、入力信号として想定するパターン空間内の信号に対
する出力の誤差の範囲を容易に子側することができるた
め、許容誤差を満たすような神経回路網を構成すること
ができる。
4、誤差逆向き伝播法も本発明の方法も、神経回路網の
枝の荷重や素子の感度およびいき値を決定するための教
師あり学習方法の一種であるが、同程度の性能を持つ神
経回路網を構成するために要する本方法の演算量は、誤
差逆向き伝播法のそれと比較して、一般に1/1’OO
から1/1000にできる。
5、本発明方法と、誤差逆向き伝播法等の既存の神経回
路網構成法を組み合わせて使用することができる。また
、そのようにして、得られた神経回路網の枝の重み等に
表現された情報を人カバターン空間内の点の分布や配置
として解釈することができるので、声音符号化のコート
ワード等の決定に利用できる。
【図面の簡単な説明】 第1図は本発明による層状の神経回路網の一実施例の構
成法を示す図、第2図は本発明において中1711層の
神経素子の出力がどの様に形成されるかの説明図、第3
図及び第4図は本発明の効果を実証するための従来の方
法との比較の実験結果を示す図、第5図は本発明の神経
回路網を自己相関係数を用いる音声認識系に適用した実
施例を示す図、第6図は本発明の神経回路網を一般の連
続的な入力出力関係の構成に利用する場合の例としてシ
ステムの制御に用いる場合の実施例を示す図、第7図は
本発明の神経回路網の実装の一例として汎用のプロセッ
サを用いる場合の構成例を示す図、第8図は第7図にお
けるプロセッサ本体内部の主要手続およびデータの詳細
を示す図、第9図は第8図における神経回路網設計手続
きの手順例を示す図、第10図は第8図におけるシミュ
レーション実行手続の手順例を示す図、第11図は本発
明の神経回路網の実装の一例として専用のプロセッサを
用いる場合の構成例を示す図、第12図は第11図にお
けるプロセッサ本体及び専用演算装置の構成例を示す図
、第13図は第12図における神経回路網ハードウェア
制御手続の手順例を示す図、第14図は人工的神経素子
を示す図、第15図は層状の神経回路網の構造を示す図
、第16図は網状の神経回路網の構造を示す図、第17
図は神経回路素子の非線型部を実現するCMOSインバ
ータを示す図、第18図は第17図のCMOSインバー
タの入出力特性を示す図、第19図は神経回路素子の入
力に対する波荷重を実現する抵抗回路網を示す図、第2
0図は神経回路網のLSIによる実現例を示す図、第2
1図は従来の方法による層状神経回路網の構成例を示す
図である。 6・・・入力層、  8・・中間層、  7・・・出力
層、10・・入力層と中間層の間の枝及び枝の荷重。 12・・・中間層と出力層の間の技及び技の荷重。 14・・・出力層の出力、  15・・・教師信号、2
2・・基準点、 23.27.28・荷重計算回路。 24・・・中間層の出力、  25・・・換算回路、2
6・・・入力側に関算された教師信号、29・・・出力
層への入力信号。 第  1   図 第  2  図 第  3  図 鉄差 (rms) j=o、5すα2Sir1(2(χ乃止侠11、差 (rrns) t = 0,5 t o、2sHn (2ycx)sr
n (2xz、)tnil、イlメ、第  5  図 第  6  図 第  8  図 第  15  図 第  16  図 第  17  図 第  18  図 第  20  図 刈 デ′コータ゛ イ↑〒パコーヲ′。

Claims (2)

    【特許請求の範囲】
  1. (1)人工的神経素子を層状に結合した神経回路網にお
    いて、人力信号空間の凸な領域に対応する部分的な神経
    回路網を構成し、該構成される一つ乃至複数の部分的神
    経回路網を用いて学習用の入力パターンを変換して作成
    される中間パターンと望ましい出力を出力素子の入力側
    の値に逆変換した値とを用いて神経素子間の枝の荷重を
    決定することを特徴とする神経回路網の構成方法。
  2. (2)人工的神経素子を入力層、中間層、出力層の層状
    に結合した神経回路網において、 入力信号空間中の凸な領域に対応する点を基準点とし、
    該基準点から入力層と中間層の間の枝の荷重および中間
    層の非線形性を定めるパラメータを求める回路と、 望ましい出力を表わす教師信号を出力層の入力側に換算
    する回路と、 入力側に換算された教師信号と中間層の出力より中間層
    と出力層の間の枝の荷重を決定する回路と、 教師信号、教師信号を出力層の入力側に換算した信号、
    中間層の出力信号、出力層への入力信号、出力層からの
    出力信号に基づき中間層と出力層の間の枝の荷重を決定
    する回路とを有することを特徴とする神経回路網。
JP63228189A 1988-09-12 1988-09-12 神経回路網の構成方法および神経回路網 Pending JPH0276062A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63228189A JPH0276062A (ja) 1988-09-12 1988-09-12 神経回路網の構成方法および神経回路網

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63228189A JPH0276062A (ja) 1988-09-12 1988-09-12 神経回路網の構成方法および神経回路網

Publications (1)

Publication Number Publication Date
JPH0276062A true JPH0276062A (ja) 1990-03-15

Family

ID=16872604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63228189A Pending JPH0276062A (ja) 1988-09-12 1988-09-12 神経回路網の構成方法および神経回路網

Country Status (1)

Country Link
JP (1) JPH0276062A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2741793B2 (ja) * 1991-10-17 1998-04-22 川崎製鉄株式会社 ニューラルネットワークプロセッサ
CN109961134A (zh) * 2017-12-14 2019-07-02 北京中科寒武纪科技有限公司 集成电路芯片装置及相关产品
JP2020057278A (ja) * 2018-10-03 2020-04-09 株式会社デンソー 人工ニューラルネットワーク回路

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2741793B2 (ja) * 1991-10-17 1998-04-22 川崎製鉄株式会社 ニューラルネットワークプロセッサ
CN109961134A (zh) * 2017-12-14 2019-07-02 北京中科寒武纪科技有限公司 集成电路芯片装置及相关产品
JP2020057278A (ja) * 2018-10-03 2020-04-09 株式会社デンソー 人工ニューラルネットワーク回路

Similar Documents

Publication Publication Date Title
Patra et al. Nonlinear dynamic system identification using Legendre neural network
JPH06509669A (ja) 改良ニューラル・ネットワーク
CN106503654A (zh) 一种基于深度稀疏自编码网络的人脸情感识别方法
JPH02297117A (ja) 神経系模擬システム
CN106503802A (zh) 一种利用遗传算法优化bp神经网络系统的方法
CN107609634A (zh) 一种基于增强极速学习的卷积神经网络训练方法
CN105701540A (zh) 一种自生成神经网络构建方法
KR20210060146A (ko) 딥 뉴럴 네트워크 모델을 이용한 데이터 처리 방법 및 장치, 딥 뉴럴 네트워크 모델을 학습시키는 학습 방법 및 장치
CN113628615A (zh) 语音识别方法、装置、电子设备及存储介质
JPH0276062A (ja) 神経回路網の構成方法および神経回路網
JP7250643B2 (ja) 計算機システム及びモデル学習方法
Johnsson et al. Associative self-organizing map
Beerhold et al. Pulse-processing neural net hardware with selectable topology and adaptive weights and delays
CN113283986B (zh) 算法交易系统及基于该系统的算法交易模型的训练方法
JPH02136034A (ja) ニューラルネットワークによる最適電力負荷配分システム
CN110110853B (zh) 一种深度神经网络压缩方法、装置及计算机可读介质
JPH0638200B2 (ja) ダイナミックなニューラルネットワーク
Sabbaghi et al. New full adders using multi-layer perceptron network
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
Pican et al. An on-line learning algorithm for the orthogonal weight estimation of MLP
Hwang et al. Fast learning neural network with modified neurons
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
Piazza et al. Fast spline neural networks for image compression
Zhao et al. Nonlinear system identification based on recurrent wavelet neural network
Hazen et al. Sonar sensitivity analysis using a neural network acoustic model emulator