JPH05128082A - 階層ネツトワーク構成データ処理装置とその学習処理方法 - Google Patents

階層ネツトワーク構成データ処理装置とその学習処理方法

Info

Publication number
JPH05128082A
JPH05128082A JP3179116A JP17911691A JPH05128082A JP H05128082 A JPH05128082 A JP H05128082A JP 3179116 A JP3179116 A JP 3179116A JP 17911691 A JP17911691 A JP 17911691A JP H05128082 A JPH05128082 A JP H05128082A
Authority
JP
Japan
Prior art keywords
data processing
processing device
learning
hierarchical network
network configuration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3179116A
Other languages
English (en)
Inventor
Daiki Masumoto
大器 増本
Hiromoto Ichiki
宏基 市來
Hideki Yoshizawa
英樹 吉沢
Hideki Kato
英樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3179116A priority Critical patent/JPH05128082A/ja
Publication of JPH05128082A publication Critical patent/JPH05128082A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】本発明は、基本ユニットの階層接続から構成さ
れる階層ネットワーク構成データ処理装置の内部状態値
をデータ処理目的遂行のものに学習するための学習処理
方法に関し、高精度の学習を実行できるようにすること
を目的とする。 【構成】計算機上に学習対象のデータ処理装置を写像す
ることで写像データ処理装置を生成し、計算機上に基本
ユニットそのものを階層型のデータ処理装置として写像
するとともに、各基本ユニットの実際の入出力信号関係
を教師データとして用いてこのデータ処理装置の持つ内
部状態値を学習することで、各基本ユニットと等価とな
る等価データ処理装置を生成し、写像データ処理装置上
の各基本ユニットを等価データ処理装置に置き換えて、
この等価データ処理装置の持つ内部状態値を固定値と扱
いつつ、写像データ処理装置の入出力信号特性が教師デ
ータの入出力信号関係となるべく内部状態値を学習して
いくように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ハードウェアから構成
されて、1つ又は複数の入力と該入力に乗算されるべき
内部状態値とを受け取って積和を得るとともに、該積和
値を規定関数によって変換して最終出力を得る基本ユニ
ットを基本単位にして、該基本ユニットの階層接続から
構成される階層ネットワーク構成データ処理装置の持つ
内部状態値をデータ処理目的を遂行できるように学習す
るための階層ネットワーク構成データ処理装置の学習処
理方法と、その学習処理方法により学習された内部状態
値を設定する階層ネットワーク構成データ処理装置に関
し、特に、内部状態値を高精度に学習できるようにする
階層ネットワーク構成データ処理装置の学習処理方法
と、その学習処理方法により学習された内部状態値を設
定する階層ネットワーク構成データ処理装置に関するも
のである。
【0002】階層ネットワーク構成データ処理装置とし
て用いられるニューロコンピュータをハードウェアで実
現する場合に、ニューロコンピュータのデータ処理機能
を決定付ける重み値の学習は汎用計算機上のシミュレー
ションで行い、学習された重み値をニューロコンピュー
タに設定して実行のみをニューロコンピュータで行わせ
る方法と、学習と実行を共にニューロコンピュータで行
わせる方法という2つの方法がある。予め分かっている
パターンを認識する場合等には、最初に一度学習を行う
ことで重み値を決定してそれ以降はその重み値を使い続
ければよいので、後者の方法を使用することが可能であ
る。一方、ロボットを周囲の環境変化に適応させながら
制御する場合等には、制御方法そのものを学習し直す必
要があるので、前者の方法を用いなければならない。
【0003】このいずれの方法を採るにしても、重み値
の学習を高精度で行うことは、ニューロコンピュータの
データ処理精度を高めるためにも不可欠なことであり、
ニューロコンピュータの適用範囲の拡大を図るためにも
不可欠なことである。特に、前者の方法に従う場合に
は、ハードウェアで実現されたニューロコンピュータ
と、シミュレーションで仮定するニューロコンピュータ
との間のズレが避けられないので、このズレの解決を図
って、ニューロコンピュータが高精度のデータ処理機能
を持つようにしていく必要がある。
【0004】
【従来の技術】階層ネットワーク構成データ処理装置と
して用いられるニューロコンピュータは、図10に示す
ような、1つ又は複数の入力とこの入力に乗算されるべ
き重み値とを受け取って積和を得るとともに、この積和
値を規定関数(シグモイド関数等)によって変換して最
終出力を得る基本ユニット1を基本単位にして、図11
に示すように、この基本ユニット1が階層的にネットワ
ーク接続されることで構成されるものである。ここで、
図11において、最前段の入力層に位置する入力ユニッ
ト2は、ニューロコンピュータに入力されてくる入力信
号を次段の中間層の基本ユニット1に分配するものであ
る。また、この図のニューロコンピュータでは、最終段
の出力層の基本ユニット1の個数を1つで示してある
が、データ処理機能によっては、複数備えられることが
あり、そして、中間層は、この図のように1段でもって
構成されることばかりではなくて、1つ又は複数の基本
ユニット1を1段として、1つ又は複数段でもって構成
されることもある。
【0005】このニューロコンピュータは、この各ユニ
ット間に割り付けられる重み値に従ってそのデータ処理
機能を変化するものであり、この重み値は、データ処理
目的を実現する入出力信号の対応関係を持つ教師データ
が与えられると、バックプロパゲーション法(誤差逆伝
播学習則)によってデータ処理目的を遂行するものに学
習されていくことになる。
【0006】ニューロコンピュータの重み値の学習を汎
用計算機上のシミュレーションで行って、学習された重
み値をハードウェア構成のニューロコンピュータに設定
してデータ処理を実行していく方法を採る場合、従来で
は、上述の基本ユニット1の理想的なモデルを仮定し
て、そのモデルを対象にしてシミュレーションで学習を
行う構成を採っていた。すなわち、計算機上に基本ユニ
ット1のデータ処理機能をモデル化することで学習対象
のニューロコンピュータを計算機上に写像して、この写
像されたニューロコンピュータに対して教師データを用
いてバックプロパゲーション法を適用することで重み値
を決定して、その決定した重み値を実際のハードウェア
構成のニューロコンピュータに反映させていくという方
法を採っていたのである。
【0007】
【発明が解決しようとする課題】しかしながら、ハード
ウェアで構成される実際の基本ユニット1と、シミュレ
ーションで仮定する基本ユニット1のモデルとの間に
は、特性にズレのでることは避けられないことである。
これから、このような従来技術に従っていると、ニュー
ロコンピュータに対して、所望のデータ処理機能を実現
する重み値を設定することができないために、所望のデ
ータ処理機能を持たすことができないという問題点があ
った。
【0008】この問題点を解決するための一方法とし
て、ハードウェアで構成される実際の基本ユニット1
と、シミュレーションで仮定する基本ユニット1のモデ
ルとの間の特性のズレを正確に見積もって、それに基づ
いてシミュレーションモデルを訂正していく方法を採る
ことが考えられる。しかしながら、この特性のズレを正
確に見積もることは、ハードウェアで構成される実際の
基本ユニット1がアナログ演算を用いている場合には現
実には不可能なことである。
【0009】また、この問題点を解決するための別の方
法として、実際のニューロコンピュータの出力層からの
出力信号をサンプリングして、それを元にしてシミュレ
ーションにより学習を実行していくという方法を採るこ
とが考えられる。しかしながら、この方法では、シミュ
レーションで仮定する基本ユニット1のモデルを訂正す
るわけではないので、シミュレーションモデルと実際の
ハードウェア特性とのズレ方によっては、学習時に誤差
が振動してしまう等うまく学習が実行できない場合がで
てくる。例えば、基本ユニット1が積和値を変換する規
定関数としてシグモイド関数を用いている場合、このシ
グモイド関数は入力0の付近で勾配が急であることか
ら、ほんの少しのズレが大きく影響することで学習時に
誤差が振動してしまうのである。
【0010】本発明はかかる事情に鑑みてなされたもの
であって、階層ネットワーク構成データ処理装置のデー
タ処理機能を規定する内部状態値を高精度に学習できる
ようにする新たな階層ネットワーク構成データ処理装置
の学習処理方法の提供と、その学習処理方法により学習
された内部状態値を設定する新たな階層ネットワーク構
成データ処理装置の提供を目的とするものである。
【0011】
【課題を解決するための手段】図1に本発明の原理構成
を図示する。図中、P1は第1の処理過程、P2は第2
の処理過程、P3は第3の処理過程、P4は第4の処理
過程である。
【0012】1は基本ユニットであって、ハードウェア
から構成されて、1つ又は複数の入力とこの入力に乗算
されるべき内部状態値とを受け取って積和を得るととも
に、この積和値を規定関数によって変換して最終出力を
得るもの、10はハードウェアから構成される学習対象
の階層ネットワーク構成データ処理装置であって、基本
ユニット1の階層接続から構成されて、ユニット間に割
り付けられる内部状態値により規定されるデータ処理機
能に従って、入力信号に対応する出力信号を算出して出
力するものである。
【0013】11は第1の処理過程P1により計算機上
に生成される写像データ処理装置であって、階層ネット
ワーク構成データ処理装置10を計算機上でシミュレー
トするものである。この写像データ処理装置11におい
て、ハードウェアにより構成される基本ユニット1は、
基本ユニット1の数学的に理想的なモデルとなるモデル
基本ユニット1aとしてシミュレートされることにな
る。12は第2の処理過程P2により計算機上に生成さ
れる等価データ処理装置であって、階層ネットワーク構
成データ処理装置の展開形態をとって、基本ユニット1
の実際の入出力信号特性と同一の入出力信号特性をシミ
ュレートするものとして構築されるもの、13は第3の
処理過程P3により計算機上に生成される写像データ処
理装置であって、第1の処理過程P1で生成される写像
データ処理装置11のモデル基本ユニット1aを第2の
処理過程P2で得られる等価データ処理装置12に置き
換えることで生成されるもの、14は階層ネットワーク
構成データ処理装置10の持つ内部状態値の学習のため
に用意される教師データである。なお、以下説明の便宜
上、等価データ処理装置12の構築元となる階層ネット
ワーク構成データ処理装置を“10’”で表記すること
にする。
【0014】
【作用】本発明では、第1の処理過程P1で、学習対象
の階層ネットワーク構成データ処理装置10を計算機上
に写像データ処理装置11としてシミュレートする。
【0015】続いて、第2の処理過程P2で、先ず最初
に、等価データ処理装置12として構築されることにな
る階層ネットワーク構成データ処理装置10’を計算機
上にシミュレートする。このとき、この階層ネットワー
ク構成データ処理装置10’の基本ユニット1は、第1
の処理過程P1で生成された写像データ処理装置11の
モデル基本ユニット1aと同じ形態でシミュレートされ
ることになる。次に、実際の階層ネットワーク構成デー
タ処理装置10の各基本ユニット1に入力信号を与える
とともに、この入力信号に応答して出力される出力信号
を収集することで、各基本ユニット1の入出力信号特性
を収集する。続いて、この収集した入出力信号関係を教
師データとして用いて、例えば誤差逆伝播学習則に従っ
て、写像した階層ネットワーク構成データ処理装置1
0’の持つ内部状態値を学習して設定することで各基本
ユニット1毎の等価データ処理装置12を構築する。こ
のようにして第2の処理過程P2で生成される各等価デ
ータ処理装置12は、階層ネットワーク構成データ処理
装置10’の展開形態をとって、対応する基本ユニット
1の実際の入出力信号特性と同一の入出力信号特性をシ
ミュレートするものとして計算機上に構築されることに
なる。
【0016】この第2の処理過程P2で実行する等価デ
ータ処理装置12を得るための学習にあたって、基本ユ
ニット1の理想的な入出力信号特性を実現する内部状態
値を、等価データ処理装置12の構築元となる階層ネッ
トワーク構成データ処理装置10’の持つ内部状態値の
初期値として設定していくことが好ましい。また、この
第2の処理過程P2で実行する等価データ処理装置12
を得るための学習にあたって、いずれかの基本ユニット
1の等価データ処理装置12により得られる内部状態値
を、他の基本ユニット1の等価データ処理装置12を得
るための内部状態値の初期値として設定していくことが
好ましい。このようにすると、短時間の学習処理に従っ
て、等価データ処理装置12を構築できるようになる。
【0017】続いて、第3の処理過程P3で、第1の処
理過程P1で生成された写像データ処理装置11のモデ
ル基本ユニット1aを第2の処理過程P2で得られた対
応の等価データ処理装置12に置き換えることで、計算
機上に写像データ処理装置13をシミュレートする。こ
のようにして第3の処理過程P3により生成される写像
データ処理装置13は、基本ユニット1の入出力信号特
性を正確にシミュレートすることで、学習対象となる階
層ネットワーク構成データ処理装置10を正確にシミュ
レートするものとなる。
【0018】続いて、第4の処理過程P4で、第3の処
理過程P3で置き換えられた等価データ処理装置12の
持つ内部状態値を固定値と扱いつつ、第3の処理過程P
3で生成された写像データ処理装置13の入出力信号特
性が教師データ14の入出力信号関係となるべく、例え
ば誤差逆伝播学習則に従って、この写像データ処理装置
13の持つ内部状態値を学習する。この学習処理によ
り、学習対象の階層ネットワーク構成データ処理装置1
0の持つ内部状態値の学習が高精度に実行されることに
なるのである。
【0019】そして、この学習された内部状態値を実際
の階層ネットワーク構成データ処理装置10に設定して
いくことで、教師データ14の規定する入出力信号関係
と同一の入出力信号特性を持つ所望の階層ネットワーク
構成データ処理装置10が構築できることになる。
【0020】
【実施例】以下、実施例に従って本発明を詳細に説明す
る。図2に、ハードウェアで構成される基本ユニット1
の回路構成の一実施例を図示する。この基本ユニット1
は、図に示すように、乗算型DA変換器20と積分器2
1とシグモイド関数回路22とから構成されるアナログ
データ処理ブロック23と、重みデータローディングブ
ロック24と、制御ブロック25とから構成される。こ
こで、重みデータローディングブロック24のローディ
ングする重み値(デジタル値で指定)は、図示しない外
部のメモリに書き込まれている。
【0021】基本ユニット1は、この構成を採って以下
の通り動作することで演算処理を実行する。すなわち、
入力線からアナログ信号x1 が乗算型DA変換器20に
入ってくると、重みデータローディングブロック24
は、対応する重み値w1 を乗算型DA変換器20にロー
ドし、このロードを受けて、乗算型DA変換器20は、
入力されてくる2つの値の乗算値w1 1 を算出し、積
分器21は、この乗算値w1 1 を外部キャパシタに電
荷として蓄積する。次に、次のアナログ信号x2 を入れ
ることで、乗算値w2 2 を積分器21の外部キャパシ
タに蓄積し、以下、これを乗算値wn n まで繰り返し
ていくことで、入力信号xi と重み値wi との乗算値の
合計値を外部キャパシタに蓄積する。そして、この合計
値の蓄積が終了すると、シグモイド関数回路22は、積
分器21の出力をシグモイド変換して外部に出力してい
くのである。なお、この一連の処理は、外部からの同期
信号に応じて制御ブロック25が制御することになる。
【0022】学習対象の階層ネットワーク構成データ処
理装置10は、このように構成される基本ユニット1が
階層的にネットワーク接続されることで構成されるもの
である。図3に、階層ネットワーク構成データ処理装置
10の装置構成の一実施例を図示する。この図の階層ネ
ットワーク構成データ処理装置10は、入力層と、この
入力層の後段層として位置して、複数の基本ユニット1
が並べられることで構成される1段構成の中間層と、こ
の中間層の後段層として位置して、複数の基本ユニット
1が並べられることで構成される出力層という3層構造
で構成されており、入力層は、階層ネットワーク構成デ
ータ処理装置10に入力されてくる入力信号を時分割で
もって中間層の各基本ユニット1に分配し、中間層の各
基本ユニット1は、上述のシグモイド関数回路22の出
力信号を時分割でもって出力層の各基本ユニット1に分
配していく構成を採っている。すなわち、回路接続的に
は、図4に示すように、入力層が入力信号毎の入力ユニ
ット2を持って、入力層と中間層の各ユニット間と、中
間層と出力層の各ユニット間に、入力信号線が配設され
る構成と等価なものとなる。
【0023】このように、後段層への入力信号を時分割
で転送する構成を採ると、ユニット間に配設する入力信
号線が1本構成のアナログバスで済むことになることか
ら、大規模な階層ネットワークを作る場合にも、少ない
配線本数で済ませられることになるのである。
【0024】この図3の階層ネットワーク構成データ処
理装置10は、例えば、1個の基本ユニット1の機能を
2μmのBi−CMOSプロセスを用いて実現して、5.
3 ×3.8 mmの1チップ上に階層ネットワークを集積す
ることで実装される。そして、図3にも示すように、同
一のチップボード上に、制御信号を発生するコントロー
ラも実装する構成を採っているので、ユーザは、煩わし
い制御のことを考えずに、ただ単に入力信号を与えるだ
けでよいように構成されている。
【0025】このような構成を採る階層ネットワーク構
成データ処理装置10の階層ネットワークの各ユニット
間に割り付けられる重み値は、データ処理目的を実現す
る入出力信号関係を持つ教師データが与えられると、よ
く知られているバックプロパゲーション法(誤差逆伝播
学習則)によってデータ処理目的を遂行するものに学習
されていくことになる。
【0026】すなわち、バックプロパゲーション法で
は、h層−i層−j層という3層構造の階層ネットワー
クで説明するならば、教師データの入力信号が提示され
たときに出力される出力層からの出力信号ypjと、その
出力信号のとるべき信号である教師データの出力信号d
pjとの誤差の二乗和である誤差ベクトルEp の総和Eが
漸近的にゼロ値となるように、各ユニット間に割り付け
られる重み値を学習するものである。ここで、添字のp
は、教師データ中の識別子を表している。具体的には、
先ず最初に、出力層からの出力信号ypjと、教師データ
の出力信号dpjとから、 αpj=ypj(1−ypj)(dpj−ypj) を算出し、続いて、
【0027】
【数1】
【0028】に従って、i層−j層間の重み値の更新量
ΔWji(t)を算出する。そして、続いて、算出したα
pjを用いて、先ず最初に、
【0029】
【数2】
【0030】に従って、βpiを算出し、次に、
【0031】
【数3】
【0032】に従って、h層−i層間の重み値の更新量
ΔWih(t)を算出する。そして、この算出した更新量
を用いて、 Wji(t)=Wji(t−1)+ΔWji(t) Wih(t)=Wih(t−1)+ΔWih(t) に従って、次の更新サイクルで用いるi層−j層間の重
み値Wji(t)と、h層−i層間の重み値Wih(t)を
決定していく方法を繰り返していくことで、教師データ
の入出力信号関係を実現する階層ネットワークの重み値
ji,Wihを学習していくのである。
【0033】次に、ハードウェアで構成される階層ネッ
トワーク構成データ処理装置10の持つ重み値の学習処
理を、汎用計算機上で高精度に実行する本発明の学習処
理方法の一実施例について詳細に説明する。
【0034】図1でも説明したように、本発明の学習処
理では、階層ネットワーク構成データ処理装置10’の
展開形態をとって、基本ユニット1の実際の入出力信号
特性と同一の入出力信号特性をシミュレートする等価デ
ータ処理装置12を計算機上に構築する処理を実行する
ことになる。図5に、この等価データ処理装置12を構
築するために実行する処理フローの一実施例を図示す
る。
【0035】この図5の処理フローに示すように、等価
データ処理装置12を計算機上に構築するために、先ず
最初に、ステップ1で、基本ユニット1をシミュレート
することになる階層ネットワーク構成データ処理装置1
0’を、ワークステーション上の専用ソフトウェアシミ
ュレータ上に構築する。すなわち、図6に示すように、
基本ユニット1の構築元となる階層ネットワーク構成デ
ータ処理装置10’をシミュレータ上に構築するのであ
る。このとき、このシミュレータ上に構築される階層ネ
ットワーク構成データ処理装置10’の基本ユニット1
は、基本ユニット1の数学的に理想的なモデルとなるモ
デル基本ユニット1aとしてシミュレートされるととも
に、出力層のモデル基本ユニット1aの個数は、基本ユ
ニット1が1出力形式をとることから1個としてシミュ
レートされるものである。
【0036】次に、ステップ2で、学習対象の階層ネッ
トワーク構成データ処理装置10の持つ基本ユニット1
の中から未選択の基本ユニット1を1つ選択し、続くス
テップ3で、この選択処理で未選択のものがないことを
判断するときには、そのまま処理を終了する。一方、選
択できたことを判断するときには、ステップ4に進ん
で、その選択した具体的なハードウェアの基本ユニット
1に入力信号を与えるとともに、この入力信号に応答し
て出力される出力信号を収集することで、その基本ユニ
ット1の実際の入出力信号特性を計測する。このとき、
基本ユニット1に与える入力信号に乗算されるべき重み
値は、例えば、ランダムな固定値に設定することで実行
されることになる。そして、続くステップ5で、この計
測した入出力信号関係を教師データとして用いて、上述
のバックプロパゲーション法に従って、シミュレータ上
に構築した階層ネットワーク構成データ処理装置10’
の持つ重み値を学習し、続くステップ6で、その学習し
た重み値を収集してステップ2に戻っていくよう処理す
る。
【0037】このようにして、階層ネットワーク構成デ
ータ処理装置10’の展開形態をとって、対応する基本
ユニット1の実際の入出力信号特性と同一の入出力信号
特性をシミュレートする等価データ処理装置12が構築
されることになる。この等価データ処理装置12の構築
のための学習処理にあたって、前もって、モデル基本ユ
ニット1aの入出力信号特性を教師データとして用い
て、バックプロパゲーション法に従ってシミュレータ上
に構築した階層ネットワーク構成データ処理装置10’
の持つ重み値を学習しておいて、その重み値を各基本ユ
ニット1の等価データ処理装置12を得るときに実行す
る重み値の初期値として用いていくようにすると、等価
データ処理装置12を得るための学習処理が短時間で済
むようになる。また、図7に示すように、いずれかの基
本ユニット1の等価データ処理装置12の学習処理によ
り得られる重み値を、他の基本ユニット1の等価データ
処理装置12を得るときに実行する重み値の初期値とし
て用いていくようにすると、等価データ処理装置12を
得るための学習処理が短時間で済むようになる。
【0038】本発明の学習処理では、このようにして、
基本ユニット1の入出力信号特性を正確にシミュレート
する等価データ処理装置12を得ておくと、先ず最初
に、図8に示すように、学習対象の階層ネットワーク構
成データ処理装置10をシミュレータ上に写像データ処
理装置11としてシミュレートする。ここで、この実施
例では、1段構成の中間層を想定している。このときシ
ミュレートされる基本ユニット1は、数学的に理想的な
モデルとなるモデル基本ユニット1aとしてシミュレー
トされるもので、従来では、この写像データ処理装置1
1を用いて、バックプロパゲーション法に従って用意さ
れる教師データの入出力信号関係が実現されるべく、実
際の階層ネットワーク構成データ処理装置10の持つべ
き重み値を学習していく構成を採っていたのである。
【0039】これに対して、本発明では、写像データ処
理装置11を写像すると、続いて、この写像データ処理
装置11の持つモデル基本ユニット1aの各々を、先に
構築した対応の等価データ処理装置12で置き換えるこ
とで、図9に示すような写像データ処理装置13をシミ
ュレータ上にシミュレートする。すなわち、現実の基本
ユニット1の入出力信号特性を正確にシミュレートする
ことで、学習対象の階層ネットワーク構成データ処理装
置10を正確にシミュレートする写像データ処理装置1
3をシミュレータ上にシミュレートするのである。
【0040】そして、続いて、このシミュレートした写
像データ処理装置13を用いて、バックプロパゲーショ
ン法に従って用意される教師データの入出力信号関係が
実現されるべく、実際の階層ネットワーク構成データ処
理装置10の持つべき重み値を学習していく処理を実行
する。このとき、等価データ処理装置12の持つ重み値
については更新処理を実行せずに固定値として扱って、
入力層を構成する入力ユニット2と中間層の等価データ
処理装置12との接続に割り付けられる重み値と、中間
層の等価データ処理装置12と出力層の等価データ処理
装置12との接続に割り付けられる重み値とを、更新処
理の対象として学習処理を実行する。すなわち、等価デ
ータ処理装置12の重み値については固定値として扱っ
て、更新対象の重み値の更新処理に必要となる上述の
“αpj”や“βpi”等の値を計算するために用いるので
ある。
【0041】この学習処理により、実際に駆動するハー
ドウェアの階層ネットワーク構成データ処理装置10の
持つ重み値の学習が高精度に実行されることになる。こ
れから、この学習された重み値を実際に駆動する階層ネ
ットワーク構成データ処理装置10に設定していくこと
で、教師データの規定する入出力信号関係と同一の入出
力信号関係を持つ階層ネットワーク構成データ処理装置
10が構築できるようになるのである。
【0042】図示実施例について説明したが、本発明は
これに限定されるものではない。例えば、実施例では、
等価データ処理装置12を先に構築しておいて、後から
写像データ処理装置11をシミュレートしてその一部を
等価データ処理装置12に置き換えていくことで写像デ
ータ処理装置13を生成していく方法で説明したが、先
に写像データ処理装置11をシミュレートしておいて、
後から等価データ処理装置12を構築してその写像デー
タ処理装置11の一部を等価データ処理装置12に置き
換えていくことで写像データ処理装置13を生成してい
くという方法であってもよいのであって、この処理過程
の順序の違いは何ら本質的な問題ではないのである。
【0043】
【発明の効果】以上説明したように、本発明によれば、
階層ネットワーク構造に従ってデータ処理を実行する階
層ネットワーク構成データ処理装置のデータ処理機能を
規定する内部状態値を高精度に学習できるようになると
ともに、この学習処理により学習された内部状態値を設
定していくことで、高精度のデータ処理機能を発揮する
階層ネットワーク構成データ処理装置を構築できるよう
になるのである。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】基本ユニットの回路構成の一実施例である。
【図3】階層ネットワーク構成データ処理装置の装置構
成の一実施例である。
【図4】階層ネットワーク構成データ処理装置の回路接
続の説明図である。
【図5】等価データ処理装置の構築処理フローの一実施
例である。
【図6】等価データ処理装置の構築処理の説明図であ
る。
【図7】等価データ処理装置を得るための学習処理の説
明図である。
【図8】写像データ処理装置の説明図である。
【図9】本発明の学習処理に用いる写像データ処理装置
の一実施例である。
【図10】基本ユニットの説明図である。
【図11】階層ネットワーク構成の説明図である。
【符号の説明】
1 基本ユニット 1a モデル基本ユニット 10 階層ネットワーク構成データ処理装置 11 写像データ処理装置 12 等価データ処理装置 13 写像データ処理装置 14 教師データ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 英樹 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 ハードウェアから構成されて、1つ又は
    複数の入力と該入力に乗算されるべき内部状態値とを受
    け取って積和を得るとともに、該積和値を規定関数によ
    って変換して最終出力を得る基本ユニットを基本単位に
    して、該基本ユニットの階層接続から構成される階層ネ
    ットワーク構成データ処理装置の内部状態値を学習する
    ための階層ネットワーク構成データ処理装置の学習処理
    方法であって、 計算機上に上記階層ネットワーク構成データ処理装置を
    写像することで写像データ処理装置を生成する第1の処
    理過程(P1)と、 計算機上に上記基本ユニットそのものを上記階層ネット
    ワーク構成データ処理装置の態様でもって写像するとと
    もに、上記各基本ユニットの入出力信号を計測すること
    で入手される入出力信号の対応関係を教師データとして
    用いて当該階層ネットワーク構成データ処理装置の持つ
    内部状態値を学習することで、上記各基本ユニットと等
    価となる等価データ処理装置を得る第2の処理過程(P2)
    と、 第1の処理過程(P1)で生成される上記写像データ処理装
    置上の各基本ユニットを、第2の処理過程(P2)で得られ
    る対応の上記等価データ処理装置に置き換える第3の処
    理過程(P3)と、 第3の処理過程(P3)で置き換えられた上記等価データ処
    理装置の持つ内部状態値を固定値と扱いつつ、上記写像
    データ処理装置の入出力信号特性が用意される教師デー
    タの入出力信号関係となるべく上記写像データ処理装置
    の持つ内部状態値を学習していくことで、上記階層ネッ
    トワーク構成データ処理装置の持つ内部状態値を学習し
    ていく第4の処理過程(P4)とを備えることを、 特徴とする階層ネットワーク構成データ処理装置の学習
    処理方法。
  2. 【請求項2】 請求項1記載の階層ネットワーク構成デ
    ータ処理装置の学習処理方法において、 第2の処理過程(P2)で実行する等価データ処理装置を得
    るための学習にあたって、基本ユニットの理想的な入出
    力信号特性を実現する内部状態値を、等価データ処理装
    置を得るための内部状態値の初期値として設定していく
    よう処理することを、 特徴とする階層ネットワーク構成データ処理装置の学習
    処理方法。
  3. 【請求項3】 請求項1又は2記載の階層ネットワーク
    構成データ処理装置の学習処理方法において、 第2の処理過程(P2)で実行する等価データ処理装置を得
    るための学習にあたって、いずれかの基本ユニットの等
    価データ処理装置により得られる内部状態値を、他の基
    本ユニットの等価データ処理装置を得るための内部状態
    値の初期値として設定していくよう処理することを、 特徴とする階層ネットワーク構成データ処理装置の学習
    処理方法。
  4. 【請求項4】 請求項1、2又は3記載の階層ネットワ
    ーク構成データ処理装置の学習処理方法において、 第2及び第4の処理過程(P2,P4) で実行する内部状態値
    の学習アルゴリズムとして誤差逆伝播学習則を用いるこ
    とを、 特徴とする階層ネットワーク構成データ処理装置の学習
    処理方法。
  5. 【請求項5】 ハードウェアから構成されて、1つ又は
    複数の入力と該入力に乗算されるべき内部状態値とを受
    け取って積和を得るとともに、該積和値を規定関数によ
    って変換して最終出力を得る基本ユニットを基本単位に
    して、該基本ユニットの階層接続から構成される階層ネ
    ットワーク構成データ処理装置において、 上記内部状態値として、計算機上に上記階層ネットワー
    ク構成データ処理装置を写像することで写像データ処理
    装置を生成し、計算機上に上記基本ユニットそのものを
    上記階層ネットワーク構成データ処理装置の態様でもっ
    て写像するとともに、上記各基本ユニットの入出力信号
    を計測することで入手される入出力信号関係を教師デー
    タとして用いて当該階層ネットワーク構成データ処理装
    置の持つ内部状態値を学習することで、上記各基本ユニ
    ットと等価となる等価データ処理装置を得て、該写像デ
    ータ処理装置上の各基本ユニットを対応の該等価データ
    処理装置に置き換え、この置き換えた等価データ処理装
    置の持つ内部状態値を固定値と扱いつつ、用意される教
    師データを用いて該写像データ処理装置の持つ内部状態
    値を学習することで得られるものを設定していくよう構
    成されることを、 特徴とする階層ネットワーク構成データ処理装置。
JP3179116A 1991-07-19 1991-07-19 階層ネツトワーク構成データ処理装置とその学習処理方法 Pending JPH05128082A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3179116A JPH05128082A (ja) 1991-07-19 1991-07-19 階層ネツトワーク構成データ処理装置とその学習処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3179116A JPH05128082A (ja) 1991-07-19 1991-07-19 階層ネツトワーク構成データ処理装置とその学習処理方法

Publications (1)

Publication Number Publication Date
JPH05128082A true JPH05128082A (ja) 1993-05-25

Family

ID=16060294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3179116A Pending JPH05128082A (ja) 1991-07-19 1991-07-19 階層ネツトワーク構成データ処理装置とその学習処理方法

Country Status (1)

Country Link
JP (1) JPH05128082A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013546065A (ja) * 2010-10-29 2013-12-26 インターナショナル・ビジネス・マシーンズ・コーポレーション シミュレーションを使用して学習されるシナプス重みを用いるニューロモーフィック/シナプトロニック・スパイキング・ニューラル・ネットワークのための方法、デバイス、および回路
WO2018037335A1 (en) * 2016-08-26 2018-03-01 Semiconductor Energy Laboratory Co., Ltd. Display device and electronic device
WO2018150291A1 (en) * 2017-02-15 2018-08-23 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and display system
US20180268296A1 (en) * 2016-06-02 2018-09-20 Tencent Technology (Shenzhen) Company Limited Machine learning-based network model building method and apparatus
JP2019020714A (ja) * 2017-06-27 2019-02-07 株式会社半導体エネルギー研究所 表示システム及びデータ処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013546065A (ja) * 2010-10-29 2013-12-26 インターナショナル・ビジネス・マシーンズ・コーポレーション シミュレーションを使用して学習されるシナプス重みを用いるニューロモーフィック/シナプトロニック・スパイキング・ニューラル・ネットワークのための方法、デバイス、および回路
US20180268296A1 (en) * 2016-06-02 2018-09-20 Tencent Technology (Shenzhen) Company Limited Machine learning-based network model building method and apparatus
US11741361B2 (en) * 2016-06-02 2023-08-29 Tencent Technology (Shenzhen) Company Limited Machine learning-based network model building method and apparatus
WO2018037335A1 (en) * 2016-08-26 2018-03-01 Semiconductor Energy Laboratory Co., Ltd. Display device and electronic device
US10733946B2 (en) 2016-08-26 2020-08-04 Semiconductor Energy Laboratory Co., Ltd. Display device and electronic device
US11404016B2 (en) 2016-08-26 2022-08-02 Semiconductor Energy Laboratory Co., Ltd. Display device and electronic device having neural network for calculating set values of luminance and color tone
WO2018150291A1 (en) * 2017-02-15 2018-08-23 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and display system
JP2018136537A (ja) * 2017-02-15 2018-08-30 株式会社半導体エネルギー研究所 半導体装置及び表示システム
JP2019020714A (ja) * 2017-06-27 2019-02-07 株式会社半導体エネルギー研究所 表示システム及びデータ処理方法

Similar Documents

Publication Publication Date Title
US5553195A (en) Dynamic neural net
US5056037A (en) Analog hardware for learning neural networks
CN109885916B (zh) 一种基于lssvm的混合试验在线模型更新方法
Hurrion Using a neural network to enhance the decision making quality of a visual interactive simulation model
JPH05127706A (ja) ニユーラルネツト型シミユレータ
JPH04262453A (ja) ニュ−ロ学習制御方法及び装置
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
JP3214876B2 (ja) ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム
US5630020A (en) Learning method and neural network structure
JPH0512239A (ja) 相互結合ネツトワーク構成データ処理装置とその学習処理方法
Rezvani et al. A new method for hardware design of multi-layer perceptron neural networks with online training
Faghri et al. Analysis of performance of backpropagation ANN with different training parameters
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
JP3130326B2 (ja) 階層ネットワーク構成演算素子
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
JP3262340B2 (ja) 情報処理装置
JP2517662B2 (ja) 連鎖制御装置
JP3137669B2 (ja) 階層ネットワーク構成演算素子
JPH07105165A (ja) ニューラルネットワーク情報処理装置
JPH02219167A (ja) データ処理装置の学習処理方式
EP0646880A2 (en) Dynamic neural net
JP2559879B2 (ja) ファジィ制御器
JP2744313B2 (ja) ネットワーク構成データ処理装置
JP2766858B2 (ja) ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020219