JP3518813B2 - 構造化神経回路網構築装置 - Google Patents

構造化神経回路網構築装置

Info

Publication number
JP3518813B2
JP3518813B2 JP13426593A JP13426593A JP3518813B2 JP 3518813 B2 JP3518813 B2 JP 3518813B2 JP 13426593 A JP13426593 A JP 13426593A JP 13426593 A JP13426593 A JP 13426593A JP 3518813 B2 JP3518813 B2 JP 3518813B2
Authority
JP
Japan
Prior art keywords
module
neural network
output value
value
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13426593A
Other languages
English (en)
Other versions
JPH06348676A (ja
Inventor
寿昭 波田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP13426593A priority Critical patent/JP3518813B2/ja
Publication of JPH06348676A publication Critical patent/JPH06348676A/ja
Application granted granted Critical
Publication of JP3518813B2 publication Critical patent/JP3518813B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、複数の神経回路網モジ
ュールを有する構造化神経回路網を構築する構造化神経
回路網構築装置の改良に関するもので、特に、学習計算
時にモジュール間で授受される信号を統一することによ
って、モデルの異なるモジュールの自由な組み合わせを
可能としたものに係る。
【0002】
【従来の技術】近年、生体の神経網を模擬した工学的情
報処理機構である神経回路網(ニューラルネットワー
ク)が、パターン認識などの情報処理に用いられてい
る。この神経回路網は、多数の素子が相互に連結された
もので、各素子には、入力に対する出力の強さを制御す
る素子パラメータが、また、各素子間の連結には、信号
伝達の程度を制御する結合荷重が対応している。なお、
素子や素子間に設定されるこれらの情報は神経回路網の
形式によって異なる場合があるが、前記素子パラメータ
や前記結合荷重のように神経回路網の挙動を制御する情
報を、本明細書において「パラメータ」と総称する。
【0003】この神経回路網は、印加された入力パター
ンに基づいた各素子間における反応強度の伝搬結果とし
て出力パターンを生じる。このような神経回路網は、前
記素子パラメータや前記結合荷重を所定の手順で修正す
ることによって、入力パターンと出力パターンとの対応
関係を学習するので、入出力間の論理的法則性を特定す
ることなくパターン認識などの情報処理に用いることが
できる。なお、入力パターン及び出力パターンは通常多
次元ベクトルパターンであり、本明細書では、それぞ
れ、「入力値」及び「出力値」と称する。
【0004】ところで、処理対象とする事象が複雑化や
大規模化した場合は大規模な神経回路網が必要となる
が、神経回路網の学習はその規模に応じた時間を要する
ため、大規模な神経回路網を一体に構築すると学習効率
が著しく低下する。このような問題を解消するため、個
別に構築した比較的小規模な神経回路網モジュール(本
明細書において「モジュール」という)を、複数一体に
接続した神経回路網(本明細書において「構造化神経回
路網」という)が提案されている。
【0005】上記のような各種神経回路網はコンピュー
タや専用の電子回路上に実現される。例えば、神経回路
網をコンピュータ上にシミュレーション的に実現し、単
に運用するのみであれば、神経回路網のパラメータをメ
モリ上に格納しておき、プログラムの形式で表された所
定の手順によってCPUを制御し、入力値に対する神経
回路網の出力値を演算すればよい。
【0006】神経回路網構築装置は、このような神経回
路網を新たに構築したり、構築された神経回路網を再学
習によって修正する装置である。したがって、神経回路
網構築装置は、神経回路網の諸元、すなわち、素子数や
素子間の結合構造、各種パラメータの内容などを設定し
たり、学習事例に基づいて神経回路網を学習させる機能
を有するものである。なお、構造化神経回路網構築装置
は、神経回路網構築装置の機能を拡張し、上記のような
構造化神経回路網を対象としたものである。
【0007】ところで、神経回路網の種類としては、様
々なモデルが提案されており、利用目的に応じた適切な
モデルが選択・採用されている。神経回路網のモデルの
代表的なものとしては、誤差逆伝搬学習モデル、学習ベ
クトル量子化モデル、ホップフィールドモデル、ボルツ
マンマシン、競合学習モデルなどを挙げることができ
る。したがって、上記の構造化神経回路網も、1種類の
みのモデルから構成するのみならず、異種のモデルを組
み合わせて実現することが考えられる。
【0008】なお、構造化神経回路網構築装置は、各モ
デルのモジュールの挙動を演算するが、この演算モード
には、入出力の対応関係を学習するための「学習計算」
と、入力値と学習した対応関係に基づいて出力値を生成
する「出力計算」という2つの動作モードがある。そし
て、出力計算時にモジュール間で授受される信号は、神
経回路網のモデルを問わず、モジュールの入出力素子か
ら入出力されるベクトルパターンである点で共通してい
る。したがって、入力素子数や出力素子数に配慮すれ
ば、異種のモジュールを混用して出力計算をすることは
可能である。
【0009】
【発明が解決しようとする課題】しかしながら、従来の
構造化神経回路網構築装置では、学習計算時にモジュー
ル間で授受される信号が統一されておらず、モジュール
のモデルに依存していた。このため、構築後に学習可能
とするためには、モジュールの種類や連結方法が制限さ
れ、モデルの異なるモジュールを自由に組み合わせて構
造化神経回路網が構築できないという問題があった。す
なわち、 (1)誤差逆伝搬学習モデル以外のモジュールを用いて
構造化神経回路網を構築することが困難であった。すな
わち、誤差逆伝搬学習モデルは、入力値に対する実際の
反応強度と、当該入力値に対する望ましい反応強度(出
力値)を指定する規範出力値(教師情報とも呼ばれる)
との誤差を用いて学習するモデルで、具体的には、神経
回路網の終端から始端に向かって、出力計算時とは逆方
向に、所定の手法で誤差δを算出することによって学習
を行う。そして、複数のモジュールを直列させた場合、
モジュール間でこの誤差δを受け渡すことで学習が可能
である。
【0010】しかしながら、誤差逆伝搬モデル以外のモ
デルは、このような誤差δを用いて学習計算をするとは
限らず、モジュール間における授受が容易でない場合が
多い。このため、誤差逆伝搬学習モデル以外のモデルの
モジュールによって構造化神経回路網を構築することは
困難であった。
【0011】(2)また、誤差逆伝搬学習モデル以外の
モデルであっても、構造化神経回路網を構築可能なモデ
ルであれば、他のモデルを用いることも考えられるが、
異種モジュールを混用しながら構築後の学習を確保する
ためには、同種のモジュールを直列に、かつ、異種モジ
ュールは相互に並列に接続することによって、モデル固
有のデータの授受を確保する必要があった。例えば、誤
差δを扱う誤差逆伝搬学習モデルと、このような誤差δ
を扱わない学習ベクトル量子化モデルを直列させること
はできなかった。
【0012】(3)また、従来の構造化神経回路網構築
装置における学習は、直列した同種モジュールを単位と
して、モジュール間におけるモデル固有のデータの授受
によって、学習を行っていた。このため、構造化神経回
路網構築後に所望のモジュールのみを学習させることが
できなかった。すなわち、構造化神経回路網を構成して
いる1つのモジュールに問題がある場合、構造化神経回
路網全体を再学習によって修正すると、修正の影響が他
のモジュールに波及し、それまで正常であったモジュー
ルがかえって問題を生ずる可能性があるので、構築後の
学習は局所化が望まれる。これに対して、従来の構造化
神経回路網構築装置では、所望のモジュールのみを学習
させることができなかったため、合理的な再学習が困難
であった。
【0013】本発明は、上記のような従来技術の問題点
を解決するために提案されたもので、その目的は、学習
計算時にモジュール間で授受される信号の統一によっ
て、モデルの異なるモジュールの自由な組み合わせを可
能とした構造化神経回路網構築装置を提供することであ
る。
【0014】
【課題を解決するための手段】上記の目的を達するた
め、請求項1の構造化神経回路網構築装置は、データ伝
送経路の始端から終端へ向けて接続され、それぞれ入力
値に対して出力値を生成する複数の学習対象の神経回路
網モジュールを有し、前記各モジュールのうち前記始端
に位置する始端モジュールと前記終端に位置する終端モ
ジュールとを有する構造化神経回路網について、入力値
に対する前記各モジュールの望ましい出力値を表す規範
出力値を用いて当該モジュールの挙動を制御するパラメ
ータを調節することによって前記構造化神経回路網を構
築する構造化神経回路網構築装置において、前記始端モ
ジュールの入力値を入力する始端入力手段と、前記各モ
ジュールの前記パラメータに基づいて、当該モジュール
の入力値に対する出力値を計算する出力計算手段と、前
記各モジュールからの出力値を当該モジュールの終端側
に続くモジュールに入力値として伝送する順次伝送手段
と、前記始端モジュールへの入力値に対する前記終端モ
ジュールの前記規範出力値を入力する終端規範入力手段
と、前記学習対象のモジュールのパラメータを、当該モ
ジュールの出力値及び前記規範出力値に基づいて修正す
る修正手段と、前記学習対象のモジュールにおいて、前
記パラメータ及び前記規範出力値に基づいて、当該規範
出力値を生じさせる当該モジュールへの入力値である規
範入力値を逆算する逆算手段と、前記学習対象のモジュ
ールにおける前記規範入力値を、当該モジュールの始端
側に続く他の学習対象のモジュールに規範出力値として
伝送する手段と、を有することを特徴とする。
【0015】また、請求項2の発明は、請求項1記載の
構造化神経回路網構築装置において、前記各モジュール
の接続順序を設定するための連結編集手段を備えたこと
を特徴とする。
【0016】また、請求項3の発明は、請求項1記載の
構造化神経回路網構築装置において、前記各モジュール
の諸元を設定するためのモジュールパラメータ編集手段
を備えたことを特徴とする。
【0017】
【作用】上記のような構成を有する本発明は、次のよう
な作用を有する。すなわち、請求項1の発明における学
習は、次のように行われる。まず、始端入力手段が、学
習用入力値を始端モジュールに入力する。続いて、出力
計算手段が、学習用入力値に対する始端モジュールの出
力値を計算すると、順伝送手段が、この出力値を、始端
モジュールの終端側に続くモジュールに、入力値として
伝送する。
【0018】このような出力計算と伝送の手順が終端モ
ジュールに向かって繰り返され、終端モジュールの出力
値が計算される。ここまでの手順は、学習用入力値に対
する構造化神経回路網構築装置の出力値を求めるための
もので、学習用以外の入力値に対する出力計算も同様に
行われる。
【0019】学習では、続いて、各モジュールの規範出
力値を用いて各モジュールのパラメータの修正が行われ
るが、この修正は、まず、始端モジュールへの入力値に
対する終端モジュールの規範出力値に基づいて開始され
る。すなわち、終端規範入力手段が、始端モジュールへ
の入力値に対する終端モジュールの規範出力値を入力
し、修正手段が、終端モジュールの出力値及び規範出力
値に基づいて、終端モジュールのパラメータを修正す
る。
【0020】続いて、逆算手段が、終端モジュールのパ
ラメータに基づいて、終端モジュールの規範出力値を生
じる終端モジュールへの入力値である規範入力値を逆算
すると、逆伝送手段が、この終端モジュールの規範入力
値を、終端モジュールの始端側に続くモジュールに規範
出力値として逆伝送する。このような修正・逆算・逆伝
送の手順が繰り返され、始端モジュールのパラメータ修
正が終了すると、1回の学習計算が終了する。
【0021】このように、本発明では、学習計算時にモ
ジュール間で授受されるデータが、各モジュールの規範
入力値すなわち当該モジュールの始端側のモジュールに
とっての規範出力値に統一されるので、モデルの異なる
モジュールを自由に組み合わせて構造化神経回路網を構
築することができる。
【0022】また、請求項2の発明では、ユーザは、連
結編集手段を用いて各モジュールの接続順序を設定でき
るので、所望の構造の構造化神経回路網を用いることが
できる。
【0023】また、請求項3の発明では、ユーザは、モ
ジュールパラメータ編集手段を用いて各モジュールの諸
元を設定できるので、所望のモデルのモジュールによっ
て構造化神経回路網を構築することができる。
【0024】
【実施例】以下、本発明の一実施例である構造化神経回
路網構築装置(以下「本装置」という)について、図面
に従って具体的に説明する。なお、本装置はコンピュー
タ上に実現されるもので、本装置の各機能は、プログラ
ムの形式で表現された所定の手順でコンピュータを動作
させることによって実現されている。したがって、以
下、本装置の各機能を有する仮想的回路ブロックを想定
して本装置を説明する。
【0025】(1)実施例の構成 図1は、本装置の概念的構成を示すブロック図である。
なお、本装置は、構築対象とする構造化神経回路網の構
成に応じて結線関係が変化するものであり、図1は、図
2(本装置が構築対象とする構造化神経回路網の概念的
ブロック図)に示す構造化神経回路網を構築する場合の
結線関係を示したものである。図2に示す構造化神経回
路網は、いずれも誤差逆伝搬学習モデルである4つの神
経回路網モジュールM1〜M4を用いたもので、各モジ
ュールM1〜M4は、データ伝送経路の始端から終端へ
向けて接続され、それぞれ入力値に対して出力値を生成
する神経回路網モジュールである。これら神経回路網モ
ジュールM1〜M4のうち、モジュールM1は前記始端
に位置する始端モジュールであり、モジュールM4は、
前記終端に位置する終端モジュールである。
【0026】本装置は、入力値に対する前記各モジュー
ルM1〜M4の望ましい出力値を表す規範出力値を用い
て当該モジュールM1乃至M4の挙動を制御するパラメ
ータを調節することによって前記構造化神経回路網を構
築する構造化神経回路網構築装置である。
【0027】すなわち、本装置は、図1に示すように、
モジュールM1〜M4を有しており、各モジュールM1
〜M4は、図3(モジュールの構成を示すブロック図)
に示すように、当該モジュールの諸元を制御するパラメ
ータであるモジュールパラメータを格納する構造情報格
納器11と、入力値に対する当該モジュールの出力値を
計算する出力計算器12(前記出力計算手段に相当する
もの)と、規範出力値に基づいて前記パラメータを修正
する構造修正器13(前記修正手段に相当するもの)
と、当該モジュールにおいて規範出力値を生じさせる入
力値である規範入力値を逆算する逆方向計算器14(前
記逆算手段に相当するもの)とを有している。なお、構
造情報格納器11及び出力計算器12は前記出力計算手
段を構成している。
【0028】また、本装置は、図1に示すように、各モ
ジュールM1〜M4間において所定の連結順序でデータ
伝送を行なうモジュール間連結器4(前記順伝送手段及
び前記逆伝送手段に相当するもの)と、前記連結順序を
設定するための連結編集器5(前記連結編集手段に相当
するもの)と、各モジュールM1〜M4の諸元を設定す
るためのモジュールパラメータ編集器6(前記モジュー
ルパラメータ編集手段に相当するもの)とを有する。
【0029】なお、本装置は、図示はしないが、前記連
結順序をモジュール間連結器4に入力し、及び、モジュ
ールM1〜M4の諸元をモジュールパラメータ編集器6
に入力するための入力機構を有している。また、本装置
は、学習用データを格納するデータベース2と、データ
ベース2から学習用データを読み出してモジュール間連
結器4に転送する学習制御器とを有する。なお、学習制
御器3及びモジュール間連結器4は、前記始端入力手段
及び前記終端規範入力手段を構成している。
【0030】また、モジュール間連結器4は、スイッチ
の切り替えによってデータの伝送路を決定する結線部4
1と、データ伝送過程でデータを演算する演算部42
と、各モジュールM1〜M4に制御信号を送るタイミン
グ制御部43とを有する。このうち演算部42は、平均
算出器421と、等分器422と、加算器423とを有
する。また、タイミング制御部は、モジュールM1に対
応するフラグF1、モジュールM2及びM3に対応する
フラグF2、モジュールM4に対応するフラグF3を有
し、各時点で計算処理を実行すべきモジュール(以下
「カレントモジュール」という)を示すフラグ値(以下
「トークン」という)を、所定の順序で各フラグF1〜
3にセットするように構成されている。
【0031】また、各モジュールM1〜M4は、図1及
び図3に示すように、制御用の信号線a、入力値受信用
の信号線b、出力値送信用の信号線c、規範出力値受信
用の信号線d及び規範入力値送信用の信号線eによって
モジュール間連結器4の結線部41に接続されている。
【0032】(2)実施例の作用 上記のような構成を有する本装置は、次のような作用を
有する。
【0033】[構造化神経回路網の構築]すなわち、本
装置において構造化神経回路網を構築するときには、ユ
ーザは、まず、各モジュールM1〜M4の諸元を、前記
入力機構を通じて、モジュールパラメータ編集器6に入
力する。ここで、諸元として入力すべき項目の内容は、
自由に定めることができるが、典型的には、各モジュー
ルM1〜M4の計算アルゴリズムや構造が考えられる。
【0034】ここで、計算アルゴリズムとは、出力計算
器12、構造修正器13及び逆方向計算器14における
計算アルゴリズムであり、この計算アルゴリズムが神経
回路網のモデルを決定する。また、モジュールM1〜M
4の構造としては、例えば、神経回路網モデルとして誤
差逆伝搬モデルを選択した場合、層数、各層の素子数、
学習係数などが挙げられる。
【0035】モジュールパラメータ編集器6は、入力さ
れた諸元にしたがって、モジュールパラメータを変更
し、また、諸元に基づいて必要となる荷重値や素子出力
値を格納するための領域を構造情報格納器11中の図示
しないメモリ上に確保する。
【0036】次に、ユーザは、各モジュールM1〜M4
の連結順序を、前記入力機構を通じて、連結編集器5に
入力する。なお、モジュール間連結器4の動作手順は図
示しないメモリに格納された所定のデータによって制御
されており、連結編集器5は、このデータを修正するこ
とによって、入出力値の伝送経路や、伝送途中における
入出力値の演算処理、各モジュールM1〜M4の動作順
序を、ユーザ所望の態様に設定する。
【0037】[学習]このように構築された構造化神経
回路網には、次のような手順で入出力間の関係を学習さ
せる。図4は、本装置における学習の手順を示すフロー
チャートである。この手順では、学習制御器3が、デー
タベース2から、学習用データを1組ずつ読み込み、モ
ジュール間連結器4に転送する。すなわち、学習用デー
タは、始端モジュールに入力すべき学習用入力値、及
び、この入力値に対する終端モジュールの規範出力値の
ペアであり、学習制御器3は、学習用入力値を、モジュ
ール間連結器4の入力値用の信号線に設定し、規範出力
値を、規範出力値用の信号線に設定する。なお、学習用
入力値は結線部41を介して始端モジュールM1に入力
され(ステップ21)、また、学習用入力値に対応する
規範出力値は結線部41を介して終端モジュールM4に
入力される。
【0038】続いて、タイミング制御器43は、出力計
算のための初期化を行い(ステップ22)、トークン
を、始端モジュールM1に対応するフラグF1に設定す
る。そして、タイミング制御部43は、カレントモジュ
ール(トークンのあるフラグに対応するモジュール)で
あるモジュールM1に、信号線aを通じて出力計算実行
信号を送る。
【0039】モジュールM1が、モジュール間連結器4
から出力計算実行信号を受信すると、当該モジュールM
1の出力計算器12は、信号線bから入力される学習用
入力値と、構造情報格納器11に格納されているパラメ
ータに基づいて、学習用入力値に対する当該モジュール
M1の出力値を計算する(ステップ23)。
【0040】なお、一つのモジュールの出力計算では、
すべての入力素子iの出力値οi にIi を代入し、すべ
ての素子の出力値を入力素子に近いものから、
【数1】 により計算する。
【0041】計算後、出力値は信号線cへ送られ、ま
た、モジュールM1は、出力計算終了信号を、信号線a
を通じて、モジュール間連結器4へ送信する。
【0042】タイミング制御部43は、出力計算終了信
号を受信すると、カレントモジュールが終端モジュール
M4か否かを判断する(ステップ24)。カレントモジ
ュールが終端モジュールM4でない場合、トークンを出
力計算時タイミングの矢印(実線)方向に1つ移動さ
せ、モジュール間連結部4は結線部41を介して、直前
のモジュールからの出力値をカレントモジュールに入力
値として伝送し(ステップ25)、新たなカレントモジ
ュールに出力計算実行信号を送信して再度出力計算を行
わせる(ステップ23)。なお、ステップ24におい
て、カレントモジュールが終端モジュールM4の場合、
出力計算は終了し、逆方向計算に進む(ステップ2
6)。
【0043】なお、モジュール間における値の授受はモ
ジュール間連結器4によって実現されており、具体的に
は、例えば、送信側のモジュールの出力値送信用の信号
線cが、モジュール間連結器4の結線部41を介して、
受信側のモジュールの入力値受信用の信号線bに接続さ
れている。また、このような入出力値伝送経路には、授
受の際に演算を行うため、必要に応じて演算部42が介
在する。例えば、出力計算時に、モジュールM2とモジ
ュールM3の出力値は、加算器423によって加算さ
れ、モジュールM4への入力値となる。また、逆方向計
算時、モジュールM4の規範入力値は等分器422によ
って2等分され、それぞれが、モジュールM2とモジュ
ールM3の規範出力値とされる。また、逆方向計算時、
モジュールM2及びモジュールM3の規範入力値は、平
均算出器421によって平均され、この平均値がモジュ
ールM1の規範出力値とされる。
【0044】出力計算が終了すると、タイミング制御部
43は、逆方向計算のための初期化を行い(ステップ2
6)、トークンを逆方向計算の場合の初期状態(フラグ
F3)に設定する。続いて、タイミング制御部43は、
修正実行信号を信号線aを通じてカレントモジュールで
あるモジュールM4に送る(ステップ8)。カレントモ
ジュールM4が修正信号を受信すると、当該モジュール
M4の構造修正器13が、当該モジュールの出力値と、
信号線dから得られる規範出力値に基づいて、構造情報
格納器11内のパラメータ(特に、荷重値・閾値に関す
る数値)を修正する(ステップ27)。
【0045】ここで、図5は、一のモジュールにおける
教師情報に基づく学習を示す概念図である。すなわち、
矢印1に示すように、モジュールに学習用入力値が与え
られるとそれに対する出力値が計算される。学習用入力
値には、それと対にして用意されている規範出力値があ
り、出力値がこの規範出力値に近付くようにモジュール
のパラメータ(荷重値、素子数など)が修正される。こ
の修正は、誤差逆伝搬アルゴリズム、連想記憶、競合学
習など、各モデルに応じた公知の手法によって行えばよ
い。
【0046】修正終了後、モジュールM4は、信号線a
を通じて修正終了信号をモジュール間連結器4へ送る。
タイミング制御部は、この修正終了信号を受信すると、
カレントモジュールが始端モジュールM1か否かを判断
し(ステップ28)、始端モジュールM1の場合は学習
を終了する。
【0047】ステップ28において始端モジュールでな
い場合は、タイミング制御部43は、カレントモジュー
ルに逆算信号を送る。カレントモジュールが逆算信号を
受信すると、カレントモジュールの逆方向計算器14
は、信号線dから得られる当該モジュールの規範出力値
と構造情報格納器11内のパラメータとに基づいて、規
範出力値を生じさせる当該モジュールへの規範入力値を
算出する(ステップ29)。
【0048】ここで、一般に、ある出力値を生じさせる
ような神経回路網への入力値を厳密に求めることは困難
であるが、このような入力値は、一定範囲の誤差を許容
すれば算出が可能である。ここでは、出力計算時に得ら
れた出力値と、与えられた規範出力値が近い値であり、
かつ、学習計算によって更新された荷重値・閾値の修正
量が微少量であるという仮定で、誤差逆伝搬モデルの場
合に逆方向計算(参考文献:第15回システムシンポジウ
ム・第10回知識工学シンポジウム、合同シンポジウム予
稿 9,257〜 3,260、H1.10.19)を行う手順を示す。
【0049】まず、記号の定義は次の通りである。
【0050】
【数2】 また、図6は、逆方向計算の手順を示すフローチャート
である。すなわち、この手順では、この図に示すよう
に、出力素子iの誤差δi を、
【数3】δi =oi −ti のように計算し(ステップ31)、誤差値の2乗和、
【数4】 が規定値よりも小さくなれば(ステップ32)終了し、
小さくなければ、出力素子以外の素子(他の素子)の誤
差を出力素子に近い順に、
【数5】 のように計算する(ステップ33)。続いて、すべての
入力素子の出力値を、
【数6】οi ←οi −δi のように更新し(ステップ34)、更新された入力素子
の出力値を基に、
【数7】 のようにモジュールの出力計算を行う(ステップ3
5)。
【0051】逆方向計算が終了すると、逆方向計算器1
4は、算出された規範入力値をモジュール間連結器4へ
送り、カレントモジュールは、信号線aを通じて、逆算
終了信号をモジュール間連結器4へ送信する。
【0052】タイミング制御部は、この逆算終了信号を
受信すると、トークンを逆方向計算時タイミングの矢印
方向に1つ移動させ(ステップ12)、カレントモジュ
ールについて、パラメータ修正からの手順を再度実行す
る(ステップ27)。
【0053】(3)実施例の効果 以上のように、本実施例によれば、学習計算時にモジュ
ールM1〜M4間で授受される信号が規範入力値に統一
されるので、モデルの異なるモジュールを自由に組み合
わせて構造化神経回路網を構築することができる。
【0054】したがって、本実施例では、モジュールM
1〜M4として採用できる神経回路モデルが、誤差δを
用いて学習を行う誤差逆伝搬学習モデルに限定されるこ
とがない。また、モデル固有のデータの授受を確保する
ことなく、異種モジュールを混用しながら構築後の学習
を確保できるので、同種のモジュールを直列に、かつ、
異種モジュールは相互に並列に接続するなどの接続態様
の制限も不要となる。また、本実施例の学習では、モジ
ュール間におけるモデル固有のデータの授受は必要ない
ので、構造化神経回路網構築後に所望のモジュールのみ
を学習させることができる。これによって、構築後の学
習が局所化され、学習を行ったモジュールの影響が他の
モジュールに及ぶことがない。
【0055】(4)他の実施例 なお、本発明は上記実施例に限定されるものではなく、
次のような他の実施例をも包含するものである。例え
ば、上記実施例では、誤差逆伝搬学習モデルであるモジ
ュール4つによる実例を示したが、本発明では、神経回
路網のモデルは限定されず、また、モジュールの数や連
結順序も自由である。例えば、途中分岐や系統の統合、
フィードバックを用いることは自由であり、また、始端
モジュールや終端モジュールが複数存在してもよい。ま
た、上記実施例の構造化神経回路網構築装置はコンピュ
ータ上に実現されているが、その機能の全部又は一部は
専用の電子回路上に実現してもよい。
【0056】
【発明の効果】以上のように、本発明によれば、学習計
算時にモジュール間で授受される信号が規範出力値乃至
規範入力値に統一されるので、モデルの異なるモジュー
ルを自由に組み合わせて構造化神経回路網を構築するこ
とができる。
【図面の簡単な説明】
【図1】本発明の実施例の構造化神経回路網構築装置の
ブロック図。
【図2】本発明の実施例の構造化神経回路網構築装置が
構築対象とする構造化神経回路網のブロック図。
【図3】本発明の実施例におけるモジュール内の構成を
示すブロック図。
【図4】本発明の実施例における学習の手順を示すフロ
ーチャート。
【図5】誤差逆伝搬学習モデルの原理図。
【図6】本発明の実施例における逆方向計算の手順を示
すフローチャート。
【符号の説明】
2…データベース 3…学習制御器 4…モジュール間連結器 5…連結編集器 6…モジュールパラメータ編集器 M…神経回路網モジュール F…フラグ S…手順の各ステップ
フロントページの続き (56)参考文献 特開 平5−67062(JP,A) 森田、中島,「バタフライ構造をもつ ニューラルネットの双方向学習」,電子 情報通信学会技術研究報告,日本,社団 法人電子情報通信学会,1993年 3月18 日,Vol.92, No.521(NC92 −95〜127),pp.57−64 平野敬・他,「双方向Feature Mapによるアーム制御」,電子情報 通信学会論文誌,日本,社団法人電子情 報通信学会,1993年 4月25日,Vo l.J76−D−II, No.4,p p.881−888 Trent E. Lange,”S imulation of heter ogeneous neural ne tworks on serial a nd parallel machin es”,Parallel Compu ting,1990年 8月,Vol.14, No.3,pp.287−303,ISS N:0167−8191, JST資料番号:A 0440CAS (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】入力値に対して出力値を生成可能であり、
    かつ、モデルの異なる複数の学習対象の神経回路網モジ
    ュールを、データの伝送経路の始端から終端へ向けて任
    意の接続関係で接続した構造化神経回路網について、入
    力値に対する前記各モジュールの望ましい出力値を表す
    規範出力値を用いて当該モジュールの挙動を制御するパ
    ラメータを調節することによって前記構造化神経回路網
    を構築する構造化神経回路網構築装置において、前記始端に位置する 始端モジュールの入力値を入力する
    始端入力手段と、 前記各モジュールの前記パラメータに基づいて、当該モ
    ジュールの入力値に対する出力値を計算する出力計算手
    段と、 前記各モジュールからの出力値を当該モジュールの終端
    側に続くモジュールに入力値として伝送する順次伝送手
    段と、前記始端モジュールへの入力値に対する、前記終端に位
    置する終端モジュールの 前記規範出力値を入力する終端
    規範入力手段と、 前記学習対象のモジュールのパラメータを、当該モジュ
    ールの出力値及び前記規範出力値に基づいて修正する修
    正手段と、 前記学習対象のモジュールにおいて、前記パラメータ及
    び前記規範出力値に基づいて、当該規範出力値を生じさ
    せる当該モジュールへの入力値である規範入力値を逆算
    する逆算手段と、 前記学習対象のモジュールにおける前記規範入力値を、
    当該モジュールの始端側に続く他の学習対象のモジュー
    ルに規範出力値として伝送する手段と、 を有することを特徴とする構造化神経回路網構築装置。
  2. 【請求項2】前記各モジュールの接続順序を設定するた
    めの連結編集手段を備えたことを特徴とする請求項1記
    載の構造化神経回路網構築装置。
  3. 【請求項3】前記各モジュールの諸元を設定するための
    モジュールパラメータ編集手段を備えたことを特徴とす
    る請求項1記載の構造化神経回路網構築装置。
JP13426593A 1993-06-04 1993-06-04 構造化神経回路網構築装置 Expired - Fee Related JP3518813B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13426593A JP3518813B2 (ja) 1993-06-04 1993-06-04 構造化神経回路網構築装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13426593A JP3518813B2 (ja) 1993-06-04 1993-06-04 構造化神経回路網構築装置

Publications (2)

Publication Number Publication Date
JPH06348676A JPH06348676A (ja) 1994-12-22
JP3518813B2 true JP3518813B2 (ja) 2004-04-12

Family

ID=15124262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13426593A Expired - Fee Related JP3518813B2 (ja) 1993-06-04 1993-06-04 構造化神経回路網構築装置

Country Status (1)

Country Link
JP (1) JP3518813B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4803419B2 (ja) * 2005-05-19 2011-10-26 国立大学法人三重大学 概念型情報処理装置
JP2008152619A (ja) 2006-12-19 2008-07-03 Fuji Xerox Co Ltd データ処理装置およびデータ処理プログラム
JP6792132B2 (ja) * 2017-06-27 2020-11-25 正好 石井 情報処理装置
JP7000834B2 (ja) * 2017-12-14 2022-01-19 株式会社アイシン 機械学習のモデルパラメータの学習装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Trent E. Lange,"Simulation of heterogeneous neural networks on serial and parallel machines",Parallel Computing,1990年 8月,Vol.14, No.3,pp.287−303,ISSN:0167−8191, JST資料番号:A0440CAS
平野敬・他,「双方向Feature Mapによるアーム制御」,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,1993年 4月25日,Vol.J76−D−II, No.4,pp.881−888
森田、中島,「バタフライ構造をもつニューラルネットの双方向学習」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1993年 3月18日,Vol.92, No.521(NC92−95〜127),pp.57−64

Also Published As

Publication number Publication date
JPH06348676A (ja) 1994-12-22

Similar Documents

Publication Publication Date Title
JPH10105202A (ja) 進化的制御方式
US6144932A (en) Simulation device and its method for simulating operation of large-scale electronic circuit by parallel processing
Lisnianski et al. Structure optimization of multi-state system with time redundancy
EP0540168B1 (en) Simulator using a neural network
EP0957416B1 (en) Global control method
JP3518813B2 (ja) 構造化神経回路網構築装置
CN106502100A (zh) 多移动机器人的分布式单时滞控制器设计方法
Yu et al. Efficient and reliable training of neural networks
JPH0844569A (ja) ファジィ・ニューラルネットワーク・システム
JPH04229362A (ja) 学習機械
JPH076146A (ja) 並列データ処理システム
El-Amawy et al. Algorithmic mapping of feedforward neural networks onto multiple bus systems
JPH04253260A (ja) ニューラルネットワークの学習方法
JPH04184668A (ja) ニューラルネットワークにおける教師データの修正方法
JP3262340B2 (ja) 情報処理装置
Stäger et al. Improved training of neural networks with complex search spaces
JP2765903B2 (ja) 情報処理装置
JP2758339B2 (ja) 電力系統エミュレーション装置
JP2559879B2 (ja) ファジィ制御器
JPH0728768A (ja) ニューラルネットワークの学習により逆解を求める方法
CN114996520A (zh) 时序数据超图结构的生成方法及装置
JPH05151373A (ja) ニユーラルネツトワークを用いたフアジイ逆診断方法
KR20000027487A (ko) 퍼지신경회로망의 역연산 구현 방법
JP3167343B2 (ja) 適応型データ処理装置の自己学習処理方式
JPH09297690A (ja) 複数意思決定主体環境でのタスク依頼とタスク引き受け行動決定方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees