JP4696529B2 - 多層ニューラルネットワーク装置とそのソフトウェア - Google Patents
多層ニューラルネットワーク装置とそのソフトウェア Download PDFInfo
- Publication number
- JP4696529B2 JP4696529B2 JP2004317659A JP2004317659A JP4696529B2 JP 4696529 B2 JP4696529 B2 JP 4696529B2 JP 2004317659 A JP2004317659 A JP 2004317659A JP 2004317659 A JP2004317659 A JP 2004317659A JP 4696529 B2 JP4696529 B2 JP 4696529B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- binary
- neural network
- signal
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 503
- 238000012545 processing Methods 0.000 claims description 375
- 230000013016 learning Effects 0.000 claims description 358
- 230000006870 function Effects 0.000 claims description 235
- 238000000034 method Methods 0.000 claims description 189
- 230000015572 biosynthetic process Effects 0.000 claims description 65
- 238000003786 synthesis reaction Methods 0.000 claims description 65
- 238000006243 chemical reaction Methods 0.000 claims description 54
- 239000002131 composite material Substances 0.000 claims description 51
- 230000015654 memory Effects 0.000 claims description 40
- 238000012549 training Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000003860 storage Methods 0.000 description 17
- 238000004519 manufacturing process Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 238000003909 pattern recognition Methods 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 5
- 230000001174 ascending effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 125000005842 heteroatom Chemical group 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010248 power generation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Description
特に、学習入力データと分類カテゴリに割り当てられた教師信号とを用いて、学習させた多層ニューラルネットワークがパターン認識を初め種々幅広く実用されている。ここでは、教師付き学習を行う3層ニューラルネットワークを例にとり、従来技術について説明する。また、説明を簡単にする為に、パターン認識や連想記憶装置などに於いて見られる2値学習入力データと教師信号を用いて学習させ、2値出力信号を送出させることとする。
3層ニューラルネットワークへの学習入力データIは、I1、I2、..INの入力データエレメントを持ったベクトルから構成され、入力端子2(21、22、...2N)を介してそれぞれ対応した入力層4のユニットに入力された後、更に中間層5の各ユニット(隠れユニット)にそれぞれ重み付けされ出力される。
3層以上の多層の際にも、各層におけるそれぞれのユニットは、入力側の隣接層の各ユニットの出力信号に重み付けをした後、それらの総和を入力として得、更にその入力からスレショルド値を差し引いた後、シグモイド関数などの出力関数を介し出力層側の隣接層に出力信号を送出する。
この誤差信号電力を最小とする重み係数を得るための多層ニューラルネットワークの代表的重み係数更新方法としては、例えば、前記文献にも記載されているようにバック・プロパゲーション・アルゴリズムがある。
この重み係数適応更新制御による重み係数更新をすべての学習入力データに対して繰り返すと、得られた更新重み係数を入出力端子11を介して3層ニューラルネットワーク1に設定する。その後、学習入力データに対する収束状態を調べるために、再度、全ての学習入力データを順次入力端子2に入力し、出力層6からの出力信号に対して、スレショルド処理部10(1011、1012、...101M)を介して2値出力信号に変換し、正解不正解出力判定処理部12に入力する。
ここで、一般に誤差電力を極小にするローカルミニマム状態に一旦落ち込むと、学習処理過程を繰り返し進めても、全ての学習入力データに対して所望の2値出力信号が必ずしも得られず、2値教師信号と異なる2値出力信号を送出する場合が多い。
学習入力データがお互いに非常に似ており、夫々が異なる分類カテゴリに属する、即ち異なる教師信号に対応した学習入力データ間の距離(2値の場合にはハミング距離)が非常に小さい学習入力データが多く、然も密な(学習入力データの表示ビット数Nで表せるパターン数2Nに対する学習入力データ数の割合が高い)場合には、これらの学習入力データを夫々異なった正しいカテゴリへ分類することが非常に難しく、学習を繰り返しても分類カテゴリ境界領域を上手く形成することが困難となる。この為に、収束の為の学習回数が数千回以上と非常に多くなったり、場合によっては、収束しない状況が多く発生する。
ニューラルネットワークを用いた連想記憶装置の種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがあり、文献、Hopfield,J.J., Proc. National. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。
従って、自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12×入力層ユニット数Nで与えられる。学習入力データ数がこの理論的限界に近づくとアトラクタ収束が一段と困難となり、実用的でない。
ここで、密な2値出力コードの集合を持つ、お互いのハミング距離が小さい2値教師信号を用いて前進2値3層ニューラルネットワーク23にて学習させると、スプリアス・アトラクタ(偽りのアトラクタ)は発生しにくいが、後進2値3層ニューラルネットワーク26では、この密な2値コードの2値教師信号を学習入力データとして学習させる必要があり、学習が非常に困難となる。
連想ループ制御処理部28は、後進2値3層ニューラルネットワーク26からの2値出力信号X(1)を入力切替スイッチ21と入力端子22を介して前進2値3層ニューラルネットワーク23へフィードバックし、再度、前進及び後進2値3層ニューラルネットワーク23、26から夫々2値出力信号Y(1)、X(2)を得るよう制御する。このような一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数qとする。
一致し、連想ループ処理の結果が変化しなくなった平衡状態をアトラクタ収束状態と呼び、2値出力信号がアトラクタに収束したとして、アトラクタ収束状態信号を出力端子30に送出する。更に、連想ループ制御処理部28に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の後進2値3層ニューラルネットワーク26のアトラクタである2値出力信号X(q+1)がアトラクタ出力信号として出力端子27に送出される。このアトラクタ収束状態を想起状態と呼ぶ。
連想ループ制御処理部28では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大許容回数Q未満であれば、連想ループ回数q=q+1として、連想ループ処理を再度実行するため、2値出力信号X(q+1)を、入力切替スイッチ21を介して入力端子22へフィードバックする。
更に、後進2値3層ニューラルネットワークでの学習に於いても、One Out of Mの粗コードの互いのハミング距離も比較的小さいことから、これらを各カテゴリに分類するよう学習させることも比較的困難となる。
また、大きく雑音劣化した前進連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合も非常に多いなどの欠点も有している。
麻生英樹著、「ニューラルネットワーク情報処理」、産業図書出版、1989年9月30日発行 Hopfield,J.J., Proc. National. Acad. Sci. USA, 79,pp.2554-2558, 1982 Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993
また、連想ループ処理に於いて、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点もある。
該前進連想入力信号を入力し、該学習済み前進2値多層ニューラルネットワーク手段(23)の2値出力信号を該後進付加入力生成手段(51)に入力し後進付加入力生成信号を生成し、該2値出力信号と該後進付加入力生成信号とを合成のためエレメントにそれぞれ割り当て入力し、該学習済み後進2値多層ニューラルネットワーク手段(26)から2値出力信号を得、該学習済み前進2値多層ニューラルネットワーク手段(23)へ入力するよう該入力切替えスイッチ(21)を該連想ループ制御手段(28)により制御することを特徴とした相互連想記憶装置を構成する。
アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別手段(45)とから少なくとも構成することを特徴とした相互連想記憶装置を構成する。
ことを特徴とした並列複合多層ニューラルネット処理ワークソフトウェアを構成する。
重み係数更新制御処理部7において、乱数などを用いて生成した重み係数などを初期値設定した後、初期重み係数を入出力端子11を介して3層ニューラルネットワーク1に設定する。更に、入力端子2からの予め用意された学習入力データと入力端子8から対応した教師信号Tとを夫々に入力する。
付加入力生成処理部50では、入力端子2から入力された学習入力データを入力し、指定されたユニット数R、即ちRビット(Rエレメント)の付加入力生成データを生成する。
更に、付加入力生成処理部50として、誤り訂正符号化方法に於いて、例えば、BCH符号やゴレー符号化などに於ける誤り訂正符号生成器を用い、これにより生成された誤り訂正符号の冗長ビット部分を付加入力生成データとしてもよい。
この生成された付加入力生成データと学習入力データとを合成のためエレメントにそれぞれ割り当て、3層ニューラルネットワーク1のN+Rビットの学習用入力データとすることにより、学習入力データ間のハミング距離よりも常に大きいハミング距離を持った入力データを構成することができ、更に学習用入力データのビット数がRほど増加することからより粗な2値コードの関係となる。この学習用入力データを図1の如く3層ニューラルネットワーク1の入力層4に入力し学習させる。
重み係数更新制御処理部7では、入出力端子11を介して入力された、出力関数を介した各層のユニットからの出力信号などの3層ニューラルネットワーク1の内部情報と前記誤差信号とを基に誤差電力を最小にするように各層間の重み係数の更新値を求める重み係数更新処理を行う。
正解不正解出力判定処理部12では、2値出力信号が入力されると、入力端子8からの対応した2値教師信号と比較する。全ての学習入力データに対する2値出力信号が全正解か或いは何れかが不正解かを判定し、全正解であれば全正解判定信号を、いずれかが不正解であれば、不正解判定信号を学習収束判定処理部13に送出する。
重み係数更新制御処理部7では、学習完了制御信号が入力されると、学習完全収束として学習を完了させる。学習継続制御信号が入力されると、全学習入力データに対する学習回数が予め設定された最大学習回数G以上であれば、学習不完全収束として学習を停止する。最大学習回数G未満であれば、学習回数をカウントアップし、再度全学習入力データに対して重み係数を更新するよう制御し、学習入力データを順次入力端子2へ、また対応した教師信号を入力端子8からそれぞれ入力し、一連の重み係数更新処理を行う。
また、学習収束判定処理部13に於いても、2値出力信号の全正解を収束の条件としたが、他の収束条件を設定してもよい。例えば、全正解の条件の他に、更に教師信号からの出力信号の差の絶対値全てが与えられた誤差スレショルド値以下となるよう出力信号に対する収束条件も設定してもよい。
ここで、第1の実施形態に於ける図1に示す2値3層ニューラルネットワークの学習処理に関して、その処理フローを図2に示す。
学習入力データ入力処理401は、Nビットの学習入力データを付加入力生成処理402の入力及び3層ニューラルネットワーク処理403に於ける入力層のN個のユニットに入力設定する。
誤差信号算出処理404では、教師信号から出力層の出力信号を差し引き、誤差信号を得、更新重み係数算出処理405に設定する。
更新重み係数算出処理405では、誤差信号及び各層の出力信号などを基に、例えば、誤差バック・プロパゲーション・アルゴリズムにより、中間層―出力層間、入力層−中間層間のそれぞれの重み係数を更新する。
一方、全ての学習用入力データに対して終了しておれば、ニューラルネットワーク更新重み係数設定処理407を実行する。
ニューラルネットワーク更新重み係数設定処理407では、更新された新たな重み係数を3層ニューラルネットワークの各層間に設定する。
学習収束判定処理410では、全正解状態ならば収束したとみなし、重み係数更新を止め学習を完了する。不正解状態であれば、収束状態が得られていないとみなし、学習回数判定処理412に進む。
次に、上記の学習収束を完了し、学習済み重み係数を設定した付加入力生成機能を有する2値3層ニューラルネットワークの実行処理の処理フローを図3に示す。
図2の学習処理フローにおける全学習入力データ2値3層ニューラルネットワーク実行処理408と基本的に同様である。全学習入力データではなく、入力された入力信号に対して2値出力信号を得る実行処理を示す。
入力信号入力処理421では、Nビットの入力信号を付加入力生成処理422と2値3層ニューラルネットワーク処理423に於ける3層ニューラルネットワーク入力層のN個のユニットに入力設定する。
2値3層ニューラルネットワーク処理423では、前記のNビットの入力信号と前記のRビットの付加入力生成信号とを合成のためエレメントにそれぞれ割り当て、3層ニューラルネットワークの入力層に入力し、出力層から出力信号を得、スレショルド処理を介して2値出力信号を得る。入力信号が複数個ある場合は、順次上記の処理を繰り返せば良い。
ここで、図4の付加入力生成機能を有する3並列複合2値3層ニューラルネットワーク60の実行処理フローを図5に示す。並列接続されている個々の2値3層ニューラルネットワークに対する基本的な処理は、図3の付加入力生成機能を有する2値3層ニューラルネットワークの実行処理フローと同様である。
初期設定処理450では、並列接続された3層ニューラルネットワークの入力層ユニット数、中間層ユニット数及び出力層ユニット数、及びシグモイド関数、付加入力生成Rビットの数などの構成パラメータと、学習済み重み係数や並列番号などを夫々設定する。
入力信号入力処理451では、Nビットの入力信号を付加入力生成処理452と並列2値3層ニューラルネットワーク処理453に於ける各2値3層ニューラルネットワーク入力層のN個のユニットに夫々入力設定する。
付加入力生成処理452では、付加入力生成処理402と同様であり、Nビットの入力信号からRビットの乱数2値パターンを付加入力生成信号として生成し、並列2値3層ニューラルネットワーク処理453に於ける各2値3層ニューラルネットワーク入力層のR個のユニットに夫々入力設定する。
全並列処理終了判定処理455では、並列2値3層ニューラルネットワーク処理453と出力逆変換処理454とを介して全ての基本2値コード出力信号が得られると、出力合成処理456に進む。
出力複合処理456では、全ての基本2値コード出力信号が得られると、例えば多数決ルールなどにより、一つの基本2値コード出力信号を最終的に2値出力信号として選択出力する。
次に、図6の付加入力生成処理機能を有する並列複合2値3層ニューラルネットワーク70の実行処理フローを図7に示す。ここでも、並列接続された各2値3層ニューラルネットワークは、図5と同様に、予め学習した重み係数が設定されているものとする。即ち、3並列接続される各2値3層ニューラルネットワークの学習では、学習入力データと、これを入力し夫々並列番号毎に異なった生成方法を持った並列付加入力生成処理457により生成した付加入力生成データとを合成のためエレメントにそれぞれ割り当て学習用入力データとして、指定された2値3層ニューラルネットワークの入力層に入力する。
並列付加入力生成処理457では、並列番号毎に生成方法が異なる付加入力生成処理を実行する。従って、入力信号入力処理451の基に入力された入力信号に対して、並列番号順に従って付加入力生成処理を実施し、生成された付加入力生成信号を並列2値3層ニューラルネットワーク処理453に入力設定する。その他の各処理は図5と同様であるので処理の説明は省略する。
また、図10に於いては、入力端子75からの入力信号と、これを入力し各々異なる生成方法を持った付加入力生成処理部53、54、55を介して生成された夫々異なる付加入力生成信号とを入力変換処理部68、69、71へ入力している。ここで、付加入力生成処理部53、54、55が夫々異なる生成方法を有していることから、入力変換処理部68、69、71では、同じ入力変換則を準備してもよい。
ここで、これらの付加入力生成機能を有した並列複合2値3層ニューラルネットワーク80、81、82の実行処理フローを図9、11、13に夫々示す。
図9では、入力信号入力処理451と付加入力生成処理452とにより、入力信号及び付加入力生成信号が夫々並列入力変換処理460に入力設定される。並列番号順に従って、これらの入力信号及び付加入力生成信号からなる同一の新たな入力信号に対して、夫々異なった入力変換則によって変換2値入力信号に変換され、対応した並列2値3層ニューラルネットワーク処理453に入力設定され、対応した2値出力信号が得られる。出力複合処理456に於いて、これらの2値出力信号から最も正解に近いと思われる一つの2値出力信号を選択送出する。
尚、並列2値3層ニューラルネットワーク処理453の夫々の2値3層ニューラルネットワークは、図8と同様に、分類カテゴリ割り当て配置を表す共通の基本2値コードの2値教師信号を用いる。また、学習入力データと、それを入力し付加入力生成処理452を介して生成した付加入力生成データとを合成のためエレメントにそれぞれ割り当て、並列入力変換処理460に夫々入力し変換した、夫々異なる学習用入力データを用いて、学習を行っている。
図9に於いて、入力信号入力処理451と付加入力生成処理452とを介して、入力信号とそれを入力し生成した付加入力生成信号とからなる同一の新たな入力信号を並列入力変換処理460に夫々入力設定したが、図11では、入力信号入力処理451と並列付加入力生成処理461とを夫々介して、入力信号とそれを入力し夫々並列番号(並列接続)毎に異なる付加入力生成方法により生成した付加入力生成信号とからなる、相異なる新たな入力信号を並列入力変換処理460に夫々入力設定する。ここでの入力変換処理では、同一の入力変換則でも、或いは夫々異なる入力変換則を用いても良い。その他の処理番号の処理は、上記と同じ処理番号の処理と同様であり、説明は省略する。
また、図12に対応した処理フローを図13に示す。入力信号入力処理451により入力設定された入力信号に対して、並列入力変換処理460を介して並列番号順に対応した夫々の変換入力信号を得、並列2値3層ニューラルネットワーク処理453及び並列付加入力生成処理461に夫々入力設定する。ここでの並列付加入力生成処理461では、並列入力変換処理460での各並列接続される入力変換処理の入力変換則が夫々異なる場合には、同一或いは夫々異なる生成則の何れでもよい。一方、入力変換則が同一の場合には、夫々異なる生成則を用いる。
特に、分類カテゴリに対応した2値教師信号のビット数が多い大規模な前進2値3層ニューラルネットワークを持った、或いは記憶容量が非常に大きい相互連想メモリに於いて、前進2値3層ニューラルネットワーク23の該2値教師信号は、互いのハミング距離が非常に小さく然も密な昇順2値コードから構成されており、これを従来のように後進2値3層ニューラルネットワーク26の学習用後進入力データとし、直接学習させて際、各カテゴリに正しく分類させる為の学習が非常に困難となり、収束しない場合や、収束の為には、数千回以上の非常に多くの学習回数を必要として実用的でない。
連想ループ回数q=0の場合に、前進連想入力信号X(0)に対応して、前進2値3層ニューラルネットワーク23から2値出力信号Y(0)、更に後進2値3層ニューラルネットワーク26から2値出力信号X(1)が得られる。
前進2値3層ニューラルネットワーク23を密な2値コードを持った多くのビット数からなる2値教師信号を用いて学習させ、然も後進2値3層ニューラルネットワーク26も完全に全正解2値出力となるよう迅速に学習収束させた重み係数を設定して動作させるころにより、スプリアス・アトラクタと呼ばれる偽のアトラクタに引き込まれることを無くすことができ、非常に安定した大規模な相互連想メモリを実現することができる。
連想ループ処理初期設定処理110は、連想ループ回数qの初期設定として、q=0の設定を行う。
前進連想入力信号入力設定処理120は、アトラクタ収束状態識別処理170の初期設定として、前進連想入力信号X(0)の格納記憶を行う。また、前進連想入力信号X(0)を学習済み前進2値3層ニューラルネットワーク処理140へ入力設定を行う。
後進付加入力生成処理150は、前進2値3層ニューラルネットワーク処理140の2値出力信号Y(q)を入力し後進付加入力生成信号を生成し、後進2値3層ニューラルネットワーク処理160に入力設定する。
アトラクタ収束状態識別処理170では、後進2値3層ニューラルネットワーク処理160からの2値出力信号X(q)とX(q+1)間で夫々比較し、一致するとアトラクタ収束状態と識別する。不一致の場合は、アトラクア未収束状態とする。
連想ループ回数判定処理190では、アトラクタ未収束状態であることから、連想ループ回数qが連想ループ最大許容回数Q未満であれば、引き続き連想ループ処理を実行する為に、連想ループ回数q←q+1設定処理200へ進む。
連想ループ回数q←q+1設定処理200では、連想ループ回数qを1増加させる。
最終前進連想入力信号判定処理220では、連想ループ処理を行った前進連想入力信号X(0)が最終前進連想入力信号X(0)であるかの判定を行う。最終前進連想入力信号X(0)であれば、一連の連想ループ処理を完了する。でなければ、連想ループ処理初期設定処理110を行い、新たな前進連想入力信号X(0)に対して連想ループ処理を引き続き行う。
前進付加入力生成処理部52は、本発明の第1及び第3の実施形態での後進付加入力生成処理部50、51と同様の処理により、互いのハミング距離が小さく、密な入力信号に対しても、ハミング距離が大きい付加入力生成信号を生成し、学習用前進入力データの互いのハミング距離を拡大し、粗な2値データとする。
アトラクタ収束状態識別処理部45は、第3の実施形態と同様に、連想ループ制御処理部44の制御のもとに、後進2値3層ニューラルネットワーク26の2値出力信号関係、X(q)とX(q+1)との一致比較を行い、アトラクタ収束状態識別を行うよう設定される。
一方、後進連想入力信号Y(0)に対する連想ループ処理では、前進2値3層ニューラルネットワーク23の2値出力信号と同一の形式を持った分類カテゴリを示す2値コードからなる後進連想入力信号Y(0)が入力端子41から入力される。曖昧な分類カテゴリを示す後進連想入力信号Y(0)に対して、連想ループ処理を介して分類カテゴリ出力信号としての2値出力信号Y(q)を出力端子40から、またその学習アトラクタであるアトラクタ出力信号X(q+1)を出力端子27から夫々取り出すことができる。また、分類カテゴリを示す2値教師信号に対応した後進連想入力信号Y(0)が入力されると、学習アトラクタであるアトラクタ出力信号X(1)を出力端子27から読み出すことができる。
アトラクタ収束状態識別処理部45に於いては、後進2値3層ニューラルネットワーク26の出力関係として、Y(q)とY(q+1)の一致・不一致状態からアトラクタ収束状態識別をする。他の動作は、前進連想入力信号X(0)の連想ループ処理の場合と同様であり、説明は省略する。
次に、第4の実施形態に於ける後進連想入力信号Y(0)の連想ループ処理フローを図18に示す。尚、ここで、図15及び18に於いて、同一の処理番号は、同様の処理であり、説明は省略する。
後進連想入力信号入力設定処理310にて、後進連想入力信号Y(0)を後進付加入力生成処理150、後進2値3層ニューラルネットワーク処理160及びアトラクタ収束状態識別処理320へ夫々入力設定する。
アトラクタ収束状態判定処理180では、識別結果に従ってアトラクタ収束状態の判定を実施する。アトラクタ未収束状態の場合に、連想ループ回数判定処理190に進む。また、アトラクタ収束状態の場合には、最終後進連想入力信号判定処理340に進む。
一方、連想ループ回数Q>q≧1であると、連想ループ回数q←q+1設定処理200を介して、前進2値3層ニューラルネットワーク出力信号入力設定処理330に於いて、前進2値3層ニューラルネットワークの2値出力信号を後進付加入力生成処理150及び後進2値3層ニューラルネットワーク処理160に入力設定する。
また、本発明の付加入力生成機能を有する相互連想記憶装置では、前進2値3層ニューラルネットワーク23の2値教師信号として、密な分散型2値出力形式を用い、連続した通し番号の分類カテゴリ番号から変換された2値教師信号が割当られていることから、連想ループ処理に於ける汎化学習アトラクタへの収束能力が従来方式よりも非常に高く、スプリアス・アトラクタも非常に発生しにくい。
また、特願2004−236466に示すように、図14及び図16のアトラクタ収束状態識別処理部29を高機能なアトラクタ識別/学習非学習入力データ識別処理部で置換え、前進2値3層ニューラルネットワークからの2値出力信号Y(q)の学習内外カテゴリの識別を基に、前進連想入力信号X(0)が、学習入力データそのものであるか、或いは非学習入力データであるかを、連想ループ回数q=1の連想ループ処理で識別してもよい。
収束が達成されない場合には、後進2値3層ニューラルネットワークから正しい学習アトラクタが得られず、大規模相互連想記憶装置を実現できない。
また、収束状態を達成する為の学習回数が数千回と非常に多い場合、新たな分類カテゴリを登録し、記憶容量を増やすことが迅速に実現できず、実用的でない。
更に、前進2値3層ニューラルネットワークに於いても、学習入力データ間の互いのハミング距離が小さい場合には、同様に収束状態を達成する為の学習回数が非常に多く実用的でない。
2 入力信号入力端子
21 入力ユニット端子
22 入力ユニット端子
2N 入力ユニット端子
3 2値出力端子
31 2値出力ユニット端子
32 2値出力ユニット端子
3M 2値出力ユニット端子
4 入力層
41 入力層ユニット
42 入力層ユニット
4N 入力層ユニット
4N+R-1 入力層ユニット
4N+R 入力層ユニット
5 中間層
51 中間層ユニット
52 中間層ユニット
5P 中間層ユニット
6 出力層
61 出力層ユニット
62 出力層ユニット
6M 出力層ユニット
7 重み係数更新制御処理部
8 2値教師信号入力端子
81 2値教師信号入力ユニット端子
82 2値教師信号入力ユニット端子
8M 2値教師信号入力ユニット端子
9 減算処理部
91 減算処理部
92 減算処理部
9M 減算処理部
10 スレショルド処理部
1011 スレショルド処理部
1012 スレショルド処理部
101M スレショルド処理部
1021 スレショルド処理部
1022 スレショルド処理部
102M スレショルド処理部
11 重み係数情報入出力端子
12 正解不正解出力判定処理部
13 学習収束判定処理部
20 前進連想入力信号の入力端子
21 入力切替スイッチ
22 前進2値3層ニューラルネットワークの入力端子
23 前進2値3層ニューラルネットワーク
24 前進2値3層ニューラルネットワークの出力端子
25 後進ニューラルネットワークの入力端子
26 後進2値3層ニューラルネットワーク
27 アトラクタ出力信号の出力端子
28 連想ループ制御処理部
29 アトラクタ収束状態識別処理部
30 アトラクタ収束識別信号の出力端子
40 分類カテゴリ出力信号の出力端子
41 後進連想入力信号の入力端子
42 入力切替スイッチ
43 入力切替スイッチ
44 連想ループ制御処理部
45 アトラクタ収束状態識別処理部
50 付加入力生成処理部
51 後進付加入力生成処理部
52 前進付加入力生成処理部
53 付加入力生成処理部
54 付加入力生成処理部
55 付加入力生成処理部
60 付加入力生成処理機能を有する並列複合ニューラルネットワーク
61 2値3層ニューラルネットワーク
62 2値3層ニューラルネットワーク
63 2値3層ニューラルネットワーク
64 出力逆変換処理部
65 出力逆変換処理部
66 出力逆変換処理部
67 出力複合処理部
68 入力変換処理部
69 入力変換処理部
70 付加入力生成処理機能を有する並列複合ニューラルネットワーク
71 入力変換処理部
72 入力変換処理部
73 入力変換処理部
74 入力変換処理部
75 入力端子
76 出力端子
80 付加入力生成処理機能を有する並列複合ニューラルネットワーク
81 付加入力生成処理機能を有する並列複合ニューラルネットワーク
82 付加入力生成処理機能を有する並列複合ニューラルネットワーク
100 前進連想初期設定処理
110 連想ループ処理初期設定処理
120 前進連想入力信号入力設定処理
130 前進付加入力生成処理
140 前進2値3層ニューラルネットワーク処理
150 後進付加入力生成処理
160 後進2値3層ニューラルネットワーク処理
170 アトラクタ収束状態識別処理
180 アトラクタ収束状態判定処理
190 連想ループ回数判定処理
200 連想ループ回数q←q+1設定処理
210 後進2値3層ニューラルネットワーク出力信号入力設定処理
220 最終前進連想入力信号判定処理
230 前進連想入力信号入力設定処理
240 後進2値3層ニューラルネットワーク出力信号入力設定処理
300 後進連想初期設定処理
310 後進連想入力信号入力設定処理
320 アトラクタ収束状態識別処理
330 前進2値3層ニューラルネットワーク出力信号入力設定処理
340 最終後進連想入力信号判定処理
400 学習初期設定処理
401 学習入力データ入力処理
402 付加入力生成処理
403 3層ニューラルネットワーク処理
404 誤差信号算出処理
405 更新重み係数算出処理
406 全学習入力データ処理終了判定処理
407 ニューラルネットワーク更新重み係数設定処理
408 全学習入力データ2値3層ニューラルネットワーク実行処理
409 全出力正解不正解判定処理
410 学習収束判定処理
411 学習回数判定処理
412 学習回数i←i+1処理
413 学習データ番号j←j+1処理
420 初期設定処理
421 入力信号入力処理
422 付加入力生成処理
423 2値3層ニューラルネットワーク処理
450 初期設定処理
451 入力信号入力処理
452 付加入力生成処理
453 並列2値3層ニュ−ラルネットワーク処理
454 並列出力逆変換処理
455 全並列処理終了判定処理
456 出力複合処理
457 並列付加入力生成処理
458 並列番号k←k+1処理
460 並列入力変換処理
461 並列付加入力生成処理
Claims (15)
- 学習入力データを入力し付加入力生成データを生成する付加入力生成手段(50)と、該学習入力データと該付加入力生成データとのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て多層ニューラルネットワーク手段(1)の入力層のユニットにそれぞれ入力される該学習用入力データを入力し、2値教師信号を用いて学習させる該多層ニューラルネットワーク手段(1)とから少なくとも構成することを特徴とした多層ニューラルネットワーク学習装置。
- 2値入力信号を入力し付加入力生成信号を生成する付加入力生成手段(50)と、該2値入力信号と該付加入力生成信号とのそれぞれのエレメントを合成のため新たな2値入力信号のエレメントにそれぞれ割り当て多層ニューラルネットワーク手段(1)の入力層のユニットにそれぞれ入力される該新たな2値入力信号を入力する、2値教師信号を用いて学習させた該多層ニューラルネットワーク手段(1)とから少なくとも構成することを特徴とした多層ニューラルネットワーク装置。
- 2値入力信号を入力し夫々の付加入力生成信号を生成する並列接続された付加入力生成手段(53、54、55)と、該2値入力信号と夫々の該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の多層ニューラルネットワーク手段(61,62,63)の入力層のユニットにそれぞれ入力される該各々の新たな2値入力信号を入力する、基本となる2値教師信号から変換された互いに異なる夫々の2値教師信号を用いて学習させ並列接続された該多層ニューラルネットワーク手段(61,62,63)と、学習に用いた該2値教師信号を元の該基本となる2値教師信号に逆変換する夫々の変換則を有し、対応した該多層ニューラルネットワーク手段(61,62,63)の2値出力信号を出力逆変換する並列接続された出力逆変換手段(64,65,66)と、夫々の該出力逆変換手段(64、65、66)からの並列接続数の2値出力信号から一つの2値出力信号を選択送出する出力複合手段(67)とから、少なくとも構成することを特徴とした並列複合多層ニューラルネットワーク装置。
- 2値入力信号を入力し夫々の付加入力生成信号を生成する付加入力生成手段(53,54,55)と、該2値入力信号と夫々の該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の入力変換手段(68,69,71)に入力される該各々の新たな2値入力信号を入力する並列接続された該入力変換手段(68,69,71)と、夫々の該入力変換手段からの2値出力信号を入力とする並列接続された多層ニューラルネットワーク手段(61,62,63)と、夫々の該多層ニューラルネットワーク手段からの並列接続数の2値出力信号から一つの2値出力信号を選択送出する出力複合手段(67)とから、少なくとも構成することを特徴とした並列複合多層ニューラルネットワーク装置。
- 2値入力信号を入力した並列接続された入力変換手段(72,73,74)と、夫々の該入力変換手段からの2値出力信号を入力し付加入力生成信号を生成する夫々の付加入力生成手段(53,54,55)と、夫々の該2値入力信号と生成された該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の多層ニューラルネットワーク手段(61,62,63)の入力層のユニットにそれぞれ入力される該各々の新たな2値入力信号を入力する並列接続された該多層ニューラルネットワーク手段(61,62,63)と、夫々の該多層ニューラルネットワーク手段からの並列接続数の2値出力信号から一つの2値出力信号を選択送出する出力複合手段(67)とから、少なくとも構成することを特徴とした並列複合多層ニューラルネットワーク装置。
- 後進付加入力生成データを生成出力する後進付加入力生成手段(51)と、
学習入力データと2値教師信号とを用いて学習させた学習済み前進2値多層ニューラルネットワーク手段(23)と、該後進付加入力生成手段(51)に該2値教師信号を入力し後進付加入力生成データを生成出力し、該後進付加入力生成データと該2値教師信号とのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て後進2値多層ニューラルネットワーク手段(26)の入力層のユニットにそれぞれ入力される該学習用入力データと該学習入力データからなる2値教師信号とを用いて学習させた学習済み該後進2値多層ニューラルネットワーク手段(26)と、前進連想入力信号を該学習済み前進2値多層ニューラルネットワーク手段(23)に一旦入力した後、該学習済み後進2値多層ニューラルネットワーク手段(26)の2値出力信号を該学習済み前進2値多層ニューラルネットワーク手段(23)へ入力する入力切替スイッチ(21)と、
該入力切替スイッチ(21)の入力切替えを制御する該連想ループ制御手段(28)と、アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別手段(29)とから少なくも構成し、
該前進連想入力信号を入力し、該学習済み前進2値多層ニューラルネットワーク手段(23)の2値出力信号を該後進付加入力生成手段(51)に入力し後進付加入力生成信号を生成し、該2値出力信号と該後進付加入力生成信号とのそれぞれのエレメントを合成のため該学習済み後進2値多層ニューラルネットワーク手段(26)への入力の為のエレメントにそれぞれ割り当て該学習済み後進2値多層ニューラルネットワーク手段(26)の入力層のユニットにそれぞれ入力し、該学習済み後進2値多層ニューラルネットワーク手段(26)から2値出力信号を得、該学習済み前進2値多層ニューラルネットワーク手段(23)へ入力するよう該入力切替えスイッチ(21)を該連想ループ制御手段(28)により制御する
ことを特徴とした相互連想記憶装置。 - 前進付加入力生成データを生成出力する前進付加入力生成手段(52)と、
該前進付加入力生成手段(52)に学習入力データを入力し前進付加入力生成データを生成出力し、該前進付加入力生成データと該学習入力データとのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て前進2値多層ニューラルネットワーク手段(23)の入力層のユニットにそれぞれ入力される該学習用入力データと、2値教師信号とを用いて学習させた該前進2値多層ニューラルネットワーク手段(23)と、
後進付加入力生成データを生成出力する後進付加入力生成手段(51)と、
該後進付加入力生成手段(51)に該2値教師信号を入力し後進付加入力生成データを生成出力し、
該後進付加入力生成データと該2値教師信号とのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て後進2値多層ニューラルネットワーク手段(26)の入力層のユニットにそれぞれ入力される該学習用入力データと、該学習入力データからなる2値教師信号とを用いて学習させた該後進2値多層ニューラルネットワーク手段(26)と、
前進連想入力信号を、或いは該後進2値多層ニューラルネットワーク手段(26)の2値出力信号を該前進2値多層ニューラルネットワーク手段(23)に入力する入力切替スイッチ(21)と、
後進連想入力信号を、或いは該前進2値多層ニューラルネットワーク手段(23)の2値出力信号を該後進2値多層ニューラルネットワーク手段(26)に入力する入力切替スイッチ(42)と、
該前進連想入力信号に対する連想ループ処理を行うために、該入力切替スイッチ(42)に於いて、該前進2値多層ニューラルネットワーク手段(23)の2値出力信号を該後進2値多層ニューラルネットワーク手段(26)に常に入力するよう該入力切替スイッチ(42)を制御し、該前進2値多層ニューラルネットワーク手段(23)の該2値出力信号を該後進付加入力生成手段(51)に入力し生成した後進付加入力生成信号と該2値出力信号とのそれぞれのエレメントを合成のため該後進2値多層ニューラルネットワーク手段(26)への入力の為のエレメントにそれぞれ割り当て該後進2値多層ニューラルネットワーク手段(26)の入力層のユニットにそれぞれ入力し、
前記入力切替スイッチ(21)に於いて、入力された該前進連想入力信号を一旦出力した後、該後進2値多層ニューラルネットワーク手段(26)の2値出力信号を出力するよう該入力切替スイッチ(21)を制御し、
該入力切替えスイッチ手段(21)の2値出力信号を該前進付加入力生成手段(52)に入力し生成した前進付加入力生成信号と、該2値出力信号と該前進付加入力生成信号とのそれぞれのエレメントを合成のため該前進2値多層ニューラルネットワーク手段(23)への入力の為のエレメントにそれぞれ割り当て該前進2値多層ニューラルネットワーク手段(23)の入力層のユニットにそれぞれ入力する連想ループ制御手段(44)と、
該後進連想入力信号に対する連想ループ処理を行うために、該後進2値多層ニューラルネットワーク手段(26)の2値出力信号を該前進2値多層ニューラルネットワーク手段(23)に常に入力するよう前記入力切替スイッチ(21)を制御し、
入力された該後進連想入力信号を一旦出力した後、入力された該前進2値多層ニューラルネットワーク手段(23)の2値出力信号を出力するよう該入力切替スイッチ(42)を制御し、
該入力切替えスイッチ手段(42)の該2値出力信号を該後進付加入力生成手段(51)に入力し生成した後進付加入力生成信号と、該2値出力信号と該後進付加入力生成信号とのそれぞれのエレメントを合成のため該後進2値多層ニューラルネットワーク手段(26)への入力の為のエレメントにそれぞれ割り当て該後進2値多層ニューラルネットワーク手段(26)の入力層のユニットにそれぞれ入力させる該連想ループ制御手段(44)と、
アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別手段(45)
とから少なくとも構成することを特徴とした相互連想記憶装置。 - 学習入力データを入力し付加入力生成データを生成する付加入力生成機能と、
該学習入力データと該付加入力生成データとのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て多層ニューラルネットワーク学習機能の入力層のユニットにそれぞれ入力される該学習用入力データを入力し、2値教師信号を用いて学習させる該多層ニューラルネットワーク学習機能とから少なくとも構成することを特徴とした多層ニューラルネットワーク学習ソフトウェア。 - 2値入力信号を入力し付加入力生成信号を生成する付加入力生成機能と、該2値入力信号と該付加入力生成信号とのそれぞれのエレメントを合成のため新たな2値入力信号のエレメントにそれぞれ割り当て多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該新たな2値入力信号を入力する該多層ニューラルネットワーク機能とから少なくとも構成することを特徴とした多層ニューラルネットワーク処理ソフトウェア。
- 2値入力信号を入力し夫々の付加入力生成信号を生成する並列接続に対応した付加入力生成機能と、該2値入力信号と夫々の該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該各々の新たな2値入力信号を入力する、基本となる2値教師信号から変換された互いに異なる夫々の2値教師信号を用いて学習させ並列接続に対応した該多層ニューラルネットワーク機能と、学習に用いた該2値教師信号を元の該基本となる2値教師信号に逆変換する夫々の変換則を有し、対応した該多層ニューラルネットワーク機能からの2値出力信号を出力逆変換する並列接続に対応した出力逆変換機能と、夫々の該出力逆変換機能からの並列接続に対応した数の2値出力信号から一つの2値出力信号を選択送出する出力複合機能とから、少なくとも構成することを特徴とした並列複合多層ニューラルネット処理ワークソフトウェア。
- 2値入力信号を入力し夫々の付加入力生成信号を生成する並列接続に対応した付加入力生成機能と、該2値入力信号と該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の入力変換機能へそれぞれ入力される該各々の新たな2値入力信号を入力する並列接続に対応した該入力変換機能と、夫々の該入力変換機能からの2値出力信号を入力とする並列接続に対応した多層ニューラルネットワーク機能と、夫々の該多層ニューラルネットワーク機能からの並列接続に対応した数の2値出力信号から一つの2値出力信号を選択送出する出力複合機能とから、少なくとも構成することを特徴とした並列複合多層ニューラルネットワーク処理ソフトウェア。
- 2値入力信号が入力された並列接続に対応した入力変換機能と、夫々の該入力変換機能からの2値入力信号を入力し付加入力生成信号を生成する夫々の付加入力生成機能と、夫々の該2値入力信号と生成された該付加入力生成信号とのそれぞれのエレメントを合成のため各々の新たな2値入力信号のエレメントにそれぞれ割り当て各々の多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該各々の新たな2値入力信号を入力する並列接続に対応した該多層ニューラルネットワーク機能と、夫々の該多層ニューラルネットワーク機能からの並列接続に対応した数の2値出力信号から一つの2値出力信号を選択送出する出力複合機能とから、少なくとも構成することを特徴とした並列複合多層ニューラルネットワーク処理ソフトウェア。
- 学習入力データと2値教師信号とを用いて学習させた学習済み前進2値多層ニューラルネットワーク機能と、
後進付加入力生成データを生成出力する後進付加入力生成機能と、
該後進付加入力生成機能に該2値教師信号を入力し後進付加入力生成データを生成出力し、該後進付加入力生成データと該2値教師信号とのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て後進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該学習用入力データと該学習入力データからなる2値教師信号とを用いて学習させた学習済み該後進2値多層ニューラルネットワーク機能と、
前進連想入力信号を該学習済み前進2値多層ニューラルネットワーク機能に一旦入力した後、該学習済み後進2値多層ニューラルネットワーク機能の2値出力信号を該学習済み前進2値多層ニューラルネットワーク機能へ入力する入力設定機能と、
該入力設定機能の入力切替えを制御する連想ループ制御機能と、
アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別機能とから少なくとも構成し、
該前進連想入力信号を入力し該学習済み前進2値多層ニューラルネットワーク機能の2値出力信号を該後進付加入力生成機能に入力し後進付加入力生成信号を生成し、該2値出力信号と該後進付加入力生成信号とのそれぞれのエレメントを合成のため該学習済み後進2値多層ニューラルネットワーク機能への入力の為のエレメントにそれぞれ割り当て該学習済み後進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力し、該学習済み後進2値多層ニューラルネットワーク機能から2値出力信号を得、該学習済み前進2値多層ニューラルネットワーク機能へ入力するよう該入力設定機能を該連想ループ制御機能により制御することを特徴とした相互連想記憶処理ソフトウェア。 - 前進付加入力生成データを生成出力する前進付加入力生成機能と、
該前進付加入力生成機能に学習入力データを入力し前進付加入力生成データを生成出力し、該前進付加入力生成データと該学習入力データとのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て前進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該学習用入力データと2値教師信号とを用いて学習させた学習済み該前進2値多層ニューラルネットワーク機能と、
後進付加入力生成データを生成出力する後進付加入力生成機能と、
該後進付加入力生成機能に該2値教師信号を入力し後進付加入力生成データを生成出力し、該後進付加入力生成データと該2値教師信号とのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て後進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該学習用入力データと該学習入力データからなる2値教師信号とを用いて学習させた学習済み該後進2値多層ニューラルネットワーク機能と、
前進連想入力信号を、或いは該学習ずみ後進2値多層ニューラルネットワーク機能の2値出力信号を該学習済み前進2値多層ニューラルネットワーク機能に入力する入力設定機能と、
該入力設定機能を介して前進連想入力信号を該学習済み前進2値多層ニューラルネットワーク機能に一旦入力し、
該学習済み前進2値多層ニューラルネットワーク機能の2値出力信号を該後進付加入力生成機能に入力し後進付加入力生成信号を生成し、該2値出力信号と該後進付加入力生成信号とのそれぞれのエレメントを合成のため該学習済み後進2値多層ニューラルネットワーク機能への入力の為のエレメントにそれぞれ割り当て該学習済み後進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力し、該学習済み後進2値多層ニューラルネットワーク機能から2値出力信号を得、該2値出力信号を該学習済み前進2値多層ニューラルネットワーク機能に入力するよう該入力設定機能の入力切替えを制御する
連想ループ制御機能と、
アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別機能
とから少なくとも構成することを特徴とした相互連想記憶処理ソフトウェア。 - 後進付加入力生成データを生成出力する後進付加入力生成機能と、
該後進付加入力生成機能に学習入力データを入力し後進付加入力生成データを生成出力し、該後進付加入力生成データと該学習入力データとのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て後進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該学習用入力データと2値教師信号とを用いて学習させた学習済み該後進2値多層ニューラルネットワーク機能と、
前進付加入力生成データを生成出力する前進付加入力生成機能と、
該前進付加入力生成機能に該2値教師信号を入力し前進付加入力生成データを生成出力し、該前進付加入力生成データと該2値教師信号とのそれぞれのエレメントを合成のため学習用入力データのエレメントにそれぞれ割り当て前進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力される該学習用入力データと該学習入力データからなる2値教師信号とを用いて学習させた学習済み該前進2値多層ニューラルネットワーク機能と、
後進連想入力信号を、或いは該学習済み前進2値多層ニューラルネットワーク機能の2値出力信号を該学習済み後進2値多層ニューラルネットワーク機能に入力する入力設定機能と、
該入力設定機能を介して後進連想入力信号を該学習済み後進2値多層ニューラルネットワーク機能に一旦入力し、
該学習済み後進2値多層ニューラルネットワーク機能の2値出力信号を該前進付加入力生成機能に入力し前進付加入力生成信号を生成し、該2値出力信号と該前進付加入力生成信号とのそれぞれのエレメントを合成のため該学習済み前進2値多層ニューラルネットワーク機能への入力の為のエレメントにそれぞれ割り当て該学習済み前進2値多層ニューラルネットワーク機能の入力層のユニットにそれぞれ入力し、該学習済み前進2値多層ニューラルネットワーク機能から2値出力信号を得、該2値出力信号を該学習済み後進2値多層ニューラルネットワーク機能に入力するよう該入力設定機能を制御する
連想ループ制御機能と、
アトラクタ収束状態を少なくとも識別するアトラクタ収束状態識別機能とから少なくとも構成することを特徴とした相互連想記憶処理ソフトウェア。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004317659A JP4696529B2 (ja) | 2004-11-01 | 2004-11-01 | 多層ニューラルネットワーク装置とそのソフトウェア |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004317659A JP4696529B2 (ja) | 2004-11-01 | 2004-11-01 | 多層ニューラルネットワーク装置とそのソフトウェア |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006127350A JP2006127350A (ja) | 2006-05-18 |
JP4696529B2 true JP4696529B2 (ja) | 2011-06-08 |
Family
ID=36722017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004317659A Expired - Fee Related JP4696529B2 (ja) | 2004-11-01 | 2004-11-01 | 多層ニューラルネットワーク装置とそのソフトウェア |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4696529B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020100393A1 (ja) * | 2018-11-15 | 2020-05-22 | LeapMind株式会社 | ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04253260A (ja) * | 1991-01-29 | 1992-09-09 | Kawasaki Steel Corp | ニューラルネットワークの学習方法 |
JPH08339360A (ja) * | 1995-06-13 | 1996-12-24 | Hitachi Ltd | ニューラルネットを応用した学習システム |
-
2004
- 2004-11-01 JP JP2004317659A patent/JP4696529B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006127350A (ja) | 2006-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6601053B1 (en) | Optimized artificial neural networks | |
JP3328935B2 (ja) | 並列多値ニューラルネットワーク | |
JP3043539B2 (ja) | ニューラル・ネットワーク | |
JP4696529B2 (ja) | 多層ニューラルネットワーク装置とそのソフトウェア | |
Dhahri et al. | Hierarchical learning algorithm for the beta basis function neural network | |
JP4687199B2 (ja) | 連想記憶装置とそのソフトウェア | |
JP3855665B2 (ja) | 出力状態判定機能を有する並列ニューラルネットワーク処理システム | |
JP7230324B2 (ja) | ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置 | |
JP3277648B2 (ja) | 並列ニューラルネットワーク | |
Hammer | Approximation capabilities of folding networks. | |
JP3757722B2 (ja) | 多層ニューラルネットワークユニット数最適化方法及び装置 | |
Yamamoto et al. | An improved expand-and-truncate learning | |
JP4539221B2 (ja) | 相互連想記憶装置とそのソフトウェア | |
Parekh et al. | Constructive neural network learning algorithms for multi-category pattern classification | |
Chang et al. | Polynomial and standard higher order neural network | |
JP2001243210A (ja) | 並列ニューラルネットワーク装置 | |
Johnson et al. | Is There a Purpose to Network Redundancy? | |
Ludermir | Logical networks capable of computing weighted regular languages | |
US5980079A (en) | Synthesis of threshold networks | |
Park et al. | Synthesis of Three-Layer | |
JPH11120158A (ja) | 階層型ニューラルネットワークの学習方法 | |
Khadivi | Flow of Information in Hopfield Neural Networks | |
Sung et al. | Optimal synthesis method for binary neural network using NETLA | |
Koutroumbas et al. | Neural network architectures for selecting the maximum input | |
Owens et al. | A multi-output-layer perceptron |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4696529 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |