JPH04503270A - 人工神経ネットワーク構造 - Google Patents

人工神経ネットワーク構造

Info

Publication number
JPH04503270A
JPH04503270A JP2500319A JP50031989A JPH04503270A JP H04503270 A JPH04503270 A JP H04503270A JP 2500319 A JP2500319 A JP 2500319A JP 50031989 A JP50031989 A JP 50031989A JP H04503270 A JPH04503270 A JP H04503270A
Authority
JP
Japan
Prior art keywords
signal
error
layer
unit
conductor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2500319A
Other languages
English (en)
Inventor
アンディーズ,デイヴィド,ケイ.
リックライダ,ロバート,エイ.
スウェンソン,リチャード,エム.
ウィッチャー,ドナルド,エイチ.
Original Assignee
アメリカ合衆国
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アメリカ合衆国 filed Critical アメリカ合衆国
Publication of JPH04503270A publication Critical patent/JPH04503270A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 人工 ネットワーク ゛ 燻玉分! 本発明はパターン認識の分野に関する。特に、本発明はスーパーバイズ(sup rviselされるあるいはされない学習が可能な適応パターンα型装置に関す る。
!!燻癒 パラレルな分散された(distributed )プロセッシイングを有する 人工神経ネットワーク(アーティフィシャル・ニューラル・ネットワーク)は広 く提案されており、シリアルあるいは部分的にパラレルなデジタルシステムによ ってシュミレートされている。完全にパラレルで分散されたプロセッシイングに は、極めて速い全体的処理が比較的遅い要素で可能となる、効果的な機能・作用 が欠陥のある若しくは伴動不能な要素を伴っても可能になる、プログラミング( すること)なしにプロトタイプから学習することによってパターンを認識できる 、ノイズを含む入力によってもほとんど機能・作用が低下しないといった利点が あることが古くから知られている。
幾つかの良く知られた神経ネットワークモデルを1本発明の構造のために背景技 術として以下に説明する。典型的仁は、神経ネットワークは多層構造(laye red architecture)で成形される。第1のグループの神経にュ ーロン)若しくは神経ユニットにューラルユニット)は入力層として作用し、信 号を中間層の他のグループへ伝搬する。そして、中間層からの信号は1つ又2つ 以上のそれにつづく層に影響を及ぼす。
最終的には、信号は出力層により与えられる。出力層は第2あるいは一般的には 第3の層である0通常の場合、一つの層からの各信号は次の層の入力あるいはシ ナプス(5ynapse+へ接続される。そして、「学習」は各シナプスにおい てそこに到達した信号に与えられた「重み(ウェイト)」を変えることによって 行われると考えられる。各シナプスは励起(eXcitatorylあるいは制 止< 1nhibitoryl効果を育することもある。神経のシナプスにより 受取られた重みが付けられた(与えられた)信号の全てがその動作又は出力信号 強度をある(いくつかの)関数に従って決定する。ここで関数とは、典型的には 、シグモイド(sig■oidl即ちS字型をしていると考えられ、低い方の励 起閾値(これ未満では励起入力が減少しても重要な、目立った動作は何も起こら ない)と、高い方の励起閾値(これより上では励起入力が増加しても動作には何 ら重要な・目立った増加が見られない)とを有する。
上述のようなネッ1−ワークは数学的には、層に相当・対応する添字により識別 される接続された層の神経及び信号によって決められることは明らかである。ま た、各層は長方形配列(直交する配列)として現わされることもある。この場合 、各シナプスは、神経の特定のシナプスと神経を特定するデカルト座標((ar tesian coordinateslによって識別される。この方法を用い て、神経jの活性化・動作(アクティベイジョン) (activat4onl が実数O4によってあられされる。神経jから神経iへのシナブチイックコネク ション(synaptic connectionlの重みあるいは有効性(e ffectivenesslもまた実数W1.によりあられされる。これはネッ トワークが「教えられる」あるいは「学習する」ことにより変化し得る。神経。
への入力(■、)はしたがってWIJOJとなる。神経の出力(0+)はその入 力の関数であり次式で表わされる。
01−F (I + > =F (WIJOJ )ここで、Fは上記S字型関数 である。
所定の入力信号が与えられた(を有する)神経ネットワークは、「教えられる」 と、各重みを(に)アドレッシングすると共にこれを適量W、Jだけ変化させる ことにより、それに相当・対応する所望の出力信号を出すことが良く知られてい る。
また、もし各シナプスのWIJが、シナプスへの入力O4と、対応する神経の出 力O1若しくは「エラー」信号 +(0+が伝搬される層から反対に伝搬してく るエラー信号(逆伝搬エラー信号))とによって適切に決定されるならば、神経 ネットワークはそれ自身で「学習」することも知られている。
したがって、〔ヘビアン(Hebbian) J学習において、もしoJと01 とが共にアクティブならばWIJは増加される。数学的にはこの状態は次式であ られされる。
WIJ=GOIOJ ここで、Gは学習の速度を制御するのに用いられる利得項(ゲインターム)+g ain tllrl>である。
しかしながら、「デルタルール(delta rule) J学習においては各 シナプスの重さくウェイト)は次のように修正される。
WIJ−G l o。
ここでGは上述した通りのもので1.はシナ1スを伴う1番目のレベルの神経へ の逆伝搬エラー信号(back propagated error sign al) 、そしてoJはそれへの1番目のレベルの出力である。エラー信号は再 帰的に(recursivelyl逆伝搬し次式で示される。
、±F′([J )WIJ l ここで1.はOJを提供する神経へのエラー信号、F’(I、)はそれへの重み 付き人力の和(合計)へ適用された1番目の神経の上記関数Fの導関数(微分関 数)、そして、WJIは、1番目の層が伝搬する層からそこへ伝搬される対応エ ラー信号に適用される各i番目のシナプスの重みの和である。各神経(こおいて 、順伝搬のFと逆エラー伝搬のF′の独立変数は同じである。
圧型0匣丞 本発明は、個々に変化し得るファクタによりネットワークの各神経ユニットへ入 力を同時に加えるためのアナログ要素による人工神経ネットワーク構造に偏る。
特に、本発明はフローティングゲート金属酸化物電界効果トランジスタにより上 記ファクタの維持及び変化をすることに関する。より一般的には、本発明は、ネ ットワークの外からそれらをアドレシングする際の上記ファクタの変化に適応す る、あるいはヘビアン若しくはデルタルール学習用のネットワーク自身による上 記ファクタの変化に適応する神経ユニット回路に関する。
本発明の一つの目的は1人工神経ネットワークにより完全にパラレルで分散され た情報処理を行うアナログ装置を提供することである。
本発明の他の目的は、種々の体系・組織・構成(schemes )によりネッ トワークにおいて教えることや学ぶことを実行するための上述のような装置を提 供することである。
本発明の他の目的は、集積回路として高歩止まり構造に特に適した上述のタイプ の装置を提供することである。
本発明の他の目的は、高速で、故障(誤り〉許容度が高く、ノイズに鈍感なパタ ーン認識を行う上述のタイプの装置を提供することである。
圓駆ΔI喰1里 本発明のその他の目的、利点及び新規な特徴は添付図面と共に考慮される以下の 詳細な説明から明らかにされる。添付図面において、図1は本発明の神経ユニッ ト回路のブロック図であり、外部アドレッシング(external addr essinglにより回路内に保存された重みを変化できるように構成されたも の示す。
区2は図4の回路と同様の回路の図であるが、ヘビアン字習用に構成されている 。
図3は同様な回路の図であるが、デルタルール学習用の要素を更に備えている。
図4A及び図4Bは、人工神経ネットワーク内に接続された多数の図3の回路の 図である。
図5はマルチチャンネルのフローティングゲート金属酸化物電界効果トランジス タの等角図であり、これは図1から図4の回路において有利であり図式的に示さ れた付随要素と共に描かれている。
るため最良の 、 図1に示されているのは2つの神経ユニットあるいは神経10と11であり、そ れぞれ本発明の原理・思想を具現化するものである。また、それぞれのユニット の代表が請求のl!囲において「第2神経ユニツト」と称されるユニットを表わ してる。ユニット10と11は、該ユニットの代表が人工神経ネットワークの1 つの層に接続されるように設けられており、この人工神経ネットワーク内ではユ ニットの4つの実質上同一なシナプス回路12,13.14.15に保存される シグナルウェイト(信号重み)がネットワークの外に設けられたウェイトシグナ ル(重み信号)とセレクトシグナルとを用いてネットワークをトレーニングする ために修正・変更(モディファイ)可能とされている。ユニット10は回路12 と13と加算回路16とを備え、ユニット11は回路14と15と加算回路17 とを備える。ユニット10と11はそれぞれユニットセレクト人力18と19と を有し、これら入力から対応する導線20と21(各導線は請求の範囲において 時には「第1共通導線」と称される)が付随ユニットを通って延びている。各ユ ニットは正の重み(ウェイト)がかけられた信号導線23と負の重みがかけられ た信号導線24とを有し、これら導線はユニットを通って各加算ユニット16又 は17に接続されている。
層はゲインターミナル30を有し、このターミナルは共通利得(ゲイン)導線3 1により各回路12〜15に接続されている9回N12と14は入力セレクト導 線32と信号入力導線33とを備え、回路13と15は対応する導線34と35 とを備えている。各導線32、特許請求の範囲において時には「第2共遣導繰」 と称されるものに相当する。
画像その他の実用的な認識のための人工神経層は、勿論、上記ユニット10と1 1のような神経ユニットを2個よりはるかに多く備えることもあり、また各ユニ ットは上記回路12〜15のようなシナプス回路を備えることもある。しかしな がら、ここで説明される構成において、同じような層や回路の数はユニ・yトと 回路との間の実際の機能的接続の説明のために最小に抑えられている。導線の破 断く遮断)g38より明らかなように、これら導線はユニット10のように各ユ ニットにおいて回路12〜15のように2つより多くのシナプス回路をつなぐこ ともできる。また、上記2つの神経ユニットより多くのものが一つの神経ネット ワーク層内でつながれることも導線32〜35の破断部39から明らかである。
シナプス回路12〜15は個別のほぼ同一のファクタリング回路(factor ingcircuit)を備えている。各回路40は(回路14の方に示されて いるが)、信号入力41と、バイアス抵抗43により入力41に直接接続された バイアス若しくは負信号出力42と、マルチチャンネルフローティングゲート及 び金xaI化物電界効果トランジスタ(HQSFETI 45を介して入力41 に接続された重み付き信号出力44とを有している。各回路40はまた乗算器4 6と重みセツティング回路47とを有している。
トランジスタ45は(回路14の方に示されているが)、入力41に接続された ソースを有すると共に出力44に接続されたドレーンを有する信号チャンネル5 0と、ウェイト付加チャネル51と、入力41から出力44への電流を制御すべ く回路46によってチャンネル51に供給される適切な電圧により適当な形で増 加・減少される電荷に応対するフローティングゲート52とを備える0乗算器回 路46は乗算器回路の第1人力55、第2人力56及び第3人力57に個々に供 給される3つの信号の符合付きの積を表現する適当な信号をセツティング回路4 7に出力する。各回路40にあっては、乗算器人力55は利得入力(ゲインイン プット)30に接続され、乗算器入力56は対応する導線20又は21に接続さ れ、乗算器人力57は対応する導1m33又は35に接線される。
図2は人工神経システムの層で用いられる上記ユニットの代表かヘビアン字習を 行うように構成された場合の本発明の神経ユニット110を示している。rf! I2において、図1の要素に対応する要素は図1の要素の符合〈番号)に100 を加えた符合で示されている。ユニット110は、シナプス回路112と113 と、正重み付き和信号導線123及び負重み付き和信号導線124に接続された 加算回路116と、ゲインターミナル130と、利得導線131とを有している 。ユニット+10は、また、別の同様なシナプス回路と神経ユニット(それぞれ 破断部138と139とで示されている)と共に用いられる。各回路112と1 13はファクタリング回路14Gを有している。このファクタリング回路+40 は実質的には回N40と同一であり、回路112に示されているように、信号人 力141と、バイアス信号出力142と、重み付き信号出力144と、ターミナ ル13Gに接続された第1乗算器人力155と、第2乗算器入力156と、3乗 算器人力157とを有している。ユニット110をユニット10と比較すると、 ユニット+10が回路112と113に専用であると共に、同じ層の他の神経ユ ニットの同じような回路の対応する1つに専用の一対の信号入力導線160を有 するという点で区別できる。各回路112又は113において、対応する導$1 160は信号入力141と第2乗算器入力156の両方に接続されている。ユニ ・ット110は導線161を有し、この導11161はシナプス回N112と1 13とを通って延びそれぞれの乗算器入力156の両方に接続されている。ユニ ット+10は回路10と比較すると特に次の点で区別できる。加算回路116の 出力はアクテイベイシ目ンファンクションジェネレータ(活性化関数ジエレータ ) (activation functl。
n generator1162につながれ、このジェネレータ162の出力は 加算回路116の出力との関係においてS字状(sinoidallである。ジ ェネレータ162の出力は導線161に接続されると共にユニット110の信号 出力163にも接続されている。
図3は人工神経ネットワークの一つの層で用いられるユニットの代表がデルタル ール学習を行うよう構成された場合の本発明の神経ユニット210を示している 。
5111又は図2の要素に対応する図3の要素は、図4の要素に200を5図2 の要素に100を加えた符合で示されている。ユニット21Gはシナプス回路2 12と213と、正重み付き出力導線223及び負重み付き出力導線224に接 続された出力加算回路216と、利得ターミナル230と、利得導81231と を有している。ユニット210は、また、破断部23Bと239とでそれぞれ示 されたその他のシナプス回路や神経ユニットと共に用いられることもある6回路 212と213はそれぞれファクタリング回路(factoring circ uit1240を有し、この回路240は情報信号人力241と、情報バイアス 信号出力242と、バイアス抵抗243と、重み付加情報信号出力244と、マ ルチチャンネルフローティングゲートMO3FET 245と、乗1器246と 、セツティング回路241とを有している0回路212に示されているように、 140sFEr 245は情報チャンネル250と、セツティングチャンネル2 51と、フローティンゲート252とを有している2乗算器246はそれぞれ符 合255.256.257で示される第1.第2゜第3人力を有している0乗算 器246、回路247、チャンネル251はユニット10のそれぞれに対応する 要素と同様の作用をし、入力241への信号に重みを付ける。
ユニy )210は一対の情報信号入力260を有する。これら入力260は回 #I212と213に対し独立であり、それぞれの入力241と251とに接続 されている。ユニット210はまた導線261を有し、この導41261は両回 路212と213の入力256に接続されている。ユニット210はアクティベ イシ5ンファンクションジェネレータ262を有している。このジェネレータ2 62は、回路216の出力を受け、この出力に応じてS字型関数(sigg+o idal function)を実行し、ユニットの情報信号出力263へ出力 を出す。
ユニット210は次の点でユニット10と110と区別される。即ち、ユニット 21Gは、第1の若しくは入力エラー信号に対する入力265と、微分関数ジェ ネレータ(derivative function generator12 66と、エラー乗算器267とを有する点でユニット10と110とは興なる。
l!分関数ジェネレータ266は、アクティベイジョンジェネレータ262と共 に、加算回i%216の出力を受け、さらに、アクティベイシテンファンクショ ンジェネレータ262により生成されるS字型関数の微分に対応・相当する微分 信号を出力する。入力265からのエラー信号とこの微分信号は、導線261に エラー覆信号を出力する乗算器26γに供給される。
ユニット210はまたユニット19と119とからも以下の点で区別できる。! IIち、ユニ1ト1210は一対の正重み付きエラー信号導線270と、一対の 負重み付きエラー信号導線211と含有している点でユニット19と119とは 興なる。1本の導線270と1本の導線271が各シナプス回路212と213 を通り且つその他の神経ユニット(図3には示されていない)の各シナプス回路 を通り延びている。該その他の神経ユニットを通うて延びるのは、回路212又 は213を通って延びる導線260の1つと同一のものである。
ユニット210はさらに回路10と110と比較して次の点で区別できる。即ち 、各ファクタリング回路240は、回@212内に示されているように、エラー 積信号入力280と、エラーバイアス抵抗282によりこれに接続されたエラー バイアス信号出力281と、重み付きエラー信号出力283とを宥している。入 力280は導線261に接続され、出力281と283はそれぞれ導線271と 270に接続されている。
N05FET245はエラーチャンネル285を有している。このエラーチャン ネル285のソースは入力280に接続されており、同チャンネル285のドレ ーンは出力283に接続されている。チャンネル285はフローティングゲート 252により制復される(この70−ティングゲート252はチャンネル250 をもmsする〉ので。
これに対する同一の相対重み及び変化が入力280に達する信号に対し与えられ る(入力241に達する信号へ与えられるように)、各回路212又は213は エラー加算回路287を育し、エラー加算回路281はその入力として対応導線 27Gと211を有し、これらへの信号の合計を第2若しくはエラー出力信号と してユニット210の一対のエラー出力へ出力する。
図4Aと図4Bは、図3の要素と実質上同一な要素(同一の符合で示されている )を備えたデルタルール学習用に構成された人工神経ネットワークを示している 0図4Aと図4Bのネットワークは、入力層300と、中央層若しくは陰暦(h idden Iayer1301と、出力層302とを有している。これら層の 境界は破線303で示されている。各層は概念的には3つの神経ユニットを有す る1層300のユニットはネットワーク用の3つの情報信号入力305のみから 構成される一方、層301と302は3つのアクティブ神経ユニット30Gから 構成される。各アクティブ神経ユニットはユニット21Gに対応する。各ユニッ ト30Bは3つのシナプス回路307を有している。
各回路301は回路212または213の1つとほぼ同一であり、したがってマ ルチチャンネルフローティングゲートII)SFET 245を1つ有するファ クタリング回路240を1つを備えている。 NO3FETは図4重9図4Bに おいては簡略化のために省略されている。
よって、層301と302はそれぞれ3×3のマトリックスのシナプス回路30 7となる(マトリックスの各コラム(列)はユニット306に対応し、各ロー( 行)は1本の導線260が通過する3つのシナプス回路に対応する)0本発明の 人工神経ネットワークにおいて可能なフレキシビリティを示すために、層301 の右側に示されたユニット306は用いられず、よって、ネットワークは、実際 上、3つの神経ユニットの入力層と、2つの神経ユニットの中央層と、3つの神 経ユニットの出力層とから構成される。
層302では、ネ・yトワークは、その層の3つのユニット306の出力263 に個々に接続された3つの情報信号出力308を有すると共に、これら3つのユ ニットのエラー人力265に個々に接続された3つの対応エラー信号入力309 を有す、ネットワークは、第1層入力305を層3(Hの導1126Gに個々に 接続する3本の導線31Gを有す、入力305は、したがって、層の各ユニット 306のシナプス回路307の入力241に個々に接続される。Ii4様に層3 02の2つの関数ユニットの出力263は2つの導線311により層312の下 側の2つの導11260へ個々に接続されることになり、故に出力263はその 層の各神経ユニット306の下側の2つのシナプス回路307の入力241に個 々に接続されることになる。ネットワークは2本の導線313を育する。これら 導線313は層302の神経ユニットの上記2つの下側のシナプス回路のエラー 信号出力288を、導[311が接続される同じ2つの層306の神経ユニット のエラー人力265.263に個々に接続されている。デルタルール学習によれ ば2層302シナプス回路行からのエラー信号は層301シナプス回路列へ伝搬 され、これにより、この行に対し情報信号を供給することになる。ネットワーク は導11L316によって各層のゲイン導線231へ接続される外部利得ターミ ナル315を有する。したがって、図3.1lI4A、図48かられかるように 、ターミナル315はネットワークの各乗算器246の第1人力255に接続さ れることになる。
図5は乗算器246と、W:JSrET 245及びセツティング回路247の 詳細とを示している。 1403FEr 245は、上述の情報信号チャンネル 250とエラー信号チャンネル285に加えて、正セツティングチャンネル40 Gと、負セツティングチャンネル401と、電荷計測チャンネル403とを有す 、チャンネル400と401は信号セフティングチャンネル251と均等(同一 )である、チャンネル250.285.400.401,403は半導性を有し 、基板(図示せず)内に設けられている。また、これらチャンネルは酸化層によ り絶縁されている(これもまた図5には措かれていない)、チャンネルは同じ幅 と厚さを有して措かれているが、これら寸法は、興なる機能を有する興なるチャ ンネルについては変化し得る。l[1sFET 245の材料と構造は、電子的 に消去可能なMO5FET装置に関してよく知られた材料と構造と同様のもので ある。
しかし本願出原人が知る限りでは、従来のそのような装置は、1つのチャンネル しか具備しておらず1重み付加信号がチャンネルのドレーン406に供給される 場合には、チャンネル25G又は258等のチャンネルのソース405に接続さ れる信号用のファクタや重みを変えるべくゲート252の零臂を変えるようには 構成されていない。
セツティング回路251にあっては、乗算器246からの符合沖積はその接続部 410に供給され、また好ましくは、積信号を受けるゲート接続部413を有す るエンハンスメント形相補型金属酸化展(enhances+ent 040S +デバイス412と共に用いられる積符合に対応・相当する極性を有する。この デバイス412は符合414で示される逆極ソースに接続されているので、積の 符合に対応する極性のソースが接続部416の一対のうちの1つによりデバイス 装f412から適切なチャンネル40G又は401に供給される。この場合、積 の値に対応・相対する電圧は積の符合により決定された方向にゲート252上の 電荷を変化させる。セツティング回路251のこの構造は、したがって、ヘビア ン字習及びデルタルール学習において次の場合有効・効果的である。即ち、情報 チャンネル25Gとエラー信号チャンネル285の信号に与えられる重みの変化 は乗算器246からの積信号によって決まる場合には有効・効果的である。
セツティング回路251は、典型的には、ゲート252の電荷により決定される そのコンダクタンス(電導率)を計測すべく接続部421によりチャンネル40 3に接続されたコンパレータ装置420を備える。上記装置42Gは乗算器24 6から積信号を受ける。また、上記装置420は、チャンネル252のコンダク タンスにおける変化(したがって、チャンネル250と285により与えられた 重みが、jlO8FE7245等のHO3FETlf4志間の構造的変化・違い に拘らず、乗算器246からの積信号により決定される変化にほぼ従うように、 デバイス412を制御できる適切な構造を有している。
ヱ企上:≦−りと 本発明の上述の実施例の動作・作用(オペレーション)は明確であると思われる が1図3及び図4を参照しながら、この点について簡単に説明する。図3及び図 4には層301の多数の神経ユニット306がこれらユニットに個別的な出力2 63から多数の第1の出力信号を供給する場合が示されており、これら信号は層 302の各神経ユニットの各シナプス回路307に個別に供給される。これらシ ナプス回路の各々においては、それらの入力241に個別に対応するファクタが 対応ゲート251によって保存される。この結果、各層302シナプス回路の入 力241への層3G+の出力からの信号は対応ファクタにより同時に重み付けさ れ、これら入力に個々に対応すると共に出力244に供給される多数の重み付き 信号を発生(生成)する0層302の各神経ユニット306においては、これら 重み付き信号は、その後、導!1223と224と回路216とにより加算され 加算合計信号を生成する。この加算合計信号からアクティベイシ3ンファンクシ ョンジェネレータ262は第2出力信号を層302神経ユニットの出力263へ 供給する。
上のバラグラフでふれたファクタは層301又は302のある要素のオペレーシ ョン(すぐ後に説明する)により個々に変化可能である。これらファクタは多数 のHO3FE丁345の1つのフローティングゲート252の電荷により個々に 保存される。
この場合、各ファクタは、入力241を伴うゲートに保存される。この人力24 1は、ゲートの電荷が対応チャンネル252を制御できるようにファクタが供給 される信号を受ける。したがって、このチャンネルが重み付は要素であり、層3 01の出力263からこれに接続される出力信号を受けると共にチャンネルを有 すHO8FE丁245のゲート252から対応ファクタを受ける6乗算器246 は140sFET 245に個々に接続されると共にそれに対する入力241へ も個々に接続される。したがって、セツティング回j1247は対応ゲート25 2に保存されたファクタへ各乗算器から符合性の積を代数的に加える作用をする 。各ファクタは、故に、HO6FET245に接続された乗算器246の入力2 55〜257に供給された適当な信号により個々に変えられる。
この場合、 HO5FET245のゲート252にはファクタに対応する電荷が 存在する。
上記ファクタのこの個々の変化はIIWIに明確に示されている9図1において 、セレクト信号レベル〈これが乗算器入力55〜57の1つの大きな値を代表す る)をユニットセレクト導1120又は21の一方だけに供給し、且つセレクト 信号レベルを入力セレクト導1132又は34の一方だけ樟供給すると、どちら の導線にも**されていない全乗算器46からの積出力は実質ゼロとなる。この 場合、上記両導線には、大きな信号値が供給されている。結果として、これら乗 算器に対応するゲート52の電荷は変化しないが、両導線に接続された乗算器は 「セレクト(選択)され」、利得ターミナル30に供給される信号の値に対応・ 相当する積信号を出力する。よって、図1のように構成された層を有する人工神 経ネットワークは、利得ターミナルに供給される可変信号により且つ上記セレク ト導線に供給されるセレクタ信号によりトレーニングされうる。
5!i2の回路140に保存されたファクタかヘビアン字習の場合にどのように 傾々に変化されるかを次に説明する。上記学習を用いる人工神経ネットワークの 一つの層の各導@160はネットワークの他の層から第1出力信号を受け、この 出力信号は導線160により各回路14Gの信号人力141と第3乗算器入力1 56とに供給される(導線はI回路40を通って延びている)、ヘビアン字習ユ ニット110の各導線161はユニットの第2乗算器人力157にユニット自身 の出力163からの第2出力信号を供給する。回路14Gに保存された各ファク タは個々の積に従って変化される。この積とは、上記第1及び第2出力信号の及 びユニット110がヘビアン字習用に機能するようにターミナル130に供給さ れる利得信号の積である。
デルタルール学習の場合、図3及び図4の回路240に保存されたファクタは、 ヘビアン字習の上述のファクタの場合と同様に個々に変化される。つまり、この 場合、利得信号がターミナル315から各第1乗算器入力255へ供給され、層 30G又は301からの出力信号がターミナルから各第1乗算器人力255(第 2乗算器256)へ併給され、層300又301からの出力信号は複数の導線2 60の一つにより層301又は302の各第3乗算器入力251に供給される。
しかしながら、デルタルール学習の場合には、導l1261はエラー積信号を各 第2乗算器入力256へ供給するので、各乗算器246からの出力信号は上記利 得信号と出力信号とエラー信号の積となる。
各ユニット306の各シナプス回路307においては1作動中(in erfe ctlのエラーチャンネル285は対応ゲート252から回路の入力241に対 応するファクタを受けると共にその導線261からユニットに対応するエラー積 信号を受け、回路の出力287においてエラーチャンネルからのエラー信号に対 し重み付き信号を発生する0層302にあっては、各エラー加算回路281と付 随導線270と271は、層301から出力信号を供給する導線260に個々に 対応する0回路287と導線210と211は、したがって、その人力241に おいて各導11260に接続されているシナプス回j3307からの重み付きエ ラー信号を合計するように機能すると共に、重み付きエラー信号の和を層302 のエラー出力288から層301へ伝搬するように機能する。
この結果、図4のネットワークは、適当な利得信号がターミナル315に供給さ れ適当なエラー信号がターミナル309に供給されると、デルタルール学習用に 作用し、対応ターミナル308の実際の出力と所望の出力との間の差をあられす 。
星座上りゴ■五態葺 本発明の人工神経ネットワークは、今日のデジタルコンピュータが用いられると ころには全て適用できる。しかしながら、上記ネットワークはロボット及びパタ ーン認識の分野で特に有効である。ロボットの分野では、一旦人工神経ネットワ ークがその義務・責務を教えられれれば、ロボット装置の寿命・損耗やワークに ついての小さな変化に拘らずその責務を正確に実行し続ける。パターン認識につ いては、ボトル内の液体の正しいレベル(高さ)を決定できるし、バフケージ内 の物体の数や型式を決定することもできる。さらに、住宅担保付き融資(hos esortage 1oanlのような複雑に嘗かれたものを見て、使用者が、 神経ネットワークに教えられた基準に合うかどうか決定することさえできる。
本発明の多くの修正・改良・変更等が上述の教示をもとに可能であることは明ら かである。したがって、本発明は、上述の具体的な記述よりも以下の請求の範囲 の範囲内で実施できるものであると解されるべきである。
FIG、 /。
FIG、 2゜ FIG、 3゜ FIG、4(A) FIG、4(B)。
FIG、 5゜ 平成3年4月26日

Claims (8)

    【特許請求の範囲】
  1. 1.人工神経ネットワークにおいて、 上記ネットワークが複数の第1神経ユニットを有する第1の層を有し、上記複数 の第1神経ユニットが複数の第1出力信号を有し、これら第1出力信号が上記神 経ユニットに個別的に設けらてれおり、上記ネットワークが第2の層を有し、 上記第2の層が複数の第2神経ユニットを有し、各第2神経ユニットが、 上記複数の第1出力信号を個々に受ける複数の入力と、上記入力に個々に対応す る複数のファクタを保存する手段と、上記対応ファクタにより、上記入力が受け た上記出力信号の各々にほぼ同時に重みを付けて上記入力に個々に対応する複数 の重み付き信号を生成するための手段と、 上記重み付き信号を加算して上記第2神経ユニットの和信号とする手段と、 上記和信号から、上記和信号に与えられた所定のアクティベイション関数にした がって第2出力信号を生成するための手段とを有し、上記第2の層が上記ファク タを個々に変化させるための手段を有することを特徴とする人工神経ネットワー ク。
  2. 2.上記第2の神経ユニットの各々が、複数の金属酸化物電界効果トランジスタ を有し、これらトランジスタが上記入力に個別的に設けられている請求項1のネ ットワーク。
  3. 3.上記保存手段が複数のフローティングゲートを有し、これらフローティング ゲートが上記トランジスタに個別的に設けらてれており、上記ゲートの各々が対 応する入力に対し上記ファクタの一つを保存する請求項2のネットワーク。
  4. 4.上記重み付け手段が複数のチャンネルを有し、これらチャンネルが上記トラ ンジスタに個別的に設けられており、上記チャンネルの名々が対応するトランジ スタのゲートにより制御されて、対応する入力が受けた上記出力信号の1つに重 みを付ける請求項3のネットワーク。
  5. 5.上記第2神経ユニットの各々において、上記保存手段が複数のメモリ要素を 有し、これらメモリ要素が上記複数の入力に個別的に設けられており、それに対 応する上記ファクタを保存するように構成されており、 上記重み付け手段が複数の重み付け手段を有し、これら重み付け手段が上記複数 の入力に個別的に設けらてれおり、各重み付け手段が対応する第1出力信号を受 けると共に、それに対応する上記メモリ要素の1つから上記ファクタの対応する 1つを受けるように構成されており、上記ファクタ変化手段が複数の乗算手段を 有し、これら乗算手段が上記複数の入力に個別的であり、各乗算手段が第1入力 接続部と第2入力接続部と第3入力接続部と積接続部とを有し、各乗算手段がこ れら接続部において、上記乗算手段の上記入力接続部が受けた信号の符合付積に 対応する信号を発生し、 上記ファクタ変化手段が複数の代数的加算手段を有し、これら加算手段が上記乗 算手段に個別的であると共に上記メモリ手段にも個別的であり、上記加算手段の 各々が対応する積信号を変けると共に対応するメモリ要素に接続されて、上記符 合付き信号をそこに保存されているファクタに加え、上記第2の層が上記乗算手 段の各第1入力接続部に接続された利得導線を有し、 各第2神経ユニットが上記神経ユニットの上記乗算手段の各第2入力接続部に接 続された第1共通導線を有し、 上記第2の層が複数の第2共通導線を有し、各第2共通導線が上記層の各神経ユ ニットの上記乗算手段の1つの上記第3入力接続部に接続されている請求項1の ネットワーク。
  6. 6.上記利得導線、上記第1共通導線、上記第2共通導線が上記第2の層の外に ある個別ターミナルを有し、 したがって、各乗算手段が、上記乗算手段に接続された上記第2共通導線と上記 第1共通導線とに供給された所定のセレクト信号により選択的にアドレス可能で あり、 且つ.上記利得導線に供給された可変信号がアドレスされた乗算手段の積信号を 決定して、付応ずる加算手段による対応するファクタヘの加算が行われて、上記 セレクト信号と上記可変信号とにより上記ネットワークをトレーニングする 請求項5のネットワーク。
  7. 7.上記利得導線が第2の層の外のターミナルを有し、各第2神経ユニットの上 記第1共通導線がその上記第2出力信号を受け、各第2共通導線が上記第2神経 ユニットの入力が受けた上記複数の第1出力信号の1つを受け、上記第2神経ユ ニットが上記第2共通導線にそれらの上記第3接続部で接続された上記乗算手段 に対応し、したがって、上記第2の層が上記利得導線ターミナルに供給された利 得信号によりヘビアン学習用に作用する 請求項5のネットワーク。
  8. 8.上記利行導線が上記第2の層の外にターミナルを有し、各第2共通導線が上 部第2神経ユニットの入力が受けた上記複数の第1出力信号の1つを受け、上記 第2神経ユニットが上記第2導線にその上記第3接続部において接続された上記 乗算手段に対応し、各第2神経ユニットが個別的に第1エラー信号を受け、各第 2神経ユニットが、そこに与えられた所定の微分関数であって上記アクテイベイ ション関数の微分関数である微分関数にしたがって、対応和信号から微分信号( derivatlve signal)を生成する手段を有し、各第2神経ユニ ットが、上記微分信号と上記第1エラー信号の積に対応するエラー積信号を生成 する手段を有し、各第2神経ユニットが、上記積信号が上記乗算手段の各々の上 記第2入力接続部に到達するようにすべく且つ、対応するファクタに加えられた 積が上記エラー積信号と上記第1出力信号の上記1つと上記利得ターミナルに供 給された利得信号の積に比例するようにすべく、上記エラー積信号を上記神経ユ ニットの上記第1共通導線に供給するための手段を有し、各第2神経ユニットが 、複数のエラー重み付け手段を有し、上記エラー重み付け手段が上記第2神経ユ ニットの上記複数の入力に個別的に設けられ、上記エラー重み付け手段が対応す る上記入力の1つに対応する上記ファクタの1つを受け、上記エラー重み付け手 段が上記第2共通導線に対する上記エラー積信号を受け、上記エラー積信号に上 記1つのファクタによって重みを付けて上記エラー重み付け手段の名々から重み 付きエラー信号を生成し、 上記第2の層が複数のエラー加算手段を有し、これらエラー加算手段が上記第1 出力信号の各々に個別的であり、これらエラー加算手段が同一の第1出力信号を 受ける上記第2神経ユニット入力に対応する上記エラー重み付け手段によって供 給される重み付きエラー信号を受けて、上記加算手段の複数のエラー信号に個別 的な複数の第2エラー信号として上記重み付き出力信号を加算すると共に、上記 第1の層へ伝搬し、したがって、上記第2の層が各第2神経ユニットに供給され た第1エラー信号と上記利得導線ターミナルに供給された利得信号とにデルタル ール学習用に作用する 請求項5のネットワーク。
JP2500319A 1988-10-27 1989-10-24 人工神経ネットワーク構造 Pending JPH04503270A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US263,455 1988-10-27
US07/263,455 US4951239A (en) 1988-10-27 1988-10-27 Artificial neural network implementation

Publications (1)

Publication Number Publication Date
JPH04503270A true JPH04503270A (ja) 1992-06-11

Family

ID=23001854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2500319A Pending JPH04503270A (ja) 1988-10-27 1989-10-24 人工神経ネットワーク構造

Country Status (4)

Country Link
US (1) US4951239A (ja)
JP (1) JPH04503270A (ja)
AU (1) AU4645289A (ja)
WO (1) WO1990004836A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI894021A (fi) * 1988-08-31 1990-03-01 Fujitsu Ltd Neuronstruktur.
US5220641A (en) * 1988-10-11 1993-06-15 Kabushiki Kaisha Toshiba Multi-layer perceptron circuit device
US5293459A (en) * 1988-12-23 1994-03-08 U.S. Philips Corporation Neural integrated circuit comprising learning means
DE68927474T2 (de) * 1988-12-29 1997-05-22 Sharp Kk Neuro-Rechner
US5010512A (en) * 1989-01-12 1991-04-23 International Business Machines Corp. Neural network having an associative memory that learns by example
JP2760543B2 (ja) * 1989-02-10 1998-06-04 株式会社東芝 多重帰還回路
US5195171A (en) * 1989-04-05 1993-03-16 Yozan, Inc. Data processing system
US5553196A (en) * 1989-04-05 1996-09-03 Yozan, Inc. Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed
US5594372A (en) * 1989-06-02 1997-01-14 Shibata; Tadashi Source follower using NMOS and PMOS transistors
JP2662559B2 (ja) * 1989-06-02 1997-10-15 直 柴田 半導体装置
US5621336A (en) * 1989-06-02 1997-04-15 Shibata; Tadashi Neuron circuit
US5187680A (en) * 1989-06-15 1993-02-16 General Electric Company Neural net using capacitive structures connecting input lines and differentially sensed output line pairs
US5479578A (en) * 1989-06-15 1995-12-26 General Electric Company Weighted summation circuitry with digitally controlled capacitive structures
US5481646A (en) * 1989-07-12 1996-01-02 Ricoh Company, Ltd. Neuron unit and neuron unit network
US5274745A (en) * 1989-07-28 1993-12-28 Kabushiki Kaisha Toshiba Method of processing information in artificial neural networks
US5101361A (en) * 1989-09-29 1992-03-31 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for delta-backpropagation neural networks
JPH03167655A (ja) * 1989-11-28 1991-07-19 Toshiba Corp ニューラルネットワーク
US5056037A (en) * 1989-12-28 1991-10-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for learning neural networks
US5052043A (en) * 1990-05-07 1991-09-24 Eastman Kodak Company Neural network with back propagation controlled through an output confidence measure
US5150450A (en) * 1990-10-01 1992-09-22 The United States Of America As Represented By The Secretary Of The Navy Method and circuits for neuron perturbation in artificial neural network memory modification
US5615305A (en) * 1990-11-08 1997-03-25 Hughes Missile Systems Company Neural processor element
US5247606A (en) * 1990-12-26 1993-09-21 Intel Corporation Adaptively setting analog weights in a neural network and the like
US5087826A (en) * 1990-12-28 1992-02-11 Intel Corporation Multi-layer neural network employing multiplexed output neurons
TW208086B (ja) * 1991-03-21 1993-06-21 Shibata Naoru
US5204872A (en) * 1991-04-15 1993-04-20 Milltech-Hoh, Inc. Control system for electric arc furnace
US5467428A (en) * 1991-06-06 1995-11-14 Ulug; Mehmet E. Artificial neural network method and architecture adaptive signal filtering
US5920851A (en) * 1991-08-13 1999-07-06 The Research Foundation Of State University Of Ny Method for generating a representation of an environment
US5204549A (en) * 1992-01-28 1993-04-20 Synaptics, Incorporated Synaptic element including weight-storage and weight-adjustment circuit
US5204521A (en) * 1992-03-03 1993-04-20 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration GaAS-based optoelectronic neurons
KR960013367B1 (ko) * 1992-05-30 1996-10-04 정호선 프로그램이 가능한 다층 신경회로망
US5428710A (en) * 1992-06-29 1995-06-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Fast temporal neural learning using teacher forcing
GB9214514D0 (en) * 1992-07-08 1992-08-19 Massachusetts Inst Technology Information processing
US5930781A (en) * 1992-10-27 1999-07-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network training by integration of adjoint systems of equations forward in time
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
US5350953A (en) * 1993-05-28 1994-09-27 Swenson Richard M Digitally weighted neuron for artificial neural network
US5625752A (en) * 1994-06-17 1997-04-29 The United States Of America As Represented By The Secretary Of The Navy Artificial neural system with binary weighting by equal resistor network
US6513023B1 (en) 1999-10-01 2003-01-28 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Artificial neural network with hardware training and hardware refresh
US8266145B2 (en) * 2007-03-16 2012-09-11 1759304 Ontario Inc. Contextual data mapping, searching and retrieval
US9760533B2 (en) 2014-08-14 2017-09-12 The Regents On The University Of Michigan Floating-gate transistor array for performing weighted sum computation
KR101727546B1 (ko) * 2014-11-12 2017-05-02 서울대학교산학협력단 뉴런 디바이스 및 뉴런 디바이스를 포함하는 집적회로
CN115879519A (zh) * 2014-12-24 2023-03-31 渊慧科技有限公司 增强神经网络以生成附加输出
JP6799835B2 (ja) * 2015-08-27 2020-12-16 バー‐イラン、ユニバーシティーBar−Ilan University マルチ光結合チャネルモジュールおよび関連する計算方法
US10872290B2 (en) 2017-09-21 2020-12-22 Raytheon Company Neural network processor with direct memory access and hardware acceleration circuits
US11468332B2 (en) 2017-11-13 2022-10-11 Raytheon Company Deep neural network processor with interleaved backpropagation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3601811A (en) * 1967-12-18 1971-08-24 Matsushita Electric Ind Co Ltd Learning machine
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion

Also Published As

Publication number Publication date
AU4645289A (en) 1990-05-14
US4951239A (en) 1990-08-21
WO1990004836A1 (en) 1990-05-03

Similar Documents

Publication Publication Date Title
JPH04503270A (ja) 人工神経ネットワーク構造
Hecht-Nielsen Theory of the backpropagation neural network
US6205556B1 (en) Semiconductor integrated circuit device comprising a memory array and a processing circuit
Hagan et al. Training feedforward networks with the Marquardt algorithm
US5056037A (en) Analog hardware for learning neural networks
KR20200076571A (ko) 메모리내 승산 누적 연산들을 위한 nand 블록 아키텍처
WO2017010049A1 (en) Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
KR102193262B1 (ko) 아날로그 전자 뉴럴 네트워크
US5101361A (en) Analog hardware for delta-backpropagation neural networks
US5353382A (en) Programmable synapse for neural network applications
JPH0628331A (ja) マルチプレクスされる出力ニューロンを採用する多層ニューロンネットワーク
CN110729011B (zh) 用于类神经网路的存储器内运算装置
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
CN108073984A (zh) 一种基于神经网络的存储模块及存储模组
CN117151176A (zh) 用于神经网络学习的突触阵列、运算电路及操作方法
EP0621549B1 (en) Nonlinear operation unit and data processing apparatus using the nonlinear operation unit
CN109359734B (zh) 一种基于忆阻器单元的神经网络突触结构及其调节方法
KR20200024419A (ko) 3차원 크로스바 메모리 구조를 이용한 뉴로 모픽 소자
Kornfield et al. An optically programmed neural network
JPH03236275A (ja) メモリ素子およびメモリ装置
KR0183406B1 (ko) 신경망에 사용되는 가중합가법의 용량성 구조물
MORIE et al. Analog VLSI implementation of adaptive algorithms by an extended Hebbian synapse circuit
Mahowald Evolving analog VLSI neurons
Magoulas et al. A new method in neural network supervised training with imprecision
JP6899024B1 (ja) 抵抗変化型シナプスアレイ装置