JP3650407B2 - 人工ニューラル・ネットワークにおける連想ニューロン - Google Patents

人工ニューラル・ネットワークにおける連想ニューロン Download PDF

Info

Publication number
JP3650407B2
JP3650407B2 JP54092798A JP54092798A JP3650407B2 JP 3650407 B2 JP3650407 B2 JP 3650407B2 JP 54092798 A JP54092798 A JP 54092798A JP 54092798 A JP54092798 A JP 54092798A JP 3650407 B2 JP3650407 B2 JP 3650407B2
Authority
JP
Japan
Prior art keywords
signal
neuron
main
function
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP54092798A
Other languages
English (en)
Other versions
JP2001517341A (ja
Inventor
ハイコーネン,ペンティ
Original Assignee
ノキア・オーワイジェイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア・オーワイジェイ filed Critical ノキア・オーワイジェイ
Publication of JP2001517341A publication Critical patent/JP2001517341A/ja
Application granted granted Critical
Publication of JP3650407B2 publication Critical patent/JP3650407B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Networks Using Active Elements (AREA)
  • Advance Control (AREA)
  • Coils Or Transformers For Communication (AREA)
  • Electronic Switches (AREA)
  • Devices For Executing Special Programs (AREA)

Description

発明の背景
本発明は、人工ニューラル・ネットワークにおける連想ニューロン(associative neuron)に関する。
人工ニューラル・ネットワークでは、パーセプトロン(フランク・ローゼンブラット(Frank Rosenblatt)、1957)の様々なバージョンのような、マッカロ・ピッツ(McCullogh−Pitts)(1943)ニューロンから得られるニューロンが用いられる。ニューラル・ネットワークは、例えば、Anil K.Jain(アニル K.ジェイン)、Jianchang Mao(ジアンチャン・マオ)およびK.M.Mohiuddin(K.M.モヒウディン)による"Artificial Neural Networks:A Tutorial"(人工ニューラル・ネットワーク:教本)という論文(IEEE Computer,March 1996,p31−44)において論じられている。
図1において、信号X1〜Xnは人工ニューロンの入力であり、Yはその出力信号である。入力信号X1〜Xnの値は、連続的に変化したり(アナログ量)、あるいは2進量とすることができ、出力信号Yは通常正および負双方の値で与えることができる。W1〜Wnは重み係数、即ち、シナプス重みであり、これらも正または負のいずれかとすることができる。場合によっては、正の信号値および/または重み係数のみを用いる場合もある。ニューロンのシナプス111〜11nは、係数W1〜Wnを重み付けすることによって、対応する入力信号に重み付けする。加算回路12が重み付けした和Uを算出する。和Uは、出力信号がVのスレショルド関数回路13に供給される。スレショルド関数には様々なものが可能であるが、通常S状または断片的な線形関数を用いることによって、出力信号に連続する値を与える。従来のニューロンでは、スレショルド関数回路13の出力信号Vが、同時にニューロン全体の出力信号Yとなる。
この種のニューロンを人工ニューラル・ネットワークに用いる場合、ネットワークをトレーニング(訓練)しなければならない。即ち、重み係数W1〜Wnに適切な値を見つけなければならない。この目的のために異なるアルゴリズムが開発されている。異なる信号を関連付けることによって、例えば、ある入力をある状況に関連付けることによって、繰り返し供給される情報を格納可能なニューラル・ネットワークのことを、連想(相関)ニューラル・ネットワーク(associative neural network)と呼ぶ。連想ニューロンでは、ヘッブ則(ヘッブ・ルール:Hebbrule)として知られているものの様々なバージョンが多くの場合用いられる。ヘッブ・ルールによれば、重み係数は、当該重み係数に対応する入力がアクティブであり、ニューロンの出力がアクティブな場合、常に増大する。アルゴリズムによる重み係数の変更を、ニューラル・ネットワークの訓練と呼ぶ。
既知の人工ニューロンから、ニューロンを並列に接続して層を形成し、これらの層を次々と(前後に)配列することによって、ニューラル・ネットワークを組み立てることが可能である。出力信号を入力信号としてフィードバックすることによって、ネットワークにフィードバックを実装することができる。しかしながら、ニューロンから組み立てた広いネットワークでは、個々の信号や、信号群でさえも、その意味が不明確になってしまい、ネットワークの設計および管理が一層困難になる。注意効果(attention effect)を生成するためには、例えば、ネットワーク動作は、ある場所では強化しなければならず、別の場所では弱化しなければならないが、今日の解決策は、どこに、いつ、どのように、そしてどういう方法でこれをすべきかについて、明確な回答を与えていない。
発明の簡単な説明
本発明の目的は、前述のニューラル・ネットワークを訓練するという問題を解決可能な方法およびこの方法を実施する装置を提供することである。より正確に言えば、本発明の目的は、ニューロンの異なる入力信号間の関係について、個々のニューロン・レベルで有用な追加情報を生成可能な機構を提供することである。この機構は、柔軟性および多様性があり、人工ニューロンに広く適用可能でなければならない。また、この機構は、ニューロンを製造するコストを低く抑えることができるように、十分に簡素でなければならない。
本発明の目的は、独立項に記載する内容によって特徴付けられる方法および装置によって達成される。本発明の好適な実施形態は、従属項においてクレームされている。
本発明は、従来のニューロンの拡張に基づき、特定の拡張、即ち、核(nucleus)を従来のニューロンに添付し、特定の主入力信号、即ち、主信号が核を通過するようにしたものである。核は、ニューロンの従来の部分から得られる信号によって主信号を調整(key)及び調節(adjust)し、これらの信号間に、ニューロン・ネットワークを制御するために必要な論理処理および/または機能を形成する。したがって、重み係数およびスレショルド関数によってのみデータを処理する従来のニューロンと比較すると、単一のニューロンの処理パワーが増大する。一方、主信号と補助信号との間の明確な区別が、ニューラル・ネットワークの設計を容易にする。何故なら、主信号および関連する補助入力信号が同時にアクティブな場合、各重み係数が常に増大するように、ヘッブ・ルールによる訓練を実施するのは容易であるからである。
主信号(S)および非線形信号(V)に基づいて、本発明のニューロンにおいて関数(SO)S OR Vを形成し、これを用いて主出力信号を形成し、更に3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、これを用いてニューロンに追加の出力信号を発生する。
本発明のニューロン、およびかかるニューロンで構成されたネットワークは、迅速に学習し、僅か一例で十分とすることができる。本発明のニューロンの動作、およびかかるニューロンから成るネットワークの動作は、簡素であり明確である。
【図面の簡単な説明】
これより、添付図面を参照しながら、好適な実施形態を用いて本発明を更に詳細に説明する。
図1は、人工ニューロンの概略図である。
図2は、本発明の人工ニューロンの概略図である。
図3は、本発明のニューロンのブロック図である。
図4ないし図6は、本発明のニューロンの具体的な詳細を実施する方法を示す。
発明の詳細な説明
図2において、本発明の好適な実施形態によるニューロンは、主信号入力S、任意数の補助信号入力A1,A2,...,An、少なくとも1つの制御入力Cおよび少なくとも1つの禁止入力I、ならびにある数の出力を備えている。図2の例では、ニューロンの主出力信号は、SOであり、YO,NOおよびNa(またはこれらの内1つ/いくつか)は補助出力信号である。入力信号および出力信号は、例えば、電圧レベルとすることができる。
ブロック211,212,...,21nは、ニューロンのシナプスであり、その中に、関係する補助信号A1,A2,...,Anに対応する重み係数が格納されている。実際には、シナプスは、例えば、回路ユニットである。ブロック12は、加算回路であり、ここで、シナプス211,212,...,21nの出力信号At1,...,At3が加算される。ブロック13は、スレショルド回路であり、単純に比較器として実施することができ、その入力レベル、即ち、加算回路12の出力信号レベルが、予め設定したスレショルド値を超過する場合にのみ、アクティブな出力信号を供給する。
ブロック22は、本発明のニューロン拡張部を備えている。本願では、拡張部のことをニューロンの核と呼ぶ。核の機能は、例えば、スレショルド回路13の出力信号に基づいて、主信号Sを調整及び調節し、これらの信号間に論理演算および/または関数を形成することである。即ち、使用する論理演算は、論理OR(信号SO)および論理AND(信号YO)である。主信号Sを最初に反転(信号NO)したり、あるいはスレショルド回路13の出力Vを最初に反転する(信号Na)ように、他の論理演算をANDと同様に使用することができる。
本発明の好適な実施形態では、核22は、信号の開始(initiation)からある時間期間が経過した場合、ニューロンの入力に何が発生しようとも、出力信号SOを不活性化する回路も備えている。この回路は、ある回復期間が過ぎるまでは、新たな出力パルスを開始できないという動作も可能とする。核22には、禁止入力信号I(Inhibit)も接続することができ、この信号が活性化されると、全ての出力を禁止する(不活性状態に移行させる)。制御入力信号C(Control)が、シナプスの学習を制御する。
図3は、本発明のニューロンのブロック図であり、ここでは、ニューロンは3つの補助入力信号A1〜Anを備えている。したがって、主信号入力に加えて、シナプス211〜213を備えている。本発明の拡張ニューロンは、先に開示した本発明の思想範囲内において、種々の方法で実施可能である。
図4ないし図6は、本発明によるニューロンの一実施形態を示す。ここでは、入力信号および出力信号は電圧信号とする。図4ないし図6の実施形態では、信号の電圧が正の場合、その信号を「アクティブ」と呼び、電圧が実質的に0の場合、「インアクティブ」と呼ぶことにする。
図4は、図3のニューロンのシナプス211〜21nを実施する1方法を示す。この状況では、補助信号A1および主信号Sが同時にアクティブの場合は常に、シナプスの重み係数に対応する電圧は、抵抗41およびダイオード42を介して、コンデンサ43に格納(記憶)される。(主信号Sとキー信号Kとの間の可能な関連については、図6のゲート632に関して説明する。)抵抗41およびコンデンサ43は、コンデンサ43の電圧が増大する時定数を規定する。ダイオード42は、電圧がANDゲート40を介して放電するのを禁止する。コンデンサ43の電圧は、電圧フォロアとして機能する演算増幅器44に供給される。この増幅器の入力インピーダンスは非常に高い(即ち、これによって生ずるコンデンサ43の放電は無視できる)。シナプスの出力は信号At1であり、ダイオード45および抵抗46による重み係数に対応する電圧レベルにこれを固定することにより、入力信号A1から得られる。第2の電圧フォロア47が、出力信号をバッファする。入力信号A1がアクティブのときは常に、出力信号At1は、重み係数の電流値に比例する。
図5は、図3のニューロンの加算ブロック12を実施する一方法を示す。シナプス211〜213から得られた電圧At1〜At3は、抵抗網50〜53によって加算される。(入力At1〜At3の数および抵抗51〜53の数は任意であることは容易に認めることができる。)比較器54によって分別(thresholding)を行う。ここでは、比較器54の正入力における加算電圧Uが負入力におけるスレショルド値よりも大きい場合にのみ、比較器54の出力がアクティブになるように、分別を急峻にしている(図5の例におけるスレショルド値は、定電圧電源55の出力電圧である)。
図6は、図3のニューロンの核22を実施する一方法を示す。入力された主信号Sがアクティブであるか、または分別された(thresholded)加算電圧Vがアクティブである場合、OR回路602は主出力信号SOを発生する。核22は、点線で示した遅延回路として機能するブロック606を含む。図6の例では、遅延回路606は、バッファ608およびインバータ(反転器)610、抵抗612〜614、ならびにコンデンサ616〜618から成る。通常、遅延回路606の出力はアクティブであるので、ANDゲート604は出力信号を通過させる。遅延回路606の構成部品の構造によって生ずる遅延が経過した場合、反転した出力パルスがANDゲート606に達し、主出力SOを不活性化する。SOは、遅延回路606の出力における遅延出力パルスが終了するまで、再度活性化することはできない。AND回路620によって、論理AND演算YOが行われる。この演算の第1要素は主信号Sであり、第2要素は、補助信号A1〜Anの重み係数によって重み付けされ、次いで分別された加算信号Vである。対応するAND演算NOは、AND回路622で形成されるが、主信号Sの反転値が最初にNO回路626によって形成される(信号が反転されている)点が異なる。対応するAND演算Naは、AND回路624で形成されるが、通過した加算信号Vが最初にNO回路628によって反転されている点が異なる。全ての出力はI信号によって禁止することができる。I信号は、(ここでは)NO回路630によって反転され、次いで、反転形態で、AND回路620〜624に供給される。シナプスは、ヘッブ・ルール(図2参照)にしたがって、K信号によって制御される。学習が完全に許可されたときを規定するために制御信号Cを用いる。キー信号Kの発生は、制御信号Cがインアクティブの場合、AND回路632によって禁止される。
本発明によるニューロンの追加出力信号YO,NOおよびNaは、例えば、次のように用いることができる。アクティブ信号YO(Y="Yes")は、主信号Sおよび補助信号Aが互いに対応する、即ち、これらが関連付けられていることを意味する。アクティブ信号NO(N="No")は、主信号および補助信号Aが互いに対応しないことを意味する。したがって、補助信号Aはアクティブであるが、主信号Sはアクティブではない。アクティブ信号Na(無連想)は、主信号Sはアクティブであるが、補助信号Aはアクティブでない状況を意味する。ニューラル・ネットワークの特徴の1つは、その状況を予測する能力である。アクティブ信号Naは、補助信号Aによって予測されない新たな入力信号Sがあることを示す。信号Naは、したがって、「驚きインディケータ(surprise indicator)であり、新たな予期しない信号に注意を引くためにこれを用いることができる。
制御信号Cは、K信号を制御する。即ち、調整する(key)。発生する全ての状況を学習することは、ネットワークには得策ではない。通常の人が新たな状況に遭遇した場合、彼/彼女はその状況が学習する価値があるか否かについて推測するか、あるいは本能的に知る。この種の注意の集中は、制御信号Cによってシミュレートすることができる。
前述の例において、補助信号A1〜Anは、値を変化させながら連続的に与えることができ、主信号Sは2つの異なる値を与えることができる。スレショルド関数は、ここでは簡単な比較演算である。本発明は前述のものに限定される訳ではなく、より広く適用可能である。例えば、主信号Sおよびキー信号Kにも連続値を与えるようにしてもよい。スレショルド関数は、適切な非線形連続関数またはステップ関数であればいずれとも置換することができる。ニューロンの学習は、したがって、許可または禁止という2つの相互に排他的な状況に限定される訳ではない。代わりに、学習プロセスを異なる度合いに分割するか、あるいは度合いの連続とすることによって、主信号Sに基づいて信号Kの強度を調節する。ニューラル・ネットワークの通常状態(ネットワークを訓練していない場合)では、キー信号Kは、信号Sがアクティブである場合、主信号Sの一部以外ではない。ネットワークを訓練すると、キー信号Kの値は主信号Sの値に近づく。実際には、図4および図6の2進ANDゲートを、例えば、アナログ増幅器または可調整増幅器または減衰器等と交換しなければならない。
実際には、ニューラル・ネットワークには大量のニューロン(通常104ないし106)が必要である。本発明のニューロンは、例えば、半導体によって実現する音声記憶回路を製造するEEPROM技術によって、大規模集積に適したプロセスで実施することができる。あるいは、ニューロンおよびニューラル・ネットワークは、ディジタル・プロセッサ内で実行するコンピュータ・プログラムによってシミュレーションすることができる。ニューロンのシナプスの重み係数に対応する値は、ここでは、メモリ位置(例えば、マトリクス変数)に格納し、ニューロンの他の部分は、ソフトウエア・ロジックによって実施する。
本発明は、拡張人工ニューラル・ネットワークを用いて情報を処理する分野に適用可能である。この分野は、例えば、オーディオビジュアル情報の処理、知覚情報一般、具体的には音声および画像の解釈、ならびに応答の形成を含む。本発明は、マンマシーン・インターフェース、個人用電子補助機および/または通信、マルチメディア、バーチャル・リアリティ(仮想現実)、ロボット、人工知能、人工的創造性(artificial creativity)の手段のような、近年の産業分野の多くに適用可能である。
技術の進展に伴って、本発明の基本的な思想は多くの異なる方法で実施され得ることは当業者には明白であろう。したがって、本発明およびその実施形態は、前述の例に限定されるのではなく、請求の範囲内において様々に変更し得るものである。

Claims (10)

  1. ある数の補助信号(A1〜An)を受信するステップと、
    各補助信号(A1〜An)毎に、対応する重み係数(W1〜Wn)を形成するステップと、
    前記補助信号(A1〜An)から、前記対応する係数(W1〜Wn)によって重み付けした和(U)を形成するステップと、
    前記重み付けした和(U)に非線形関数を適用し、非線形信号(V)を発生するステップと、
    によって連想人工ニューラル・ネットワークの出力信号を形成する方法において、
    主信号(S)を受信するステップであって、該主信号(S)および対応する補助信号(A1〜An)が同時にアクティブである場合、各補助信号の重み係数(W1〜Wn)が増大するように、前記補助信号(A1〜An)と関連付けることが可能な前記主信号(S)を受信するステップと、
    前記主信号(S)および前記非線形信号(V)に基づいて、主出力信号を発生する際に用いる関数(SO)S OR Vと、3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、前記論理関数を用いて前記ニューロンに追加出力信号を発生するステップと、
    を特徴とする方法。
  2. 連想人工ニューロンであって、
    ある数の補助信号(A1〜An)を受信し、各補助信号(A1〜An)毎に、対応する重み係数(W1〜Wn)を形成する手段(111〜11n;211〜21n)と、
    前記補助信号(A1〜An)から、前記対応する係数(Wn〜Wn)によって重み付けした和(U)を形成する手段(12)と、
    前記重み付けした和(U)に非線形関数を適用し、非線形信号(V)を発生する手段(13)と、
    を備え、更に、
    前記主信号(S)を受信する手段であって、該主信号(S)および対応する補助信号(A1〜An)が同時にアクティブである場合、各補助信号の重み係数(W1〜Wn)が増大するように、前記補助信号(A1〜An)と関連付けることが可能な前記主信号(S)を受信する手段と、
    前記主信号(S)および前記非線形信号(V)に基づいて、主出力信号を発生する際に用いる関数(SO)S OR Vと、3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、前記得られた論理関数を用いて前記ニューロンに追加出力信号を発生する手段(22)と、
    を備えることを特徴とする連想人工ニューロン。
  3. 請求項2記載のニューロンにおいて、前記非線形関数がスレショルド関数であり、前記非線形信号(V)は、第1状態および第2状態を有する関数によって得られることを特徴とするニューロン。
  4. 請求項2記載のニューロンにおいて、前記非線形関数が、2つより多いステップを有するステップ関数であることを特徴とするニューロン。
  5. 請求項2記載のニューロンにおいて、前記非線形関数が、連続関数であることを特徴とするニューロン。
  6. 請求項2記載のニューロンにおいて、前記主出力信号(SO)が、第1状態および第2状態を有し、前記ニューロンが、更に、前記主出力信号(SO)が前記第2状態にある時間長に上限を設定する手段(606)を備えることを特徴とするニューロン。
  7. 請求項6記載のニューロンであって、更に、前記主出力信号(SO)が、前記第2状態にあった後、前記第1状態に留まっている時間長に下限を設定する手段(606)を備えることを特徴とするニューロン。
  8. 請求項2ないし7のいずれか1項記載のニューロンであって、更に、外部制御信号(C)に応答して、ニューロンの学習を調節する手段(40,632)を備えることを特徴とするニューロン。
  9. 請求項8記載のニューロンにおいて、前記ニューロンの学習を調節する手段(40,632)が2つの状態を有し、これによって、ニューロンの学習を許可または禁止することを特徴とするニューロン。
  10. 請求項2ないし9のいずれか1項記載のニューロンであって、更に、外部禁止信号(I)に応じて、少なくとも1つの出力信号(SO,YO,NO,Na)を所定の状態に強制させる手段(630,604,620〜624)を備えることを特徴とするニューロン。
JP54092798A 1997-03-26 1998-03-23 人工ニューラル・ネットワークにおける連想ニューロン Expired - Lifetime JP3650407B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI971284 1997-03-26
FI971284A FI103304B (fi) 1997-03-26 1997-03-26 Assosiatiivinen neuroni
PCT/FI1998/000257 WO1998043159A1 (en) 1997-03-26 1998-03-23 Associative neuron in an artificial neutral network

Publications (2)

Publication Number Publication Date
JP2001517341A JP2001517341A (ja) 2001-10-02
JP3650407B2 true JP3650407B2 (ja) 2005-05-18

Family

ID=8548483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP54092798A Expired - Lifetime JP3650407B2 (ja) 1997-03-26 1998-03-23 人工ニューラル・ネットワークにおける連想ニューロン

Country Status (9)

Country Link
US (1) US6625588B1 (ja)
EP (1) EP0970420B1 (ja)
JP (1) JP3650407B2 (ja)
AT (1) ATE227860T1 (ja)
AU (1) AU6502598A (ja)
DE (1) DE69809402T2 (ja)
ES (1) ES2186139T3 (ja)
FI (1) FI103304B (ja)
WO (1) WO1998043159A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20002853A (fi) * 2000-12-22 2002-06-23 Nokia Corp Keinotekoisen assosiatiivisen neuronin synapsi
US7672918B2 (en) * 2007-02-05 2010-03-02 Steve Adkins Artificial neuron
US11354572B2 (en) 2018-12-05 2022-06-07 International Business Machines Corporation Multi-variables processing neurons and unsupervised multi-timescale learning for spiking neural networks
EP3839833A1 (en) * 2019-12-16 2021-06-23 ams International AG Neural amplifier, neural network and sensor device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3602888A (en) * 1967-12-14 1971-08-31 Matsushita Electric Ind Co Ltd Learning device
US3601811A (en) * 1967-12-18 1971-08-24 Matsushita Electric Ind Co Ltd Learning machine
FR2051725B1 (ja) * 1969-07-14 1973-04-27 Matsushita Electric Ind Co Ltd
US5515454A (en) * 1981-08-06 1996-05-07 Buckley; B. Shawn Self-organizing circuits
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
JPH0782481B2 (ja) * 1989-12-26 1995-09-06 三菱電機株式会社 半導体神経回路網
KR950001601B1 (ko) * 1990-07-09 1995-02-27 니폰 덴신 덴와 가부시끼가시야 뉴-럴 네트워크 회로
JP2760145B2 (ja) * 1990-09-26 1998-05-28 三菱電機株式会社 知識情報処理装置
US5172204A (en) * 1991-03-27 1992-12-15 International Business Machines Corp. Artificial ionic synapse
US5454064A (en) * 1991-11-22 1995-09-26 Hughes Aircraft Company System for correlating object reports utilizing connectionist architecture
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
US5446829A (en) * 1993-06-24 1995-08-29 The United States Of America As Represented By The Department Of Health And Human Services Artificial network for temporal sequence processing
US5448684A (en) 1993-11-12 1995-09-05 Motorola, Inc. Neural network, neuron, and method for recognizing a missing input valve
DE69430529T2 (de) 1994-07-28 2003-01-16 International Business Machines Corp., Armonk Daisy-Chain-Schaltung für die serielle Verbindung von Neuronalschaltungen

Also Published As

Publication number Publication date
US6625588B1 (en) 2003-09-23
WO1998043159A1 (en) 1998-10-01
DE69809402T2 (de) 2003-08-21
FI971284A0 (fi) 1997-03-26
FI971284A (fi) 1998-09-27
AU6502598A (en) 1998-10-20
ATE227860T1 (de) 2002-11-15
EP0970420A1 (en) 2000-01-12
FI103304B1 (fi) 1999-05-31
ES2186139T3 (es) 2003-05-01
JP2001517341A (ja) 2001-10-02
EP0970420B1 (en) 2002-11-13
DE69809402D1 (de) 2002-12-19
FI103304B (fi) 1999-05-31

Similar Documents

Publication Publication Date Title
Sutton et al. Online learning with random representations
Wang et al. A modified error function for the backpropagation algorithm
JPH01223559A (ja) N次元クーロン神経ネットワーク
Sun et al. Memristor-based Hopfield network circuit for recognition and sequencing application
WO1991004546A1 (en) Memory modification of artificial neural networks
JP3650407B2 (ja) 人工ニューラル・ネットワークにおける連想ニューロン
Zilouchian Fundamentals of neural networks
Bouhadjar et al. Sequence learning in a spiking neuronal network with memristive synapses
JP3729868B2 (ja) 連想ニューラル・ネットワーク
Licata Are neural networks imitations of mind
Yeung A neural network approach to constructive induction
Gorse et al. A pulse-based reinforcement algorithm for learning continuous functions
CN111582461A (zh) 神经网络训练方法、装置、终端设备和可读存储介质
WO2022249308A1 (ja) 設計方法および記録媒体
Tang et al. A model of neurons with unidirectional linear response
Zhang et al. SOLSA: Neuromorphic Spatiotemporal Online Learning for Synaptic Adaptation
JP2659230B2 (ja) 神経回路網の学習装置
Kohring Performance enhancement of Willshaw type networks through the use of limit cycles
KR20230134286A (ko) 시냅틱 가중치 학습을 위한 뉴런 회로
Huang et al. The capacity of the semi-orthogonally associative memories model
JP3130913B2 (ja) 信号処理装置
Torvik Modification of the back-propagation algorithm for faster convergence in neural networks
CN118504629A (zh) 一种动态随机存储器、神经元行为模拟系统和方法
Badoni et al. LANN27: an electronic implementation of an analog attractor neural network with stochastic learning
Laffely et al. Synaptic learning in VLSI-based artificial nerve cells

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120225

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130225

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term