JP3650407B2 - 人工ニューラル・ネットワークにおける連想ニューロン - Google Patents
人工ニューラル・ネットワークにおける連想ニューロン Download PDFInfo
- Publication number
- JP3650407B2 JP3650407B2 JP54092798A JP54092798A JP3650407B2 JP 3650407 B2 JP3650407 B2 JP 3650407B2 JP 54092798 A JP54092798 A JP 54092798A JP 54092798 A JP54092798 A JP 54092798A JP 3650407 B2 JP3650407 B2 JP 3650407B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- neuron
- main
- function
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 210000002569 neuron Anatomy 0.000 title claims abstract description 77
- 238000013528 artificial neural network Methods 0.000 title claims description 18
- 230000006870 function Effects 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000004044 response Effects 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims 1
- 230000001105 regulatory effect Effects 0.000 claims 1
- 238000012886 linear function Methods 0.000 abstract description 2
- 210000000225 synapse Anatomy 0.000 description 10
- 239000003990 capacitor Substances 0.000 description 6
- 240000002627 Cordeauxia edulis Species 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 239000000872 buffer Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
- Networks Using Active Elements (AREA)
- Advance Control (AREA)
- Coils Or Transformers For Communication (AREA)
- Electronic Switches (AREA)
- Devices For Executing Special Programs (AREA)
Description
本発明は、人工ニューラル・ネットワークにおける連想ニューロン(associative neuron)に関する。
人工ニューラル・ネットワークでは、パーセプトロン(フランク・ローゼンブラット(Frank Rosenblatt)、1957)の様々なバージョンのような、マッカロ・ピッツ(McCullogh−Pitts)(1943)ニューロンから得られるニューロンが用いられる。ニューラル・ネットワークは、例えば、Anil K.Jain(アニル K.ジェイン)、Jianchang Mao(ジアンチャン・マオ)およびK.M.Mohiuddin(K.M.モヒウディン)による"Artificial Neural Networks:A Tutorial"(人工ニューラル・ネットワーク:教本)という論文(IEEE Computer,March 1996,p31−44)において論じられている。
図1において、信号X1〜Xnは人工ニューロンの入力であり、Yはその出力信号である。入力信号X1〜Xnの値は、連続的に変化したり(アナログ量)、あるいは2進量とすることができ、出力信号Yは通常正および負双方の値で与えることができる。W1〜Wnは重み係数、即ち、シナプス重みであり、これらも正または負のいずれかとすることができる。場合によっては、正の信号値および/または重み係数のみを用いる場合もある。ニューロンのシナプス111〜11nは、係数W1〜Wnを重み付けすることによって、対応する入力信号に重み付けする。加算回路12が重み付けした和Uを算出する。和Uは、出力信号がVのスレショルド関数回路13に供給される。スレショルド関数には様々なものが可能であるが、通常S状または断片的な線形関数を用いることによって、出力信号に連続する値を与える。従来のニューロンでは、スレショルド関数回路13の出力信号Vが、同時にニューロン全体の出力信号Yとなる。
この種のニューロンを人工ニューラル・ネットワークに用いる場合、ネットワークをトレーニング(訓練)しなければならない。即ち、重み係数W1〜Wnに適切な値を見つけなければならない。この目的のために異なるアルゴリズムが開発されている。異なる信号を関連付けることによって、例えば、ある入力をある状況に関連付けることによって、繰り返し供給される情報を格納可能なニューラル・ネットワークのことを、連想(相関)ニューラル・ネットワーク(associative neural network)と呼ぶ。連想ニューロンでは、ヘッブ則(ヘッブ・ルール:Hebbrule)として知られているものの様々なバージョンが多くの場合用いられる。ヘッブ・ルールによれば、重み係数は、当該重み係数に対応する入力がアクティブであり、ニューロンの出力がアクティブな場合、常に増大する。アルゴリズムによる重み係数の変更を、ニューラル・ネットワークの訓練と呼ぶ。
既知の人工ニューロンから、ニューロンを並列に接続して層を形成し、これらの層を次々と(前後に)配列することによって、ニューラル・ネットワークを組み立てることが可能である。出力信号を入力信号としてフィードバックすることによって、ネットワークにフィードバックを実装することができる。しかしながら、ニューロンから組み立てた広いネットワークでは、個々の信号や、信号群でさえも、その意味が不明確になってしまい、ネットワークの設計および管理が一層困難になる。注意効果(attention effect)を生成するためには、例えば、ネットワーク動作は、ある場所では強化しなければならず、別の場所では弱化しなければならないが、今日の解決策は、どこに、いつ、どのように、そしてどういう方法でこれをすべきかについて、明確な回答を与えていない。
発明の簡単な説明
本発明の目的は、前述のニューラル・ネットワークを訓練するという問題を解決可能な方法およびこの方法を実施する装置を提供することである。より正確に言えば、本発明の目的は、ニューロンの異なる入力信号間の関係について、個々のニューロン・レベルで有用な追加情報を生成可能な機構を提供することである。この機構は、柔軟性および多様性があり、人工ニューロンに広く適用可能でなければならない。また、この機構は、ニューロンを製造するコストを低く抑えることができるように、十分に簡素でなければならない。
本発明の目的は、独立項に記載する内容によって特徴付けられる方法および装置によって達成される。本発明の好適な実施形態は、従属項においてクレームされている。
本発明は、従来のニューロンの拡張に基づき、特定の拡張、即ち、核(nucleus)を従来のニューロンに添付し、特定の主入力信号、即ち、主信号が核を通過するようにしたものである。核は、ニューロンの従来の部分から得られる信号によって主信号を調整(key)及び調節(adjust)し、これらの信号間に、ニューロン・ネットワークを制御するために必要な論理処理および/または機能を形成する。したがって、重み係数およびスレショルド関数によってのみデータを処理する従来のニューロンと比較すると、単一のニューロンの処理パワーが増大する。一方、主信号と補助信号との間の明確な区別が、ニューラル・ネットワークの設計を容易にする。何故なら、主信号および関連する補助入力信号が同時にアクティブな場合、各重み係数が常に増大するように、ヘッブ・ルールによる訓練を実施するのは容易であるからである。
主信号(S)および非線形信号(V)に基づいて、本発明のニューロンにおいて関数(SO)S OR Vを形成し、これを用いて主出力信号を形成し、更に3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、これを用いてニューロンに追加の出力信号を発生する。
本発明のニューロン、およびかかるニューロンで構成されたネットワークは、迅速に学習し、僅か一例で十分とすることができる。本発明のニューロンの動作、およびかかるニューロンから成るネットワークの動作は、簡素であり明確である。
【図面の簡単な説明】
これより、添付図面を参照しながら、好適な実施形態を用いて本発明を更に詳細に説明する。
図1は、人工ニューロンの概略図である。
図2は、本発明の人工ニューロンの概略図である。
図3は、本発明のニューロンのブロック図である。
図4ないし図6は、本発明のニューロンの具体的な詳細を実施する方法を示す。
発明の詳細な説明
図2において、本発明の好適な実施形態によるニューロンは、主信号入力S、任意数の補助信号入力A1,A2,...,An、少なくとも1つの制御入力Cおよび少なくとも1つの禁止入力I、ならびにある数の出力を備えている。図2の例では、ニューロンの主出力信号は、SOであり、YO,NOおよびNa(またはこれらの内1つ/いくつか)は補助出力信号である。入力信号および出力信号は、例えば、電圧レベルとすることができる。
ブロック211,212,...,21nは、ニューロンのシナプスであり、その中に、関係する補助信号A1,A2,...,Anに対応する重み係数が格納されている。実際には、シナプスは、例えば、回路ユニットである。ブロック12は、加算回路であり、ここで、シナプス211,212,...,21nの出力信号At1,...,At3が加算される。ブロック13は、スレショルド回路であり、単純に比較器として実施することができ、その入力レベル、即ち、加算回路12の出力信号レベルが、予め設定したスレショルド値を超過する場合にのみ、アクティブな出力信号を供給する。
ブロック22は、本発明のニューロン拡張部を備えている。本願では、拡張部のことをニューロンの核と呼ぶ。核の機能は、例えば、スレショルド回路13の出力信号に基づいて、主信号Sを調整及び調節し、これらの信号間に論理演算および/または関数を形成することである。即ち、使用する論理演算は、論理OR(信号SO)および論理AND(信号YO)である。主信号Sを最初に反転(信号NO)したり、あるいはスレショルド回路13の出力Vを最初に反転する(信号Na)ように、他の論理演算をANDと同様に使用することができる。
本発明の好適な実施形態では、核22は、信号の開始(initiation)からある時間期間が経過した場合、ニューロンの入力に何が発生しようとも、出力信号SOを不活性化する回路も備えている。この回路は、ある回復期間が過ぎるまでは、新たな出力パルスを開始できないという動作も可能とする。核22には、禁止入力信号I(Inhibit)も接続することができ、この信号が活性化されると、全ての出力を禁止する(不活性状態に移行させる)。制御入力信号C(Control)が、シナプスの学習を制御する。
図3は、本発明のニューロンのブロック図であり、ここでは、ニューロンは3つの補助入力信号A1〜Anを備えている。したがって、主信号入力に加えて、シナプス211〜213を備えている。本発明の拡張ニューロンは、先に開示した本発明の思想範囲内において、種々の方法で実施可能である。
図4ないし図6は、本発明によるニューロンの一実施形態を示す。ここでは、入力信号および出力信号は電圧信号とする。図4ないし図6の実施形態では、信号の電圧が正の場合、その信号を「アクティブ」と呼び、電圧が実質的に0の場合、「インアクティブ」と呼ぶことにする。
図4は、図3のニューロンのシナプス211〜21nを実施する1方法を示す。この状況では、補助信号A1および主信号Sが同時にアクティブの場合は常に、シナプスの重み係数に対応する電圧は、抵抗41およびダイオード42を介して、コンデンサ43に格納(記憶)される。(主信号Sとキー信号Kとの間の可能な関連については、図6のゲート632に関して説明する。)抵抗41およびコンデンサ43は、コンデンサ43の電圧が増大する時定数を規定する。ダイオード42は、電圧がANDゲート40を介して放電するのを禁止する。コンデンサ43の電圧は、電圧フォロアとして機能する演算増幅器44に供給される。この増幅器の入力インピーダンスは非常に高い(即ち、これによって生ずるコンデンサ43の放電は無視できる)。シナプスの出力は信号At1であり、ダイオード45および抵抗46による重み係数に対応する電圧レベルにこれを固定することにより、入力信号A1から得られる。第2の電圧フォロア47が、出力信号をバッファする。入力信号A1がアクティブのときは常に、出力信号At1は、重み係数の電流値に比例する。
図5は、図3のニューロンの加算ブロック12を実施する一方法を示す。シナプス211〜213から得られた電圧At1〜At3は、抵抗網50〜53によって加算される。(入力At1〜At3の数および抵抗51〜53の数は任意であることは容易に認めることができる。)比較器54によって分別(thresholding)を行う。ここでは、比較器54の正入力における加算電圧Uが負入力におけるスレショルド値よりも大きい場合にのみ、比較器54の出力がアクティブになるように、分別を急峻にしている(図5の例におけるスレショルド値は、定電圧電源55の出力電圧である)。
図6は、図3のニューロンの核22を実施する一方法を示す。入力された主信号Sがアクティブであるか、または分別された(thresholded)加算電圧Vがアクティブである場合、OR回路602は主出力信号SOを発生する。核22は、点線で示した遅延回路として機能するブロック606を含む。図6の例では、遅延回路606は、バッファ608およびインバータ(反転器)610、抵抗612〜614、ならびにコンデンサ616〜618から成る。通常、遅延回路606の出力はアクティブであるので、ANDゲート604は出力信号を通過させる。遅延回路606の構成部品の構造によって生ずる遅延が経過した場合、反転した出力パルスがANDゲート606に達し、主出力SOを不活性化する。SOは、遅延回路606の出力における遅延出力パルスが終了するまで、再度活性化することはできない。AND回路620によって、論理AND演算YOが行われる。この演算の第1要素は主信号Sであり、第2要素は、補助信号A1〜Anの重み係数によって重み付けされ、次いで分別された加算信号Vである。対応するAND演算NOは、AND回路622で形成されるが、主信号Sの反転値が最初にNO回路626によって形成される(信号が反転されている)点が異なる。対応するAND演算Naは、AND回路624で形成されるが、通過した加算信号Vが最初にNO回路628によって反転されている点が異なる。全ての出力はI信号によって禁止することができる。I信号は、(ここでは)NO回路630によって反転され、次いで、反転形態で、AND回路620〜624に供給される。シナプスは、ヘッブ・ルール(図2参照)にしたがって、K信号によって制御される。学習が完全に許可されたときを規定するために制御信号Cを用いる。キー信号Kの発生は、制御信号Cがインアクティブの場合、AND回路632によって禁止される。
本発明によるニューロンの追加出力信号YO,NOおよびNaは、例えば、次のように用いることができる。アクティブ信号YO(Y="Yes")は、主信号Sおよび補助信号Aが互いに対応する、即ち、これらが関連付けられていることを意味する。アクティブ信号NO(N="No")は、主信号および補助信号Aが互いに対応しないことを意味する。したがって、補助信号Aはアクティブであるが、主信号Sはアクティブではない。アクティブ信号Na(無連想)は、主信号Sはアクティブであるが、補助信号Aはアクティブでない状況を意味する。ニューラル・ネットワークの特徴の1つは、その状況を予測する能力である。アクティブ信号Naは、補助信号Aによって予測されない新たな入力信号Sがあることを示す。信号Naは、したがって、「驚きインディケータ(surprise indicator)であり、新たな予期しない信号に注意を引くためにこれを用いることができる。
制御信号Cは、K信号を制御する。即ち、調整する(key)。発生する全ての状況を学習することは、ネットワークには得策ではない。通常の人が新たな状況に遭遇した場合、彼/彼女はその状況が学習する価値があるか否かについて推測するか、あるいは本能的に知る。この種の注意の集中は、制御信号Cによってシミュレートすることができる。
前述の例において、補助信号A1〜Anは、値を変化させながら連続的に与えることができ、主信号Sは2つの異なる値を与えることができる。スレショルド関数は、ここでは簡単な比較演算である。本発明は前述のものに限定される訳ではなく、より広く適用可能である。例えば、主信号Sおよびキー信号Kにも連続値を与えるようにしてもよい。スレショルド関数は、適切な非線形連続関数またはステップ関数であればいずれとも置換することができる。ニューロンの学習は、したがって、許可または禁止という2つの相互に排他的な状況に限定される訳ではない。代わりに、学習プロセスを異なる度合いに分割するか、あるいは度合いの連続とすることによって、主信号Sに基づいて信号Kの強度を調節する。ニューラル・ネットワークの通常状態(ネットワークを訓練していない場合)では、キー信号Kは、信号Sがアクティブである場合、主信号Sの一部以外ではない。ネットワークを訓練すると、キー信号Kの値は主信号Sの値に近づく。実際には、図4および図6の2進ANDゲートを、例えば、アナログ増幅器または可調整増幅器または減衰器等と交換しなければならない。
実際には、ニューラル・ネットワークには大量のニューロン(通常104ないし106)が必要である。本発明のニューロンは、例えば、半導体によって実現する音声記憶回路を製造するEEPROM技術によって、大規模集積に適したプロセスで実施することができる。あるいは、ニューロンおよびニューラル・ネットワークは、ディジタル・プロセッサ内で実行するコンピュータ・プログラムによってシミュレーションすることができる。ニューロンのシナプスの重み係数に対応する値は、ここでは、メモリ位置(例えば、マトリクス変数)に格納し、ニューロンの他の部分は、ソフトウエア・ロジックによって実施する。
本発明は、拡張人工ニューラル・ネットワークを用いて情報を処理する分野に適用可能である。この分野は、例えば、オーディオビジュアル情報の処理、知覚情報一般、具体的には音声および画像の解釈、ならびに応答の形成を含む。本発明は、マンマシーン・インターフェース、個人用電子補助機および/または通信、マルチメディア、バーチャル・リアリティ(仮想現実)、ロボット、人工知能、人工的創造性(artificial creativity)の手段のような、近年の産業分野の多くに適用可能である。
技術の進展に伴って、本発明の基本的な思想は多くの異なる方法で実施され得ることは当業者には明白であろう。したがって、本発明およびその実施形態は、前述の例に限定されるのではなく、請求の範囲内において様々に変更し得るものである。
Claims (10)
- ある数の補助信号(A1〜An)を受信するステップと、
各補助信号(A1〜An)毎に、対応する重み係数(W1〜Wn)を形成するステップと、
前記補助信号(A1〜An)から、前記対応する係数(W1〜Wn)によって重み付けした和(U)を形成するステップと、
前記重み付けした和(U)に非線形関数を適用し、非線形信号(V)を発生するステップと、
によって連想人工ニューラル・ネットワークの出力信号を形成する方法において、
主信号(S)を受信するステップであって、該主信号(S)および対応する補助信号(A1〜An)が同時にアクティブである場合、各補助信号の重み係数(W1〜Wn)が増大するように、前記補助信号(A1〜An)と関連付けることが可能な前記主信号(S)を受信するステップと、
前記主信号(S)および前記非線形信号(V)に基づいて、主出力信号を発生する際に用いる関数(SO)S OR Vと、3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、前記論理関数を用いて前記ニューロンに追加出力信号を発生するステップと、
を特徴とする方法。 - 連想人工ニューロンであって、
ある数の補助信号(A1〜An)を受信し、各補助信号(A1〜An)毎に、対応する重み係数(W1〜Wn)を形成する手段(111〜11n;211〜21n)と、
前記補助信号(A1〜An)から、前記対応する係数(Wn〜Wn)によって重み付けした和(U)を形成する手段(12)と、
前記重み付けした和(U)に非線形関数を適用し、非線形信号(V)を発生する手段(13)と、
を備え、更に、
前記主信号(S)を受信する手段であって、該主信号(S)および対応する補助信号(A1〜An)が同時にアクティブである場合、各補助信号の重み係数(W1〜Wn)が増大するように、前記補助信号(A1〜An)と関連付けることが可能な前記主信号(S)を受信する手段と、
前記主信号(S)および前記非線形信号(V)に基づいて、主出力信号を発生する際に用いる関数(SO)S OR Vと、3つの論理関数YO=S AND V,NO=NOT S AND V,Na=S AND NOT Vの内少なくとも1つを形成し、前記得られた論理関数を用いて前記ニューロンに追加出力信号を発生する手段(22)と、
を備えることを特徴とする連想人工ニューロン。 - 請求項2記載のニューロンにおいて、前記非線形関数がスレショルド関数であり、前記非線形信号(V)は、第1状態および第2状態を有する関数によって得られることを特徴とするニューロン。
- 請求項2記載のニューロンにおいて、前記非線形関数が、2つより多いステップを有するステップ関数であることを特徴とするニューロン。
- 請求項2記載のニューロンにおいて、前記非線形関数が、連続関数であることを特徴とするニューロン。
- 請求項2記載のニューロンにおいて、前記主出力信号(SO)が、第1状態および第2状態を有し、前記ニューロンが、更に、前記主出力信号(SO)が前記第2状態にある時間長に上限を設定する手段(606)を備えることを特徴とするニューロン。
- 請求項6記載のニューロンであって、更に、前記主出力信号(SO)が、前記第2状態にあった後、前記第1状態に留まっている時間長に下限を設定する手段(606)を備えることを特徴とするニューロン。
- 請求項2ないし7のいずれか1項記載のニューロンであって、更に、外部制御信号(C)に応答して、ニューロンの学習を調節する手段(40,632)を備えることを特徴とするニューロン。
- 請求項8記載のニューロンにおいて、前記ニューロンの学習を調節する手段(40,632)が2つの状態を有し、これによって、ニューロンの学習を許可または禁止することを特徴とするニューロン。
- 請求項2ないし9のいずれか1項記載のニューロンであって、更に、外部禁止信号(I)に応じて、少なくとも1つの出力信号(SO,YO,NO,Na)を所定の状態に強制させる手段(630,604,620〜624)を備えることを特徴とするニューロン。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI971284 | 1997-03-26 | ||
FI971284A FI103304B (fi) | 1997-03-26 | 1997-03-26 | Assosiatiivinen neuroni |
PCT/FI1998/000257 WO1998043159A1 (en) | 1997-03-26 | 1998-03-23 | Associative neuron in an artificial neutral network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001517341A JP2001517341A (ja) | 2001-10-02 |
JP3650407B2 true JP3650407B2 (ja) | 2005-05-18 |
Family
ID=8548483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP54092798A Expired - Lifetime JP3650407B2 (ja) | 1997-03-26 | 1998-03-23 | 人工ニューラル・ネットワークにおける連想ニューロン |
Country Status (9)
Country | Link |
---|---|
US (1) | US6625588B1 (ja) |
EP (1) | EP0970420B1 (ja) |
JP (1) | JP3650407B2 (ja) |
AT (1) | ATE227860T1 (ja) |
AU (1) | AU6502598A (ja) |
DE (1) | DE69809402T2 (ja) |
ES (1) | ES2186139T3 (ja) |
FI (1) | FI103304B (ja) |
WO (1) | WO1998043159A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI20002853A (fi) * | 2000-12-22 | 2002-06-23 | Nokia Corp | Keinotekoisen assosiatiivisen neuronin synapsi |
US7672918B2 (en) * | 2007-02-05 | 2010-03-02 | Steve Adkins | Artificial neuron |
US11354572B2 (en) | 2018-12-05 | 2022-06-07 | International Business Machines Corporation | Multi-variables processing neurons and unsupervised multi-timescale learning for spiking neural networks |
EP3839833A1 (en) * | 2019-12-16 | 2021-06-23 | ams International AG | Neural amplifier, neural network and sensor device |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3602888A (en) * | 1967-12-14 | 1971-08-31 | Matsushita Electric Ind Co Ltd | Learning device |
US3601811A (en) * | 1967-12-18 | 1971-08-24 | Matsushita Electric Ind Co Ltd | Learning machine |
FR2051725B1 (ja) * | 1969-07-14 | 1973-04-27 | Matsushita Electric Ind Co Ltd | |
US5515454A (en) * | 1981-08-06 | 1996-05-07 | Buckley; B. Shawn | Self-organizing circuits |
US4874963A (en) * | 1988-02-11 | 1989-10-17 | Bell Communications Research, Inc. | Neuromorphic learning networks |
JPH0782481B2 (ja) * | 1989-12-26 | 1995-09-06 | 三菱電機株式会社 | 半導体神経回路網 |
KR950001601B1 (ko) * | 1990-07-09 | 1995-02-27 | 니폰 덴신 덴와 가부시끼가시야 | 뉴-럴 네트워크 회로 |
JP2760145B2 (ja) * | 1990-09-26 | 1998-05-28 | 三菱電機株式会社 | 知識情報処理装置 |
US5172204A (en) * | 1991-03-27 | 1992-12-15 | International Business Machines Corp. | Artificial ionic synapse |
US5454064A (en) * | 1991-11-22 | 1995-09-26 | Hughes Aircraft Company | System for correlating object reports utilizing connectionist architecture |
US5299285A (en) * | 1992-01-31 | 1994-03-29 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Neural network with dynamically adaptable neurons |
US5355436A (en) * | 1992-10-05 | 1994-10-11 | The Research Foundation, State University Of New York At Buffalo | Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations |
US5446829A (en) * | 1993-06-24 | 1995-08-29 | The United States Of America As Represented By The Department Of Health And Human Services | Artificial network for temporal sequence processing |
US5448684A (en) | 1993-11-12 | 1995-09-05 | Motorola, Inc. | Neural network, neuron, and method for recognizing a missing input valve |
DE69430529T2 (de) | 1994-07-28 | 2003-01-16 | International Business Machines Corp., Armonk | Daisy-Chain-Schaltung für die serielle Verbindung von Neuronalschaltungen |
-
1997
- 1997-03-26 FI FI971284A patent/FI103304B/fi active
-
1998
- 1998-03-23 WO PCT/FI1998/000257 patent/WO1998043159A1/en active IP Right Grant
- 1998-03-23 DE DE69809402T patent/DE69809402T2/de not_active Expired - Lifetime
- 1998-03-23 US US09/381,825 patent/US6625588B1/en not_active Expired - Lifetime
- 1998-03-23 AU AU65025/98A patent/AU6502598A/en not_active Abandoned
- 1998-03-23 ES ES98910770T patent/ES2186139T3/es not_active Expired - Lifetime
- 1998-03-23 AT AT98910770T patent/ATE227860T1/de not_active IP Right Cessation
- 1998-03-23 JP JP54092798A patent/JP3650407B2/ja not_active Expired - Lifetime
- 1998-03-23 EP EP98910770A patent/EP0970420B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US6625588B1 (en) | 2003-09-23 |
WO1998043159A1 (en) | 1998-10-01 |
DE69809402T2 (de) | 2003-08-21 |
FI971284A0 (fi) | 1997-03-26 |
FI971284A (fi) | 1998-09-27 |
AU6502598A (en) | 1998-10-20 |
ATE227860T1 (de) | 2002-11-15 |
EP0970420A1 (en) | 2000-01-12 |
FI103304B1 (fi) | 1999-05-31 |
ES2186139T3 (es) | 2003-05-01 |
JP2001517341A (ja) | 2001-10-02 |
EP0970420B1 (en) | 2002-11-13 |
DE69809402D1 (de) | 2002-12-19 |
FI103304B (fi) | 1999-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sutton et al. | Online learning with random representations | |
Wang et al. | A modified error function for the backpropagation algorithm | |
JPH01223559A (ja) | N次元クーロン神経ネットワーク | |
Sun et al. | Memristor-based Hopfield network circuit for recognition and sequencing application | |
WO1991004546A1 (en) | Memory modification of artificial neural networks | |
JP3650407B2 (ja) | 人工ニューラル・ネットワークにおける連想ニューロン | |
Zilouchian | Fundamentals of neural networks | |
Bouhadjar et al. | Sequence learning in a spiking neuronal network with memristive synapses | |
JP3729868B2 (ja) | 連想ニューラル・ネットワーク | |
Licata | Are neural networks imitations of mind | |
Yeung | A neural network approach to constructive induction | |
Gorse et al. | A pulse-based reinforcement algorithm for learning continuous functions | |
CN111582461A (zh) | 神经网络训练方法、装置、终端设备和可读存储介质 | |
WO2022249308A1 (ja) | 設計方法および記録媒体 | |
Tang et al. | A model of neurons with unidirectional linear response | |
Zhang et al. | SOLSA: Neuromorphic Spatiotemporal Online Learning for Synaptic Adaptation | |
JP2659230B2 (ja) | 神経回路網の学習装置 | |
Kohring | Performance enhancement of Willshaw type networks through the use of limit cycles | |
KR20230134286A (ko) | 시냅틱 가중치 학습을 위한 뉴런 회로 | |
Huang et al. | The capacity of the semi-orthogonally associative memories model | |
JP3130913B2 (ja) | 信号処理装置 | |
Torvik | Modification of the back-propagation algorithm for faster convergence in neural networks | |
CN118504629A (zh) | 一种动态随机存储器、神经元行为模拟系统和方法 | |
Badoni et al. | LANN27: an electronic implementation of an analog attractor neural network with stochastic learning | |
Laffely et al. | Synaptic learning in VLSI-based artificial nerve cells |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050218 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080225 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090225 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090225 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100225 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110225 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110225 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110225 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120225 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130225 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |