JPH0934858A - Artificial neuron - Google Patents

Artificial neuron

Info

Publication number
JPH0934858A
JPH0934858A JP7178403A JP17840395A JPH0934858A JP H0934858 A JPH0934858 A JP H0934858A JP 7178403 A JP7178403 A JP 7178403A JP 17840395 A JP17840395 A JP 17840395A JP H0934858 A JPH0934858 A JP H0934858A
Authority
JP
Japan
Prior art keywords
group
synapse
synapses
artificial neuron
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7178403A
Other languages
Japanese (ja)
Inventor
Hideo Kawaguchi
英夫 川口
Hiroari Fukunishi
宏有 福西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7178403A priority Critical patent/JPH0934858A/en
Publication of JPH0934858A publication Critical patent/JPH0934858A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase an expression ability of a neural network, flexibility, versatility and a memory capacity by controlling a coupling strength change of a synapse on the opportunity of an input of the artificial neuron receiving the input. SOLUTION: The neuron has a structure of grouped synapses. The artificial neuron is made up of an axon 102 extended from one or plural input artificial cell bodies 101, a presynapse part 103 in existence at the end of each axon, a postsynapse part 104 corresponding to each presynapse part 103, a dendrite 105 connecting to the postsynapse part 104, a postsynapse cell body 106 to which the dendrite 105 reaches, and an axon 107 extended from the postsynapse cell body 106. Furthermore, a couple of presynapse part 103 and a postsynapse part 104 form a unit synapse 108. According to a characteristic of an input to the artificial neuron, a group synapse (k) to which the unit synapse belongs is decided automonously and according to a characteristic of input to the artificial neuron, the relation between the group synapses (k) with respect to the synapse binding strength change is automonously decided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、生物の神経系における
情報処理機能の模擬、とりわけ自己組織化によって実現
される学習または認識などの情報処理機能を模擬した情
報処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulation of an information processing function in a nervous system of an organism, and more particularly to an information processing method simulating an information processing function such as learning or recognition realized by self-organization.

【0002】[0002]

【従来の技術】従来のニューラルネットワークモデルで
用いられている人工ニューロンの性質は、生理学的な研
究等の知見に基づく実際の神経細胞の性質を簡略化して
模擬している。この簡略化された従来の人工ニューロン
の構造は、図5に示した様な単純なものである。図5
は、一つまたは複数の入力人工ニューロン101から伸び
た軸索102、各々の軸索末端に存在するシナプス501、人
工ニューロン502、人工ニューロン502から伸びた軸索10
7から成る。
2. Description of the Related Art The properties of artificial neurons used in conventional neural network models are simulated by simulating the properties of actual nerve cells based on knowledge of physiological research and the like. The structure of this simplified conventional artificial neuron is as simple as shown in FIG. FIG.
Is an axon 102 extending from one or more input artificial neurons 101, a synapse 501 existing at each axon terminal, an artificial neuron 502, and an axon 10 extending from the artificial neuron 502.
Composed of 7.

【0003】該人工ニューロンは多入力一出力の素子で
ある。m個の入力を受ける該人工ニューロンの入出力関
係は下記の(数1)で与えられる。
The artificial neuron is a multi-input, single-output device. The input / output relationship of the artificial neuron that receives m inputs is given by the following (Equation 1).

【0004】[0004]

【数1】 [Equation 1]

【0005】ここでuiはi番目の人工ニューロンiか
らの入力、vは該人工ニューロンの出力、wiはi番目
の人工ニューロンiからの入力にかかるシナプス結合度
である。入力には、
Here, u i is an input from the i-th artificial neuron i, v is an output of the artificial neuron, and w i is a synaptic connection degree applied to an input from the i-th artificial neuron i. For input,

【0006】[0006]

【数2】 wi(t) ≧ 0 (数2)と
表される興奮性入力と、
[Number 2] w i (t) ≧ 0 and (number 2) and the excitatory input that is represented,

【0007】[0007]

【数3】 wi(t) < 0 (数3)と
なる抑制性入力がある。該人工ニューロンはm個の人工
ニューロンiから入力を受け、そのシナプス結合度wi
による加重加算結果に対し、非線形な特性fを作用させ
て出力vを出す。ここで、fは
There is an inhibitory input such that w i (t) <0 (Equation 3). The artificial neuron receives inputs from m artificial neurons i, and its synaptic connection degree w i
A non-linear characteristic f is applied to the weighted addition result by to output v. Where f is

【0008】[0008]

【数4】 0 ≦f(x) ≦ 1 (数4)
を満たす単調増加関数である。また、一般にシナプス結
合度wiの変化量δwiは、
[Equation 4] 0 ≤ f (x) ≤ 1 (Equation 4)
It is a monotonically increasing function that satisfies. Also, in general the amount of change δw i of synaptic coupling degree w i is,

【0009】[0009]

【数5】 δwi(t) = g(t,v(t),ui(t),w
i(t)) (数5) で与えられる。(数5)は学習仮説と呼ばれる該シナプ
ス結合度の更新手段である。該シナプス結合度はシナプ
ス結合度の変化量を用いて、
Δw i (t) = g (t, v (t), u i (t), w
i (t)) (Equation 5) (Equation 5) is a means for updating the degree of synaptic connection called a learning hypothesis. The synaptic connectivity is calculated using the amount of change in synaptic connectivity,

【0010】[0010]

【数6】 wi(t+1)=wi(t)+c0δwi(t)
(数6) によって更新される。ここでc0は定数である。
W i (t + 1) = w i (t) + c 0 δw i (t)
It is updated by (Equation 6). Here, c 0 is a constant.

【0011】上記シナプス結合度を変化させる方法の一
つにHebb則(連合作用仮説)がある。これは、シナプス
を挟んで隣接した2つの神経細胞が双方とも高い活動度
を持つときこのシナプス結合度を上昇させる、という方
法であり、所謂「教師付き学習法」とは異なる自己生成
的な学習方法である。該Hebb則を式で表すと、
The Hebb rule (associative action hypothesis) is one of the methods for changing the degree of synaptic connection. This is a method of increasing the degree of synaptic connection when two nerve cells adjacent to each other across the synapse have high activity, which is a self-generated learning method different from the so-called "supervised learning method". Is the way. Expressing the Hebb law by an equation,

【0012】[0012]

【数7】 δwi(t)=c1+c2(v(t)−c3)(u
i(t)−c4) (数7) ここで、c1,c2,c3,c4は定数である。
(7) δw i (t) = c 1 + c 2 (v (t) −c 3 ) (u
i (t) -c 4) (7) where, c 1, c 2, c 3, c 4 are constants.

【0013】上記の様な、従来の単純な人工ニューロン
で構成されたニューラルネットワークはその表現力や柔
軟性に自ずと限界があり、したがって、 1) 該ニューラルネットワークが適用されるアプリケー
ションが限定される、 2) 該ニューラルネットワークのメモリ容量が少なく限
定され、かつメモリ容量を増やす時は実質的に人工ニュ
ーロン数を増やすしか方法がない、等の問題があった。
As described above, the conventional neural network composed of simple artificial neurons has its own expressive power and flexibility, and therefore 1) the applications to which the neural network is applied are limited. 2) There is a problem that the memory capacity of the neural network is limited, and when increasing the memory capacity, the only method is to substantially increase the number of artificial neurons.

【0014】[0014]

【発明が解決しようとする課題】本発明は上記問題に鑑
みてなされたものであり、その課題は、実際の神経細胞
の性質を人工ニューロンに盛り込むことでニューラルネ
ットワークの表現力と柔軟性を増し、該ニューラルネッ
トワークの実際への適用において多様性を増す方法、該
ニューラルネットワークのメモリ容量を増す方法等を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and its object is to increase the expressive power and flexibility of a neural network by incorporating the properties of actual nerve cells into artificial neurons. The present invention is to provide a method of increasing diversity in practical application of the neural network, a method of increasing memory capacity of the neural network, and the like.

【0015】[0015]

【課題を解決するための手段】本発明の人工ニューロン
の特長は、実際の神経細胞の性質に学び、実際の神経細
胞の樹状突起の構造と性質を模擬した性質を有する点に
ある。したがって、ニューラルネットワークの表現力や
柔軟性は豊かになり、多様性やメモリ容量を増すことが
可能となる。
The feature of the artificial neuron of the present invention is that it has the property of learning from the properties of actual nerve cells and simulating the structure and properties of the actual dendrites of nerve cells. Therefore, the expressive power and flexibility of the neural network become rich, and the diversity and memory capacity can be increased.

【0016】実際の神経細胞は、図6に示すように、図
5の人工ニューロンに比して遥かに複雑な構造を持つ。
実際の神経細胞は大きく分けて樹状突起601、細胞体60
2、軸索603の3つの部分から成る。他の神経細胞からの
信号はシナプス604を介して主に樹状突起601に多数入力
する(シナプス604は一例である)。信号は樹状突起上
を細胞体までケーブル的に伝わる。細胞体は多数の入力
を統合し、「all or none」の法則に従って出力を出
す。軸索はこの出力信号を末端のシナプス部分まで減衰
なく伝達する。
As shown in FIG. 6, the actual nerve cell has a much more complicated structure than the artificial neuron shown in FIG.
Actual nerve cells are roughly divided into dendrites 601, cell bodies 60
2. It consists of three parts, axon 603. A large number of signals from other nerve cells mainly input to the dendrite 601 via the synapse 604 (the synapse 604 is an example). The signal propagates like a cable on the dendrites to the cell body. The cell body integrates multiple inputs and outputs according to the "all or none" law. The axon transmits this output signal to the synaptic part of the terminal without attenuation.

【0017】神経細胞における信号処理は基本的に上記
の様であると考えられていたが、近年別の仕組みがある
ことが明らかになってきた。これは樹状突起スパイクと
呼ばれるものである。樹状突起部分は、本来入力を受け
て信号を受動的に伝える部分であるが、ある条件下では
この部分にスパイク(活動電位)が伝播する。この樹状
突起スパイクは主として細胞体で発生し「all or non
e」の法則に従って逆行的に樹状突起末端方向へ伝播す
る(Nature, 367, 69-72, 1994)。
It was thought that the signal processing in nerve cells was basically as described above, but it has become clear that there is another mechanism in recent years. This is called a dendrite spike. The dendrite portion is a portion that originally receives an input and passively transmits a signal, but under certain conditions, a spike (action potential) propagates to this portion. This dendrite spike mainly occurs in the cell body
It propagates retrogradely toward the terminal dendrites according to the law of "e" (Nature, 367, 69-72, 1994).

【0018】しかしこれとは逆に、この樹状突起部分に
強力な脱分極を伴うシナプス入力があるとシナプス部分
で樹状突起スパイクが発生し、細胞体に向かってこのス
パイクが伝播する場合がある(Science, 268, 297-300,
1995、J. Physiol., 305, 171-195, 1980)。この場
合、樹状突起スパイクは該シナプスを起点として末梢方
向にも同時に伝播する。
On the contrary, when there is a synaptic input accompanied by a strong depolarization in this dendrite part, a dendrite spike is generated in the synapse part and this spike may propagate toward the cell body. Yes (Science, 268, 297-300,
1995, J. Physiol., 305, 171-195, 1980). In this case, the dendrite spike simultaneously propagates in the peripheral direction starting from the synapse.

【0019】以上の知見より、細胞体で樹状突起スパイ
クが発生し樹状突起末端方向に伝播する神経細胞におい
て、あるシナプスが可塑的に強化されると、それ以降該
シナプスへの入力によって該シナプス部分を起点とした
樹状突起スパイクが発生し細胞体方向へ伝播する、伝播
方向の逆転が生じる場合があると考えられる。即ち、シ
ナプスの可塑的な強化による一種のスイッチング機構が
神経細胞に内在すると考えられる。
From the above findings, when a synapse is plastically strengthened in a nerve cell in which a dendrite spike is generated in the cell body and propagates toward the terminal end of the dendrite, thereafter, a synapse is input to the synapse to cause the degeneration It is conceivable that a dendrite spike originating from the synapse part may be generated and propagated toward the cell body, and the propagation direction may be reversed. That is, it is considered that a kind of switching mechanism due to plastic strengthening of synapses is inherent in nerve cells.

【0020】この樹状突起スパイクの伝播方向の逆転に
より、樹状突起スパイクの伝播する範囲が変わることが
考えられる。一般に、スパイクの伝播は、太い幹が二分
して細い二本の枝になる分岐点において一方の細い枝か
ら太い幹に伝播が進行する場合、他方の細い枝方向には
インピーダンスが高いため入り込みにくい。そのため、
樹状突起スパイクが細胞体で発生する場合スパイクが伝
播する部分の枝でも、樹状突起スパイクがシナプス部分
で発生した場合分岐部分でスパイクが入り込まずスパイ
クが伝播しなくなる場合が生ずる。即ち、樹状突起の
「枝」を単位として、樹状突起スパイクの伝播する部分
と伝播しない部分が生ずる。この樹状突起スパイクの性
質を樹状突起上に存在するシナプスの側から表現する
と、シナプスはこの樹状突起の「枝」を単位としたグル
ープを形成しており、樹状突起スパイクの伝播方向の逆
転により、樹状突起スパイクが伝播するシナプス・グル
ープ(以後群シナプストと呼ぶ)ともはや伝播しない群
シナプスが生ずる。
It is conceivable that the propagation range of the dendrite spikes may change due to the reversal of the propagation direction of the dendrite spikes. Generally, when a spike propagates from one thin branch to a thick trunk at a branch point where the thick trunk divides into two thin branches, it is difficult for the spike to enter in the direction of the other thin branch because of high impedance. . for that reason,
When the dendrite spike occurs in the cell body, even in the branch where the spike propagates, when the dendrite spike occurs in the synapse part, the spike may not propagate at the branch part and the spike may not propagate. That is, with the "branch" of the dendrite as a unit, a portion where the dendrite spike propagates and a portion where the dendrite spike does not propagate occur. When expressing the properties of this dendrite spike from the side of the synapse existing on the dendrite, the synapse forms a group with the “branch” of this dendrite as a unit, and the propagation direction of the dendrite spike Reversal results in synaptic groups in which dendrite spikes propagate (hereinafter group synapses) and group synapses that no longer propagate.

【0021】この樹状突起スパイクの情報処理上の機能
は、次の様に考えられる。樹状突起スパイクは樹状突起
部分に一過性の強い脱分極を引き起こす。したがって、
この樹状突起スパイクの発生に同期したシナプスへの入
力があると、比較的弱い入力でも前述のHebb則(連合作
用仮説)に従ってシナプスの可塑的な強化が生ずること
になる。ここで、上記の可塑的に強化されるシナプス
は、興奮性シナプスであっても抑制性シナプスであって
もよい。そこで、樹状突起スパイクの伝播方向が逆転し
た場合、情報処理上の機能の変化として、第一に、この
樹状突起スパイクが伝播しない群シナプスではもはや樹
状突起スパイクによる一過性の脱分極を契機としたシナ
プスの可塑的な強化は生じなくなると考えられる。ただ
し、これは他の原因によるシナプスの可塑的強化を排除
するものではない。単独でシナプスの可塑的変化を引き
起こす様な入力、例えば、所謂テタヌス刺激(高頻度刺
激)の様な個別の強い入力を契機とするHebb則によるシ
ナプス増強は独立に起こりうる。
The information processing function of this dendrite spike is considered as follows. The dendrite spike causes a strong transient depolarization in the dendrite part. Therefore,
If there is a synaptic input synchronized with the occurrence of this dendrite spike, even a relatively weak input causes plastic synapsis of the synapse according to the above-mentioned Hebb rule (associative action hypothesis). Here, the plastically reinforced synapse may be an excitatory synapse or an inhibitory synapse. Therefore, when the direction of propagation of dendrite spikes is reversed, there is a change in information processing function. First, in group synapses where this dendrite spike does not propagate, transient depolarization due to dendrite spikes is no longer present. It is thought that the synaptic plastic strengthening triggered by is not generated. However, this does not rule out synaptic plastic strengthening due to other causes. Synaptic enhancement by Hebb's rule triggered by an individual strong input such as so-called tetanus stimulus (high frequency stimulus) may occur independently, which causes a synaptic plastic change.

【0022】樹状突起スパイクの伝播方向の逆転による
情報処理上の機能の変化として、第二に、樹状突起スパ
イクの伝播経路が変わるため、樹状突起スパイクと同期
するシナプスへの入力のタイミングが変わることが考え
られる。これは、神経細胞における情報処理の時空間的
な動的制御の一つの手段と見なすことができる。また、
上記群シナプス間の序列関係を付ける手段とも考えられ
る。ここで、該樹状突起スパイクのシナプスに対する影
響として、樹状突起スパイクの通過に伴う一過性の脱分
極という直接的なものの他に、この脱分極によって樹状
突起膜上の電位依存性の2価のCaイオンチャンネルが
開き細胞内の2価のCaイオン濃度が上昇することをト
リガとしたセカンドメッセンジャー系を動員する間接的
な影響があると考えられる。
As a change in the information processing function due to the reversal of the propagation direction of the dendrite spike, secondly, since the propagation path of the dendrite spike changes, the timing of input to the synapse synchronized with the dendrite spike. Is likely to change. This can be regarded as one means of spatiotemporal dynamic control of information processing in nerve cells. Also,
It can also be considered as a means for establishing a hierarchical relationship between the group synapses. Here, as the effect of the dendrite spike on the synapse, in addition to the direct depolarization associated with the passage of the dendrite spike, the direct depolarization causes a potential dependence on the dendrite membrane. It is considered that there is an indirect effect of mobilizing the second messenger system triggered by the increase of the intracellular divalent Ca ion concentration by opening the divalent Ca ion channel.

【0023】以上の様な実際の神経細胞の性質に学び、
その性質を模擬した本発明の人工ニューロンの特長は、
第一に、シナプスがグループ化された構造を有する、と
いう点である(図1参照)。また、本発明の人工ニュー
ロンの特長は、第二に、該人工ニューロンへの入力の特
性に従い、シナプスの属する群シナプスおよびシナプス
の結合強度変化に関する該群シナプス間の関係が自律的
に決定される、という点である。さらに、本発明の人工
ニューロンの特長は、第三に、群シナプスがさらに高次
の構造として、群シナプスを単位とした枝分れ構造を成
す、という点である(図2参照)。本発明の人工ニュー
ロンにおける第四の特長は、グループ化されたシナプス
群が枝分れ構造を成すが、入力人工ニューロンからの入
力が複数の群シナプス、階層あるいは幹にまたがる場合
がある、という点である(図3参照)。
Learning from the properties of actual nerve cells as described above,
The features of the artificial neuron of the present invention simulating that property are:
First, synapses have a grouped structure (see FIG. 1). Secondly, the feature of the artificial neuron of the present invention is that, secondly, according to the characteristic of the input to the artificial neuron, the group synapses to which the synapse belongs and the relationship between the group synapses regarding the change in synaptic connection strength are autonomously determined. That is the point. Thirdly, the feature of the artificial neuron of the present invention is that the group synapse has a branching structure with the group synapse as a unit as a higher-order structure (see FIG. 2). The fourth feature of the artificial neuron of the present invention is that the grouped synapse group forms a branched structure, but the input from the input artificial neuron may span multiple group synapses, hierarchies or trunks. (See FIG. 3).

【0024】以上の特長により、本発明の人工ニューロ
ンを構成要素とするニューラルネットワークの表現力や
柔軟性は豊かになり、多様性やメモリ容量を増すことが
可能となる。
Due to the above features, the expression and flexibility of the neural network having the artificial neuron of the present invention as a constituent element become rich, and the versatility and memory capacity can be increased.

【0025】[0025]

【作用】本発明により、実際の神経細胞の樹状突起の構
造と性質を模擬した性質を有する人工ニューロンと、そ
の実用的な使用方法が与えられる。本発明の人工ニュー
ロンを用いることにより、該人工ニューロンで構成され
たニューラルネットワークの表現力と柔軟性を増し、多
様性やメモリ容量を増すことが可能となる。
The present invention provides an artificial neuron having a property of simulating the structure and properties of an actual nerve cell dendrite, and its practical use. By using the artificial neuron of the present invention, it becomes possible to increase the expressive power and flexibility of the neural network constituted by the artificial neuron, and increase the diversity and the memory capacity.

【0026】[0026]

【実施例】【Example】

実施例1 以下、本発明の実施例を図面を参照しながら詳細に説明
する。
First Embodiment Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

【0027】図1は本発明の第1の実施例の人工ニュー
ロンの構成を示す図である。
FIG. 1 is a diagram showing the structure of an artificial neuron according to the first embodiment of the present invention.

【0028】本発明の人工ニューロンにおける構成上の
第一の特長は、図1に示す様に、シナプスがグループ化
された構造を有する。図1の人工ニューロンは、一つま
たは複数の入力人工細胞体101から伸びた軸索102、各々
の軸索末端に存在するシナプス前部103、それぞれのシ
ナプス前部103に対応するシナプス後部104、シナプス後
部104に繋がる樹状突起105、樹状突起105が到達するシ
ナプス後細胞体106、シナプス後細胞体106から伸びた軸
索107から成る。
The first structural feature of the artificial neuron of the present invention has a structure in which synapses are grouped as shown in FIG. The artificial neuron of FIG. 1 has an axon 102 extending from one or more input artificial cell bodies 101, a presynaptic portion 103 existing at each axon terminal, and a postsynaptic portion 104 corresponding to each presynaptic portion 103, It consists of dendrites 105 connected to the postsynaptic portion 104, postsynaptic cell bodies 106 reached by the dendrites 105, and axons 107 extending from the postsynaptic cell bodies 106.

【0029】一対のシナプス前部103とシナプス後部104
は単位シナプス108を構成する。さらに、一つまたは複
数の単位シナプス108が群シナプス109、110、111を構成
する。該群シナプスを構成するシナプス数は一つでも複
数であっても良い。また、該群シナプスの数は一つでも
複数であっても良い。図1の場合はa(109)、b(11
0)、c(111)の3つの群シナプスがある。
A pair of presynaptic part 103 and post-synaptic part 104
Constitutes a unit synapse 108. Further, one or more unit synapses 108 form group synapses 109, 110, 111. The number of synapses forming the group synapse may be one or plural. Moreover, the number of the group synapses may be one or more. In the case of FIG. 1, a (109), b (11
There are three group synapses, 0) and c (111).

【0030】該群シナプスの挙動の特長は、群シナプス
間の関係において、該群シナプス内の単位シナプス108
は相互に等価、言い換えると、該群シナプス内の全ての
単位シナプスは挙動を共にする点にある。例えば、ある
時間t0において群シナプスaと群シナプスbが挙動を
共にしないとき、群シナプスaの全ての単位シナプス10
8は群シナプスbの全ての単位シナプス108と挙動を共に
しない。しかし、別の時間t1において群シナプスaと
群シナプスbが挙動を共にするならば、群シナプスaの
全ての単位シナプス108は群シナプスbの全ての単位シ
ナプス108と挙動を共にする。
The characteristic of the behavior of the group synapse is that the unit synapse 108 within the group synapse is related to the relationship between the group synapses.
Are equivalent to each other, in other words, all unit synapses in the group synapse share a behavior. For example, when the group synapse a and the group synapse b do not behave at a certain time t 0 , all the unit synapses 10 of the group synapse a are
8 does not behave with all unit synapses 108 of group synapse b. However, if the group synapse a and the group synapse b behave together at another time t 1 , all the unit synapses 108 of the group synapse a behave together with all the unit synapses 108 of the group synapse b.

【0031】該群シナプス間の関係は以下の通りであ
る。ある群シナプス内の一つあるいは複数の単位シナプ
ス108が可塑的に強化された時、各群シナプス内の単位
シナプスの可塑的強化について2つのクラスが生ずる。
一つは、樹状突起スパイクを契機とした可塑的増強が起
こる群シナプス群、もう一つはもはや樹状突起スパイク
を契機とした可塑的増強が起こらなくなる群シナプス群
である。これは、下記(数8)で記述できる。
The relationship between the group synapses is as follows. When one or more unit synapses 108 within a group synapse are plastically strengthened, two classes of plastic strengthening of unit synapses within each group synapse occur.
One is a group synapse group in which plastic enhancement is triggered by dendrite spikes, and the other is a group synapse group in which plastic enhancement is no longer triggered by dendrite spikes. This can be described by the following (Equation 8).

【0032】[0032]

【数8】 (Equation 8)

【0033】ここで、pは群シナプスk間の関係と該群
シナプスk内のシナプスjの履歴によって決まる変数
で、初期状態では、
Here, p is a variable determined by the relationship between group synapses k and the history of synapses j in the group synapses k, and in the initial state,

【0034】[0034]

【数9】 p(k,j,t)=0
(数9) 群シナプスα内の一つまたは複数の単位シナプスjが可
塑的に増強された後は、
## EQU00009 ## p (k, j, t) = 0
(Equation 9) After one or more unit synapses j in the group synapse α are plastically enhanced,

【0035】[0035]

【数10】 p(α,j,t)=1
(数10)
[Mathematical formula-see original document] p (α, j, t) = 1
(Equation 10)

【0036】[0036]

【数11】 p(k,j,t)=1または0
(数11) と記述できる。ここで、(数11)が1あるいは0のど
ちらの値をとるかは、初めに規定された群シナプス間の
関係に従って決定される。
## EQU00009 ## p (k, j, t) = 1 or 0
(Equation 11) can be described. Here, whether (Equation 11) takes a value of 1 or 0 is determined according to the relationship between the group synapses defined at the beginning.

【0037】また、図1の実施例における人工ニューロ
ンの異なる特長は、該人工ニューロンへの入力の特性に
従い、単位シナプスの属する群シナプスkが自律的に決
定され、さらに該人工ニューロンへの入力の特性に従
い、シナプスの結合強度変化に関する該群シナプスk間
の関係が自律的に決定されることである。換言すると、
ある単位シナプスがどの群シナプスkに属するか、さら
に該群シナプスk間の関係をどのように設定するかを決
定するのは、該人工ニューロンへの入力の時空間的なパ
ターンであり、該入力の時空間的パターンが動的に変化
するとこれに伴い単位シナプスの属性や群シナプス間の
関係も変化することである。この特長により、本発明の
人工ニューロンで構成されたニューラルネットワークの
柔軟性や表現力が飛躍的に豊かになる。
The different features of the artificial neuron in the embodiment of FIG. 1 are that the group synapse k to which the unit synapse belongs is autonomously determined according to the characteristics of the input to the artificial neuron, and the input to the artificial neuron is further determined. According to the characteristics, the relationship between the group synapses k regarding the change in synaptic connection strength is autonomously determined. In other words,
It is the spatiotemporal pattern of inputs to the artificial neuron that determines to which group synapse k a unit synapse belongs and how to set the relationship between the group synapses k. When the spatio-temporal pattern of is dynamically changed, the attributes of the unit synapses and the relationships between group synapses change accordingly. Due to this feature, the flexibility and the expressiveness of the neural network composed of the artificial neurons of the present invention are dramatically enhanced.

【0038】実施例2 図2は本発明の他の実施例の人工ニューロンの構成を示
す図である。
Embodiment 2 FIG. 2 is a diagram showing the structure of an artificial neuron according to another embodiment of the present invention.

【0039】本発明の人工ニューロンにおける構成上の
第二の特長は、図2に示すように、群シナプスがさらに
高次の構造として、群シナプスを単位として枝分れ構造
を成すことである。ここで、該群シナプスを構成する単
位シナプス数は一つでも複数であっても良い。また、該
群シナプスの数は一つでも複数であっても良い。
The second structural feature of the artificial neuron of the present invention is that, as shown in FIG. 2, a group synapse has a branching structure with a group synapse as a unit as a higher-order structure. Here, the number of unit synapses forming the group synapse may be one or more. Moreover, the number of the group synapses may be one or more.

【0040】この枝分れ構造は、図1で述べたシナプス
後細胞体106を基底とした階層をもつ。それぞれの群シ
ナプスはいずれの階にあってもよい。図2の場合は、d
(203)、e(204)、f(205)、g(206)の4つの群
シナプスが存在し、その枝分れ構造に関しd、e、fは
一つの幹201、gは別の幹202に含まれる。さらに、幹201
内において、群シナプスd、eは同一の階層(3層)に
あり、群シナプスfは群シナプスd、eより一段下の階
層(2層)にある。さらに、群シナプスgは最も下の階
(1層)に位置する。
This branched structure has a hierarchy based on the postsynaptic cell body 106 described in FIG. Each group synapse may be on any floor. In the case of FIG. 2, d
There are four group synapses (203), e (204), f (205), and g (206), and regarding their branching structures, d, e, and f are one trunk 201 and g is another trunk 202. include. In addition, the trunk 201
Within the group synapses d and e are in the same layer (third layer), and the group synapse f is in a layer (two layers) one step below the group synapses d and e. Furthermore, the group synapse g is located in the lowest floor (1st floor).

【0041】該群シナプス間の関係は以下の通りであ
る。ある群シナプスα内の一つあるいは複数の単位シナ
プス210が可塑的に強化された時、群シナプスαと同一
の幹に属しかつ群シナプスαと同じもしくは上の階層に
ある群シナプス内の単位シナプスでは、もはや樹状突起
スパイクを契機とした可塑的増強は生じなくなる。ま
た、二つの幹間における関係は、ある幹A内の一つある
いは複数の群シナプス内でシナプス210が可塑的に強化
された時、もはや樹状突起スパイクを契機とした可塑的
増強が起こらなくなる幹Bが生ずる。
The relationship between the group synapses is as follows. When one or more unit synapses 210 in a group synapse α are plastically strengthened, a unit synapse in the group synapse that belongs to the same trunk as the group synapse α and is at the same level as or higher than the group synapse α Then, no longer the plastic enhancement triggered by the dendrite spike. In addition, the relationship between the two trunks is such that when synapse 210 is plastically strengthened within one or more group synapses in a trunk A, no further plastic strengthening is triggered by dendrite spikes. Stem B occurs.

【0042】これは、This is

【0043】[0043]

【数12】 (Equation 12)

【0044】と記述できる。ここで、qは幹hのn層に
属する群シナプスk間の関係と該群シナプスk内の単位
シナプスjの履歴によって決まる変数で、初期状態で
は、
Can be described as Here, q is a variable determined by the relationship between the group synapses k belonging to the n-th layer of the stem h and the history of the unit synapses j in the group synapses k, and in the initial state,

【0045】[0045]

【数13】 q(h,n,k,j,t)=0
(数13)幹AのX層に属する群シナプスα内の一つま
たは複数の単位シナプスjが可塑的に増強された後は、
[Mathematical formula-see original document] q (h, n, k, j, t) = 0
(Equation 13) After one or more unit synapses j in the group synapse α belonging to the X layer of the trunk A is plastically enhanced,

【0046】[0046]

【数14】 q(A,X,α,j,t)=1
(数14)
## EQU00004 ## q (A, X, .alpha., J, t) = 1
(Equation 14)

【0047】[0047]

【数15】 q(A,n,k,j,t)=0
(n≧X) (数15)
(15) q (A, n, k, j, t) = 0
(N ≧ X) (Equation 15)

【0048】[0048]

【数16】 q(A,n,k,j,t)=1
(n<X) (数16)
## EQU16 ## q (A, n, k, j, t) = 1
(N <X) (Equation 16)

【0049】[0049]

【数17】 q(h,n,k,j,t)=1または0
(h≠A) (数17) と記述できる。ここで、(数17)が1あるいは0のど
ちらの値をとるかは、初めに規定された幹h、層nおよ
び群シナプスk間の関係に従って決定される。
## EQU00007 ## q (h, n, k, j, t) = 1 or 0
(H ≠ A) (Equation 17) can be described. Here, whether (Equation 17) takes a value of 1 or 0 is determined according to the relationship between the trunk h, the layer n, and the group synapse k defined at the beginning.

【0050】また、図2の様な本発明の人工ニューロン
の異なる特長は、該人工ニューロンへの入力の特性に従
い、シナプスの属する群シナプスkが自律的に決定さ
れ、さらに該人工ニューロンへの入力の特性に従い、シ
ナプスの結合強度変化に関する該幹h、層n、群シナプ
スk間の関係が自律的に決定されることである。換言す
ると、ある単位シナプスがどの群シナプスkに属する
か、さらに該幹h、層n、群シナプスk間の関係をどの
ように設定するかを決定するのは、該人工ニューロンへ
の入力の時空間的なパターンであり、該入力の時空間的
パターンが動的に変化するとこれに伴いシナプスの属性
や幹、層、群シナプス間の関係も変化するという特長で
ある。この特長により、本発明の人工ニューロンで構成
されたニューラルネットワークの柔軟性や表現力が飛躍
的に豊かになる。
Further, a different feature of the artificial neuron of the present invention as shown in FIG. 2 is that the group synapse k to which the synapse belongs is autonomously determined according to the characteristics of the input to the artificial neuron, and further the input to the artificial neuron. The relationship between the trunk h, the layer n, and the group synapse k with respect to the change in synaptic bond strength is autonomously determined according to the characteristics of 1. In other words, which group synapse k a certain unit synapse belongs to and how to set the relationship between the stem h, the layer n, and the group synapse k is determined at the time of input to the artificial neuron. It is a spatial pattern, and when the spatiotemporal pattern of the input changes dynamically, the attributes of the synapses and the relationships between the trunks, layers, and group synapses also change. Due to this feature, the flexibility and the expressiveness of the neural network composed of the artificial neurons of the present invention are dramatically enhanced.

【0051】実施例3 図3は本発明の他の実施例の人工ニューロンの構成を示
す図である。
Embodiment 3 FIG. 3 is a diagram showing the structure of an artificial neuron according to another embodiment of the present invention.

【0052】本発明の人工ニューロンにおける構成上の
第三の特長は、図3に示すように、グループ化されたシ
ナプス群が枝分れ構造を成すが、入力人工ニューロンか
らの入力が複数の群シナプス、階層あるいは幹にまたが
る場合があることである。図3において、複数の入力人
工ニュ−ロン301のあるものは群シナプス303の単位シナ
プス309に、他の入力人工ニュ−ロン301のあるものは群
シナプス303と群シナプス304の単位シナプス310、314の
それぞれに、あるいは他の入力人工ニュ−ロン301のあ
るものは層を異にする群シナプス304と群シナプス305の
単位シナプス315、316のそれぞれに、さらに他の入力人
工ニュ−ロン301のあるものは層を異にする群シナプス3
05と群シナプス306の単位シナプス317、318のそれぞれ
に結合される。
The third structural feature of the artificial neuron of the present invention is that, as shown in FIG. 3, the grouped synapse group has a branched structure, but the input from the input artificial neuron is a group of a plurality of groups. It may span synapses, hierarchies or trunks. In FIG. 3, one having a plurality of input artificial neurons 301 is a unit synapse 309 of the group synapse 303, and one having another input artificial neurons 301 is a unit synapse 310, 314 of the group synapses 303 and 304. , Or another input artificial neuron 301 exists in each of the group synapses 304 and the unit synapses 315 and 316 of the group synapse 305 having different layers. Things are in different layers Group 3 synapse
05 and group synapses 306 are connected to unit synapses 317 and 318, respectively.

【0053】実施例4 図4は、本発明の人工ニューロンで構成されたニューラ
ルネットワークの一例である。図4では回路全体が本発
明の人工ニューロンで埋め尽くされている。しかしなが
ら、実際のニューラルネットワークモデルにあっては、
回路全体が斯様な人工ニューロンで占められている必要
はない。他の特性を有する人工ニューロンとの共存があ
っても良い。
Embodiment 4 FIG. 4 is an example of a neural network composed of artificial neurons of the present invention. In FIG. 4, the entire circuit is filled with the artificial neurons of the present invention. However, in an actual neural network model,
The entire circuit need not be populated with such artificial neurons. There may be coexistence with artificial neurons having other characteristics.

【0054】[0054]

【発明の効果】本発明の人工ニューロンを用いることに
より、該人工ニューロンで構成されたニューラルネット
ワークの表現力と柔軟性を増し、多様性やメモリ容量を
増すことが可能となる。
By using the artificial neuron of the present invention, it becomes possible to increase the expressive power and flexibility of the neural network composed of the artificial neuron, and increase the variety and the memory capacity.

【0055】本発明の人工ニューロンの実用上の利点
は、例えば、グループ化されたシナプスが予め階層構造
を有することで、クラス分け記憶あるいは学習が迅速に
できる点にある。これは、特定のパス上のシナプスだけ
が強化され易いが、他の同じ幹上のパスは強化されず無
視されるためである。例えば、動物界哺乳綱の動物には
イヌ、ネコ、サル…という種があるが、本発明のニュー
ラルネットワークを用いてこの様な樹状の体系を持つ知
識を学習させると、学習が進むにつれ、次第にイヌ→哺
乳綱→動物界という体系が人工ニューロン上における3
層→2層→1層のシナプスの重みづけの形で固定され
る。逆に、本発明のニューラルネットワークを用いて知
識学習を行うと、雑多な知識を自動的に階層化して整理
するのに有効である。
A practical advantage of the artificial neuron of the present invention is, for example, that the grouped synapses have a hierarchical structure in advance, so that classified memory or learning can be performed quickly. This is because only synapses on a particular path are likely to be strengthened while other paths on the same trunk are not strengthened and ignored. For example, there are dogs, cats, monkeys, etc. as animals of the animal kingdom Mammalia, but when learning the knowledge having such a tree-like system using the neural network of the present invention, learning progresses, The system of dogs → mammals → animal kingdom gradually becomes 3 on artificial neurons.
It is fixed in the form of weighting of the synapse of layer → 2 layer → 1 layer. On the contrary, knowledge learning using the neural network of the present invention is effective in automatically layering and organizing miscellaneous knowledge.

【0056】本発明の人工ニューロンの実用上の別の利
点は、例えば、グループ化シナプスのうち、そのシナプ
ス結合度をメモリとして保持するシナプス・グループ
(ホールド)と学習改変して行く群シナプスをシナプス
後細胞が区別して準備している点にある。即ち、ある人
工ニューロンへの入力に対し、シナプス後細胞が積極的
に入力の受け取り方の制御を行う、という新しい概念に
ある。
Another practical advantage of the artificial neuron of the present invention is that, for example, among grouped synapses, a synapse group (hold) that holds the synapse connection degree as a memory and a group synapse that learns and modifies synapses. The posterior cells are prepared separately. In other words, it is a new concept that the post-synaptic cell positively controls how to receive an input to an artificial neuron.

【0057】本発明の人工ニューロンの実用上の別の利
点は、例えば、樹状突起スパイクの通過のタイミングに
よっては広範囲に渡るシナプス伝達の強度をリセットす
る方法でもある点にある。
Another practical advantage of the artificial neuron of the present invention is that it is also a method of resetting the strength of synaptic transmission over a wide range depending on the timing of passage of dendrite spikes, for example.

【図面の簡単な説明】[Brief description of drawings]

【図1】シナプスがグループ化された構造を有する人工
ニューロンの本発明の実施例を示す模式図。
FIG. 1 is a schematic diagram showing an embodiment of the present invention of an artificial neuron having a structure in which synapses are grouped.

【図2】群シナプスを単位とした枝分れ構造を有する人
工ニューロンの本発明の実施例を示す模式図。
FIG. 2 is a schematic diagram showing an embodiment of the present invention of an artificial neuron having a branching structure with a group synapse as a unit.

【図3】群シナプスを単位とした枝分れ構造を有する人
工ニューロンにおいて、入力人工ニューロンからの入力
が複数の群シナプス、階層あるいは幹にまたがる場合の
本発明の実施例を示す模式図。
FIG. 3 is a schematic diagram showing an embodiment of the present invention in the case where an input from an input artificial neuron spans a plurality of group synapses, hierarchies or trunks in an artificial neuron having a branch structure with a group synapse as a unit.

【図4】人工ニューロンで構成されたニューラルネット
ワークの本発明の施例を示す模式図。
FIG. 4 is a schematic diagram showing an embodiment of the present invention of a neural network composed of artificial neurons.

【図5】従来の人工ニューロンの構造の一例を示す模式
図。
FIG. 5 is a schematic diagram showing an example of a structure of a conventional artificial neuron.

【図6】実際の神経細胞の一例を示す概略図。FIG. 6 is a schematic diagram showing an example of an actual nerve cell.

【符号の説明】[Explanation of symbols]

101:一つまたは複数の入力人工ニューロン、102:101 か
ら伸びた軸索、103:各々の軸索末端に存在するシナプス
前部、104:それぞれのシナプス前部103に対応するシナ
プス後部、105:シナプス後部104に繋がる樹状突起、10
6:樹状突起105が到達するシナプス後細胞体、107:シナ
プス後細胞体106から伸びた軸索、108:一対のシナプス
前部103とシナプス後部104から構成される単位シナプ
ス、109、110、111:一つまたは複数の単位シナプス108
から構成される群シナプス、201、202、203:幹、203、2
04、205、206:群シナプス、210:単位シナプス、301:入
力人工ニューロン、303、304、305、306:群シナプス、3
09、310、314、315、316、317、318:単位シナプス、40
1:群シナプスを有する人工ニューロン、501:軸索末端に
存在するシナプス、502:人工ニューロン、601:実際の神
経細胞の樹状突起、602:実際の神経細胞の細胞体、603:
実際の神経細胞の軸索、604:実際の神経細胞のシナプ
ス。
101: one or more input artificial neurons, 102: an axon extending from 101, 103: a presynaptic portion existing at each axon terminal, 104: a postsynaptic portion corresponding to each presynaptic 103, 105: Dendrites, 10 connected to the postsynaptic part 104
6: Post-synaptic cell body reached by dendrite 105, 107: axon extending from post-synaptic cell body 106, 108: unit synapse composed of a pair of presynaptic part 103 and postsynaptic part 104, 109, 110, 111: One or more unit synapses 108
Group synapses composed of, 201, 202, 203: trunk, 203, 2
04, 205, 206: group synapse, 210: unit synapse, 301: input artificial neuron, 303, 304, 305, 306: group synapse, 3
09, 310, 314, 315, 316, 317, 318: Unit synapse, 40
1: Artificial neuron having group synapse, 501: Synapse existing at axon terminal, 502: Artificial neuron, 601: Actual nerve cell dendrite, 602: Actual nerve cell cell body, 603:
Axons of real nerve cells, 604: Synapses of real nerve cells.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】ニューラルネットワークを構成する要素で
あり、一つまたは複数の単位シナプスを有し、該単位シ
ナプスで入力を受け該入力を統合演算して出力を出す人
工ニューロンにおいて、入力を受ける人工ニューロン
が、該入力を契機としてシナプスの結合強度変化を制御
することを特長とする人工ニューロン。
1. An artificial neuron, which is an element constituting a neural network, has one or a plurality of unit synapses, receives an input at the unit synapse, performs an integrated operation on the input, and outputs an output. An artificial neuron characterized in that a neuron controls a change in synaptic connection strength triggered by the input.
【請求項2】前記単位シナプスがシナプスの結合強度変
化に関し挙動を共にするシナプスのグループである群シ
ナプスを構成し、前記単位シナプスの結合強度変化に関
する群シナプス間の関係が予め規定されている請求項1
記載の人口ニューロン。
2. The unit synapse constitutes a group synapse that is a group of synapses that behave in association with a change in synaptic bond strength, and a relationship between group synapses regarding a change in bond strength of the unit synapse is defined in advance. Item 1
The described artificial neuron.
【請求項3】前記単位シナプスがシナプスの結合強度変
化に関し挙動を共にするシナプスのグループである群シ
ナプスを構成し、人工ニューロンへの入力の特性に従
い、前記単位シナプスの属する群シナプスが自律的に決
定され、かつ、人工ニューロンへの入力の特性に従い、
シナプスの結合強度変化に関する群シナプス間の関係が
自律的に決定される請求項1記載の人工ニューロン。
3. The group synapse, which is a group of synapses in which the unit synapses behave in association with changes in synaptic connection strength, constitutes a group synapse, and the group synapse to which the unit synapse belongs autonomously according to the characteristics of the input to the artificial neuron. Determined, and according to the characteristics of the inputs to the artificial neuron,
The artificial neuron according to claim 1, wherein the relationship between group synapses regarding the change in synaptic connection strength is autonomously determined.
【請求項4】前記単位シナプスがシナプスの結合強度変
化に関し挙動を共にするシナプスのグループである群シ
ナプスを構成し、該群シナプスが枝分れした階層構造を
成し、かつ、単位シナプスの結合強度変化に関する群シ
ナプス間、階層間および幹間の関係が予め規定されてい
る請求項1記載の人工ニューロン。
4. The group synapses are group synapses that are groups of synapses that behave in association with changes in synaptic bond strength, the group synapses form a branched hierarchical structure, and the unit synapses are connected. The artificial neuron according to claim 1, wherein relationships among group synapses, hierarchies, and trunks regarding intensity changes are defined in advance.
【請求項5】前記単位シナプスがシナプスの結合強度変
化に関し挙動を共にするシナプスのグループである群シ
ナプスを構成し、該群シナプスが枝分れした階層構造を
成し、人工ニューロンへの入力の特性に従い、シナプス
の結合強度変化に関する群シナプス間の関係が自律的に
決定され、かつ、単位シナプスの結合強度変化に関する
群シナプス間、階層間および幹間の関係が自律的に決定
される請求項1記載の人工ニューロン。
5. The unit synapse constitutes a group synapse, which is a group of synapses that behave in association with a change in synaptic connection strength, and the group synapse forms a branched hierarchical structure, and the input of the input to the artificial neuron. A relationship between group synapses regarding a change in synaptic bond strength is autonomously determined according to a characteristic, and a relationship among group synapses, between hierarchies and trunks regarding a change in bond strength of a unit synapse is autonomously determined. The artificial neuron according to 1.
【請求項6】入力が複数の群シナプスに属する複数の単
位シナプスに結合する請求項1記載の人工ニューロン。
6. The artificial neuron according to claim 1, wherein the input is coupled to a plurality of unit synapses belonging to a plurality of group synapses.
JP7178403A 1995-07-14 1995-07-14 Artificial neuron Pending JPH0934858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7178403A JPH0934858A (en) 1995-07-14 1995-07-14 Artificial neuron

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7178403A JPH0934858A (en) 1995-07-14 1995-07-14 Artificial neuron

Publications (1)

Publication Number Publication Date
JPH0934858A true JPH0934858A (en) 1997-02-07

Family

ID=16047895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7178403A Pending JPH0934858A (en) 1995-07-14 1995-07-14 Artificial neuron

Country Status (1)

Country Link
JP (1) JPH0934858A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868294B2 (en) 2002-02-07 2005-03-15 Mitsubishi Heavy Industries, Ltd. Feedback control method in V-shaped characteristic system, and NH3 injection rate control method for NOx removal apparatus using the same
KR20190136419A (en) * 2018-05-30 2019-12-10 서울대학교산학협력단 Artificial sensory nervous system device including artificial synapse
KR20190136402A (en) * 2018-05-30 2019-12-10 서울대학교산학협력단 Artificial nervous system device including artificial synapse
CN111340200A (en) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868294B2 (en) 2002-02-07 2005-03-15 Mitsubishi Heavy Industries, Ltd. Feedback control method in V-shaped characteristic system, and NH3 injection rate control method for NOx removal apparatus using the same
CN111340200A (en) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations
CN111340200B (en) * 2016-01-20 2024-05-03 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations
KR20190136419A (en) * 2018-05-30 2019-12-10 서울대학교산학협력단 Artificial sensory nervous system device including artificial synapse
KR20190136402A (en) * 2018-05-30 2019-12-10 서울대학교산학협력단 Artificial nervous system device including artificial synapse

Similar Documents

Publication Publication Date Title
Belatreche et al. Advances in design and application of spiking neural networks
Werbos Neural networks for control and system identification
Eluyode et al. Comparative study of biological and artificial neural networks
US4897811A (en) N-dimensional coulomb neural network which provides for cumulative learning of internal representations
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
JPH0934858A (en) Artificial neuron
Ahamed et al. A study on neural network architectures
Zhang et al. Extended neuro-fuzzy models of multilayer perceptrons
Kothari et al. On lateral connections in feed-forward neural networks
Fischer Fundamentals in neurocomputing
Lara Artificial neural networks: An introduction
Suh The context-aware learning model
Valdez et al. Neural network optimization with a hybrid evolutionary method that combines particle swarm and genetic algorithms with fuzzy rules
Taylor Neural networks: an overview
Rawat et al. Analysis of Neural Network Structure and the Mathematics behind Backpropagation
Kurino et al. Growing neural network with hidden neurons
Elsimary et al. Generalization ability of fault tolerant feedforward neural nets
Fischer et al. Neural Network Models and Interregional Telephone Traffic. Comparative Performance Comparisons between Multilayer Feedforward Networks and the Conventional Spatial Interaction Model
Tang et al. A model of neurons with unidirectional linear response
Mount et al. Signal Transfer and Basic Learning in a Biologically-Motivated Neural Processor Model.
Petriu Neural Networks for Modelling Applications
Skourikhine An evolutionary algorithm for designing feedforward neural networks
Georgopoulos The broad use of neural networks in real-time engineering systems
van der Heijden Recurrent Feedback in a Neuron’s Dendrites
Mount et al. 2D simulations of cortical networks in a neural processor array model