JP2001344589A - Number of ignition distribution control type neural circuit device - Google Patents

Number of ignition distribution control type neural circuit device

Info

Publication number
JP2001344589A
JP2001344589A JP2000166226A JP2000166226A JP2001344589A JP 2001344589 A JP2001344589 A JP 2001344589A JP 2000166226 A JP2000166226 A JP 2000166226A JP 2000166226 A JP2000166226 A JP 2000166226A JP 2001344589 A JP2001344589 A JP 2001344589A
Authority
JP
Japan
Prior art keywords
neuron
neurons
layer
firing
neuron layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000166226A
Other languages
Japanese (ja)
Inventor
Yoshifusa Wada
容房 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2000166226A priority Critical patent/JP2001344589A/en
Publication of JP2001344589A publication Critical patent/JP2001344589A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a neural circuit device for further accurately reflecting the featured value of an input by realizing an expression configuration that ignited neurons are spatially dispersed more uniformly without being biased to any specific part. SOLUTION: This device is provided with a first neuron layer 101 which receives an input signal, a second neuron layer 102 as an intermediate layer, and a third neuron layer 103 as an output layer. Then, the number of neurons to be simultaneously ignited in the second neuron layer 102 is controlled by a first value designated by a first control means (CYA) 109 corresponding to the second neuron layer, and the number of neurons to be ignited in ignition neuron blocks 104, 105, and 106 in the second neuron layer 102 is controlled by a second value set in a second control means (CYB) 110 corresponding to the second neuron layer. Thus, it is possible to ignite the neurons by spatially dispersing them.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は文字認識、音声認
識、画像認識等学習型パターン認識装置やロボットの自
律型動作制御装置等に用いられる神経回路装置に関し、
特に、発火するニューロンが空間的に分散するように制
御された発火数分散制御型神経回路装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural circuit device used for a learning type pattern recognition device such as character recognition, voice recognition, image recognition and the like, and a robot autonomous operation control device.
In particular, the present invention relates to a firing-number-dispersion control type neural circuit device in which firing neurons are controlled to be spatially dispersed.

【0002】[0002]

【従来の技術】学習機能を有するニューロン素子を用い
て構成される神経回路装置を実現するアーキテクチャと
して、パーセプトロン、リカレント型ネットワーク、ホ
ップフィールドネットワーク、ネオコグニトロン、誤差
逆伝搬法、特徴地図法等の各種のモデルが提案されてい
る。これらのモデルを各種の応用に適用することを考え
ると、素子数において相当数の量が要求され、量の課題
を解決するためにニューロン素子のハード化が必要であ
る。ニューロン素子のハード化は個々の機能をアナログ
回路を用いて実現する手法や、既存のプロッセッサを基
本回路に用いて機能をプログラムで記述したり機能回路
を組み込んでデジタル的に構成する手法で実現されてき
た。
2. Description of the Related Art Perceptrons, recurrent networks, Hopfield networks, neocognitrons, backpropagation methods, feature map methods, and the like are known as architectures for realizing neural circuit devices using neuron elements having a learning function. Various models have been proposed. Considering that these models are applied to various applications, a considerable number of elements are required, and it is necessary to harden neuron elements to solve the problem of the quantity. Hardening of neuron elements is realized by a method of realizing individual functions using analog circuits, a method of describing functions by programs using existing processors as basic circuits, or a method of digitally configuring by incorporating functional circuits. Have been.

【0003】前者のアナログ回路を基本とするシステム
においては、入力信号を処理するニューロン素子は、複
数の入力信号とニューロンの状態関数としての個々の入
力信号に対する重み値との積和演算を、ギルバート増幅
器等のアナログ乗算回路や加算回路を用いて行い、得ら
れた積和出力と各ニューロン素子が保持しているしきい
値とをカレントミラー等の比較回路で比較し、比較結果
をシグモイド関数等による関数変換処理を行って結果を
出力していた。詳しくは、カーバ・ミード(Carver Mea
d) により1989年に発行された単行本「Analog VLSI
and Neural Systems」(訳本:臼井支朗、米津宏雄訳
「アナログVLSIと神経回路システム」1993年発
行)や、岩田あつし、雨宮好仁の著により1996年に
電子情報通信学会から発行された「ニューラルネットワ
ークLSI」等に記載されている。
In the former system based on an analog circuit, a neuron element for processing an input signal performs a Gilbert operation of multiplying a plurality of input signals by a weight value for each input signal as a state function of the neuron. This is performed using an analog multiplication circuit or an addition circuit such as an amplifier, and the obtained product-sum output is compared with a threshold value held by each neuron element by a comparison circuit such as a current mirror, and the comparison result is used as a sigmoid function or the like. And output the result. See Carver Mea
d) published in 1989 by "Analog VLSI
and Neural Systems ”(translated by Shiro Usui and Hiroo Yonezu“ Analog VLSI and Neural Circuit Systems ”published in 1993) and“ Neural ”published by the Institute of Electronics, Information and Communication Engineers in 1996 by Atsushi Iwata and Yoshihito Amamiya. Network LSI "and the like.

【0004】一方、後者のディジタル的なプロセッサ回
路を基本としたシステムでは、ニューロの積和機能、比
較機能、関数変換機能などの各処理はプログラムで記述
され、複数のプロセッサに分割配分されて並列に計算さ
れる。
On the other hand, in the latter system based on a digital processor circuit, each processing such as a neuro-product-sum function, a comparison function, and a function conversion function is described by a program, and is divided and distributed to a plurality of processors to perform parallel processing. Is calculated.

【0005】さらに、ニューロン素子が有する積和機
能、パルス出力機能などの一部のニューロン素子特有の
機能をアナログ回路で実現し、得られたアナログ出力を
アナログディジタル変換を行って残りの機能をディジタ
ル的に処理する折衷方式も試みられている。
Further, some functions specific to the neuron element, such as the product-sum function and the pulse output function of the neuron element, are realized by an analog circuit, the obtained analog output is subjected to analog-to-digital conversion, and the remaining functions are converted to digital. An eclectic method of processing is also being attempted.

【0006】実応用の点からは、課題を学習して動作す
る教師無し学習方式のアーキテクチャモデルが具体的な
各種応用に対して適応的に動作できるので好ましい。教
師無し学習方式のアーキテクチャモデルは、神経回路網
内に記憶されたニューロン素子の活動状態、即ち神経回
路網の情報表現形態から分類すると、興奮セルの空間的
形状から局所的表現と分散的表現とに分けられる。局所
表現は単一勝者論理で記述され、自己組織化学習が容易
という利点を持つが、大規模化が難しくまた追加学習が
困難であるという課題を持つ。分散表現は神経生理学的
にも存在が確認されており、効率、汎化能力、拡張性、
頑健性が高く、具体的な応用に適用し易いという利点を
持つ。しかしながら、従来の分散表現モデルは、重み値
の発散や消失を防ぐために煩雑な手順を用いて重み値の
正規化を行う必要があるので、学習時の計算が煩雑にな
るという問題があり、設計時に局所表現を複数個結合し
た構成を決定するためモデル設計が複雑となるととも
に、後の拡張性が困難であるという問題があり、また、
単なる局所表現の重ね合わせを超えていないとも指摘さ
れていた。
From the viewpoint of practical application, an unsupervised learning architecture model that operates by learning a task is preferable because it can be adaptively operated for various specific applications. The architectural model of the unsupervised learning method is based on the activity states of the neuron elements stored in the neural network, that is, based on the information expression form of the neural network. Divided into The local expression is described by a single winner logic, and has the advantage that self-organizing learning is easy, but has a problem that it is difficult to increase the scale and that additional learning is difficult. Distributed representation has also been confirmed in neurophysiology, with efficiency, generalization ability, scalability,
It has the advantage of high robustness and easy application to specific applications. However, in the conventional distributed expression model, it is necessary to normalize the weight value using a complicated procedure in order to prevent the divergence or disappearance of the weight value. Sometimes, the design of the model is complicated because a plurality of local representations are combined, and it is difficult to expand the model later.
It was pointed out that it did not go beyond the mere superposition of local expressions.

【0007】このような従来の分散表現モデルに対し
て、より応用的な分散的表現形態として、高効率で拡張
性に富む多層構成のニューラルネットワークを基本と
し、複数の勝者を許容することにより複数個の局在興奮
を実現する発火数制御型神経回路装置モデルを特開平1
1−338844にて本出願の発明者自身が提案してい
る。
[0007] In contrast to such a conventional distributed expression model, a more efficient distributed expression form is based on a multi-layered neural network with high efficiency and scalability. Japanese Unexamined Patent Publication No. Hei.
The present inventor of the present application has proposed the present invention in 1-338844.

【0008】図8は、特開平11−338844記載の
発火数制御型神経回路装置である。発火数制御型神経回
路装置は、入力信号を受ける入力層LIと最終出力を出
す出力層LNと、中間層として図8では1層の中間層L
Hとからなる3層の階層構造を成す。
FIG. 8 shows a firing-rate control type neural circuit device described in JP-A-11-338844. The firing number control type neural circuit device includes an input layer LI for receiving an input signal, an output layer LN for outputting a final output, and a single intermediate layer L in FIG.
H and a three-layer hierarchical structure composed of H.

【0009】入力層LIのニューロン数は入力信号数に
依存するが、図8では、6個のニューロンI0〜I5が
入力信号XX0〜XX5をそれぞれ受け取る。ニューロ
ンI0〜I5の各々は中間層LHの全ニューロンH0〜
H5へ出力を与えている。中間層LHのニューロン数は
認識を行うカテゴリ数に依存し、ここでは6個のニュー
ロンH0〜H5としている。ニューロンH0〜H5の各
々は、前段の入力層LIのニューロンI0〜I5の出力
を受け、次段の出力層LNの全ニューロンへ出力を与え
る。出力層LNのニューロン数は認識を行うカテゴリ数
に依存し、ここでは6個のニューロンN0〜N5として
いる。出力層LNの各ニューロンは、前段の中間層LH
のニューロンの出力を受け、最終出力YY0〜YY5を
出力する。
Although the number of neurons in the input layer LI depends on the number of input signals, in FIG. 8, six neurons I0 to I5 receive input signals XX0 to XX5, respectively. Each of the neurons I0 to I5 is composed of all the neurons H0 to H5 in the intermediate layer LH.
The output is given to H5. The number of neurons in the intermediate layer LH depends on the number of categories to be recognized. Here, six neurons H0 to H5 are used. Each of the neurons H0 to H5 receives the output of the neuron I0 to I5 of the input layer LI at the previous stage and supplies the output to all the neurons of the output layer LN at the next stage. The number of neurons in the output layer LN depends on the number of categories to be recognized. Here, six neurons N0 to N5 are used. Each neuron of the output layer LN is connected to the preceding intermediate layer LH
, And outputs final outputs YY0 to YY5.

【0010】入力層LIのニューロンは電源VIにより
駆動され、中間層LHのニューロンは電源VHで駆動さ
れ、出力層LNのニューロンは電源VNで駆動される。
The neurons in the input layer LI are driven by the power supply VI, the neurons in the intermediate layer LH are driven by the power supply VH, and the neurons in the output layer LN are driven by the power supply VN.

【0011】制御手段C1は、中間層LHのニューロン
の内で発火するニューロン数、すなわち重み付き入力の
総和が閾値を超えて活動状態となるニューロン数が、あ
る指定された値もしくは値の範囲となるように、ニュー
ロンH0〜H5の活動を制御する。同様に、制御手段C
2は、出力層LNのニューロンの内で発火し活動するニ
ューロン数がある指定された値もしくは値の範囲となる
ように、ニューロンN0〜N5の活動を制御する。制御
手段C1,C2は、活動するニューロン数が不足する場
合には、各ニューロンに興奮性の結合を行い所望の活動
数に達するまでニューロンへの入力レベルを上げ続ける
か、または、所望の活動数に達するまで各ニューロンが
出力を出すしきい値を下げ続けることにより等価的にニ
ューロンへの入力レベルを上げる作用をする。
The control means C1 determines whether the number of neurons firing among the neurons of the intermediate layer LH, that is, the number of neurons whose sum of weighted inputs exceeds a threshold value and becomes active, is determined by a specified value or a range of values. Thus, the activity of the neurons H0 to H5 is controlled. Similarly, control means C
Numeral 2 controls the activities of the neurons N0 to N5 so that the number of neurons firing and activating among the neurons in the output layer LN becomes a specified value or a range of values. When the number of active neurons is insufficient, the control means C1 and C2 perform an excitatory connection to each neuron and continuously increase the input level to the neurons until reaching the desired number of activities, or By lowering the threshold value at which each neuron outputs until it reaches, the input level to the neuron is equivalently increased.

【0012】この発火数制御型神経回路装置において
は、重み係数を入力に適応して変化させてしきい値レベ
ルが調整され、各層毎もしくは複数の層に渡って同時に
興奮するニューロンの発火数を制御することにより、複
雑なシステム設計を行うことなく容易に分散表現を実現
できる。
In this firing number control type neural circuit device, the threshold level is adjusted by changing the weight coefficient in accordance with the input, and the firing number of the neuron that is simultaneously excited for each layer or over a plurality of layers is determined. By controlling, distributed representation can be easily realized without performing complicated system design.

【0013】[0013]

【発明が解決しようとする課題】以上のように、特開平
11−338844記載の発火数制御型神経回路装置
は、それ以前の分散表現モデルのもつ学習時の計算が煩
雑という問題、設計時のモデル構成設計の複雑さとその
後の拡張性の問題、局所表現の重ね合わせであるという
課題に対して良い解決法を与えている。
As described above, the firing number control type neural circuit device described in Japanese Patent Application Laid-Open No. H11-338844 has a problem that the calculation at the time of learning of the previous distributed expression model is complicated, and that the neural network device at the time of designing is difficult. It gives a good solution to the problem of complexity of model configuration and subsequent scalability, and the problem of superposition of local expressions.

【0014】しかしながら、特開平11−338844
記載の発火数制御型神経回路装置では、活動するニュー
ロン数が各層毎に包括的に指定されるため、発火するニ
ューロンが一カ所に固まる場合があり、これに対して積
極的な防止策が採られていなかった。このために、多種
の認識対象を区別して正確に認識するために必須な空間
的に均等に分散された表現形態が実現されない場合、す
なわち1箇所もしくは数カ所に偏った形態となり、認識
対象の特徴毎に分散された意図した表現形態が実現され
ない場合があった。
However, Japanese Patent Application Laid-Open No. 11-338844
In the firing rate control type neural circuit device described above, the number of active neurons is comprehensively specified for each layer, so that firing neurons may be condensed in one place. Had not been. For this reason, when an expression form that is spatially and uniformly distributed, which is essential for distinguishing and accurately recognizing various kinds of recognition targets, cannot be realized, that is, the form is biased to one or several places, and each feature of the recognition target is In some cases, the intended expression form distributed to the user may not be realized.

【0015】本発明の目的は、特開平11−33884
4記載の発火数制御型神経回路装置の利点を継承すると
ともに、発火するニューロンが空間的に特定箇所の偏る
こと無くより均等に分散された表現形態となり、入力の
特徴量をより正確に反映する神経回路装置を提供するこ
とにある。
An object of the present invention is to provide an image forming apparatus as disclosed in JP-A-11-33884.
In addition to inheriting the advantage of the firing number control type neural circuit device described in No. 4, the expression form in which the firing neurons are more evenly distributed without being spatially biased to a specific portion, and more accurately reflect the input feature amount. An object of the present invention is to provide a neural circuit device.

【0016】また、本発明の他の目的は、各種適用に対
して適応的に回路構成が拡張でき、かつLSI化が容易
で構成が単純な神経回路装置を提供することにある。
Another object of the present invention is to provide a neural circuit device whose circuit configuration can be adaptively expanded for various applications, which can be easily integrated into a LSI, and whose configuration is simple.

【0017】[0017]

【課題を解決するための手段】本発明の第1の発明の発
火数分散制御型神経回路装置は、複数個のニューロンが
複数のニューロン層を成して構成された神経回路網であ
って、同時に発火して活動するニューロン数が各ニュー
ロン層毎に2以上の第1の指定された値もしくは値の範
囲に依存して制約されるように制御する第1の制御手段
と、前記ニューロン層内における空間的に隣接し且つ同
時に発火して活動するニューロンからなる発火ニューロ
ン塊に含まれるニューロン数が2以上の第2の指定され
た値もしくは値の範囲に依存して制約されるように制御
する第2の制御手段とを有している。
According to a first aspect of the present invention, there is provided a neural network device for controlling the number of fires distributed, comprising a plurality of neurons forming a plurality of neuron layers, First control means for controlling the number of neurons activated and activated at the same time to be restricted depending on two or more first specified values or value ranges for each neuron layer; Is controlled such that the number of neurons contained in the firing neuron cluster consisting of neurons that are spatially adjacent and fire and are active at the same time is restricted depending on two or more second specified values or value ranges. And second control means.

【0018】第2の発明の発火数分散制御型神経回路装
置は、複数個のニューロンが複数のニューロン層を成し
て構成された神経回路網であって、同時に発火して活動
するニューロン数が各ニューロン層毎に2以上の第1の
指定された値もしくは値の範囲に依存して制約されるよ
うに制御する第1の制御手段と、前記ニューロン層内に
おける発火して活動する少なくとも1以上の発火ニュー
ロンからなる発火ニューロン塊と該発火ニューロン塊の
中心ニューロンとを抽出し同時に活動する発火ニューロ
ン数が2以上で且つ指定された発火ニューロン塊形状に
なるように前記中心ニューロンの周囲に勝者ニューロン
を設定して前記勝者ニューロンに空間的に隣接したニュ
ーロンに学習制御を行う第2の制御手段とを有してい
る。
A neural network device according to a second aspect of the present invention is a neural network device in which a plurality of neurons form a plurality of neuron layers. First control means for controlling each of the neuron layers so as to be constrained depending on two or more first specified values or value ranges, and at least one or more fired and active elements in the neuron layer And a winner neuron around the central neuron so that the number of firing neurons that simultaneously activate and extract the firing neuron mass consisting of the firing neurons and the designated firing neuron mass is 2 or more. And the second control means for performing learning control on neurons spatially adjacent to the winner neuron.

【0019】第1または第2の発明において、前記複数
のニューロン層のうち少なくとも1層のニューロン層
が、それぞれに複数のニューロンを有する複数のブロッ
クからなってもよく、さらにこのニューロン層を構成す
る前記複数のブロックが、唯一の第1の指定された値も
しくは値の範囲が設定された共通の第1の制御手段によ
り制御されても、それぞれのブロックに対応して第1の
指定された値もしくは値の範囲が設定されてもよい。ま
た、ニューロン層を構成する前記複数のブロックが、唯
一の第2の指定された値もしくは値の範囲または指定さ
れた形状が設定された共通の第2の制御手段により制御
されても、それぞれのブロックに対応して第2の指定さ
れた値もしくは値の範囲または指定された形状が設定さ
れた複数の第2の制御手段により独立に制御されてもよ
い。
In the first or second invention, at least one neuron layer of the plurality of neuron layers may be composed of a plurality of blocks each having a plurality of neurons, and further comprises this neuron layer. Even if the plurality of blocks are controlled by a common first control unit in which only a first specified value or a range of values is set, a first specified value corresponding to each block is set. Alternatively, a range of values may be set. Further, even if the plurality of blocks constituting the neuron layer are controlled by a common second control means in which only a second specified value or a range of values or a specified shape is set, The second specified value or range of values or the specified shape may be independently controlled by a plurality of second control means set in correspondence with the block.

【0020】また、ニューロン層を構成する前記複数の
ブロックが、空間的に重なりを有しない形態で設けられ
てもよく、空間的にブロック同士の重なり領域を有する
形態で設けられてもよい。
The plurality of blocks constituting the neuron layer may be provided in a form having no spatial overlap, or may be provided in a form having a spatially overlapping area between the blocks.

【0021】また、前記複数のニューロン層のうち連続
する段を構成する少なくとも2層のニューロン層が、そ
れぞれに複数のニューロンを有する複数のブロックから
なり、前段の各ブロックのニューロンのそれぞれが後段
の各ブロックの略全ニューロンに対して接続されてもよ
い。各ブロックが、空間的に重なりを有しない形態であ
っても、前記前段のニューロン層の各ブロックが、空間
的にブロック同士の重なり領域を有する形態であって
も、前記後段のニューロン層の各ブロックが、空間的に
重なりを有しない形態であっても、前記後段のニューロ
ン層の各ブロックが、空間的にブロック同士の重なり領
域を有する形態であってもよい。
Further, at least two neuron layers constituting a continuous stage among the plurality of neuron layers are composed of a plurality of blocks each having a plurality of neurons, and each of the neurons in each block in the preceding stage is in the subsequent stage. It may be connected to almost all neurons of each block. Even if each block does not have a spatial overlap, even if each block of the preceding neuron layer has a spatially overlapping area between the blocks, each block of the subsequent neuron layer Even if the blocks do not have a spatial overlap, each block of the subsequent neuron layer may have a spatially overlapping region between the blocks.

【0022】[0022]

【発明の実施の形態】以下、本発明をその実施の形態を
示す図面に基づいて具体的に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below with reference to the drawings showing the embodiments.

【0023】(第1の実施例)図1は、本発明の実施の
形態1に関わる発火数分散制御型神経回路装置の第1の
実施例を示す図である。第1の実施例の発火数分散制御
型神経回路装置は、入力信号を受ける第1ニューロン層
101と、中間層としての第2ニューロン層102と、
出力層としての第3ニューロン層103と、第2ニュー
ロン層に対する第1の制御手段(CYA)109と、第
2ニューロン層に対する第2の制御手段(CYB)11
0と、第3ニューロン層に対する第1の制御手段(CZ
A)111と、第3ニューロン層に対する第2の制御手
段(CZB)112とを有している。
(First Embodiment) FIG. 1 is a diagram showing a first embodiment of a firing-number-dispersion control type neural circuit device according to the first embodiment of the present invention. The firing-number-dispersion control type neural circuit device according to the first embodiment includes a first neuron layer 101 receiving an input signal, a second neuron layer 102 as an intermediate layer,
The third neuron layer 103 as an output layer, the first control means (CYA) 109 for the second neuron layer, and the second control means (CYB) 11 for the second neuron layer
0 and the first control means (CZ
A) 111 and second control means (CZB) 112 for the third neuron layer.

【0024】第1ニューロン層101にはn個のニュー
ロンX1 〜Xn がアレイ状に配置され、第2ニューロン
層102にはm個のニューロンY1 〜Ym が同様にアレ
イ状に配置され、第3ニューロン層103にはp個のニ
ューロンZ1 〜Zp が同様にアレイ状に配置されてい
る。煩雑を避けるために図示を省略しているが、第1ニ
ューロン層101のn個のニューロンX1 〜Xn の出力
は、それぞれが第2ニューロン層102のm個のニュー
ロンY1 〜Ym のすべてに入力され、同様に第2ニュー
ロン層102のm個のニューロンY1 〜Ym の出力は、
それぞれが第3ニューロン層103のp個のニューロン
1 〜Zp のすべてに入力されている。
In the first neuron layer 101, n neurons X 1 to X n are arranged in an array, and in the second neuron layer 102, m neurons Y 1 to Y m are similarly arranged in an array. , the p number of neurons Z 1 to Z p are arranged similarly to the array in the third neuron layer 103. Although not shown to avoid complication, the output of the n neurons X 1 to X n of the first neuron layer 101, each of the m second neuron layer 102 of neurons Y 1 to Y m are inputted to all, as well as the output of the m neurons Y 1 to Y m of the second neuron layer 102,
Each is input to all of the p neurons Z 1 to Z p of the third neuron layer 103.

【0025】第1の実施例において、第2ニューロン層
102で同時に発火可能なニューロン数としてCYA1
09に指定された第1の値NY1の範囲を10〜20個
とし、同様に、第3ニューロン層103で同時に発火可
能なニューロン数としてCZA111に指定された第1
の値NZ1の範囲を10〜20個として説明する。
In the first embodiment, the number of neurons that can be fired simultaneously in the second neuron layer 102 is CYA1.
The range of the first value NY1 designated as the value 09 is set to 10 to 20, and similarly, the first value designated to the CZA 111 as the number of neurons capable of firing simultaneously in the third neuron layer 103 is set.
The description will be made assuming that the range of the value NZ1 is 10 to 20.

【0026】第1の実施例で学習が完了した時には次の
状態となる。ある入力を第1ニューロン層101に示し
たとき、第2ニューロン層102において、発火ニュー
ロン塊104の領域で個数yo1のニューロンが発火
し、発火ニューロン塊105の領域で個数yo2のニュ
ーロンが発火し、発火ニューロン塊106の領域で個数
yo3のニューロンが発火する。この第2ニューロン層
102の状態における出力は第3ニューロン層103へ
接続され、第3ニューロン層103において、発火ニュ
ーロン塊107の領域において個数zo1のニューロン
が発火し、発火ニューロン塊108の領域において個数
zo2のニューロンが発火する。
When the learning is completed in the first embodiment, the state is as follows. When a certain input is shown in the first neuron layer 101, in the second neuron layer 102, the number yo1 of neurons fires in the region of the firing neuron mass 104, and the number yo2 of neurons fires in the region of the firing neuron mass 105, In the region of the firing neuron mass 106, the number yo3 of neurons fire. The output in the state of the second neuron layer 102 is connected to the third neuron layer 103. In the third neuron layer 103, the number zo1 of neurons is fired in the region of the firing neuron mass 107 and the number of neurons in the region of the firing neuron mass 108. The zo2 neuron fires.

【0027】第2ニューロン層102のそれぞれの発火
ニューロン塊104,105,106において発火する
ニューロン個数としてCYB110に設定される第2の
値NY2の範囲を3〜5個とすると、発火ニューロン塊
104,105,106の発火ニューロン個数は第2の
値NY2の指定に依存して例えばyo1=3、yo2=
5、yo3=4となり、第2ニューロン層102におけ
る総発火ニューロン個数ysは、第2ニューロン層10
2の第1の値NY1の範囲10〜20に入っている。 ys=yo1+yo2+yo3=12 同様に、第3ニューロン層103におけるCZB112
に設定される第2の値NZ2の範囲を4〜9個とする
と、第3ニューロン層103で発火しているニューロン
の個数は第2の値NZ2に依存して例えばzo1=6
個、zo2=8個となり、第3ニューロン層103にお
ける総発火ニューロン数zsは、第3ニューロン層10
3の第1の値NZ1の範囲10〜20に入っている。z
s=zo1+zo2=14個次に、第2ニューロン層1
02の第1の制御手段であるCYA109について、詳
細に説明する。図2は、CYA109の構成を示す図で
ある。CYA109は、第2ニューロン層102内のニ
ューロンの発火個数を計数する活動検知部201と活動
検知結果に基づいて第2ニューロン層102内のニュー
ロンの活動を調整する活動調整部204とを有してい
る。
Assuming that the range of the second value NY2 set in the CYB 110 as the number of neurons to fire in each of the firing neuron blocks 104, 105, and 106 of the second neuron layer 102 is 3 to 5, the firing neuron blocks 104, 105 The number of firing neurons 105 and 106 depends on the designation of the second value NY2, for example, yo1 = 3, yo2 =
5, yo3 = 4, and the total number of firing neurons ys in the second neuron layer 102 is equal to the second neuron layer 10
The first value NY1 is in the range of 10 to 20. ys = yo1 + yo2 + yo3 = 12 Similarly, the CZB 112 in the third neuron layer 103
Assuming that the range of the second value NZ2 to be set is 4 to 9, the number of neurons firing in the third neuron layer 103 depends on the second value NZ2, for example, zo1 = 6
Zo2 = 8, and the total number of firing neurons zs in the third neuron layer 103 is equal to the third neuron layer 10
The first value NZ1 of 3 is in the range of 10 to 20. z
s = zo1 + zo2 = 14 Next, the second neuron layer 1
The CYA 109 which is the first control means of the C.02 will be described in detail. FIG. 2 is a diagram illustrating the configuration of the CYA 109. The CYA 109 has an activity detection unit 201 that counts the number of fired neurons in the second neuron layer 102 and an activity adjustment unit 204 that adjusts the activity of the neurons in the second neuron layer 102 based on the activity detection result. I have.

【0028】活動検知部201は、発火数計数ニューロ
ンを2個備え、1個を最小値検出ニューロン(DMI
N)202、1個を最大値検出ニューロン(DMAX)
とし、両検出ニューロンの出力を用いて第2ニューロン
層102内のニューロンの発火を制御する。すなわち、
第1の値NY1が10〜20の範囲に設定されたときに
は、DMIN202は、第2ニューロン層102内の全
ニューロンから信号を受け、その内の10個未満のニュ
ーロンが発火しているとき発火する。また、DMAX2
03は、第2ニューロン層102内の全ニューロンから
信号を受け、その内の20個を越えたニューロンが発火
しているとき発火する。DMIN202が発火している
ときは、活動調整部204は、第2ニューロン層102
内の全ニューロンの入力重み値を増大させる学習をし、
DMAX203が発火しているときは、活動調整部20
4は、第2ニューロン層102内の全ニューロンの入力
重み値を減少させる学習をする。第2ニューロン層10
2内の発火ニューロン個数が10〜20個の範囲に入る
まで学習を繰り返すことにより、発火ニューロン数を第
1の値NY1の範囲に収めることができる。
The activity detecting section 201 has two firing number counting neurons, and one of them has a minimum value detecting neuron (DMI).
N) 202, one is a maximum value detection neuron (DMAX)
Then, the firing of the neurons in the second neuron layer 102 is controlled using the outputs of both detection neurons. That is,
When the first value NY1 is set in the range of 10 to 20, the DMIN 202 receives signals from all the neurons in the second neuron layer 102 and fires when less than 10 of them are firing. . Also, DMAX2
Numeral 03 receives signals from all neurons in the second neuron layer 102 and fires when more than 20 of them are firing. When the DMIN 202 is firing, the activity adjusting unit 204 sends the second neuron layer 102
Learning to increase the input weight value of all neurons in
When the DMAX 203 is firing, the activity adjustment unit 20
4 learns to reduce the input weight values of all neurons in the second neuron layer 102. Second neuron layer 10
By repeating learning until the number of firing neurons in 2 falls within the range of 10 to 20, the number of firing neurons can be kept within the range of the first value NY1.

【0029】以上、第2ニューロン層102の第1の制
御手段CYA109の構成と動作について説明したが、
第3ニューロン層103の第1の制御手段CZA111
についても同様である。
The configuration and operation of the first control means CYA 109 of the second neuron layer 102 have been described above.
First control means CZA111 of third neuron layer 103
The same applies to.

【0030】次に、第2ニューロン層102の第2の制
御手段であるCYB110について説明する。CYB1
10では、先ず、各発火ニューロン塊104,105,
106,107,108における発火ニューロン数を検
出する。発火ニューロンの出力を平面上に2値で地図表
示した後、この2値データを論理処理して発火したニュ
ーロンが相互に近接している領域を抽出する。抽出され
た領域毎に発火しているニューロンの個数を数え、CY
B110に指定された第2の値NY2の範囲に収まる個
数になるまで、抽出された領域内の各ニューロンの入力
重み値を増減させ等価的にしきい値レベルを調整する。
この抽出された領域を、周辺へ等しい幅で拡大して広げ
た領域内にあるニューロンの重み値の更新を図ることに
より同様な学習を行う。
Next, the CYB 110 as the second control means of the second neuron layer 102 will be described. CYB1
10, first, each firing neuron mass 104, 105,
The number of firing neurons at 106, 107 and 108 is detected. After the output of the firing neuron is displayed as a binary map on a plane, the binary data is logically processed to extract a region where the firing neurons are close to each other. The number of firing neurons is counted for each extracted region, and CY
Until the number falls within the range of the second value NY2 specified in B110, the input weight value of each neuron in the extracted region is increased or decreased to adjust the threshold level equivalently.
The same learning is performed by updating the weight values of the neurons in the region obtained by expanding the extracted region to the periphery by an equal width and expanding the region.

【0031】第2ニューロン層102の第2の制御手段
CYB110について説明したが、第3ニューロン層1
03の第2の制御手段CZB112についても同様であ
る。
The second control means CYB110 of the second neuron layer 102 has been described.
The same applies to the second control means CZB112 of No. 03.

【0032】(第2の実施例)第1の実施例において
は、CYB110は、発火ニューロン塊の発火ニューロ
ン個数を指定された第2の値NY2の範囲となるように
制御するのみであった。しかしながら、ある発火ニュー
ロン塊において発火しているニューロンは通常必ずしも
綺麗にまとまった形状とはならず、部分的な欠けや糸状
などの形状になったりする。また、発火ニューロン塊と
なって発火するニューロン数を第2の指定された値の範
囲に限定するCYB110による学習と、第2ニューロ
ン層102内全体のニューロンの発火個数を制御するC
BA109による学習とを整合させることが容易でない
場合も生じる。
(Second Embodiment) In the first embodiment, the CYB 110 only controls the number of firing neurons in the firing neuron block to be in the range of the specified second value NY2. However, the firing neurons in a certain firing neuron mass do not usually have a neatly formed shape, but have a shape such as a partial chip or a thread. In addition, learning by the CYB 110 that limits the number of neurons to be fired as a firing neuron block to a second specified value range, and C that controls the number of neurons fired in the entire second neuron layer 102 are performed.
In some cases, it is not easy to match learning with BA109.

【0033】図3は、実施の形態2に関わる発火数分散
制御が他神経回路の第2の実施例を示す図である。第1
の指定された値と第2の指定された値との整合性を取る
ため、第2の実施実施例として以下の簡易なアルゴリズ
ムを導入する。発火ニューロン塊の形状としては、四角
形状や円状形状が好ましいので、ここでは同時に発火す
るニューロン数が2個以上の指定された発火ニューロン
塊の形状として四角形状を簡易に用いることとする。
FIG. 3 is a diagram showing a second example of another neural circuit in which the firing number distribution control according to the second embodiment is performed. First
In order to obtain consistency between the designated value and the second designated value, the following simple algorithm is introduced as a second embodiment. Since the shape of the firing neuron mass is preferably a square shape or a circular shape, the square shape is simply used here as the shape of the designated firing neuron mass in which the number of neurons firing simultaneously is two or more.

【0034】図3では、第1の実施例の図1と比較し
て、第2の実施例第2ニューロン層102の第2の制御
手段がCYB310に変更され、発火ニューロン塊30
4,305,306が、いずれも正四角形状の発火ニュ
ーロン塊に変形していることと、第3ニューロン層10
3の第2の制御手段がCYB312に変更され、発火ニ
ューロン塊307,308が、いずれも正四角形状の発
火ニューロン塊に変形していることが異なっている。第
2ニューロン層102における総発火ニューロン数ys
および第3ニューロン層103における総発火ニューロ
ン数zsは、 ys=yo1+yo2+yo3=12個 zs=zo1+zo2=13個 であり、ysはCYA109の第1の値NY1の範囲1
0〜20に収まり、zsはCZA111の第1の値NZ
1の範囲10〜20に収まっている。
In FIG. 3, compared to FIG. 1 of the first embodiment, the second control means of the second neuron layer 102 of the second embodiment is changed to CYB 310,
4, 305, and 306 are all transformed into a square firing neuron mass, and the third neuron layer 10
3 is that the second control means is changed to CYB 312, and the firing neuron masses 307 and 308 are all transformed into square firing neuron masses. The total number of firing neurons ys in the second neuron layer 102
And the total number of firing neurons zs in the third neuron layer 103 is ys = yo1 + yo2 + yo3 = 12, zs = zo1 + zo2 = 13, and ys is a range 1 of the first value NY1 of the CYA 109.
0-20, zs is the first value NZ of CZA111
1 is within the range of 10 to 20.

【0035】第2ニューロン層102を例として第2の
実施例のCYB310の動作アルゴリズムを説明する。
先ず、CYB310は、図1における発火ニューロン塊
のような崩れた形状の発火ニューロン塊の中で最も大き
な出力を出している発火ニューロンを中心ニューロンに
定め、この中心ニューロンの周りに目的とする形状であ
る正四角形を定める。この定められた正四角形の頂点に
位置するニューロンを勝者ニューロンとして抽出し、入
力重み値を増大させる強化学習を行い、この強化学習と
合わせて勝者ニューロンの直近傍のニューロンに対して
もヘブ学習則による強調学習を行う。続いて、勝者ニュ
ーロンの直近傍の強調学習が行われるニューロンのすぐ
外側にあるニューロンに対して同じくヘブ学習則による
側抑制学習を行い、入力重み値の減少学習を行う。直近
傍のニューロンおよび直近傍の外側のニューロンの選定
は、ニューロン間の距離を基準に行い、ニューロン間の
距離が等しい場合には出力の大きい方を直近傍のニュー
ロンとして選択する。発火ニューロン塊の形状を学習に
より正四角形に変更する過程で各発火ニューロン塊の発
火ニューロン個数を増減することが可能であるため、第
1の指定された値と第2の指定された値とを容易に整合
することができる。
The operation algorithm of the CYB 310 according to the second embodiment will be described using the second neuron layer 102 as an example.
First, the CYB 310 determines, as a central neuron, a firing neuron that produces the largest output in a collapsed firing neuron cluster such as the firing neuron cluster in FIG. 1 and has a target shape around the central neuron. Define a square. A neuron located at the apex of the determined square is extracted as a winner neuron, and reinforcement learning for increasing the input weight value is performed. Together with this reinforcement learning, the Hebbian learning rule is applied to neurons in the immediate vicinity of the winner neuron. Perform emphasis learning by Subsequently, side suppression learning is also performed on the neuron immediately outside the neuron on which the emphasis learning is performed in the immediate vicinity of the winner neuron by the Hebbian learning rule, and the input weight value reduction learning is performed. The selection of the neuron in the immediate vicinity and the outer neuron in the immediate vicinity is performed on the basis of the distance between the neurons, and when the distance between the neurons is equal, the one with the larger output is selected as the nearest neuron. Since it is possible to increase or decrease the number of firing neurons in each firing neuron block in the process of changing the shape of the firing neuron block into a square by learning, the first specified value and the second specified value are It can be easily matched.

【0036】強調学習、側抑制学習は、具体的には、図
4(a)に示すメキシカンハット型の値を重み値の修正
量に乗算することにより簡単に実現される。ここでのヘ
ブ学習則による強化、強調学習は、入力信号を受けてい
るシナプスに対してのみ重み値の増大を行い、特徴抽出
の学習をより強める。強調学習、側抑制学習を表現する
関数は、指数関数と三角関数の積、さらにはその関数の
原点を正負にずらした関数の変換で容易に実現でき、例
えば、図4(b)のf1 (x)、f2 (x)で与えられ
るDOG関数で実現できる。
Specifically, the emphasis learning and the side suppression learning can be easily realized by multiplying the Mexican hat type value shown in FIG. In the reinforcement and emphasis learning based on the Hebbian learning rule, the weight value is increased only for the synapse receiving the input signal, and the learning of feature extraction is further strengthened. Enhancement learning function representing the lateral inhibition learning, the product of the exponential and trigonometric functions, more easily realized by transform of a function obtained by shifting the origin of the function to positive and negative, for example, f 1 shown in FIG. 4 (b) (X), can be realized by a DOG function given by f 2 (x).

【0037】なお、各ニューロンが発火するか否かを決
める関数としては従来のシグモイド型非線形関数で良
く、また各層のニューロンは前段層のニューロンに対し
て全結合されている。
The function for determining whether each neuron fires may be a conventional sigmoid type nonlinear function, and the neurons in each layer are fully connected to the neurons in the preceding layer.

【0038】(第3の実施例)図5は、実施の形態3に
関わる発火数分散制御型神経回路装置の構成を示す第3
の実施例の図である。第3の実施例では、同一ニューロ
ン層に含まれるニューロンが2個以上のブロックに分割
されて構成されている。
(Third Embodiment) FIG. 5 is a block diagram showing a configuration of a neural network device according to a third embodiment of the present invention.
FIG. In the third embodiment, neurons included in the same neuron layer are divided into two or more blocks.

【0039】図5において、第2ニューロン層は、3個
のブロック423,424,425から構成される。第
1ニューロン層421と第3ニューロン層422におけ
るニューロンの配置は図1の第1の実施例と同様であ
る。
In FIG. 5, the second neuron layer is composed of three blocks 423, 424, and 425. The arrangement of neurons in the first neuron layer 421 and the third neuron layer 422 is the same as in the first embodiment of FIG.

【0040】第2ニューロン層のブロック423にはm
個のニューロンY11〜Y1mが配置され、ブロック424
にはm個のニューロンY21〜Y2mが配置され、ブロック
425にはm個のニューロンY31〜Y3mがそれぞれアレ
イ状に配置されている。ブロック423,424,42
5の各ニューロンの入力は、それぞれ前段の第1ニュー
ロン層421の全ニューロンX1 〜Xn へ並列に全結合
されている。
The block 423 of the second neuron layer includes m
The neurons Y 11 to Y 1m are arranged, and the block 424
, M neurons Y 21 to Y 2m are arranged, and the block 425 includes m neurons Y 31 to Y 3m arranged in an array. Blocks 423, 424, 42
The inputs of the five neurons are all connected in parallel to all the neurons X 1 to X n of the first neuron layer 421 at the preceding stage.

【0041】第3の実施例において、学習が完了した時
には次の状態にある。ある入力を第1ニューロン層42
1に示したとき、第2ニューロン層のブロック423に
おいて、発火ニューロン塊431の領域で個数yo11
のニューロンが発火し、ブロック424内の発火ニュー
ロン塊432の領域で個数yo21のニューロンが発火
し、同じくブロック424内の発火ニューロン塊433
の領域で個数yo22のニューロンが発火する。
In the third embodiment, when the learning is completed, the state is as follows. An input is applied to the first neuron layer 42
1, in the block 423 of the second neuron layer, the number yo 11
Are fired, the number yo21 of neurons are fired in the area of the fired neuron mass 432 in the block 424, and the fired neuron mass 433 in the block 424 is also fired.
The number yo22 of neurons fires in the region of.

【0042】第2ニューロン層のブロック423,42
4,425の出力は第3ニューロン層422の全ニュー
ロンへ入力される。第3ニューロン層422において、
発火ニューロン塊434の領域において個数zo1のニ
ューロンが発火し、発火ニューロン塊435の領域にお
いて個数zo2のニューロンが発火する。第2ニューロ
ン層のそれぞれのブロックの発火ニューロン塊431,
432,433,434,435において発火するニュ
ーロンの個数を指定する第2の値NY2は、第1の実施
例と同様に3〜5個と設定する。第2ニューロン層全体
に対する第2の制御手段であるCYB402が第2の値
NY2に依存してブロック423,424,425を共
通して制御する。また、第2ニューロン層全体に対する
第1の制御手段であるCYA401が第2の値NY1に
依存してブロック423,424,425を共通して制
御する。例えばyo11=3、yo21=5、yo22
=4であると、第2ニューロン層のブロック423,4
24,425における総発火ニューロン数ysは次式と
なり第1の指定された値の範囲に入っている。 ys=yo11+yo21+yo22=12個 CZA403は、第3ニューロン層422に対する第1
の制御手段であり、CZB404は、第3ニューロン層
422に対する第2の制御手段である。各発火ニューロ
ン塊431,432,433,434,435における
発火ニューロン数の検出と制御は、第1の実施例と同様
である。第3の実施例においても、学習は第1の実施例
と同様に、勝者ニューロンに対して直近傍のニューロン
に対してはヘブ学習則による強調学習を行い、その外側
のニューロンに対しては同じく側抑制学習を行う。
Blocks 423 and 42 of the second neuron layer
The output of 4,425 is input to all neurons of the third neuron layer 422. In the third neuron layer 422,
In the region of the firing neuron mass 434, the number zo1 neurons fire, and in the region of the firing neuron mass 435, the number zo2 neurons fire. Firing neuron mass 431, of each block of the second neuron layer
The second value NY2 designating the number of neurons to fire in 432, 433, 434, and 435 is set to 3 to 5 as in the first embodiment. The CYB 402, which is the second control means for the entire second neuron layer, commonly controls the blocks 423, 424, and 425 depending on the second value NY2. Further, the CYA 401, which is the first control means for the entire second neuron layer, controls the blocks 423, 424, and 425 commonly depending on the second value NY1. For example, yo11 = 3, yo21 = 5, yo22
= 4, the blocks 423, 4 of the second neuron layer
The total number of firing neurons ys at 24 and 425 is given by the following equation and is within the range of the first specified value. ys = yo11 + yo21 + yo22 = 12 The CZA 403 performs the first operation on the third neuron layer 422.
The CZB 404 is a second control unit for the third neuron layer 422. The detection and control of the number of firing neurons in each firing neuron mass 431, 432, 433, 434, 435 is the same as in the first embodiment. In the third embodiment, as in the first embodiment, the learning is performed by the Hebb learning rule for the nearest neuron to the winner neuron and the same for the neurons outside the winner neuron. Perform side suppression learning.

【0043】なお、第3の実施例に対しても、第2の実
施例と同様にして、ヘブ学習則による強化、強調学習を
行い、同時に発火するニューロン数が2個以上の指定さ
れた発火ニューロン塊形状を四角形状等に変形すること
ができる。
In the third embodiment, as in the second embodiment, reinforcement and emphasis learning based on the Hebbian learning rule are performed, and at the same time, the number of neurons to be fired is 2 or more. The shape of the neuron mass can be transformed into a square shape or the like.

【0044】(第4の実施例)図6は、実施の形態4に
関わる発火数分散制御型神経回路装置の構成を示す第4
の実施例の図である。図面の煩雑化を避けるために、図
6では、第2ニューロン層に関係する部分のみを図示し
ているが、第1ニューロン層および第3ニューロン層に
ついては図5と同様である。第4の実施例では、同一ニ
ューロン層に含まれるニューロンが2個以上のブロック
に分割されて構成され、かつ第1の指定された値または
範囲および第2の指定された値または範囲を第2ニュー
ロン層の各ブロックに対して独立に与えることができ
る。
(Fourth Embodiment) FIG. 6 is a block diagram showing a fourth embodiment of the configuration of the fired-number-dispersion control type neural circuit device according to the fourth embodiment.
FIG. In order to avoid complication of the drawing, FIG. 6 shows only a portion related to the second neuron layer, but the first neuron layer and the third neuron layer are the same as those in FIG. In the fourth embodiment, a neuron included in the same neuron layer is divided into two or more blocks, and the first specified value or range and the second specified value or range are stored in the second neuron. It can be provided independently for each block of the neuron layer.

【0045】図6の第4の実施例において、ブロック4
43は、このブロック用に設定された第1の値NY1a
に基づいて、CYAa405によりブロック443内の
発火ニューロン個数が6〜15になるように制御され
る。ブロック444は、このブロック用に設定された第
1の値NY1bに基づいて、CYAb407によりブロ
ック444内の発火ニューロン個数が8〜20になるよ
うに制御される。また、ブロック445はこのブロック
用に設定された第1の値NY1cに基づいてCYAc4
09により、ブロック445内の発火ニューロン個数が
9〜22になるように制御される。
In the fourth embodiment shown in FIG.
43 is the first value NY1a set for this block
Is controlled by the CYAa 405 so that the number of firing neurons in the block 443 becomes 6 to 15. The block 444 is controlled by the CYAb 407 based on the first value NY1b set for this block so that the number of firing neurons in the block 444 becomes 8 to 20. Also, the block 445 is based on the first value NY1c set for this block, and
In step 09, the number of firing neurons in the block 445 is controlled to be 9 to 22.

【0046】同様に、第2の設定値についても、ブロッ
ク443は、このブロック用に設定された第2の値NY
2aに基づいて、CYBa406によりブロック443
内の発火ニューロン塊に含まれる発火ニューロン個数が
3〜5個になるように制御される。ブロック444は、
このブロック用に設定された第2の値NY2bに基づい
て、CYBb408によりブロック444内の発火ニュ
ーロン塊に含まれる発火ニューロン個数が3〜5個にな
るように制御される。また、ブロック445はこのブロ
ック用に設定された第2の値NY2cに基づいてCYB
c410により、ブロック445内の発火ニューロン塊
に含まれる発火ニューロン個数が3〜5個になるように
制御される。
Similarly, for the second set value, the block 443 includes the second value NY set for this block.
Block 443 by CYBa 406 based on 2a
Is controlled so that the number of firing neurons included in the firing neuron block in the block becomes 3 to 5. Block 444 is
Based on the second value NY2b set for this block, the CYBb 408 controls the number of firing neurons included in the firing neuron cluster in the block 444 to be 3 to 5. Further, the block 445 performs CYB based on the second value NY2c set for this block.
By c410, the number of firing neurons included in the firing neuron block in the block 445 is controlled to be 3 to 5.

【0047】第4の実施例で学習が完了した時には次の
状態にある。ある入力を(図示していない)第1ニュー
ロン層に示したとき、第2ニューロン層のブロック44
3において、発火ニューロン塊451の領域で個数yo
11のニューロンが発火し、、発火ニューロン塊452
の領域で個数yo12のニューロンが発火し、ブロック
444内の発火ニューロン塊453の領域で個数yo2
1のニューロンが発火し、発火ニューロン塊454の領
域で個数yo22のニューロンが発火し、同じくブロッ
ク445内の発火ニューロン塊455の領域で個数yo
31のニューロンが発火し、発火ニューロン塊456の
領域でyo32個のニューロンが発火する。この第2ニ
ューロン層のブロック443,444,445の各ニュ
ーロンの出力は(図示していない)第3ニューロン層の
全ニューロンへ入力される。
When the learning is completed in the fourth embodiment, the state is as follows. When an input is presented to the first neuron layer (not shown), the second neuron layer block 44
3, the number yo in the area of the firing neuron mass 451
Eleven neurons fire and a firing neuron mass 452
The number yo12 of neurons fire in the area of 、, and the number yo2 in the area of the firing neuron mass 453 in the block 444.
One neuron fires, the number yo22 of neurons fires in the area of the firing neuron mass 454, and the number yo in the area of the firing neuron mass 455 in the block 445 as well.
31 neurons fire and 32 yo neurons fire in the area of the firing neuron mass 456. The output of each neuron of the blocks 443, 444 and 445 of the second neuron layer is input to all the neurons of the third neuron layer (not shown).

【0048】第2ニューロン層のそれぞれブロックでの
発火ニューロン塊451、452,453,454,4
55,456において発火しているニューロンの個数
は、例えば、ブロック443の第2の値NY2aに依存
してyo11=3、yo12=4となり、ブロック44
4の第2の値NY2bに依存してyo21=5、yo2
2=4となり、ブロック445の第2の値NY2cに依
存してyo31=5、yo32=4となる。
Firing neuron masses 451, 452, 453, 454, 4 in respective blocks of the second neuron layer
The number of neurons firing at 55 and 456 is, for example, yo11 = 3 and yo12 = 4 depending on the second value NY2a of the block 443.
Yo2 = 5, yo2 depending on the second value NY2b of 4
2 = 4, and yo31 = 5 and yo32 = 4 depending on the second value NY2c of the block 445.

【0049】第2ニューロン層のブロック443におけ
る総発火ニューロン数ys1は、 ys1=yo11+yo12=7個 であり、ブロック443に指定された第1の値NY1a
の範囲である6〜15個の範囲に入っている。
The total number of firing neurons ys1 in the block 443 of the second neuron layer is ys1 = yo11 + yo12 = 7, and the first value NY1a specified in the block 443 is
In the range of 6 to 15 pieces.

【0050】同様に、ブロック444における総発火ニ
ューロン数ys2は、 ys2=yo21+yo22=9個 であり、ブロック444に指定された第1の値NY1b
の範囲である8〜20個の範囲に入っている。
Similarly, the total number of firing neurons ys2 in the block 444 is ys2 = yo21 + yo22 = 9, and the first value NY1b specified in the block 444
In the range of 8 to 20.

【0051】同様に、ブロック445における総発火ニ
ューロン数ys3は、 ys3=yo31+yo32=9個 であり、ブロック445に指定された第1の値NY1c
の範囲である9〜22個の範囲に入っている。
Similarly, the total number of firing neurons ys3 in the block 445 is ys3 = yo31 + yo32 = 9, and the first value NY1c specified in the block 445 is
In the range of 9 to 22.

【0052】各発火ニューロン塊451,452,45
3,454,455,456における発火ニューロン数
の検出と制御は、第1の実施例と同様である。第4の実
施例においても、学習は第1の実施例と同様に、勝者ニ
ューロンに対して直近傍のニューロンに対してはヘブ学
習則による強調学習を行い、その外側のニューロンに対
しては同じく側抑制学習を行う。
Each firing neuron mass 451, 452, 45
The detection and control of the number of firing neurons in 3,454,455,456 are the same as in the first embodiment. In the fourth embodiment, as in the first embodiment, learning is performed by the Hebb learning rule for the nearest neuron to the winner neuron, and the same for the neurons outside the winner neuron. Perform side suppression learning.

【0053】なお、第4の実施例に対しても、第2の実
施例と同様にして、ヘブ学習則による強化、強調学習を
行い、同時に発火するニューロン数が2個以上の指定さ
れた発火ニューロン塊形状を四角形状等に変形すること
ができる。
In the fourth embodiment, as in the second embodiment, reinforcement and emphasis learning based on the Hebbian learning rule are performed, and at the same time, the number of neurons to be fired is 2 or more. The shape of the neuron mass can be transformed into a square shape or the like.

【0054】ブロック443,444,445に対して
指定される第1の値NY1a,NY1b,NY1cが同
一である場合には、それぞれの第1の制御手段であるC
YAa405,CYAb407,CYAc409を図5
におけるCYA401のように共通化して1個の第1の
制御手段にまとめてもよく、この場合には、第2の指定
された値または範囲のみを、第2ニューロン層の各ブロ
ックに対して独立に設定できる。
If the first values NY1a, NY1b, NY1c specified for the blocks 443, 444, 445 are the same, the first control means C
YAa405, CYAb407 and CYAc409 are shown in FIG.
May be combined into one first control unit as in the case of CYA 401 in this case. In this case, only the second specified value or range is independent for each block of the second neuron layer. Can be set to

【0055】また、ブロック443,444,445に
対して指定される第2の値NY2a,NY2b,NY2
cが同一である場合には、それぞれの第1の制御手段で
あるCYBa406,CYBb408,CYBc410
を図5におけるCYB402のように共通化して1個の
第2の制御手段にまとめてもよく、この場合には、第1
の指定された値または範囲のみを、第2ニューロン層の
各ブロックに対して独立に設定できる。
The second values NY2a, NY2b, NY2 specified for the blocks 443, 444, 445
When c is the same, CYBa 406, CYBb 408, and CYBc 410, which are the first control means, respectively.
May be shared as one CYB 402 in FIG. 5 to be integrated into one second control unit.
Can be set independently for each block of the second neuron layer.

【0056】(第5の実施例)図7は、実施の形態5に
関わる発火数分散制御型神経回路装置の構成を示す第5
の実施例の図である。第5の実施例では、層内に含まれ
るニューロンが2個以上のブロックに分割されて構成さ
れるニューロン層とともに、当該ニューロン層の前段の
ニューロン層が2個の部分領域に分割されて構成されて
いる。
(Fifth Embodiment) FIG. 7 is a diagram showing a fifth embodiment of the configuration of the neural network device of the distributed firing control type according to the fifth embodiment.
FIG. In the fifth embodiment, the neuron layer included in the layer is divided into two or more blocks, and the neuron layer preceding the neuron layer is divided into two partial regions. ing.

【0057】図7において、第2ニューロン層は、ブロ
ック463とブロック464に分割され、第1の制御手
段であるCYA411と第2の制御手段であるCYB4
12で制御されている。ブロック数が2であることを除
けば図5の第2ニューロン層と同様の構成である。
In FIG. 7, the second neuron layer is divided into a block 463 and a block 464, and the first control means CYA411 and the second control means CYB4
12 is controlled. The configuration is the same as that of the second neuron layer in FIG. 5 except that the number of blocks is 2.

【0058】第1ニューロン層の入力層は、ブロック4
60とブロック461とからなり、ブロック460はマ
トリクス状に配置されたニューロンX11〜X1nを含み、
ブロック461は同様にマトリクス状に配置されたニュ
ーロンX21〜X2nを含んでいる。ブロック460とブロ
ック461とは境界領域465において一部重なって設
置されてもよい。
The input layer of the first neuron layer is a block 4
The block 460 includes neurons X 11 to X 1n arranged in a matrix,
Block 461 includes neurons X 21 -X 2n also arranged in a matrix. The block 460 and the block 461 may be partially overlapped with each other in the boundary area 465.

【0059】第2ニューロン層のブロック463内の各
ニューロンは、第1ニューロン層のブロック460内の
各ニューロンと全結合されて入力を受け、第2ニューロ
ン層のブロック464内の各ニューロンは、第1ニュー
ロン層のブロック461内の各ニューロンと全結合され
て入力を受ける。したがって、第2ニューロン層の各ブ
ロックのニューロンは、入力層である第1ニューロン層
の境界領域465を除くとそれぞれ異なる入力層ニュー
ロンに接続されている。
Each neuron in the block 463 of the second neuron layer is fully coupled to each neuron in the block 460 of the first neuron layer to receive an input, and each neuron in the block 464 of the second neuron layer is The input is fully coupled with each neuron in the block 461 of one neuron layer and receives an input. Therefore, the neurons of each block of the second neuron layer are connected to different input layer neurons except for the boundary region 465 of the first neuron layer which is the input layer.

【0060】第3ニューロン層462におけるニューロ
ンの個数と配置は第1の実施例と同一であり、また、第
2ニューロン層に対する第1の制御手段であるCYA4
11に設定する第1の指定された値NY1および第3ニ
ューロン層に対する第1の制御手段であるCZA413
に設定する第1の指定された値NZ1は、いずれも10
〜20個とする。
The number and arrangement of neurons in the third neuron layer 462 are the same as those in the first embodiment, and CYA4 which is the first control means for the second neuron layer is used.
CZA 413 as the first control means for the first designated value NY1 set to 11 and the third neuron layer
, The first specified value NZ1 is set to 10
Up to 20 pieces.

【0061】第5の実施例において、学習が完了した時
には次の状態にある。ある入力を第1ニューロン層のブ
ロック460およびブロック461に示したとき、第2
ニューロン層のブロック463において、発火ニューロ
ン塊471の領域で個数yo11のニューロンが発火
し、ブロック464内の発火ニューロン塊472の領域
で個数yo21のニューロンが発火し、発火ニューロン
塊473の領域で個数yo22のニューロンが発火す
る。この第2ニューロン層のブロック463,464の
出力は第3ニューロン層462の全ニューロンへ接続さ
れる。第3ニューロン層462において、発火ニューロ
ン塊474の領域において個数zo1のニューロンが発
火し、発火ニューロン塊475の領域において個数zo
2のニューロンが発火する。
In the fifth embodiment, when the learning is completed, the state is as follows. When an input is shown in blocks 460 and 461 of the first neuron layer,
In the block 463 of the neuron layer, the number yo11 of neurons fires in the region of the firing neuron mass 471, the number yo21 of neurons fires in the region of the firing neuron mass 472 in the block 464, and the number yo22 in the region of the firing neuron mass 473. Neurons fire. The outputs of the blocks 463 and 464 of the second neuron layer are connected to all the neurons of the third neuron layer 462. In the third neuron layer 462, the number zo1 of neurons fires in the region of the firing neuron mass 474, and the number zo in the region of the firing neuron mass 475.
Two neurons fire.

【0062】第2ニューロン層のそれぞれブロックでの
発火ニューロン塊471,472,473において発火
するニューロンの個数は、第2ニューロン層に対する第
2の制御手段であるCYB412に設定する第2の指定
された値NY2および第3ニューロン層に対する第2の
制御手段CZB414に設定する第2の指定された値N
Z2に依存して定まるが、NY2,NZ2は、いずれも
3〜5個に設定したとする。
The number of neurons that fire in the firing neuron masses 471, 472, and 473 in each block of the second neuron layer is specified by a second designated CYB 412, which is the second control means for the second neuron layer. The value NY2 and the second specified value N to be set in the second control means CZB414 for the third neuron layer
Although it is determined depending on Z2, it is assumed that both NY2 and NZ2 are set to 3 to 5.

【0063】第2ニューロン層で発火するニューロンの
個数が、例えばyo11=3、yo21=5、yo22
=4であったとすると、第2ニューロン層における総発
火ニューロン数ysは、 ys=yo11+yo21+yo22=12個 となり、第1の指定された値NY1の範囲に入ってい
る。
The number of neurons firing in the second neuron layer is, for example, yo11 = 3, yo21 = 5, yo22
Assuming that = 4, the total number of firing neurons ys in the second neuron layer is ys = yo11 + yo21 + yo22 = 12, which is within the range of the first specified value NY1.

【0064】各発火ニューロン塊471,472,47
3,474,475における発火ニューロン数の検出と
制御は、第1の実施例と同様である。第5の実施例にお
いても、学習は第1の実施例と同様に、勝者ニューロン
に対して直近傍のニューロンに対してはヘブ学習則によ
る強調学習を行い、その外側のニューロンに対しては同
じく側抑制学習を行う。
Each firing neuron mass 471, 472, 47
The detection and control of the number of firing neurons in 3,474,475 are the same as in the first embodiment. In the fifth embodiment, as in the first embodiment, the learning is performed by the Hebb learning rule for the nearest neuron to the winner neuron, and the same for the neurons outside the winner neuron. Perform side suppression learning.

【0065】なお、第5の実施例に対しても、第2の実
施例と同様にして、ヘブ学習則による強化、強調学習を
行い、同時に発火するニューロン数が2個以上の指定さ
れた発火ニューロン塊形状を四角形状等に変形すること
ができる。
In the fifth embodiment, in the same manner as in the second embodiment, reinforcement and emphasis learning based on the Hebbian learning rule are performed, and at the same time, the number of neurons to be fired is two or more designated firings. The shape of the neuron mass can be transformed into a square shape or the like.

【0066】なお、以上に第1〜第5の実施例により説
明した構成をもとにして、各ニューロン層を複数個に分
割した構成にするもの、第1の指定された値もしくは値
の範囲を層間に渡って制約するもの、第2の指定された
値もしくは値の範囲を層間に渡って制約するもの、発火
ニューロン塊の制御および学習の仕方を変えて組み合わ
せたものなど、種々の構成に拡張できることは明らかで
ある。
It is to be noted that, based on the configuration described in the first to fifth embodiments, a configuration in which each neuron layer is divided into a plurality of neurons, a first specified value or a range of values is specified. In various configurations, such as constraining across layers, constraining a second specified value or range of values across layers, and controlling and learning the firing neuron mass in different ways. Clearly, it can be extended.

【0067】[0067]

【発明の効果】本発明によれば、学習時の煩雑な計算を
軽減でき、モデル構成設計の複雑さとその後の拡張性の
問題、局所表現の単なる組合せにすぎないという課題を
解消できるという利点を有する特開平11−33884
4記載の発火数制御型神経回路装置の基本的特徴を継承
するとともに、発火するニューロンが空間的に特定箇所
の偏ること無くより均等に分散された表現形態とするこ
とができ、よって入力の特徴量をより正確に把握認識す
ることができる。
According to the present invention, it is possible to reduce the complicated calculation at the time of learning, to solve the problem of the complexity of the model configuration design and the subsequent expandability, and to solve the problem that it is merely a combination of local expressions. JP-A-11-33884
In addition to inheriting the basic characteristics of the firing rate control type neural circuit device described in No. 4, the expression form in which the firing neurons are more evenly distributed without being spatially biased to a specific portion can be obtained. The quantity can be grasped and recognized more accurately.

【0068】また、競合する層におけるニューロンの活
動数を2個以上とすることにより、認識可能なカテゴリ
数を増加させかつ必要とするニューロン数の発散を防い
でLSI化可能な数にニューロン数を低減させ、かつニ
ューロンの発火個数をニューロン層毎に指定された値も
しくは値の範囲となるように制御することにより、神経
回路装置を構成する回路を簡略化することができる。さ
らに、各種適用に対して適応的に回路構成が拡張できる
構成としているので集積化が容易に実施できる。
Further, by setting the number of neuron activities in the competing layer to two or more, the number of recognizable categories is increased, and the required number of neurons is prevented from diverging. By reducing the number of neurons and controlling the number of neurons to be fired to a value or range of values designated for each neuron layer, the circuit constituting the neural circuit device can be simplified. Further, since the circuit configuration can be adaptively expanded for various applications, integration can be easily performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に関わる発火数分散制御
型神経回路装置の第1の実施例を示す図である。
FIG. 1 is a diagram showing a first example of a firing-number-dispersion control type neural circuit device according to a first embodiment of the present invention.

【図2】ニューロン層の第1の制御手段の構成を示す図
である。
FIG. 2 is a diagram showing a configuration of a first control unit of a neuron layer.

【図3】実施の形態2に関わる発火数分散制御型神経回
路装置の第2の実施例を示す図である。
FIG. 3 is a diagram showing a second example of the firing-number-dispersion control type neural circuit device according to the second embodiment.

【図4】(a)は、メキシカンハット型の重み値例であ
り、(b)は、DOG関数例である。
FIG. 4A is an example of a Mexican hat type weight value, and FIG. 4B is an example of a DOG function.

【図5】実施の形態3に関わる発火数分散制御型神経回
路装置の構成を示す第3の実施例の図である。
FIG. 5 is a diagram of a third example showing the configuration of the firing number distribution control type neural circuit device according to the third embodiment.

【図6】実施の形態4に関わる発火数分散制御型神経回
路装置の構成を示す第4の実施例の図である。
FIG. 6 is a diagram of a fourth example showing the configuration of the firing number distribution control type neural circuit device according to the fourth embodiment.

【図7】実施の形態5に関わる発火数分散制御型神経回
路装置の構成を示す第5の実施例の図である。
FIG. 7 is a diagram of a fifth example showing the configuration of the firing number distribution control type neural circuit device according to the fifth embodiment.

【図8】特開平11−338844記載の発火数分散制
御型神経回路装置である。
FIG. 8 is a firing number distribution control type neural circuit device described in JP-A-11-338844.

【符号の説明】[Explanation of symbols]

101,421 第1ニューロン層 102 第2ニューロン層 103,422,462 第3ニューロン層 104,105,106,431,432,433,4
51、452,453,454,455,456,47
1,472,473 (第2ニューロン層の)発火ニ
ューロン塊 107,108,434,435,474,475
(第3ニューロン層の)発火ニューロン塊、 109,401,405,407,409,411
(第2ニューロン層に対する)第1の制御手段 110,310,402,406,408,410,4
12 (第2ニューロン層に対する)第2の制御手段 111,403,413 (第3ニューロン層に対す
る)第1の制御手段 112,312,404,414 (第3ニューロン
層に対する)第2の制御手段 423,424,425,443,444,445,4
63,464 (第2ニューロン層を構成する)ブロ
ック 460,461 (第1ニューロン層を構成する)ブ
ロック LI 入力層 LH 中間層 LN 出力層 C1,C2 制御手段
101,421 first neuron layer 102 second neuron layer 103,422,462 third neuron layer 104,105,106,431,432,433,4
51, 452, 453, 454, 455, 456, 47
1,472,473 Firing neuron mass (of the second neuron layer) 107,108,434,435,474,475
Firing neuron mass (of the third neuron layer) 109,401,405,407,409,411
First control means (for the second neuron layer) 110, 310, 402, 406, 408, 410, 4
12 Second control means (for the second neuron layer) 111, 403, 413 First control means (for the third neuron layer) 112, 312, 404, 414 Second control means (for the third neuron layer) 423 , 424, 425, 443, 444, 445, 4
63,464 (constituting the second neuron layer) blocks 460,461 (constituting the first neuron layer) LI input layer LH intermediate layer LN output layer C1, C2 control means

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 複数個のニューロンが複数のニューロン
層を成して構成された神経回路装置であって、 同時に発火して活動するニューロン数が各ニューロン層
毎に2以上の第1の指定された値もしくは値の範囲に依
存して制約されるように制御する第1の制御手段と、 前記ニューロン層内における空間的に隣接し且つ同時に
発火して活動するニューロンからなる発火ニューロン塊
に含まれるニューロン数が2以上の第2の指定された値
もしくは値の範囲に依存して制約されるように制御する
第2の制御手段とを有する発火数分散制御型神経回路装
置。
1. A neural circuit device comprising a plurality of neurons forming a plurality of neuron layers, wherein the number of neurons activated and activated simultaneously is at least two for each neuron layer. First control means for performing control so as to be constrained depending on a value or a range of values, and a firing neuron cluster comprising neurons which are spatially adjacent to each other in the neuron layer and fire and activate simultaneously. And a second control means for controlling the number of neurons to be restricted depending on two or more second specified values or a range of values.
【請求項2】 複数個のニューロンが複数のニューロン
層を成して構成された神経回路装置であって、 同時に発火して活動するニューロン数が各ニューロン層
毎に2以上の第1の指定された値もしくは値の範囲に依
存して制約されるように制御する第1の制御手段と、 前記ニューロン層内における発火して活動する少なくと
も1以上の発火ニューロンからなる発火ニューロン塊と
該発火ニューロン塊の中心ニューロンとを抽出し同時に
活動する発火ニューロン数が2以上で且つ指定された発
火ニューロン塊形状になるように前記中心ニューロンの
周囲に勝者ニューロンを設定して前記勝者ニューロンに
空間的に隣接したニューロンに学習制御を行う第2の制
御手段とを有する発火数分散制御型神経回路装置。
2. A neural circuit device comprising a plurality of neurons forming a plurality of neuron layers, wherein the number of neurons activated and activated simultaneously is two or more for each neuron layer. First control means for performing control so as to be constrained depending on a value or a range of values, a firing neuron cluster comprising at least one firing neuron which fires and activates in the neuron layer, and the firing neuron cluster A winner neuron is set around the central neuron so that the number of firing neurons simultaneously active is 2 or more and the designated firing neuron mass is formed, and the winner neuron is spatially adjacent to the winner neuron. And a second control means for performing learning control on the neuron.
【請求項3】 前記複数のニューロン層のうち少なくと
も1層のニューロン層が、それぞれに複数のニューロン
を有する複数のブロックからなる請求項1または2記載
の発火数分散制御型神経回路装置。
3. The neural network device according to claim 1, wherein at least one of the plurality of neuron layers comprises a plurality of blocks each having a plurality of neurons.
【請求項4】 ニューロン層を構成する前記複数のブロ
ックが、唯一の第1の指定された値もしくは値の範囲が
設定された共通の第1の制御手段により制御される請求
項3記載の発火数分散制御型神経回路装置。
4. The firing according to claim 3, wherein said plurality of blocks constituting the neuron layer are controlled by a common first control means in which only one first specified value or value range is set. A number-distributed control type neural circuit device.
【請求項5】 ニューロン層を構成する前記複数のブロ
ックが、それぞれのブロックに対応して第1の指定され
た値もしくは値の範囲が設定された複数の第1の制御手
段により独立に制御される請求項3記載の発火数分散制
御型神経回路装置。
5. The plurality of blocks constituting the neuron layer are independently controlled by a plurality of first control means in which a first specified value or a range of values is set corresponding to each block. 4. The neural circuit device according to claim 3, wherein the number of firings is controlled.
【請求項6】 ニューロン層を構成する前記複数のブロ
ックが、唯一の第2の指定された値もしくは値の範囲ま
たは指定された形状が設定された共通の第2の制御手段
により制御される請求項3記載の発火数分散制御型神経
回路装置。
6. The plurality of blocks constituting a neuron layer are controlled by a common second control means in which only one second specified value or range of values or a specified shape is set. Item 3. The number-of-fires distributed control type neural circuit device according to item 3.
【請求項7】 ニューロン層を構成する前記複数のブロ
ックが、それぞれのブロックに対応して第2の指定され
た値もしくは値の範囲または指定された形状が設定され
た複数の第2の制御手段により独立に制御される請求項
3記載の発火数分散制御型神経回路装置。
7. A plurality of second control means, wherein the plurality of blocks constituting the neuron layer have a second specified value or a range of values or a specified shape corresponding to each block. 4. The neural network device according to claim 3, wherein the neural network device is independently controlled by:
【請求項8】 ニューロン層を構成する前記複数のブロ
ックに含まれるそれぞれのニューロンが、前記ニューロ
ン層の前段のニューロン層に含まれる略全ニューロンに
対して接続された請求項3記載の発火数分散制御型神経
回路装置。
8. The firing number distribution according to claim 3, wherein each neuron included in the plurality of blocks constituting the neuron layer is connected to substantially all neurons included in a neuron layer preceding the neuron layer. Control type neural circuit device.
【請求項9】 ニューロン層を構成する前記複数のブロ
ックに含まれるそれぞれのニューロンが、前記ニューロ
ン層の後段のニューロン層に含まれる略全ニューロンに
対して接続された請求項3記載の発火数分散制御型神経
回路装置。
9. The firing number distribution according to claim 3, wherein each neuron included in the plurality of blocks constituting the neuron layer is connected to substantially all neurons included in a neuron layer subsequent to the neuron layer. Control type neural circuit device.
【請求項10】 ニューロン層を構成する前記複数のブ
ロックが、空間的に重なりを有しない形態で設けられた
請求項3記載の発火数分散制御型神経回路装置。
10. The fire-number-dispersion control type neural circuit device according to claim 3, wherein the plurality of blocks constituting the neuron layer are provided in a form having no spatial overlap.
【請求項11】 ニューロン層を構成する前記複数のブ
ロックが、空間的にブロック同士の重なり領域を有する
形態で設けられた請求項3記載の発火数分散制御型神経
回路装置。
11. The neural network device according to claim 3, wherein the plurality of blocks constituting the neuron layer are provided in a form having spatially overlapping regions between the blocks.
【請求項12】 前記複数のニューロン層のうち連続す
る段を構成する少なくとも2層のニューロン層が、それ
ぞれに複数のニューロンを有する複数のブロックからな
り、前段の各ブロックのニューロンのそれぞれが後段の
各ブロックの略全ニューロンに対して接続された請求項
1または2記載の発火数分散制御型神経回路装置。
12. At least two neuron layers constituting a continuous stage among the plurality of neuron layers are composed of a plurality of blocks each having a plurality of neurons, and each of the neurons of each block of the preceding stage is arranged in the subsequent stage. 3. The neural network device according to claim 1, wherein the neural network device is connected to substantially all neurons of each block.
【請求項13】 前記前段のニューロン層の各ブロック
が、空間的に重なりを有しない形態で設けられた請求項
12記載の発火数分散制御型神経回路装置。
13. The control circuit according to claim 12, wherein each block of the preceding neuron layer is provided in a form having no spatial overlap.
【請求項14】 前記前段のニューロン層の各ブロック
が、空間的にブロック同士の重なり領域を有する形態で
設けられた請求項12記載の発火数分散制御型神経回路
装置。
14. The control circuit according to claim 12, wherein each block of the preceding neuron layer is provided in a form having a spatially overlapping area between the blocks.
【請求項15】 前記後段のニューロン層の各ブロック
が、空間的に重なりを有しない形態で設けられた請求項
12記載の発火数分散制御型神経回路装置。
15. The neural network device according to claim 12, wherein each block of the subsequent neuron layer is provided in a form having no spatial overlap.
【請求項16】 前記後段のニューロン層の各ブロック
が、空間的にブロック同士の重なり領域を有する形態で
設けられた請求項12記載の発火数分散制御型神経回路
装置。
16. The control circuit according to claim 12, wherein each block of the subsequent neuron layer is provided in a form having a spatially overlapping area between the blocks.
【請求項17】 前記第1の制御手段が、前記第1の設
定された値もしくは値の範囲に対してニューロン層にお
いて活動しているニューロン数が少ない場合には活動を
促進し、多い場合には活動を抑制する請求項1または2
記載の発火数分散制御型神経回路装置。
17. The first control means promotes the activity when the number of neurons active in the neuron layer is small with respect to the first set value or range of values, and promotes the activity when the number is large. Claim 1 or 2 suppresses activity
The number-of-fires distributed control type neural circuit device as described in the above.
【請求項18】 前記第1の制御手段が、ニューロン層
毎のニューロンの発火数を検知する活動数検知部と、活
動数検知部の検知結果に基づいてニューロン数が少ない
場合には活動を促進し多い場合には活動を抑制する活動
調整部とを備える請求項1または2記載の発火数分散制
御型神経回路装置。
18. The activity control system according to claim 1, wherein the first control means detects the number of activated neurons in each neuron layer, and promotes the activity when the number of neurons is small based on the detection result of the activated number detector. 3. The neural network device according to claim 1, further comprising: an activity adjusting unit that suppresses the activity when the number of fires is large.
【請求項19】 前記活動数検知部が、発火ニューロン
数がニューロン層に指定された範囲の最小値未満である
ことを検知して活動する最小値検知ニューロンと、活動
数が指定された範囲の最大値を越えたことを検知して活
動する最大値検知ニューロンとを備え、最小値検知ニュ
ーロンが活動状態にあるときには前記ニューロン層内の
全ニューロンの活動を促進し、最大値検知ニューロンが
活動状態にあるときには前記ニューロン層内の全ニュー
ロンの活動を抑制するように作用する請求項18記載の
発火数分散制御型神経回路装置。
19. A minimum value detection neuron which activates by detecting that the number of firing neurons is less than a minimum value of a range specified in a neuron layer, and an activity number detection unit which detects that the number of firing neurons is less than a minimum value of a range specified in the neuron layer. A maximum value detection neuron that detects and activates when the maximum value is exceeded, and when the minimum value detection neuron is in an active state, the activity of all neurons in the neuron layer is promoted, and the maximum value detection neuron is activated. 19. The neural network device according to claim 18, which acts to suppress the activity of all the neurons in the neuron layer when the value is in.
【請求項20】 前記第1の指定された値が、前記第2
の指定された値の2倍以上であるか、または、前記第1
の指定された値の範囲における最大値が、前記第2の指
定された値の範囲における最小値の2倍以上である請求
項1記載の発火数分散制御型神経回路装置。
20. The method according to claim 19, wherein the first specified value is the second specified value.
Is greater than or equal to twice the specified value of
2. The control apparatus according to claim 1, wherein the maximum value in the specified value range is at least twice the minimum value in the second specified value range.
【請求項21】 前記第2の指定された値もしくは値の
範囲が、前記各発火ニューロン塊の各々に対してそれぞ
れ個別に設定できる請求項1記載の発火数分散制御型神
経回路装置。
21. The neural network device according to claim 1, wherein the second specified value or range of values can be individually set for each of the firing neuron masses.
【請求項22】 前記指定された発火ニューロン塊形状
が、前記各発火ニューロン塊の各々に対してそれぞれ個
別に設定できることを特徴とする発火数分散制御型神経
回路装置。
22. An apparatus according to claim 21, wherein the designated shape of the firing neuron mass can be individually set for each of the firing neuron masses.
JP2000166226A 2000-06-02 2000-06-02 Number of ignition distribution control type neural circuit device Withdrawn JP2001344589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000166226A JP2001344589A (en) 2000-06-02 2000-06-02 Number of ignition distribution control type neural circuit device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000166226A JP2001344589A (en) 2000-06-02 2000-06-02 Number of ignition distribution control type neural circuit device

Publications (1)

Publication Number Publication Date
JP2001344589A true JP2001344589A (en) 2001-12-14

Family

ID=18669580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000166226A Withdrawn JP2001344589A (en) 2000-06-02 2000-06-02 Number of ignition distribution control type neural circuit device

Country Status (1)

Country Link
JP (1) JP2001344589A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535067A (en) * 2010-06-30 2013-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for storing space-time patterns, system therefor, and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535067A (en) * 2010-06-30 2013-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション Method for storing space-time patterns, system therefor, and computer program
US9524462B2 (en) 2010-06-30 2016-12-20 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory
US9665822B2 (en) 2010-06-30 2017-05-30 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory
US11138492B2 (en) 2010-06-30 2021-10-05 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory
US11176445B2 (en) 2010-06-30 2021-11-16 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory

Similar Documents

Publication Publication Date Title
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
US5704016A (en) Temporal learning neural network
Yam et al. Feedforward networks training speed enhancement by optimal initialization of the synaptic coefficients
US5606646A (en) Recurrent neural network-based fuzzy logic system
Magoulast et al. On the alleviation of the problem of local minima in back-propagation
Zeng et al. Improving multi-layer spiking neural networks by incorporating brain-inspired rules
EP1901212A3 (en) Evolutionary neural network and method of generating an evolutionary neural network
KR20190085781A (en) Neuromorphic system and operating method thereof
Wilamowski Neural networks and fuzzy systems
US5257342A (en) Learning method for a data processing system with neighborhoods
Zilouchian Fundamentals of neural networks
JP7259253B2 (en) artificial neural network circuit
Zhang et al. Introduction to artificial neural network
JP2001344589A (en) Number of ignition distribution control type neural circuit device
US6463423B1 (en) Multi-winners feedforward neural network
Wilamowski Neural networks and fuzzy systems for nonlinear applications
Olayinka et al. Evolving feed-forward artificial neural networks using binary and denary dataset
Rossi et al. Geometrical initialization, parametrization and control of multilayer perceptrons: application to function approximation
SIMPSON Neural network paradigms
JPH05181828A (en) Knowledge information processor
JPH03288258A (en) Learning method for data processor
KR100342886B1 (en) Method of learning binary system
JPH0855098A (en) Neural network classifier and neural network configuration method
Kordnoori et al. The Efficacy of Choosing Strategy with General Regression Neural Network on Evolutionary Markov Games
Omori et al. Noise effect on memory recall in dynamical neural network model of hippocampus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050314

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070118

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807