JPH056351A - Signal processor - Google Patents

Signal processor

Info

Publication number
JPH056351A
JPH056351A JP3154243A JP15424391A JPH056351A JP H056351 A JPH056351 A JP H056351A JP 3154243 A JP3154243 A JP 3154243A JP 15424391 A JP15424391 A JP 15424391A JP H056351 A JPH056351 A JP H056351A
Authority
JP
Japan
Prior art keywords
signal
coupling coefficient
output
final output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3154243A
Other languages
Japanese (ja)
Inventor
Toshiyuki Furuta
俊之 古田
Hirotoshi Eguchi
裕俊 江口
Takashi Kitaguchi
貴史 北口
Osamu Takehira
竹平  修
Shuji Motomura
修二 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3154243A priority Critical patent/JPH056351A/en
Publication of JPH056351A publication Critical patent/JPH056351A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To speedily execute processing for obtaining binary data on the final output stage in a neural network provided with a digital self-learning function. CONSTITUTION:The final output stage of the neural network provided with the digital self-learning function is provided with a memory 56 for storing a final output result, a signal extracting means for extracting the result stored in the memory 56 after the lapse of a prescribed time and an up/down counter 58 for determining up/down and enable operation based upon the current final output result and the preceding output result extracted from the memory 56 by the signal extracting means to output binary data and constituted so that binary data can be successively obtained from the up/down counter 58 without waiting the input interval of plural reference clocks.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、神経細胞を模倣したニ
ューラルコンピュータ等の信号処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal processing device such as a neural computer which imitates nerve cells.

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」をネットワークにし、情報の並列
処理を目指したのが、いわゆるニューラルネットワーク
である。文字認識や、連想記憶、運動制御等、生体では
いとも簡単に行われていても、従来のノイマン型コンピ
ュータではなかなか達成しないものが多い。そこで、生
体の神経系、特に生体特有の機能、即ち、並列処理、自
己学習等を模倣して、これらの問題を解決しようとする
試みが盛んに行われている。しかしながら、これらの試
みは計算機シミュレーションで行われているものが多
く、本来の機能を発揮させるためには、並列処理が必要
であり、そのためにはニューラルネットワークのハード
ウエア化が必要である。一部では、既にハードウエア化
の試みもなされているが、ニューラルネットワークの特
徴の一つである自己学習機能が実現できず、大きなネッ
クとなっている。また、殆どのものはアナログ回路で実
現されており、動作の点で問題がある。
2. Description of the Related Art The aim of parallel processing of information is to imitate the function of a nerve cell (neuron), which is a basic unit of information processing of a living body, and further to make this "nerve cell mimicking element" a network, and to process information in parallel. This is a so-called neural network. Although it is easy to perform character recognition, associative memory, motion control, etc. in a living body, there are many things that conventional Neumann computers cannot easily achieve. Therefore, attempts are being actively made to solve these problems by imitating the nervous system of the living body, particularly the functions peculiar to the living body, that is, parallel processing, self-learning and the like. However, many of these attempts are carried out by computer simulation, and parallel processing is necessary to bring out the original functions, and for that purpose, it is necessary to implement neural network hardware. Some have already tried to use hardware, but the self-learning function, which is one of the features of neural networks, cannot be realized, which is a major obstacle. Further, most of them are realized by analog circuits, and there is a problem in operation.

【0003】これらの点について、さらに詳細に検討す
る。まず、従来のニューラルネットワークのモデルにつ
いて説明する。図31はある1つの神経細胞ユニット
(神経細胞模倣素子)1を表すもので、図32はこれを
ネットワークにしたものである。即ち、1つの神経細胞
ユニット1は多数の他の神経細胞ユニット1と結合し信
号を受け、それを処理して出力を出す。図32の場合、
ネットワークは階層型であり、1つ前(左側)の層のユ
ニットより信号を受け、1つ先(右側)の層のユニット
へ出力する。
These points will be examined in more detail. First, a conventional neural network model will be described. FIG. 31 shows one nerve cell unit (nerve cell mimicking element) 1, and FIG. 32 shows this as a network. That is, one nerve cell unit 1 is combined with many other nerve cell units 1 to receive a signal, process the signal, and output the signal. In the case of FIG. 32,
The network is hierarchical, and receives a signal from a unit in the previous (left) layer and outputs it to a unit in the next (right) layer.

【0004】ここで、図31の神経細胞ユニット1にお
いて、他の神経細胞ユニットと自分の神経細胞ユニット
との結合の度合いを表すのが結合係数と呼ばれるもの
で、i番目のユニットとj番目のユニットとの結合計数
を、一般にTijで表す。結合には、相手のユニットから
の信号が大きいほど自分の出力が大きくなる興奮性結合
と、逆に、相手のユニットの信号が大きいほど自分の出
力が小さくなる抑制性結合とがあるが、Tij>0が興奮
性結合、Tij<0が抑制性結合を表す。自分がj番目の
ユニットの時、i番目のユニットからの入力をyi とす
ると、これに結合係数Tijを掛けたTiji が自分のユ
ニットへの入力となる。前述したように、各ユニットは
多数のユニットと結合しているので、それらのユニット
に対するTiji を足し合わせた結果なるΣTij
i が、自分のユニットへの入力となる。これを内部電位
といい、(1)式のようにuj で表す。
Here, in the nerve cell unit 1 of FIG. 31, the degree of coupling between another nerve cell unit and its own nerve cell unit is called a coupling coefficient, and the i-th unit and the j-th unit. The combined count with a unit is generally denoted by T ij . There are two types of coupling: excitatory coupling, in which the output of the partner unit increases as the signal from the partner unit increases, and conversely, inhibitory coupling in which the output of the partner unit decreases, the output decreases. ij > 0 represents excitatory coupling, and T ij <0 represents inhibitory coupling. If the input from the i-th unit is y i when it is the j-th unit, T ij y i obtained by multiplying this by the coupling coefficient T ij becomes the input to the own unit. As described above, since each unit is connected to a large number of units, ΣT ij y which is the result of adding T ij y i for these units
i becomes the input to your unit. This is called the internal potential and is represented by u j as in the equation (1).

【0005】[0005]

【数1】 [Equation 1]

【0006】次に、この入力に対して、非線形な処理を
して出力とする。この時の関数を神経細胞応答関数と呼
び、非線形関数として、(2)式及び図33に示すような
シグモイド関数を用いる。
Next, the input is subjected to non-linear processing and output. The function at this time is called a nerve cell response function, and the sigmoid function as shown in equation (2) and FIG. 33 is used as the nonlinear function.

【0007】[0007]

【数2】 [Equation 2]

【0008】図32に示すようにネットワークにした時
には、各結合係数Tijを与え、(1)(2)式を次々と計算
することにより、最終的な出力が得られるものである。
When a network is formed as shown in FIG. 32, a final output is obtained by giving each coupling coefficient T ij and successively calculating equations (1) and (2).

【0009】一方、このようなネットワークを電気回路
で実現したものの一例として、図34に示すようなもの
がある。これは、特開昭62−295188号公報中に
示されるもので、基本的には、S字形伝達関数を有する
複数の増幅器2と、各増幅器2の出力を他の層の増幅器
の入力に一点鎖線で示すように接続する抵抗性フィード
バック回路網3とを設けたものである。各増幅器2の入
力側には接地されたコンデンサと接地された抵抗とによ
るCR時定数回路4が個別に接続されている。そして、
入力電流I1,I2,〜,IN が各増幅器2の入力に供給
され、出力はこれらの増幅器2の出力電圧の集合から得
られる。
On the other hand, as an example of realizing such a network by an electric circuit, there is one as shown in FIG. This is disclosed in Japanese Patent Laid-Open No. 62-295188, and basically, a plurality of amplifiers 2 having an S-shaped transfer function, and the output of each amplifier 2 is connected to the input of the amplifier of another layer. And a resistive feedback network 3 connected as shown by the chain line. A CR time constant circuit 4 composed of a grounded capacitor and a grounded resistance is individually connected to the input side of each amplifier 2. And
Input currents I 1 , I 2 , ..., IN are supplied to the inputs of each amplifier 2 and the output is obtained from the set of output voltages of these amplifiers 2.

【0010】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞間の結合の強さは、各細胞間の入出力ラ
インを結ぶ抵抗5(抵抗性フィードバック回路網3中の
格子点)の抵抗値で表され、神経細胞応答関数は各増幅
器2の伝達関数で表される。また、神経細胞間の結合に
は、前述のように興奮性結合と抑制性結合とがあり数学
的には結合係数の正負符号により表される。しかし、回
路上の定数で正負を実現するのは困難であるので、ここ
では、増幅器2の出力を2つに分け、一方の出力を反転
させることにより、正負の2つの信号を生成し、これを
適当に選択することにより実現するようにしている。ま
た、図33に示したシグモイド関数に相当するものとし
ては増幅器が用いられている。
Here, the strength of the input or output signal is represented by a voltage, and the strength of the coupling between nerve cells is determined by the resistance 5 (the grid point in the resistive feedback network 3) connecting the input / output lines between the cells. ), And the nerve cell response function is represented by the transfer function of each amplifier 2. Further, the coupling between nerve cells includes excitatory coupling and inhibitory coupling as described above, and is mathematically represented by the sign of the coupling coefficient. However, since it is difficult to realize positive and negative with a constant on the circuit, here, the output of the amplifier 2 is divided into two, and one of the outputs is inverted to generate two signals of positive and negative. Is properly selected. An amplifier is used as the one corresponding to the sigmoid function shown in FIG.

【0011】しかし、これらの回路には、 ネットワ
ーク内部での信号の強度を電位や電流などのアナログ値
で表し、内部の演算もアナログ的に行わせるため、温度
特性や電源投入直後のドリフト等により、その値が変化
してしまう。 ネットワークであるので、素子の数も
多く必要とするが、各々の特性を揃えることは困難であ
る。 1つの素子の精度や安定性が問題となったと
き、それをネットワークにした場合、新たな問題を生ず
る可能性があり、ネットワーク全体で見たときの動きが
予想できない。 結合係数Tijの値が固定であり、予
めシミュレーションなどの他の方法で学習させた値を使
うしかなく、自己学習ができない。といった問題点があ
る。
However, in these circuits, the strength of a signal inside the network is represented by an analog value such as a potential or current, and the internal calculation is also performed in an analog manner. , Its value will change. Since it is a network, a large number of elements are required, but it is difficult to make the respective characteristics uniform. When the accuracy or stability of one element becomes a problem, if it is used as a network, a new problem may occur, and the behavior of the entire network cannot be predicted. Since the value of the coupling coefficient T ij is fixed and the value learned in advance by another method such as simulation is used, self-learning cannot be performed. There is a problem such as.

【0012】一方、数値計算で用いられている学習法則
としては、バックプロパゲーションと呼ばれる下記のよ
うなものがある。
On the other hand, as a learning law used in the numerical calculation, there is the following one called back propagation.

【0013】まず、各結合係数は最初にランダムに与え
ておく。この状態で、入力を与えると、出力結果は必ず
しも望ましいものとはならない。例えば、文字認識の場
合、手書きの「1」の文字を与えたとすると、出力結果
として「この文字は『1』である」と出るのが望ましい
結果であるが、結合係数がランダムであると必ずしも望
ましい結果とはならない。そこで、このネットワークに
正解(教師信号)を与えて、再び、同じ入力があったと
き正解となるように各結合係数を変化させる。このと
き、結合係数を変化させる量を求めるアルゴリズムが、
バックプロパゲーションと呼ばれているものである。
First, each coupling coefficient is first randomly given. If an input is given in this state, the output result is not always desirable. For example, in the case of character recognition, if a handwritten “1” character is given, the output result “This character is“ 1 ”” is a desirable result, but the coupling coefficient is not always random. Not the desired result. Therefore, a correct answer (teaching signal) is given to this network, and each coupling coefficient is changed so that the correct answer is given when the same input is given again. At this time, the algorithm to find the amount to change the coupling coefficient is
This is called back propagation.

【0014】例えば、図32に示した階層型のネットワ
ークにおいて、最終層のj番目の神経細胞ユニットの出
力をyjとし、その神経細胞ユニットに対する教師信号
をdjとすると、(3)式
For example, in the hierarchical network shown in FIG. 32, if the output of the j-th nerve cell unit in the final layer is y j and the teacher signal for that nerve cell unit is d j , then equation (3)

【数3】 で表されるEが最小となるように、(4)式[Equation 3] (4) so that E represented by

【数4】 を用いて、結合係数Tijを変化させる。[Equation 4] Is used to change the coupling coefficient T ij .

【0015】さらに具体的には、まず、出力層と、その
1つ前の層との結合係数を求める場合には、(5)式
More specifically, first, to obtain the coupling coefficient between the output layer and the layer immediately before it, the equation (5) is used.

【数5】 を用いて誤差信号δを求め、それよりさらに前の層同士
の結合係数を求める場合には、(6)式
[Equation 5] When the error signal δ is calculated using, and the coupling coefficient between the layers before that is calculated, equation (6) is used.

【数6】 を用いて誤差信号δを求め、(7)式[Equation 6] The error signal δ is calculated using

【数7】 を求めて、Tijを変化させる。ここに、ηは学習定数、
αは安定化定数と呼ばれるものである。各々論理的には
求められないので、経験的に求める。また、f′はシグ
モイド関数fの1階微分関数、ΔTij′,Tij′は前回
学習時の値である。
[Equation 7] And change T ij . Where η is a learning constant,
α is called a stabilization constant. Since it is not possible to obtain each logically, we ask empirically. Further, f ′ is a first-order differential function of the sigmoid function f, and ΔT ij ′ and T ij ′ are values at the time of previous learning.

【0016】このようにして学習をし、その後、再び入
力を与えて出力を計算し、学習をする。この操作を何回
も繰返す内に、やがて、与えられた入力に対して望まし
い結果が得られるような結合係数Tijが決定される。
Learning is carried out in this manner, and thereafter, the input is given again and the output is calculated and the learning is carried out. By repeating this operation many times, the coupling coefficient T ij is finally determined so as to obtain a desired result for a given input.

【0017】ところが、このような学習方法を何らかの
方法でハードウエア化しようとした場合、学習には、多
量の四則演算が必要であり、実現が困難である。学習方
法そのものもハードウエア化に対しては不向きである。
However, if such a learning method is to be implemented as hardware by some method, a large amount of four arithmetic operations are required for learning, which is difficult to realize. The learning method itself is not suitable for hardware implementation.

【0018】一方、デジタル回路でニューラルネットワ
ークを実現したものの例を図35ないし図37を参照し
て説明する。図35は単一の神経細胞の回路構成を示
し、各シナプス回路6を樹状突起回路7を介して細胞体
回路8に接続してなる。図36はその内のシナプス回路
6の構成例を示し、係数回路9を介して入力パルスfに
倍率a(フィードバック信号に掛ける倍率で、1又は
2)を掛けた値が入力されるレートマルチプライヤ10
を設けてなり、レートマルチプライヤ10には重み付け
の値wを記憶したシナプス荷重レジスタ11が接続され
ている。また、図37は細胞体回路8の構成例を示し、
制御回路12、アップ/ダウンカウンタ13、レートマ
ルチプライヤ14及びゲート15を順に接続してなり、
さらに、アップ/ダウンメモリ16が設けられている。
On the other hand, an example in which a neural network is realized by a digital circuit will be described with reference to FIGS. FIG. 35 shows a circuit configuration of a single nerve cell, in which each synapse circuit 6 is connected to a cell body circuit 8 via a dendrite circuit 7. FIG. 36 shows an example of the structure of the synapse circuit 6 in which a rate multiplier to which a value obtained by multiplying the input pulse f by a factor a (a factor for multiplying a feedback signal by 1 or 2) is input via a coefficient circuit 9. 10
And a synapse weight register 11 storing a weighting value w is connected to the rate multiplier 10. Further, FIG. 37 shows a configuration example of the cell body circuit 8,
A control circuit 12, an up / down counter 13, a rate multiplier 14 and a gate 15 are sequentially connected,
Further, an up / down memory 16 is provided.

【0019】これは、神経細胞ユニットの入出力をパル
ス列で表し、そのパルス密度で信号の量を表している。
結合係数は2進数で表し、メモリ16上に保存してお
く。入力信号をレートマルチプライヤ14のクロックへ
入力し、結合計数をレート値へ入力することによって、
入力信号のパルス密度をレート値に応じて減らしてい
る。これは、バックプロパゲーションモデルの式のTij
i の部分に相当する。次に、ΣTiji のΣの部分
は、樹状突起回路7によって示されるOR回路で実現し
ている。結合には興奮性、抑制性があるので、予めグル
ープ分けしておき、各々のグループ別にORをとる。こ
の2つの出力をカウンタ13のアップ側、ダウン側に入
力しカウントすることで出力が得られる。この出力は2
進数であるので、再びレートマルチプライヤ14を用い
て、パルス密度に変換する。このユニットをネットワー
クにすることによって、ニューラルネットワークが実現
できる。学習については、最終出力を外部のコンピュー
タに入力してコンピュータ内部で数値計算を行い、その
結果を結合係数のメモリ16に書込むことにより実現し
ている。従って、自己学習機能は全くない。また、回路
構成もパルス密度の信号をカウンタを用いて一旦数値
(2進数)に変換し、その後、再びパルス密度に変換し
ており、複雑なものとなっている。
The input / output of the nerve cell unit is represented by a pulse train, and the amount of signal is represented by the pulse density.
The coupling coefficient is represented by a binary number and stored in the memory 16. By inputting the input signal into the clock of the rate multiplier 14 and the combined count into the rate value,
The pulse density of the input signal is reduced according to the rate value. This is the T ij of the backpropagation model equation.
It corresponds to the part of y i . Next, the Σ portion of ΣT ij y i is realized by the OR circuit shown by the dendrite circuit 7. Since coupling has excitatory and inhibitory properties, it is divided into groups in advance, and OR is taken for each group. An output is obtained by inputting these two outputs to the up side and down side of the counter 13 and counting. This output is 2
Since it is a decimal number, the rate multiplier 14 is used again to convert it into a pulse density. A neural network can be realized by making this unit a network. The learning is realized by inputting the final output to an external computer, performing numerical calculation inside the computer, and writing the result in the coupling coefficient memory 16. Therefore, there is no self-learning function. Also, the circuit configuration is complicated because the pulse density signal is once converted into a numerical value (binary number) using a counter and then converted into the pulse density again.

【0020】[0020]

【発明が解決しようとする課題】このように従来技術に
よる場合、アナログ回路方式では動作に確実性がなく、
数値計算による学習方法も計算が複雑であり、ハードウ
エア化に適さず、動作が確実なデジタル方式のものは回
路構成が複雑である。また、ハードウエア上で自己学習
ができないという欠点もある。
As described above, in the case of the prior art, the analog circuit system is not reliable in operation,
The learning method by numerical calculation is also complicated in calculation, is not suitable for hardware implementation, and has a complicated circuit configuration in a digital method that ensures reliable operation. In addition, there is a drawback that self-learning cannot be performed on hardware.

【0021】このような欠点を解消するため、パルス密
度型の学習機能付きニューロンモデルが特願平2−41
2448号により提案され、さらには、特願平2−67
942号によりこのようなニューロンを用いてデジタル
又はアナログ信号を得るようにした方法が提案されてい
る。しかしながら、提案例に示される方式では、デジタ
ル又はアナログ信号に変換するのに時間を要し、運動制
御等のように高速性が要求される用途では問題となる。
In order to solve such a drawback, a pulse density type neuron model with a learning function is disclosed in Japanese Patent Application No. 2-41.
No. 2448, and Japanese Patent Application No. 2-67
No. 942 proposes a method for obtaining a digital or analog signal by using such a neuron. However, in the system shown in the proposed example, it takes time to convert it into a digital or analog signal, which is a problem in applications requiring high speed such as motion control.

【0022】この点を明らかにするため、本発明の前提
として提案例の構成・作用等について図2ないし図30
を参照して説明する。まず、提案例におけるニューラル
ネットワークはデジタル構成によりハードウエア化した
ものであるが、提案例の基本的な考え方としては、
神経細胞ユニットに関する入出力信号、中間信号、結合
係数、教師信号などは全て、「0」「1」の2値で表さ
れたパルス列で表す。 ネットワーク内部での信号の
量は、パルス密度で表す(ある一定時間内の「1」の
数)。 神経細胞ユニット内での計算は、パルス列同
士の論理演算で表す。 結合係数のパルス列はメモリ
上に置く。 学習は、このパルス列を書換えることで
実現する。 学習については、与えられた教師信号パ
ルス列を元に誤差を計算し、これに基づいて、結合係数
パルス列を変化させる。このとき、誤差の計算、結合係
数の変化分の計算も、全て、「0」「1」のパルス列の
論理演算で行う。ようにしたものである。
In order to clarify this point, the configuration and operation of the proposed example will be described with reference to FIGS.
Will be described with reference to. First, the neural network in the proposed example is hardwareized by a digital configuration, but the basic idea of the proposed example is:
Input / output signals, intermediate signals, coupling coefficients, teacher signals, etc. relating to the nerve cell unit are all represented by a pulse train represented by binary values of "0" and "1". The amount of signal inside the network is represented by the pulse density (the number of "1" s within a certain fixed time). The calculation in the nerve cell unit is represented by a logical operation between pulse trains. The pulse train of the coupling coefficient is placed in the memory. Learning is realized by rewriting this pulse train. For learning, an error is calculated based on the given teacher signal pulse train, and the coupling coefficient pulse train is changed based on the error. At this time, the calculation of the error and the change of the coupling coefficient are all performed by the logical operation of the pulse train of "0" and "1". It was done like this.

【0023】以下、この思想について説明する。最初
に、デジタル論理回路による信号処理に関し、フォワー
ドプロセスにおける信号処理を説明する。図2は1つの
神経細胞ユニット(神経細胞模倣素子)20に相当する
部分を示し、ニューラルネットワーク全体としては例え
ば図32に示した場合と同様に階層型とされる。入出力
は、全て、「1」「0」に2値化され、かつ、同期化さ
れたものが用いられる。入力信号yi の強度はパルス密
度で表現し、例えば図3に示すパルス列のようにある一
定時間内にある「1」の状態数で表す。即ち、図3の例
は、4/6を表し、同期パルス6個中に信号は「1」が
4個、「0」が2個である。このとき、「1」と「0」
の並び方は、ランダムであることが望ましい。
This idea will be described below. First, regarding the signal processing by the digital logic circuit, the signal processing in the forward process will be described. FIG. 2 shows a portion corresponding to one nerve cell unit (nerve cell mimicking element) 20, and the entire neural network is of a hierarchical type similar to the case shown in FIG. 32, for example. All inputs and outputs are binarized to “1” and “0” and synchronized. The intensity of the input signal y i is represented by a pulse density, and is represented by the number of states of “1” within a certain fixed time as in the pulse train shown in FIG. 3, for example. That is, the example of FIG. 3 represents 4/6, and the signal is 4 "1" and 2 "0" in 6 sync pulses. At this time, "1" and "0"
It is desirable that the arrangement of is random.

【0024】一方、各神経細胞ユニット20間の結合の
度合を示す結合係数Tijも同様にパルス密度で表現し、
「0」と「1」とのビット列として予めメモリ上に用意
しておく。図4の例は、「101010」=3/6を表
す式である。この場合も、「1」と「0」の並び方はラ
ンダムであることが望ましい。
On the other hand, the coupling coefficient T ij indicating the degree of coupling between the nerve cell units 20 is similarly expressed by pulse density,
A bit string of "0" and "1" is prepared in advance in the memory. The example of FIG. 4 is an expression representing “101010” = 3/6. Also in this case, it is desirable that the arrangement of "1" and "0" is random.

【0025】そして、このビット列を同期クロックに応
じてメモリ上より順次読出し、図2に示すように各々A
NDゲート21により入力信号パルス列との論理積をと
る(yi ∩ Tij)。これを、神経細胞jへの入力とす
る。上例の場合で説明すると、入力信号が「10110
1」として入力されたとき、これと同期してメモリ上よ
りパルス列を呼出し、順次ANDをとることにより、図
5に示すような「101000」が得られ、これは入力
i が結合係数Tijにより変換されパルス密度が2/6
となることを示している。
Then, this bit string is sequentially read from the memory in response to the synchronous clock, and as shown in FIG.
The ND gate 21 takes the logical product of the input signal pulse train (y i ∩ T ij ). This is used as an input to the nerve cell j. In the case of the above example, the input signal is “10110
When "1" is input, a pulse train is called from the memory in synchronism with this and by sequentially performing AND, "101000" as shown in FIG. 5 is obtained, which means that the input y i is the coupling coefficient T ij. And the pulse density is 2/6
It shows that it becomes.

【0026】ANDゲート21の出力のパルス密度は、
近似的には入力信号のパルス密度と結合係数のパルス密
度との積となり、アナログ方式の結合係数と同様の機能
を有する。これは、信号の列が長いほど、また、「1」
と「0」との並び方がランダムであるほど、数値の積に
近い機能を持つことになる。なお、入力パルス列に比べ
て結合係数のパルス列が短く、読出すべきデータがなく
なったら、再びデータの先頭に戻って読出しを繰返えせ
ばよい。
The pulse density of the output of the AND gate 21 is
It is approximately the product of the pulse density of the input signal and the pulse density of the coupling coefficient, and has the same function as the analog coupling coefficient. This is because the longer the signal sequence, the more "1"
The more random the arrangement of "0" and "0", the closer to the product of numerical values it has. If the pulse train of the coupling coefficient is shorter than the input pulse train and there is no data to be read, it is sufficient to return to the beginning of the data again and repeat the reading.

【0027】1つの神経細胞ユニット20は多入力であ
るので、前述した「入力信号と結合係数とのAND」も
多数あり、次にOR回路22によりこれらの論理和をと
る。入力は同期化されているので、例えば1番目のデー
タが「101000」、2番目のデータが「01000
0」の場合、両者のORをとると、「111000」と
なる。これをm個分について多入力同時に計算し出力と
すると、例えば図6に示すようになる。これは、アナロ
グ計算における和の計算及び非線形関数(シグモイド関
数)の部分に対応している。
Since one nerve cell unit 20 has multiple inputs, there are also many "ANDs of the input signal and the coupling coefficient" described above, and the OR circuit 22 then takes the logical sum of these. Since the inputs are synchronized, for example, the first data is "101000" and the second data is "01000".
In the case of “0”, the OR of both is “111000”. When this is calculated for m inputs for multiple inputs simultaneously and used as outputs, for example, as shown in FIG. This corresponds to the sum calculation and the non-linear function (sigmoid function) in the analog calculation.

【0028】パルス密度が低い場合、そのORをとった
もののパルス密度は、各々のパルス密度の和に近似的に
一致する。パルス密度が高くなるにつれ、OR回路22
の出力は段々飽和してくるので、パルス密度の和とは一
致せず、非線形性が出てくる。ORの場合、パルス密度
は1よりも大きくなることがなく、かつ、0より小さく
なることもなく、さらには、単調増加関数であり、シグ
モイド関数と近似的に同等となる。
When the pulse density is low, the pulse density of the OR of the pulse density approximately matches the sum of the respective pulse densities. As the pulse density increases, the OR circuit 22
Since the output of is gradually saturated, it does not match the sum of pulse densities, and nonlinearity appears. In the case of OR, the pulse density does not become larger than 1 and does not become smaller than 0, and is a monotonically increasing function, which is approximately equivalent to the sigmoid function.

【0029】ところで、結合には興奮性と抑制性があ
り、数値計算の場合には、結合係数の符号で表し、アナ
ログ回路の場合はTijが負となる場合(抑制性結合)は
増幅器を用いて出力を反転させてTijに相当する抵抗値
で他の神経細胞ユニットに結合させている。この点、デ
ジタル方式の提案例にあっては、まず、Tijの正負によ
り各結合を興奮性結合と抑制性結合との2つのグループ
に分け、次いで、「入力信号と結合係数のパルス列のA
ND」同士のORをこのグループ別に計算する。このよ
うにして得られた興奮性グループの結果と抑制性グルー
プの結果が、不一致であれば興奮性グループの結果を出
力する。即ち、興奮性グループの結果が「0」で抑制性
グループの結果が「1」であれば、「0」を出力し、興
奮性グループの結果が「1」で抑制性グループの結果が
「0」であれば、「1」を出力する。興奮性グループの
結果と抑制性グループの結果が一致したときには、
「0」を出力しても「1」を出力してもよく、或いは、
別個に用意された第2の入力信号を出力させてもよく、
又は、このような第2の入力信号とこの第2の入力信号
に対して設けたメモリの内容との論理積を演算したもの
を出力させるようにしてもよい。
By the way, the coupling has excitability and inhibitory property. In the case of numerical calculation, it is represented by the sign of the coupling coefficient. In the case of an analog circuit, when T ij is negative (inhibitory coupling), an amplifier is used. It is used to invert the output and connect it to another nerve cell unit with a resistance value corresponding to T ij . In this respect, in the proposed digital method, first, each coupling is divided into two groups of excitatory coupling and inhibitory coupling according to the positive or negative of T ij , and then “A of the pulse train of the input signal and the coupling coefficient is divided into two groups.
The OR of “ND” is calculated for each group. If the result of the excitatory group and the result of the inhibitory group thus obtained do not match, the result of the excitatory group is output. That is, if the result of the excitatory group is “0” and the result of the inhibitory group is “1”, “0” is output, and the result of the excitatory group is “1” and the result of the inhibitory group is “0”. , "1" is output. When the results of the excitatory group and the results of the inhibitory group match,
Either "0" or "1" may be output, or
You may output the separately prepared second input signal,
Alternatively, a logical product of such a second input signal and the contents of the memory provided for the second input signal may be calculated and output.

【0030】この機能を実現するため、まず、「0」を
出力させる例の場合であれば、興奮性グループの出力と
抑制性グループの出力の否定とのANDをとればよい。
図7はこの例を示すもので、数式で示すと、(8)〜(10)
式のようになる。
In order to realize this function, in the case of outputting "0", the output of the excitatory group and the negation of the output of the inhibitory group may be ANDed.
FIG. 7 shows an example of this, and when expressed by mathematical formulas, (8) to (10)
It becomes like a formula.

【0031】[0031]

【数8】 [Equation 8]

【0032】また、「1」を出力させる例の場合であれ
ば、興奮性グループの出力の否定と抑制性グループの出
力とのANDをとればよい。図8はこの例を示すもの
で、数式で示すと、(11)〜(13)式のようになる。
In the case of the example of outputting "1", the negation of the output of the excitatory group and the output of the inhibitory group may be ANDed. FIG. 8 shows this example, which is expressed by equations (11) to (13).

【0033】[0033]

【数9】 [Equation 9]

【0034】第2の入力信号を出力させる例の場合であ
れば、第2の入力信号をEとすると図9に示すようにな
り、数式で示すと、(14)〜(16)式のようになる。
In the case of an example of outputting the second input signal, the second input signal is represented by E as shown in FIG. 9, which is expressed by equations (14) to (16). become.

【0035】[0035]

【数10】 [Equation 10]

【0036】さらに、第4の方式の例であれば、第2の
入力信号Eに対して設けられたメモリの内容(係数)を
T′とすると、図10に示すようになり、数式で示す
と、(17)〜(19)式のようになる。
Further, in the case of the example of the fourth method, assuming that the content (coefficient) of the memory provided for the second input signal E is T ', it becomes as shown in FIG. And, it becomes like (17)-(19).

【0037】[0037]

【数11】 [Equation 11]

【0038】神経細胞ユニット20のネットワークは、
バックプロパゲーションと同様な階層型(即ち、図3
2)とする。そして、ネットワーク全体を同期させてお
けば、各層とも上述した機能により計算できる。
The network of nerve cell units 20 is
Hierarchical type similar to backpropagation (ie, FIG.
2). If the entire network is synchronized, each layer can be calculated by the functions described above.

【0039】次に、学習(バックプロパゲーション)に
おける信号演算処理について説明する。基本的には、以
下のa又はbにより誤差信号を求め、次いで、cの方法
により結合係数の値を変化させるようにすればよい。
Next, the signal calculation processing in learning (back propagation) will be described. Basically, the error signal may be obtained by the following a or b, and then the value of the coupling coefficient may be changed by the method of c.

【0040】まず、aとして最終層における誤差信号に
ついて説明する。最終層で各神経細胞ユニットにおける
誤差信号を計算し、それを基にその神経細胞ユニットに
関わる結合係数を変化させる。そのための、誤差信号の
計算法について述べる。ここに、「誤差信号」を以下の
ように定義する。誤差を数値で表すと、一般には+,−
の両方をとり得るが、パルス密度の場合には、正、負の
両方を同時に表現できないので、+成分を表す信号と、
−成分を表す信号との2種類を用いて誤差信号を表現す
る。即ち、j番目の神経細胞ユニットの誤差信号は、図
11のように示される。つまり、誤差信号の+成分は教
師信号パルスと出力パルスとの違っている部分(1,
0)又は(0,1)の内、教師信号側に存在するパルス
であり、−成分は同様に出力側に存在するパルスであ
る。換言すれば、出力信号yj に誤差信号+パルスを付
け加え、誤差信号−パルスを取り除くと、教師信号dj
となることになる。即ち、これらの正負の誤差信号δ
j(+),δj(-)を論理式で表現すると、各々(20)(21)式の
ようになる。式中、XORは排他的論理和を表す。この
ような誤差信号パルスを元に結合係数を後述するように
変化させることになる。
First, the error signal in the final layer will be described as a. The error signal in each nerve cell unit is calculated in the final layer, and the coupling coefficient relating to that nerve cell unit is changed based on the error signal. The calculation method of the error signal for that purpose is described. Here, the "error signal" is defined as follows. When the error is expressed numerically, it is generally +,-
However, in the case of pulse density, both positive and negative cannot be expressed at the same time.
Express the error signal using two types: a signal representing the component. That is, the error signal of the jth nerve cell unit is shown in FIG. That is, the + component of the error signal is the difference between the teacher signal pulse and the output pulse (1,
0) or (0, 1) is a pulse existing on the teacher signal side, and the − component is a pulse also existing on the output side. In other words, if the error signal + pulse is added to the output signal y j and the error signal−pulse is removed, the teacher signal d j
Will be. That is, these positive and negative error signals δ
When j (+) and δ j (-) are expressed by logical expressions, they become the expressions (20) and (21), respectively. In the formula, XOR represents exclusive OR. The coupling coefficient is changed based on such an error signal pulse as described later.

【0041】[0041]

【数12】 [Equation 12]

【0042】次に、bとして中間層における誤差信号を
求める方法を説明する。まず、上記の誤差信号を逆伝播
させ、最終層とその1つ前の層との結合係数だけでな
く、さらにその前の層の結合係数も変化する。そのた
め、中間層における各神経細胞ユニットでの誤差信号を
計算する必要がある。中間層のある神経細胞ユニットか
ら、さらに1つ先の層の各神経細胞ユニットへ信号を伝
播させたのとは、丁度逆の要領で1つ先の層の各神経細
胞ユニットにおける誤差信号を集めてきて、自己の誤差
信号とする。このことは、神経細胞ユニット内での前述
した演算式(8)〜(10)や図3〜図8に示した場合と同じ
ような要領で行うことができる。ただし、神経細胞ユニ
ット内での前述した処理と異なるのは、yj が常に正な
る1つの信号であるのに対して、δj は正、負を表す信
号として2つの信号を持ち、その両方の信号を考慮する
必要があることである。従って、結合係数Tijの正負、
誤差信号δj の正負に応じて4つの場合に分ける必要が
ある。
Next, a method of obtaining an error signal in the intermediate layer as b will be described. First, the above-mentioned error signal is back-propagated to change not only the coupling coefficient between the final layer and the layer immediately before it but also the coupling coefficient of the layer before that. Therefore, it is necessary to calculate the error signal in each nerve cell unit in the middle layer. Signals are propagated from a neuron unit with an intermediate layer to each neuron unit in the next layer, which is exactly the reverse of the procedure of collecting error signals in each neuron unit in the next layer. And use it as its own error signal. This can be performed in the same manner as the above-described arithmetic expressions (8) to (10) and the cases shown in FIGS. 3 to 8 in the nerve cell unit. However, what is different from the above-mentioned processing in the nerve cell unit is that y j is one signal that is always positive, whereas δ j has two signals that represent positive and negative. It is necessary to consider the signal of. Therefore, whether the coupling coefficient T ij is positive or negative,
It is necessary to divide into four cases depending on whether the error signal δ j is positive or negative.

【0043】まず、興奮性結合の場合を説明する。この
場合、中間層のある神経細胞ユニットについて、1つ先
の層のk番目の神経細胞ユニットでの誤差信号δ
k(+)と、その神経細胞ユニットと自己との結合係数Tjk
のANDをとったもの(δk(+) ∩Tjk)を各神経細胞
ユニットについて求め、さらに、これら同士のORをと
る{∪(δk(+) ∩ Tjk)}。これをこの中間層の誤差
信号δj(+)とする。即ち、1つ先の層の神経細胞ユニッ
トをn個とすると、図12に示すようになる。これらを
順に数式で示すと、(22)〜(24)式のようになる。
First, the case of excitatory coupling will be described. In this case, for a nerve cell unit with an intermediate layer, the error signal δ at the kth nerve cell unit in the layer immediately ahead
k (+) and the coupling coefficient T jk between the nerve cell unit and self
Those taking AND of (δ k (+) ∩T jk ) look for each neuron unit, further, take the OR of these with each other {∪ (δ k (+) ∩ T jk)}. This is the error signal δ j (+) of this intermediate layer. That is, assuming that the number of nerve cell units in the previous layer is n, the result is as shown in FIG. If these are shown in order by mathematical expressions, they will be as shown in Expressions (22) to (24).

【0044】[0044]

【数13】 [Equation 13]

【0045】同様に、1つ先の層の神経細胞ユニットで
の誤差信号δk(-)と結合係数TjkとのANDをとり、さ
らにこれら同士のORをとることにより、この中間層の
誤差信号δj(-)とする。即ち、図13に示すようにな
り、これらを順に数式で示すと、(25)〜(27)式のように
なる。
Similarly, the error of this intermediate layer is obtained by ANDing the error signal δ k (-) and the coupling coefficient T jk in the nerve cell unit of the layer one ahead and further ORing them. Let the signal δ j (-) . That is, it becomes as shown in FIG. 13, and when these are expressed in order by mathematical expressions, they become as in Expressions (25) to (27).

【0046】[0046]

【数14】 [Equation 14]

【0047】次に、抑制性結合の場合を説明する。この
場合、1つ先の層の神経細胞ユニットでの誤差信号δ
k(-)とその神経細胞ユニットと自己との結合係数Tjk
ANDをとり、さらにこれら同士のORをとる。これ
を、この中間層の誤差信号δj(+)とする。即ち、図14
に示すようになり、これらを順に数式で示すと、(28)〜
(30)式のようになる。
Next, the case of inhibitory binding will be described. In this case, the error signal δ in the nerve cell unit of the next layer
The AND of the coupling coefficient T jk between k (-) and its nerve cell unit and self is taken, and the OR of these is taken. This is the error signal δ j (+) of this intermediate layer. That is, in FIG.
As shown in, the mathematical expression of these in order is (28) ~
It becomes like the formula (30).

【0048】[0048]

【数15】 [Equation 15]

【0049】また、1つ先の誤差信号δk(+)と結合係数
jkとのANDをとり、さらにこれら同士のORをとる
ことにより、同様に、この層の誤差信号δj(-)とする。
即ち、図15に示すようになり、これらを順に数式で示
すと、(31)〜(33)式のようになる。
Similarly, the AND of the preceding error signal δ k (+) and the coupling coefficient T jk is performed, and the OR of these is performed, and similarly, the error signal δ j (-) of this layer is also obtained. And
That is, it becomes as shown in FIG. 15, and when these are expressed in order by mathematical expressions, they become as in Expressions (31) to (33).

【0050】[0050]

【数16】 [Equation 16]

【0051】1つの神経細胞ユニットから別の神経細胞
ユニットへは興奮性で結合しているものもあれば、抑制
性で結合しているものもあるので、図12のように求め
た誤差信号δj(+)と図14のように求めた誤差信号δ
j(+)とのORをとり、それを自分の神経細胞ユニットの
誤差信号δj(+)とする。同様に、図13のように求めた
誤差信号δj(-)と図15のように求めた誤差信号δj(-)
とのORをとり、それを自分の神経細胞ユニットの誤差
信号δj(-)とする。
Since some nerve cell units are excitatoryly coupled to other nerve cell units and some are inhibitoryly coupled, the error signal δ obtained as shown in FIG. 12 is used. j (+) and the error signal δ obtained as shown in FIG.
The OR with j (+) is taken to be the error signal δ j (+) of its own nerve cell unit. Similarly, the error signal [delta] j determined as in FIG. 13 (-) and the error signal [delta] j determined as in FIG. 15 (-)
Is taken as the error signal δ j (-) of the own nerve cell unit.

【0052】以上をまとめると、(34)式Summarizing the above, equation (34)

【数17】 に示すようになる。[Equation 17] As shown in.

【0053】或いは、(35)式に示すようになる。Alternatively, it becomes as shown in equation (35).

【0054】[0054]

【数18】 [Equation 18]

【0055】さらに、学習のレート(学習定数)に相当
する機能を設けてもよい。数値計算でレートが1以下の
とき、さらに学習能力が高まる。これはパルス列の演算
ではパルス列を間引くことによって実現できる。ここで
は、カウンタ的な考え方をし、図16、図17に示すよ
うなものとした。例えば、学習レートη=0.5では元
の信号のパルス列を1つ置きに間引くが、元の信号のパ
ルスが等間隔でなくても、元のパルス列に対して間引く
ことができる。図16,17中、η=0.5の場合はパ
ルスを1つ置きに間引き、η=0.33の場合はパルス
を2つ置きに残し、η=0.67の場合はパルスを2つ
置きに1回間引くことを示す。
Further, a function corresponding to the learning rate (learning constant) may be provided. When the rate is 1 or less in the numerical calculation, the learning ability is further enhanced. This can be realized by thinning out the pulse train in the pulse train calculation. Here, a counter-like concept is adopted, and the ones shown in FIGS. 16 and 17 are adopted. For example, at the learning rate η = 0.5, every other pulse train of the original signal is thinned out, but even if the pulses of the original signal are not evenly spaced, the original pulse train can be thinned out. 16 and 17, in the case of η = 0.5, every other pulse is thinned out, in the case of η = 0.33, every two pulses are left, and in the case of η = 0.67, two pulses are left. It indicates that one thinning is performed every other time.

【0056】このようにして、誤差信号を間引くことに
より学習レートの機能を持たせる。このような誤差信号
の間引きは、通常市販されているカウンタの出力を論理
演算することやフリップフロップを用いることにより容
易に実現できる。特に、カウンタを用いた場合、学習定
数ηの値を任意、かつ、容易に設定できるので、ネット
ワークの特性を制御することも可能となる。
In this way, the function of the learning rate is provided by thinning out the error signal. Such decimation of the error signal can be easily realized by logically operating the output of a counter commercially available or using a flip-flop. In particular, when a counter is used, the value of the learning constant η can be set arbitrarily and easily, so that the characteristics of the network can be controlled.

【0057】さらに、cとして、このような誤差信号に
より各結合係数を変化させる方法について説明する。変
化させたい結合係数が属しているライン(図32参照)
を流れる信号と誤差信号のANDをとる(δj∩yj)。
ただし、ここでは誤差信号には+,−の2つの信号があ
るので、各々演算して図18,図19に示すように求め
る。
Further, as c, a method of changing each coupling coefficient by such an error signal will be described. Line to which the coupling coefficient you want to change belongs (see Figure 32)
The signal flowing through and the error signal are ANDed (δ jy j ).
However, here, since there are two signals of + and-in the error signal, they are respectively calculated and obtained as shown in FIGS.

【0058】このようにして得られた2つの信号を各々
ΔTij(+),ΔTij(-)とする。ついで、今度はこのΔT
ijを元に新しいTijを求めるが、このTijは絶対値成分
であるので、元のTijが興奮性か抑制性かで場合分けす
る。興奮性の場合、元のTijに対してΔTij(+)の成分
を増やし、ΔTij(-)の成分を減らす。即ち、図20に
示すようになる。逆に、抑制性の場合は元のTijに対し
ΔTij(+) の成分を減らし、ΔTij(-)の成分を増や
す。即ち、図21に示すようになる。
The two signals thus obtained are designated as ΔT ij (+) and ΔT ij (-) , respectively. Next, this ΔT
A new T ij is obtained based on ij . Since this T ij is an absolute value component, it is classified depending on whether the original T ij is excitatory or inhibitory. In the case of excitability, the component of ΔT ij (+) is increased and the component of ΔT ij (−) is decreased with respect to the original T ij . That is, it becomes as shown in FIG. On the contrary, in the case of the suppressive property, the component of ΔT ij (+) is reduced and the component of ΔT ij (−) is increased with respect to the original T ij . That is, it becomes as shown in FIG.

【0059】これらの図20,図21の内容を数式で示
すと、(36)(37)式のようになる。
The contents of these FIG. 20 and FIG. 21 are expressed by mathematical expressions as shown in equations (36) and (37).

【0060】[0060]

【数19】 [Formula 19]

【0061】以上の学習則に基づいてネットワークの計
算をする。
The network is calculated based on the above learning rule.

【0062】次に、以上のアルゴリズムに基づく実際の
回路構成を説明する。図22ないし図27にその回路構
成例を示すが、ネットワーク2全体の構成は図32と同
様である。図22〜図25は図32のような階層型ネッ
トワーク中のライン(結線)に相当する部分の回路を示
し、図26は図32中の丸(提案例では、各神経細胞ユ
ニット20)に相当する部分の回路を示す。また、図2
7は最終層の出力と教師信号から最終層における誤差信
号を求める部分の回路を示す。これらの図22ないし図
24構成の3つの回路を図32の場合のようにネットワ
ークにすることにより、自己学習可能なデジタル式のニ
ューラルネットワークが実現できる。
Next, an actual circuit configuration based on the above algorithm will be described. 22 to 27 show examples of the circuit configuration thereof, the configuration of the entire network 2 is the same as that of FIG. 22 to 25 show a circuit of a portion corresponding to a line (connection) in the hierarchical network as shown in FIG. 32, and FIG. 26 corresponds to a circle in FIG. 32 (each nerve cell unit 20 in the proposed example). The circuit of the part to be shown is shown. Also, FIG.
Reference numeral 7 denotes a circuit of a portion for obtaining an error signal in the final layer from the output of the final layer and the teacher signal. A digital neural network capable of self-learning can be realized by forming a network of these three circuits having the configurations of FIGS. 22 to 24 as in the case of FIG.

【0063】まず、図22から説明する。図中、25は
図4に示したような神経細胞ユニットへの入力信号であ
る。図5に示したような結合係数の値はシフトレジスタ
26に保存しておく。このシフトレジスタ26は取出し
口26aと入口26bとを有するが、通常のシフトレジ
スタと同様の機能を持つものであればよく、例えば、R
AMとアドレスコントローラとの組合せによるもの等で
あってもよい。入力信号25とシフトレジスタ26内の
結合係数とはANDゲート27を備えて図6に示した処
理を行なう論理回路28によりANDがとられる。この
論理回路28の出力は結合が興奮性か抑制性かによって
グループ分けしなければならないが、予め各々のグルー
プへの出力29,30を用意し、何れに出力するのかを
切換えるようにした方が汎用性の高いものとなる。この
ため、提案例では結合が興奮性か抑制性かを表すビット
をグループ分け用メモリ31に保存しておき、その情報
を用いて切換えゲート回路32により切換える。切換え
ゲート回路32は2つのANDゲート32a,32bと
一方の入力に介在されたインバータ32cとよりなる。
First, FIG. 22 will be described. In the figure, 25 is an input signal to the nerve cell unit as shown in FIG. The value of the coupling coefficient as shown in FIG. 5 is stored in the shift register 26. The shift register 26 has an outlet 26a and an inlet 26b, but may be any one having the same function as a normal shift register, for example, R
It may be a combination of an AM and an address controller. The input signal 25 and the coupling coefficient in the shift register 26 are ANDed by a logic circuit 28 having an AND gate 27 and performing the processing shown in FIG. The output of the logic circuit 28 must be divided into groups depending on whether the coupling is excitatory or inhibitory. However, it is better to prepare the outputs 29 and 30 for each group in advance and switch which one of them is output. It is highly versatile. Therefore, in the proposed example, a bit indicating whether the coupling is excitatory or inhibitory is stored in the grouping memory 31, and the information is used to switch by the switching gate circuit 32. The switching gate circuit 32 includes two AND gates 32a and 32b and an inverter 32c interposed at one input.

【0064】切換える必要のない場合には、各々固定し
ても構わない。例えば、興奮性の場合を図23、抑制性
の場合を図24に示す。また、1つの入力に対して、興
奮性を表すビットに対するメモリと、抑制性を表すビッ
トに対するメモリとの両方を用意してもよい。図25は
この例を示す。図中、26Aが興奮性を表す結合係数に
対するビットのメモリ、26Bが抑制性を表す結合係数
に対するビットのメモリである。
When it is not necessary to switch, they may be fixed. For example, FIG. 23 shows the case of excitability and FIG. 24 shows the case of inhibition. Further, for one input, both a memory for a bit indicating excitability and a memory for a bit indicating inhibitory property may be prepared. FIG. 25 shows this example. In the figure, 26A is a bit memory for a coupling coefficient indicating excitability, and 26B is a bit memory for a coupling coefficient indicating inhibition.

【0065】また、図26に示すように各入力処理(図
6に相当)をする複数のORゲート構成のゲート回路3
3a,33bが設けられている。さらに、同図に示すよ
うに図7に示した興奮性結合グループが「1」で、抑制
性結合グループが「0」のときにのみ出力「1」を出す
ANDゲート34aとインバータ34bとによるゲート
回路34が設けられている。図8ないし図10に例示し
たような処理結果とする場合にも同様に論理回路で容易
に実現できる。
Further, as shown in FIG. 26, a gate circuit 3 having a plurality of OR gates for performing each input process (corresponding to FIG. 6).
3a and 33b are provided. Further, as shown in the figure, a gate formed by an AND gate 34a and an inverter 34b which outputs an output "1" only when the excitatory coupling group shown in FIG. 7 is "1" and the inhibitory coupling group is "0". A circuit 34 is provided. Even when the processing results illustrated in FIGS. 8 to 10 are obtained, it can be easily realized by the logic circuit.

【0066】次に、誤差信号について説明する。最終層
での誤差信号を生成するのが図27に示すAND,排他
的ORの組合せによる論理回路35であり、(6)(7)式
に相当する。即ち、最終層からの出力36及び教師信号
37により誤差信号38,39を作るものである。中間
層における誤差信号を計算する(35)式の内、Ej(+),E
j(-)を求める処理は、図22中に示すANDゲート構成
のゲート回路42により行われ、+,−に応じた出力4
3,44が得られる。このように結合が興奮性か抑制性
かにより場合分けする必要があるが、この場合分けはメ
モリ31に記憶された興奮性か抑制性かの情報と、誤差
信号の+,−信号45,46とに応じて、AND,OR
ゲート構成のゲート回路47により行われる。また、誤
差信号を集める計算式(8)、即ち、(35)式の残りの部分
は図26に示すORゲート構成のゲート回路48により
行われる。さらに、学習レートに相当する図16,17
の処理は図26中に示す分周回路49により行われる。
これは、フリップフロップ等を用いることにより容易に
実現できる。
Next, the error signal will be described. The error signal in the final layer is generated by the logic circuit 35 based on the combination of AND and exclusive OR shown in FIG. 27, which corresponds to the equations (6) and (7). That is, the error signals 38 and 39 are generated by the output 36 from the final layer and the teacher signal 37. Among the equations (35) for calculating the error signal in the intermediate layer, E j (+) , E
The process of obtaining j (-) is performed by the gate circuit 42 having the AND gate configuration shown in FIG.
3,44 is obtained. As described above, it is necessary to classify the connection depending on whether it is excitatory or inhibitory. In this case, the information on excitatory or inhibitory stored in the memory 31 and the +,-signals 45 and 46 of the error signal are used. AND, OR depending on
This is performed by the gate circuit 47 having a gate configuration. The remaining part of the equation (8) for collecting error signals, that is, the equation (35), is performed by the gate circuit 48 having the OR gate configuration shown in FIG. 16 and 17 corresponding to the learning rate.
This process is performed by the frequency dividing circuit 49 shown in FIG.
This can be easily realized by using a flip-flop or the like.

【0067】最後に、誤差信号より新たな結合係数を計
算する部分、即ち、図18〜図21の処理に相当する部
分は、図22中に示すAND,インバータ、ORゲート
構成のゲート回路50により行われ、シフトレジスタ2
6の内容、即ち、結合係数の値が書換えられる。このゲ
ート回路50も結合の興奮性、抑制性によって場合分け
が必要であるが、ゲート回路47により行われる。図2
3,図24の場合には、興奮性、抑制性が固定であるの
で、ゲート回路47に相当する回路は不要である。図2
5の方式の場合は、1つの入力に対して興奮性、抑制性
の両方を持つので、ゲート回路50Aが興奮性の場合、
ゲート回路50Bが抑制性の場合に相当する。
Finally, the part for calculating a new coupling coefficient from the error signal, that is, the part corresponding to the processing of FIGS. 18 to 21, is performed by the gate circuit 50 having the AND, inverter and OR gate configurations shown in FIG. Done, shift register 2
The contents of 6, that is, the value of the coupling coefficient is rewritten. This gate circuit 50 also needs to be divided into cases depending on the excitability and inhibitory property of the coupling, but it is performed by the gate circuit 47. Figure 2
In the case of FIG. 3 and FIG. 24, since excitability and inhibitory property are fixed, a circuit corresponding to the gate circuit 47 is unnecessary. Figure 2
In the case of the method of 5, the input circuit has both excitability and inhibitory property with respect to one input. Therefore, when the gate circuit 50A is excitatory,
This corresponds to the case where the gate circuit 50B has the suppressing property.

【0068】以上、説明したように信号をパルス密度で
表現する手法は、実際の回路のみならず、計算機上でシ
ミュレートする場合にも有用である。計算機上では、演
算は直列的に行われるが、アナログ値を用いて計算させ
るのに比べて、「0」「1」の2値の論理演算のみであ
るので、計算速度が著しく向上する。一般に、実数値の
四則演算は、1回の計算に多くのマシンサイクルを必要
とするが、論理演算では少なくて済む。また、論理演算
のみであると、高速処理向けの低水準言語が使用しやす
いといった特徴も持つ。
As described above, the method of expressing a signal with a pulse density is useful not only for actual circuits but also for simulation on a computer. On the computer, the calculation is performed serially, but compared with the calculation using the analog value, only the binary logical calculation of "0" and "1" is performed, so that the calculation speed is significantly improved. Generally, the real number arithmetic operations require many machine cycles for one calculation, but the number of arithmetic operations is small. In addition, it is also easy to use low-level languages for high-speed processing when only logical operations are performed.

【0069】ところで、上述した処理方法を実施する上
で全部を回路化する必要はなく、一部又は全部をソフト
ウエアで行わせるようにしてもよい。また、回路自体も
論理が等価な別の回路に置換えてもよく、論理を負論理
に置換えてもよい。
By the way, it is not necessary to implement all the circuits in implementing the above-described processing method, and some or all of them may be implemented by software. Further, the circuit itself may be replaced with another circuit having an equivalent logic, or the logic may be replaced with a negative logic.

【0070】このようなニューラルネットワークを用い
た自己学習式文字認識装置の場合を例にとり、実測例を
説明する。まず、手書き文字をスキャナで読取り、図2
8に示すように16×16のメッシュに分け、文字部分
のあるメッシュを「1」、ないメッシュを「0」とし
た。このような256個のデータをネットワークに入力
させ、出力は5つあるユニットの内で一番大きい出力の
ものの位置が、認識結果となるようにした。そのため、
「1」〜「5」までの数字を入力したとき、その数字に
対応する番号の出力が一番大きくなるように学習させ
た。次に、ネットワークの構成は、第1層目が256
個、第2層目が20個、第3層目が5個の神経細胞ユニ
ット20からなるものとした。最初、各結合係数をラン
ダムに与えておくと、出力結果は必ずしも所望のものと
はならない。そこで、この回路の自己学習機能を用い
て、各結合係数を新たに求め、これを何回か繰返すこと
により、所望の出力が得られるようにする。提案例で
は、入力は「0」か「1」であるので、入力パルス列は
常にLレベル又はHレベルの単純なものとなる。また、
出力はトランジスタを介してLEDと結び、Lレベルの
時には消灯、Hレベルの時には点灯するようにした。同
期クロックを1000kHzとしたので、パルス密度に
応じて人間の目にはLEDの明るさが変わるので、一番
明るいLEDの部分が答えになる。十分学習させた文字
に対しては認識率100%が得られたものである。
An example of actual measurement will be described taking the case of a self-learning character recognition device using such a neural network as an example. First, scan the handwritten characters with a scanner and
As shown in FIG. 8, the mesh was divided into 16 × 16 meshes, the mesh with the character portion was “1”, and the mesh without the character portion was “0”. 256 pieces of such data were input to the network, and the position of the output having the largest output among the units having five outputs was set as the recognition result. for that reason,
When a number from "1" to "5" was input, learning was performed so that the output of the number corresponding to the number was the largest. Next, regarding the network configuration, the first layer is 256
It was assumed that the nerve cell unit 20 consisted of 20 units, the second layer was 20 units, and the third layer was 5 units. First, if each coupling coefficient is given randomly, the output result is not always the desired one. Therefore, the self-learning function of this circuit is used to newly obtain each coupling coefficient and repeat this several times so that a desired output can be obtained. In the proposed example, since the input is "0" or "1", the input pulse train is always simple at L level or H level. Also,
The output is connected to the LED via a transistor so that it is turned off at the L level and turned on at the H level. Since the synchronization clock is set to 1000 kHz, the brightness of the LED changes for human eyes according to the pulse density, and the brightest LED part is the answer. A recognition rate of 100% was obtained for a sufficiently learned character.

【0071】しかして、最終出力もパルス列で得られる
ので、場合によっては、これをバイナリデータに直した
り、アナログ信号に直す必要がある。この点、提案例方
式では、図29及び図30に示すように、出力のパルス
列をある一定時間カウントして、バイナリデータを得る
ようにしている。これは、基本クロック5個分の間、出
力のパルス列を同期式のカウンタ55でカウントするよ
うにしたものである。即ち、パルス列6個置きにクリア
信号を発生させ、カウンタ55のクリア端子(Lレベル
でクリア)に入力してクリアする。このシステムの基本
クロックをカウンタ55のクロック端子に入力させ、出
力のパルス列をカウンタ55のイネーブル端子(Hレベ
ルでイネーブル)へ入力させると、カウントされたバイ
ナリデータが得られる。この方法の場合、バイナリーデ
ータが得られるタイミングは、図30中に示すようにな
り基本クロックが複数個入力する毎(図30中に示すタ
イミングA,B、例えばタイミングBでは区間の間で
のカウント値が得られる)にしか、データが得られな
い。よって、運動制御等、特に高速性が要求される用途
では対応できないものとなる。
However, since the final output is also obtained as a pulse train, it may be necessary to convert this into binary data or an analog signal in some cases. In this respect, in the proposed example system, as shown in FIGS. 29 and 30, the output pulse train is counted for a certain period of time to obtain binary data. This is one in which an output pulse train is counted by a synchronous counter 55 for five basic clocks. That is, a clear signal is generated every six pulse trains and is input to the clear terminal (clear at L level) of the counter 55 to clear it. When the basic clock of this system is input to the clock terminal of the counter 55 and the output pulse train is input to the enable terminal (enable at H level) of the counter 55, the counted binary data is obtained. In the case of this method, the timing at which the binary data is obtained is as shown in FIG. 30, and every time a plurality of basic clocks are input (timing A and B shown in FIG. 30, for example, timing B is counted between intervals). Only when the value is obtained) can the data be obtained. Therefore, it cannot be applied to applications such as motion control that require particularly high speed.

【0072】[0072]

【課題を解決するための手段】結合係数可変手段と、こ
の結合係数可変手段の可変結合係数値を教師信号に対す
る誤差信号に基づいて生成する結合係数生成手段と、結
合係数値を変化状態と固定状態とに切換える切換え手段
とを有する自己学習手段を神経細胞模倣素子に付設した
複数の神経細胞模倣手段を網状に接続した信号処理手段
を設け、最終出力段に、最終出力結果を保存する保存手
段と、この保存手段に保存された結果を所定の時間経過
後に取出す信号取出し手段と、前記最終出力結果とこの
信号取出し手段により前記保存手段から取出された出力
結果とに基づき動作決定されて2値データを出力するア
ップダウンカウンタとを設けた。
[Means for Solving the Problems] Coupling coefficient varying means, coupling coefficient generating means for generating a variable coupling coefficient value of the coupling coefficient varying means based on an error signal with respect to a teacher signal, and the coupling coefficient value being fixed in a changed state. A storage means for storing a final output result in a final output stage, which is provided with a signal processing means in which a plurality of neural cell mimicking means having a self-learning means having a switching means for switching to a state are connected to a neural cell mimicking element And a signal extracting means for extracting the result stored in the storing means after a predetermined time has passed, an operation is determined based on the final output result and the output result extracted from the storing means by the signal extracting means, and the binary value is obtained. An up / down counter for outputting data was provided.

【0073】[0073]

【作用】最終出力結果を保存手段に保存して所定時間後
に取出すということは、ある時点では、それ以前の最終
出力結果も得られることを意味し、この出力結果と現在
の最終出力結果との双方を用いてアップダウンカウンタ
のカウント動作を決定して、最終出力結果をアップカウ
ントし、又は、ダウンカウントし、或いは、カウントし
ないことにより、基本クロックの複数個入力を待つこと
なく、順次アップダウンカウンタから2値データが得ら
れるものとなり、高速対応性のよいものとなる。
The fact that the final output result is stored in the storage means and taken out after a predetermined time means that the previous final output result can be obtained at a certain point in time, and this output result and the current final output result can be obtained. By determining the counting operation of the up / down counter using both, up-counting, down-counting, or not counting the final output result, sequential up-down is performed without waiting for multiple input of the basic clock. Binary data can be obtained from the counter, which provides high-speed compatibility.

【0074】[0074]

【実施例】本発明の一実施例を図1に基づいて説明す
る。本実施例は、前述した提案例をベースとするもので
あり、図2ないし図27で示した部分はそのまま用いる
ものとし、説明を省略する。まず、最終出力結果(出力
信号)を一旦保存する保存手段としてメモリ56が設け
られている。このメモリ56としてはシフトレジスタや
FIFO(ファーストイン・ファーストアウト)メモ
リ、或いは、RAMとアドレスコントローラとを組合せ
たものなどを用いればよい。このメモリ56には所定時
間後に保存された出力信号を取出すための信号取出し手
段(図示せず)が付設されている。この信号取出し手段
が出力信号を取出す所定時間を、例えば、システムの基
本クロックがある個数入力された後取出させるようにす
ればよい。この時の、基本クロックの個数(=所定時
間)は、予め固定された数値としてもよく、スイッチ等
により外部から任意に設定された数値としてもよく、或
いは、メモリ56等に書込まれた数値としてもよい。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described with reference to FIG. The present embodiment is based on the above-described proposal example, and the portions shown in FIGS. 2 to 27 are used as they are, and the description thereof will be omitted. First, the memory 56 is provided as a storage unit that temporarily stores the final output result (output signal). As the memory 56, a shift register, a FIFO (first-in / first-out) memory, or a combination of a RAM and an address controller may be used. The memory 56 is provided with a signal extracting means (not shown) for extracting the output signal stored after a predetermined time. The predetermined time for which the signal extracting means takes out the output signal may be taken out after a certain number of basic clocks of the system are input. At this time, the number of basic clocks (= predetermined time) may be a fixed numerical value, a numerical value set externally by a switch or the like, or a numerical value written in the memory 56 or the like. May be

【0075】このようなメモリ56から取出された出力
信号と現在の最終出力信号とを入力とする排他的ORゲ
ート57が設けられ、この排他的ORゲート57の排他
的論理和出力がイネーブル端子(Hレベルでイネーブ
ル)に入力され、かつ、現在の最終出力信号がアップ/
ダウン端子(Hレベルでアップ動作、Lレベルでダウン
動作)に入力された同期式のアップダウンカウンタ58
が設けられている。また、クロック端子には基本クロッ
クが入力されている。よって、このアップダウンカウン
タ58の動作は、表1に示すように決定される。
An exclusive OR gate 57 which receives the output signal fetched from the memory 56 and the current final output signal is provided, and the exclusive OR output of the exclusive OR gate 57 is an enable terminal ( Is enabled at H level) and the current final output signal is up /
Synchronous up / down counter 58 input to the down terminal (up operation at H level, down operation at L level)
Is provided. The basic clock is input to the clock terminal. Therefore, the operation of the up / down counter 58 is determined as shown in Table 1.

【0076】[0076]

【表1】 [Table 1]

【0077】このように、メモリ56を用いて出力信号
をある一定時間経過後に取出すということは、ある時点
(現時点)では、以前の出力信号が得られるということ
であり、この以前の出力信号と現在の出力信号との排他
的論理和により、アップダウンカウンタ58がイネーブ
ル制御される。よって、一定時間を基本クロック1個分
とした場合の動作を見ると、図1(b)のタイミングチャ
ートに示すように、システムの基本クロックに合わせて
各タイミングC,D,E,〜で各々区間〜のバイ
ナリーデータが順次得られるものとなる。これにより、
高速動作が要求されるような場合であっても対応でき
る。
As described above, using the memory 56 to take out the output signal after a certain period of time means that the previous output signal can be obtained at a certain time (current time). The exclusive-OR with the current output signal enables the up / down counter 58. Therefore, looking at the operation when the fixed time is set to one basic clock, as shown in the timing chart of FIG. 1 (b), at each timing C, D, E, ... in accordance with the basic clock of the system. The binary data in the section ~ will be sequentially obtained. This allows
Even if high-speed operation is required, it can be handled.

【0078】なお、回路構成は図1(a)に示すようなも
のに限らず、表1に示したような論理関係・機能が確保
されるものであれば、他の構成であってもよい。また、
アナログ信号を必要とする場合には、アップダウンカウ
ンタ58のバイナリーデータをD/A変換器により変換
すればよい。
The circuit configuration is not limited to that shown in FIG. 1A, but may be any other configuration as long as the logical relationships and functions shown in Table 1 are secured. . Also,
When an analog signal is required, the binary data of the up / down counter 58 may be converted by the D / A converter.

【0079】[0079]

【発明の効果】本発明は、上述したように、学習機能を
含めてニューラルネットワークの機能をハードウエア上
で並列的に行えるようにしたものにおいて、最終出力段
に、最終出力結果を保存する保存手段とこの保存手段に
保存された結果を所定の時間経過後に取出す信号取出し
手段と、前記最終出力結果とこの信号取出し手段により
前記保存手段から取出された出力結果とに基づき動作決
定されて2値データを出力するアップダウンカウンタを
設けたので、基本クロックが複数個入力される時間間隔
を待つことなく、順次アップダウンカウンタから2値デ
ータを得ることができ、高速対応性のよい処理能力の高
いものとなり、この際、保存手段から信号を取出す所定
の時間を保存手段の内容や外部からの指示により決定す
ることにより、用途に応じた処理速度の設定が可能とな
る。
As described above, according to the present invention, the function of the neural network including the learning function can be performed in parallel on the hardware, and the final output result is saved in the final output stage. Means and a signal taking-out means for taking out the result stored in the storing means after a lapse of a predetermined time, an operation is determined based on the final output result and the output result taken out from the storing means by the signal taking-out means, and a binary value is obtained. Since the up / down counter that outputs data is provided, binary data can be sequentially obtained from the up / down counter without waiting for a time interval in which a plurality of basic clocks are input, and high speed and high processing capability are provided. At this time, by determining the predetermined time for taking out the signal from the storage means according to the contents of the storage means or an instruction from the outside, Thereby enabling the processing speed of the setting according to.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すもので、(a)はブロッ
ク図、(b)はタイミングチャートである。
1A and 1B show an embodiment of the present invention, in which FIG. 1A is a block diagram and FIG. 1B is a timing chart.

【図2】既提案例における基本的な信号処理を行なうた
めの論理回路図である。
FIG. 2 is a logic circuit diagram for performing basic signal processing in an already proposed example.

【図3】論理演算例を示すタイミングチャートである。FIG. 3 is a timing chart showing an example of logical operation.

【図4】論理演算例を示すタイミングチャートである。FIG. 4 is a timing chart showing an example of logical operation.

【図5】論理演算例を示すタイミングチャートである。FIG. 5 is a timing chart showing an example of logical operation.

【図6】論理演算例を示すタイミングチャートである。FIG. 6 is a timing chart showing an example of logical operation.

【図7】論理演算例を示すタイミングチャートである。FIG. 7 is a timing chart showing an example of logical operation.

【図8】論理演算例を示すタイミングチャートである。FIG. 8 is a timing chart showing an example of logical operation.

【図9】論理演算例を示すタイミングチャートである。FIG. 9 is a timing chart showing an example of logical operation.

【図10】論理演算例を示すタイミングチャートであ
る。
FIG. 10 is a timing chart showing an example of logical operation.

【図11】論理演算例を示すタイミングチャートであ
る。
FIG. 11 is a timing chart showing an example of logical operation.

【図12】論理演算例を示すタイミングチャートであ
る。
FIG. 12 is a timing chart showing an example of logical operation.

【図13】論理演算例を示すタイミングチャートであ
る。
FIG. 13 is a timing chart showing an example of logical operation.

【図14】論理演算例を示すタイミングチャートであ
る。
FIG. 14 is a timing chart showing an example of logical operation.

【図15】論理演算例を示すタイミングチャートであ
る。
FIG. 15 is a timing chart showing an example of logical operation.

【図16】論理演算例を示すタイミングチャートであ
る。
FIG. 16 is a timing chart showing an example of logical operation.

【図17】論理演算例を示すタイミングチャートであ
る。
FIG. 17 is a timing chart showing an example of logical operation.

【図18】論理演算例を示すタイミングチャートであ
る。
FIG. 18 is a timing chart showing an example of logical operation.

【図19】論理演算例を示すタイミングチャートであ
る。
FIG. 19 is a timing chart showing an example of logical operation.

【図20】論理演算例を示すタイミングチャートであ
る。
FIG. 20 is a timing chart showing an example of logical operation.

【図21】論理演算例を示すタイミングチャートであ
る。
FIG. 21 is a timing chart showing an example of logical operation.

【図22】各部の構成例を示す論理回路図である。FIG. 22 is a logic circuit diagram showing a configuration example of each unit.

【図23】その変形例の構成例を示す論理回路図であ
る。
FIG. 23 is a logic circuit diagram showing a configuration example of a modified example thereof.

【図24】その変形例の構成例を示す論理回路図であ
る。
FIG. 24 is a logic circuit diagram showing a configuration example of a modification thereof.

【図25】その変形例の構成例を示す論理回路図であ
る。
FIG. 25 is a logic circuit diagram showing a configuration example of a modified example thereof.

【図26】各部の構成例を示す論理回路図である。FIG. 26 is a logic circuit diagram showing a configuration example of each unit.

【図27】各部の構成例を示す論理回路図である。FIG. 27 is a logic circuit diagram showing a configuration example of each unit.

【図28】画像読取り例を示す説明図である。FIG. 28 is an explanatory diagram illustrating an example of image reading.

【図29】最終出力段処理のための回路図である。FIG. 29 is a circuit diagram for final output stage processing.

【図30】その動作を示すタイミングチャートである。FIG. 30 is a timing chart showing the operation.

【図31】従来例の1つのユニット構成を示す概念図で
ある。
FIG. 31 is a conceptual diagram showing a unit configuration of a conventional example.

【図32】そのニューラルネットワーク構成の概念図で
ある。
FIG. 32 is a conceptual diagram of the neural network configuration.

【図33】シグモイド関数を示すグラフである。FIG. 33 is a graph showing a sigmoid function.

【図34】1つのユニットの具体的構成を示す回路図で
ある。
FIG. 34 is a circuit diagram showing a specific configuration of one unit.

【図35】デジタル構成例を示すブロック図である。FIG. 35 is a block diagram showing a digital configuration example.

【図36】その一部の回路図である。FIG. 36 is a circuit diagram of a part thereof.

【図37】異なる一部の回路図である。FIG. 37 is a different partial circuit diagram.

【符号の説明】[Explanation of symbols]

20 神経細胞模倣素子 56 保存手段 58 アップダウンカウンタ 20 Neuron mimetic elements 56 Storage means 58 up-down counter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹平 修 東京都大田区中馬込1丁目3番6号 株式 会社リコー内 (72)発明者 本村 修二 東京都大田区中馬込1丁目3番6号 株式 会社リコー内   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Osamu Takehira             1-3-3 Nakamagome, Ota-ku, Tokyo Stocks             Company Ricoh (72) Inventor Shuji Motomura             1-3-3 Nakamagome, Ota-ku, Tokyo Stocks             Company Ricoh

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 結合係数可変手段と、この結合係数可変
手段の可変結合係数値を教師信号に対する誤差信号に基
づいて生成する結合係数生成手段と、結合係数値を変化
状態と固定状態とに切換える切換え手段とを有する自己
学習手段を神経細胞模倣素子に付設した複数の神経細胞
模倣手段を網状に接続した信号処理手段を設け、最終出
力段に、最終出力結果を保存する保存手段と、この保存
手段に保存された結果を所定の時間経過後に取出す信号
取出し手段と、前記最終出力結果とこの信号取出し手段
により前記保存手段から取出された出力結果とに基づき
動作決定されて2値データを出力するアップダウンカウ
ンタとを設けたことを特徴とする信号処理装置。
1. A coupling coefficient varying means, a coupling coefficient generating means for generating a variable coupling coefficient value of the coupling coefficient varying means based on an error signal with respect to a teacher signal, and switching the coupling coefficient value between a changing state and a fixed state. A storage means for storing the final output result in the final output stage, and a storage means for storing the final output result in the final output stage, which is provided with a signal processing means in which a plurality of neuron mimicking means having self-learning means having a switching means attached to the neuron mimic A signal taking-out means for taking out the result stored in the means after a lapse of a predetermined time, an operation is decided based on the final output result and the output result taken out from the storing means by the signal taking-out means, and binary data is outputted. A signal processing device comprising an up-down counter.
【請求項2】 信号取出し手段が取出す所定の時間を、
保存手段の内容で定められた時間としたことを特徴とす
る請求項1記載の信号処理装置。
2. A predetermined time taken by the signal taking-out means,
The signal processing device according to claim 1, wherein the time is set according to the contents of the storage means.
【請求項3】 信号取出し手段が取出す所定の時間を、
外部より与えられる時間としたことを特徴とする請求項
1記載の信号処理装置。
3. The predetermined time taken by the signal taking-out means,
The signal processing device according to claim 1, wherein the time is given from the outside.
JP3154243A 1991-06-26 1991-06-26 Signal processor Pending JPH056351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3154243A JPH056351A (en) 1991-06-26 1991-06-26 Signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3154243A JPH056351A (en) 1991-06-26 1991-06-26 Signal processor

Publications (1)

Publication Number Publication Date
JPH056351A true JPH056351A (en) 1993-01-14

Family

ID=15579969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3154243A Pending JPH056351A (en) 1991-06-26 1991-06-26 Signal processor

Country Status (1)

Country Link
JP (1) JPH056351A (en)

Similar Documents

Publication Publication Date Title
US5131073A (en) Neuron unit and neuron unit network
US5588090A (en) Signal processing apparatus
US5485548A (en) Signal processing apparatus using a hierarchical neural network
US5481646A (en) Neuron unit and neuron unit network
JPH05165987A (en) Signal processor
US5191637A (en) Neuron unit and neuron unit network
US5274747A (en) Neuron unit for processing digital information
JPH056351A (en) Signal processor
JP2549454B2 (en) Neuron mimetic network and neuron mimicking unit
JP3256553B2 (en) Learning method of signal processing device
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JPH05108594A (en) Signal processor
JP3255425B2 (en) Signal processing method
JPH04229361A (en) Learning method for neural network and signal processor using the same
JPH05314290A (en) Signal processor
JPH05217010A (en) Signal processor
JPH04235663A (en) Method and device for signal processing
JPH05290014A (en) Signal processor
JP3130913B2 (en) Signal processing device
JPH05108598A (en) Signal processor
JP3463890B2 (en) Neural circuit mimic element
JPH05216859A (en) Signal processor
JPH03260785A (en) Signal processing method and its network
JPH05135001A (en) Signal processor
JPH05165989A (en) Signal processor