JPH02264354A - Data processor - Google Patents

Data processor

Info

Publication number
JPH02264354A
JPH02264354A JP1084783A JP8478389A JPH02264354A JP H02264354 A JPH02264354 A JP H02264354A JP 1084783 A JP1084783 A JP 1084783A JP 8478389 A JP8478389 A JP 8478389A JP H02264354 A JPH02264354 A JP H02264354A
Authority
JP
Japan
Prior art keywords
data
input
processing device
neural
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1084783A
Other languages
Japanese (ja)
Inventor
Ryohei Kumagai
熊谷 良平
Sunao Takatori
直 高取
Makoto Yamamoto
誠 山本
Koji Matsumoto
幸治 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to JP1084783A priority Critical patent/JPH02264354A/en
Priority to EP90106502A priority patent/EP0391404B1/en
Priority to DE69023034T priority patent/DE69023034T2/en
Publication of JPH02264354A publication Critical patent/JPH02264354A/en
Priority to US07/767,565 priority patent/US5195171A/en
Priority to US08/461,538 priority patent/US5553196A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce necessary memory capacity and to shorten a processing time by introducing a degree conception in terms of data and a neural layer, and directly inputting the higher-degree data to the neural layer of a later stage. CONSTITUTION:Neural layers 20 and 30 provided with neurons(21, 22) and 23 in parallel, which output data according to a comparison result between the total sum obtained by multiplying input data A to C by a prescribed weight and a threshold value, are possessed, and the high-order output of the neural layer 20 of an early stage are made into the input data of the neural layer 30 on the next stage. Further the input data are inputted directly to the neural layer 30 on the next stage without passing through the neural layer 20 on the front stage.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a data processing device based on the concept of neural networks.

〔従来の技術〕[Conventional technology]

この種のデータ処理装置におけるニューラルネットワー
クは、第2図に示す神経細胞モデル(以下、ニューロン
という)1を、第3図に示すように並列に設けて層状に
構成される。ニューロンlにおいて、外部から入力され
るデータDII、OX*。
A neural network in this type of data processing device is constructed in a layered manner by arranging nerve cell models (hereinafter referred to as neurons) 1 shown in FIG. 2 in parallel as shown in FIG. In neuron l, data DII and OX* are input from the outside.

Dl雪、・・・Dl、にはそれぞれ重みWl、W8、W
8、・・・W、が掛けられ、これらの総和と閾値θとが
比較される。この比較方法としては種々のものが可能で
あるが、例えば、この総和が閾値0以上の時出力データ
DOが「1」となり、またこの総和が閾値θより小さい
時出力データDOが「0」となるように定められる。
Dl snow,...Dl have weights Wl, W8, W, respectively.
8, . Various methods are possible for this comparison, but for example, when this sum is greater than or equal to the threshold 0, the output data DO becomes "1", and when this sum is smaller than the threshold θ, the output data DO becomes "0". It is determined that

さて第3図のニューラルネットワークにおいて、入力デ
ータが例えばnビットのビットパターンとすると、この
ビットパターンにより表現される数値は2n種類あるた
め、ニューラルネットワークがこの入力データの内容を
判別するためには2n個のニューロンlが必要である。
Now, in the neural network shown in Figure 3, if the input data is a bit pattern of n bits, there are 2n types of numerical values expressed by this bit pattern, so in order for the neural network to determine the content of this input data, it needs 2n bits. neurons l are required.

すなわち例えば4ビツトのビットパターンの場合、16
個のニューロンlが必要であり、ビット数が1個増加す
る毎にニューロン数は2倍ずつ増加する。
For example, in the case of a 4-bit bit pattern, 16
neurons l are required, and each time the number of bits increases by one, the number of neurons increases by a factor of two.

また、ニューラルネットワークを多層構成としたときに
は、この階層(以下、二二一うルレイヤという)の数の
増加に応じてニューロン数も増加し、またニューロンに
接続される入力経路の数すなわちシナプス数も増加する
Furthermore, when a neural network has a multilayer structure, the number of neurons increases as the number of layers (hereinafter referred to as 221 layers) increases, and the number of input paths connected to neurons, that is, the number of synapses also increases. To increase.

【発明が解決しようとする課題〕[Problem to be solved by the invention]

二ニーロン数あるいはシナプス数が多いと、その数に応
じた数の重みデータあるいは閾値データを格納しなけれ
ばならず、データ処理装置全体として大きな容量のメモ
リが必要となる。また入力データと重みの乗算回数ある
いは閾値を用いた演算回数が多くなり、演算速度が遅く
なる一本発明は、ニューロン数およびシナプス数の経済
性を高めつつ所定の処理を行うことのできるデータ処理
装置を提供することを目的としてなされたものである。
When the number of synapses is large, weight data or threshold data corresponding to the number must be stored, and a large capacity memory is required for the data processing device as a whole. In addition, the number of multiplications of input data and weights or the number of calculations using a threshold value increases, which slows down the calculation speed. This was done for the purpose of providing equipment.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係るデータ処理装置は、データおよびニューラ
ルレイヤについて次数の概念を導入し、より高次のデー
タをより後段のニューラルレイヤに直接入力するもので
ある。
The data processing device according to the present invention introduces the concept of order for data and neural layers, and directly inputs higher order data to the later neural layer.

〔作用〕[Effect]

これによってニューロン数やシナプス数の減少が図られ
、これらの経済性が高まるとともに、所要メモリ容量の
減少や処理時間の短縮が★現される。   ゛ −〔実施例〕 実際にニューラルネットワークによって実行される処理
内容は極めて複雑であるが、極めて単純な論理演算が実
行されると仮定して、この発明の第1実施例を説明する
とともに、この発明の基本理念を解説する。
As a result, the number of neurons and synapses can be reduced, which increases economic efficiency and reduces the required memory capacity and processing time.゛-[Example] Although the processing content actually executed by a neural network is extremely complex, the first embodiment of the present invention will be explained on the assumption that an extremely simple logical operation will be executed, and this example will be explained below. Explain the basic idea of the invention.

第4図(a)、(b)、(C)は学習の結果、A・(B
十C)           (1)の論理演算が実行
されるに到ったデータ処理装置を示すものである。第4
図(a)は、〔従来の技術〕の項において説明したのと
同様に、初段のニューラルレイヤ20にデータ群lOに
おけるAlB、Cの3データの全ての組合せの数23=
8個のニューロン21〜28が設けられ、第2段のニュ
ーラルレイヤ30に初段ニューロン21〜2日の出力の
OR(論理和)を演算する1個のニューロン31が設け
られた構成を示している。図中、ニューロン21〜28
の上に付したroooJなどの数値はデータA%B、C
よりなるビットパターンを示し、これらのニューロンは
このビットパターンが入力されるときに出力「l」を出
力する。
Figure 4 (a), (b), and (C) are the results of learning, A and (B).
(10C) This shows a data processing device on which the logical operation in (1) is executed. Fourth
Figure (a) shows that, as explained in the [Prior Art] section, the number 23 of all combinations of three data of AlB and C in the data group IO is added to the neural layer 20 at the first stage.
It shows a configuration in which eight neurons 21 to 28 are provided, and one neuron 31 is provided in the second stage neural layer 30 to calculate the OR (logical sum) of the outputs of the first stage neurons 21 to 2. . In the figure, neurons 21 to 28
The numbers such as roooJ attached above are data A%B, C
These neurons output an output "l" when this bit pattern is input.

このデータ処理装置においては、ニューロン数が9、シ
ナプス数が32であり、ニューロンおよびシナプスの効
率が極めて低く、所要メモリ容量が大であるとともに、
処理時間も大である。
In this data processing device, the number of neurons is 9 and the number of synapses is 32, the efficiency of neurons and synapses is extremely low, the required memory capacity is large, and
The processing time is also long.

第4図(b)は式(1)を以下のように展開し、A−B
   +  A−C(2) 演算の単純化を図った例であり、初段ニューラルレイヤ
20は、A−Bの演算を処理するためのニューロン21
、A−Cの演算を処理するためのニューロン22を備え
る。第2段のニューラルレイヤ30はニューロン212
2の出力のORを求めるニューロン31を有する。
Figure 4(b) expands equation (1) as follows, and A-B
+ A-C (2) This is an example in which calculations are simplified, and the first neural layer 20 includes neurons 21 for processing the calculations of A-B.
, A-C. The second stage neural layer 30 is a neuron 212
It has a neuron 31 that calculates the OR of two outputs.

ニューロン21においては、データASB、、Cに対す
る重みW、〜W、は、例えばWl−1、Wt−1,Wz
−0に設定され、 AW l+BW! +CWs≧2(3)のときに出力r
lJを出力する。したがってこの場合、閾値θ=2とさ
れる。同様に、ニューロン22では、W<−1,Ws 
”0.Wb = 1.  θ=2となる。一方ニューロ
ン31では、W、=1゜W、=t、θ−1となる。
In the neuron 21, the weights W, ~W, for the data ASB, , C are, for example, Wl-1, Wt-1, Wz
-0, AW l+BW! Output r when +CWs≧2(3)
Output lJ. Therefore, in this case, the threshold value θ=2. Similarly, in neuron 22, W<-1, Ws
"0.Wb = 1. θ=2. On the other hand, in the neuron 31, W, = 1°W, = t, θ-1.

第4図(b)のデータ処理装置において、ニューロン数
は3、シナプス数は8であり、第4図(a)のデータ処
理装置に比較すれば、大幅にニューロン効率、シナプス
効率が向上している。しかし、次に述べるように本発明
によれば、さらにこれらの効率が向上する。
In the data processing device shown in FIG. 4(b), the number of neurons is 3 and the number of synapses is 8. Compared to the data processing device shown in FIG. 4(a), the neuron efficiency and synaptic efficiency are significantly improved. There is. However, as described below, according to the present invention, these efficiencies are further improved.

第4図(c)は本発明の第1実施例を示すもので、この
構成は、初段ニューラルレイヤ20および第2段ニュー
ラルレイヤ30を有し、初段ニューラルレイヤ20には
、データB、Cのみが入力され、そして第2段ニューラ
ルレイヤ30には、データAが直接入力される。初段ニ
ューラルレイヤ20には、(B+C)の演算を行うため
の1個のニューロン21が設けられ、第2段ニューラル
レイヤ30には、A・ (B十〇)の演算を行うための
1個のニューロン31が設けられる。ニューロン21は
、例えば重みW、−ISW、=1、θ−1に設定され、 BWt +CWt≧1(4) のとき出力「1ノを出力する。一方ニューロン31は、
例えば、Wl −1= w4=1、θ=2に設定され、
ニューロン21の出力をYlとすると、YIWコ+AW
4≧2(5) のとき、出力「1」を出力する。この実施例においては
、ニューロン数2、シナプス数4であり、第4図(b)
の比較例よりも大幅にニューロン効率、シナプス効率が
向上している。
FIG. 4(c) shows a first embodiment of the present invention. This configuration has an initial neural layer 20 and a second neural layer 30, and the initial neural layer 20 contains only data B and C. is input, and data A is directly input to the second stage neural layer 30. The first stage neural layer 20 is provided with one neuron 21 for performing the calculation of (B+C), and the second stage neural layer 30 is provided with one neuron 21 for performing the calculation of A・(B10). A neuron 31 is provided. The neuron 21 is set to, for example, the weight W, -ISW,=1, θ-1, and outputs an output of "1" when BWt +CWt≧1(4).On the other hand, the neuron 31 outputs an output of "1".
For example, Wl −1 = w4 = 1, θ = 2,
If the output of the neuron 21 is Yl, then YIW + AW
When 4≧2(5), output “1”. In this example, the number of neurons is 2 and the number of synapses is 4, as shown in FIG. 4(b).
Neuron efficiency and synaptic efficiency are significantly improved compared to the comparative example.

ここで本発明の基本理念を解説する。Here, the basic idea of the present invention will be explained.

再び式(1)に注目すると、データB、C1は1つの作
用素r+(OR)Jにより結合されており、データA、
その演算結果に対して作用素「×(AND)、で結合さ
れている。したがって本来データB、CとデータAとは
同一次元で評価すべきものではなく、それを敢えて同一
次元で評価しようとすると、第4図(a)、(b)の比
較例のように効率の低下を招来する。
Paying attention to equation (1) again, data B and C1 are connected by one operator r+(OR)J, and data A,
The result of the operation is connected by the operator "×(AND)". Therefore, data B, C and data A should not be evaluated in the same dimension, but if you dare to evaluate them in the same dimension, This results in a decrease in efficiency as shown in the comparative examples shown in FIGS. 4(a) and 4(b).

ここで、ニューロンの処理内容が下記式(6)の評価の
みであると仮定する。
Here, it is assumed that the processing content of the neuron is only the evaluation of the following equation (6).

ΣW i A i−〇          (6)(た
だし、Wi:重み、Ai:入力、θ:閾値)そして、各
データについてその抽象度を定義できると仮定し、その
抽象度を「次数」と呼ぶ。
ΣW i A i−〇 (6) (Wi: weight, Ai: input, θ: threshold) Then, it is assumed that the degree of abstraction can be defined for each data, and this degree of abstraction is called "degree."

この次数は、1個のニューロンにおける入力データに対
し、出力データが1次だけ次数が増加すると定義する。
This order is defined as the order of output data increasing by one order with respect to input data in one neuron.

また、1つの作用素により結合されたデータ相互は同一
次数であると定義する。
Further, it is defined that data connected by one operator have the same degree.

このような定義によると、式(1)の場合、データB、
、Cは同一次数であり、データAはそれよりも次数が1
次だけ高い、ここでデータB、、Cの次数としてrQJ
を与えるとすると、データAの次数はrlJである。
According to this definition, in the case of formula (1), data B,
, C are of the same order, and data A is of order 1
higher than rQJ, where the order of data B, , C is rQJ
, the order of data A is rlJ.

このデータの次数とニューラルレイヤの階層との関係を
考えると、第4図(C)において、ニューラルレイヤ2
0には0次のデータのみが入力され、ニューラルレイヤ
30には1次のデータのみが入力されている。したがう
て、ニューラルレイヤ20.30を入力データの次数に
対応づけ得ることが明らかであり、以後ニューラルレイ
ヤにも入力データと同一の次数を定義するものとする。
Considering the relationship between the order of this data and the hierarchy of neural layers, in Figure 4 (C), neural layer 2
Only zero-order data is input to the neural layer 30, and only first-order data is input to the neural layer 30. Therefore, it is clear that the neural layer 20.30 can be associated with the order of the input data, and hereinafter the same order as the input data will be defined for the neural layer as well.

そして、データ処理装置に入力すべきデータ群をその次
数に応じて分類し、各次数のデータをそれに対応した次
数のニューラルレイヤに入力することによって、ニュー
ロン効率、シナプス効率が最適化する。
Then, the neuron efficiency and synaptic efficiency are optimized by classifying the data group to be input to the data processing device according to its order and inputting the data of each order to the neural layer of the corresponding order.

また、第4図(a)、(b)に関連して説明したように
、高次のデータを低次数化して処理することも可能であ
り、この場合にはニューロン効率、シナプス効率が低下
する。したがって各データの次数は、そのデータがとり
得る最も高い次数を基準とすべきである。
Furthermore, as explained in relation to FIGS. 4(a) and (b), it is also possible to process high-order data by reducing it to a lower order, and in this case, neuron efficiency and synaptic efficiency decrease. . Therefore, the degree of each data should be based on the highest possible degree of that data.

なお、(A+B)・Bのように1つのデータが複数の次
数にわたって使用されることもあり、この場合、1つの
データを複数のニューラルレイヤに入力するようにして
もよい。
Note that one data may be used for multiple orders, such as (A+B)·B, and in this case, one data may be input to multiple neural layers.

次数の本来の意味である抽象度をより分かり易く説明す
る例として、第5図(a)〜(c)に、図形の端点を判
断するデータ処理装置を示す。
As an example to more clearly explain the degree of abstraction, which is the original meaning of the degree, FIGS. 5(a) to 5(c) show a data processing apparatus for determining the end points of a figure.

図形の端点のとらえ方は種々考えられるが、ここでは、
3×3コンポリニージヨン(第5図(a))において、
第5図(b ) (i) 〜(viii)のいずれかの
パターンが生じたときに、中央画素(第5図(a)の画
素E)は端点であるとする。この端点の判断は中央画素
以外の画素A−D、F−1のいずれか1つが図形濃度(
例えば「l」)であり、かつ中央画素Eが図形濃度であ
るときに「端点」、それ以外のときに「端点てない」と
する。
There are various ways to consider the end points of a figure, but here,
In the 3×3 composite section (Figure 5(a)),
It is assumed that when any of the patterns shown in FIG. 5(b) (i) to (viii) occurs, the central pixel (pixel E in FIG. 5(a)) is an end point. This end point is determined when one of the pixels A-D and F-1 other than the center pixel has a figure density (
For example, if the center pixel E has a figure density, it is considered an "end point", and otherwise, it is considered "no end point".

この判断のためのデータ処理装置は、例えば第5図(C
)のように構成され、この図は本発明の第2実施例を示
す。このデータ処理装置は、8個のニューロン21〜2
8を有する初段具エーラルレイヤ20、および1個のニ
ューロン31を有する第2段ニューラルレイヤ30を有
し、画素A〜D、F〜■のデータが初段具エーラルレイ
ヤ20に、画素Eのデータが第2段ニューラルレイヤ3
0に入力されている。
The data processing device for this determination is, for example, shown in FIG.
), and this figure shows a second embodiment of the present invention. This data processing device has eight neurons 21 to 2.
8, and a second neural layer 30, which has one neuron 31. Data of pixels A to D, F to Stage neural layer 3
It is entered as 0.

初段具エーラルレイヤのニューロン21〜28はそれぞ
れAのみ、Bのみ、Cのみ・・・が図形画素rlJであ
ることを判別し、第2段ニューラルレイヤ30のニュー
ロン31は、ニューロン21〜28のいずれかがrlJ
を出力し、かつEが図形画素「l」であるときに出力「
1」を出力する。
The neurons 21 to 28 of the first stage neural layer respectively determine that only A, only B, only C, etc. are graphic pixels rlJ, and the neuron 31 of the second stage neural layer 30 determines that any of the neurons 21 to 28 is rlJ
and when E is the figure pixel "l", output "
1" is output.

ここで各画素データA−D、F〜■を0次データと考え
ると、ニューロン31の出力は2次データとなる。従っ
てデータ処理装置への入力系が画像処理システムであり
、各画素のデータや種々の特徴量が入力データであると
きには、各画素のデータを0次データと考えた場合、端
点データは2次データとして取扱い得ることが分かる0
画像処理システムからは、グループ数、大数、オイラー
数、テクスチャ特微量等種々のデータが出力されるが、
これらデータの次数を考慮し最適なニューラルレイヤに
直接入力すべきである。
If each pixel data A to D and F to ■ is considered as zero-order data, the output of the neuron 31 becomes second-order data. Therefore, when the input system to the data processing device is an image processing system and the data of each pixel and various feature quantities are input data, if the data of each pixel is considered as zero-order data, the endpoint data is secondary data. It can be seen that it can be treated as 0
The image processing system outputs various data such as the number of groups, large numbers, Euler numbers, texture features, etc.
The order of these data should be considered and input directly to the optimal neural layer.

次にζ本発明に係るデータ処理装置が構築されるコンビ
エータ部の構成の1例を第6図に基づいて説明する。
Next, an example of the configuration of a combinator section in which a data processing apparatus according to the present invention is constructed will be explained based on FIG. 6.

この図は、例えば特開昭63−170784号公報に記
載された画像処理システムに接続されて用いられるコン
ピュータ部100を示す、コンビエータ部100は、入
力系99すなわち画像処理システムから入力されたデー
タを処理し、その処理結果を外部への出力のためにシス
テムメモリ1(11に格納する。コンピュータ部100
は、システムメモIJ 10 kのほか、中央演算処理
装置(CPU)102、制御データメモリ110、出力
データ生成部120、レジスタ103、シフトレジスタ
104、シフトレジスタ105、およびマルチプレクサ
(MUX)106を有する。CPU102、システムメ
モリ1(11、制御データメモリ110、およびレジス
タ103は、バス107によって相互に連結され、入力
系99は、バス107に接続される他、制御データメモ
リ110にも接続される。
This figure shows a computer section 100 that is used by being connected to an image processing system described in, for example, Japanese Patent Laid-Open No. 63-170784. The processing results are stored in the system memory 1 (11) for output to the outside.
has a central processing unit (CPU) 102, a control data memory 110, an output data generation section 120, a register 103, a shift register 104, a shift register 105, and a multiplexer (MUX) 106 in addition to a system memory IJ 10k. The CPU 102, system memory 1 (11), control data memory 110, and register 103 are interconnected by a bus 107, and the input system 99 is connected not only to the bus 107 but also to the control data memory 110.

制御データメモリ110は、シナプス重みエリア111
と入出力データエリア112から成る。
The control data memory 110 includes a synapse weight area 111
and an input/output data area 112.

第4図は、出力レイヤ以外にニューラルレイヤが2個あ
る場合(第1図(b)参照)の例を示し、シナプス重み
エリア111は第1のニューラルレイヤにおけるシナプ
スの重みのデータ、第2のニューラルレイヤにおけるシ
ナプスの重みのデータ、および出力レイヤにおけるシナ
プスの重みのデータ等を格納するためのエリアである。
FIG. 4 shows an example where there are two neural layers in addition to the output layer (see FIG. 1(b)), and the synapse weight area 111 contains the synapse weight data in the first neural layer, the synaptic weight data in the second neural layer, This is an area for storing synaptic weight data in the neural layer, synaptic weight data in the output layer, and the like.

入出力データエリア112は、第1のニューラルレイヤ
に入力される0次入力データ、第1のニューラルレイヤ
から出力される0次出力データ、第1のニューラルレイ
ヤから第2のニューラルレイヤに入力される1次入力デ
ータ、第2のニューラルレイヤから出力される1次出力
データ、および出力レイヤから出力される最終出力デー
タ等を格納するためのエリアである。
The input/output data area 112 contains zero-order input data input to the first neural layer, zero-order output data output from the first neural layer, and input from the first neural layer to the second neural layer. This is an area for storing primary input data, primary output data output from the second neural layer, final output data output from the output layer, and the like.

出力データ生成部120は、乗算回路121、積算回路
122、および閾値処理回路123を有し、これらの回
路はレジスタ103を介して制御される。
The output data generation section 120 includes a multiplication circuit 121, an integration circuit 122, and a threshold processing circuit 123, and these circuits are controlled via the register 103.

乗算回路121は、入力データOfnとシナプスの重み
のデータWとを入力され、これらの積を算出する。入力
データDIは制御データメモリ110からMUX 10
6を介してシフトレジスタ105に格納されており、所
定のタイミングで乗算回路121に入力される。シナプ
スの重みのデータWは制御データメモリ110からMU
X 106を介してシフトレジスタ104に格納されて
おり、所定のタイミングで乗算回路121に入力される
The multiplication circuit 121 receives input data Ofn and synapse weight data W, and calculates the product of these. Input data DI is sent from control data memory 110 to MUX 10
6 is stored in the shift register 105, and input to the multiplication circuit 121 at a predetermined timing. The synaptic weight data W is transferred from the control data memory 110 to the MU
It is stored in the shift register 104 via X 106, and is input to the multiplication circuit 121 at a predetermined timing.

積算回路122は、各入力データD1.毎に乗算回路1
21からDl、XWの乗算結果を入力され、これらの乗
算結果を積算する。すなわち積算回路122のレジスタ
には、ひとつのシナプスについて、 Σ(DI i XW i ) の演算結果が格納される。
The integration circuit 122 receives each input data D1. Multiplying circuit 1 for each
The multiplication results of Dl and XW are input from 21, and these multiplication results are integrated. That is, the register of the integration circuit 122 stores the calculation result of Σ(DI i XW i ) for one synapse.

ひとつのシナプスについて入力データと重みの乗算結果
の総和が求められると、この総和のデータは閾値処理回
路、123に入力される。閾値処理回路123は、各ニ
ューロンに対応した閾値θのデータを例えばテーブルと
して格納している0本実施例において閾値処理回路12
3は、次の式(7)に従って総和のデータと閾値θとの
比較を行い出力データDOを出力する。
When the sum total of the multiplication results of input data and weights for one synapse is determined, this sum data is input to a threshold value processing circuit 123. The threshold processing circuit 123 stores the data of the threshold θ corresponding to each neuron as a table, for example. In this embodiment, the threshold processing circuit 12
3 compares the total sum data with the threshold value θ according to the following equation (7) and outputs output data DO.

Do−f(Σ(DI i xw i )−θ)  (7
)ここでは−例としてfを2値化関数とする。すなわち
出力データ00は、総和のデータから閾値θを減算した
値が0以上の時、「1」となり、逆に0よりも小さい時
、「0」となる。
Do−f(Σ(DI i xw i )−θ) (7
) Here, for example, f is a binarization function. That is, the output data 00 becomes "1" when the value obtained by subtracting the threshold value θ from the total data is 0 or more, and conversely becomes "0" when it is smaller than 0.

この出力データDOはMUX l 06を介して制御デ
ータメモリ110の入出力層エリア112に格納される
This output data DO is stored in the input/output layer area 112 of the control data memory 110 via the MUX l06.

第1図(a)は本発明の第3実施例を示し、この実施例
においてデータ処理装置は、データ群10とニューラル
レイヤ20.90とを有し、レイヤ90は出力データを
データ処理装置外部に出力する出力レイヤとなっている
FIG. 1(a) shows a third embodiment of the present invention, in which the data processing device has a data group 10 and a neural layer 20.90, and the layer 90 transfers output data to the outside of the data processing device. This is the output layer that outputs to.

データ群10は、第1グループのデータ11.12.1
3・・・と、第2グループのデータ14.15.16・
・・とからなる。すなわちデータ群10のデータは、そ
の次数に応じて第1および第2グループの2種類に分類
されている。
The data group 10 is the first group of data 11.12.1
3...and the second group's data 14.15.16.
Consists of... That is, the data of the data group 10 is classified into two types, a first group and a second group, according to their order.

ニューラルレイヤ20はニューロン2L22.23・・
・を有し、また出力レイヤ90はニューロン91,92
.93・・・を有する。ニューラルレイヤ20の各ニュ
ーロンは出力レイヤ90の各二ニーロンに接続される。
Neural layer 20 is neuron 2L22.23...
・The output layer 90 has neurons 91 and 92
.. It has 93... Each neuron of neural layer 20 is connected to each neuron of output layer 90.

第1グループのデータIL 12.13・・・はニュー
ラルレイヤ20の各ニューロンにそれぞれ入力され、第
2グループのデータ14.15.16・・・は出力レイ
ヤ90の各ニューロンにそれぞれ入力される。
The first group of data IL 12, 13, . . . is input to each neuron of the neural layer 20, and the second group of data 14, 15, 16, .

ニューラルレイヤ2Gの各二ニーロンは、例えば上記式
(7)に示されるように、入力された各データに重みを
乗じたものの総和と閾値とを比較し、この比較結果に応
じて、出力データrl、または「0」を出力する。出力
レイヤ90の各二ニーロンは、ニューラルレイヤ20の
各ニューロンおよび第2グループのデータ14.15.
16・・・にそれぞれ重みを乗じたものの総和を求め、
この総和と閾値との比較結果に応じて、ニューラルレイ
ヤ20のニューロンと同様に「1」またはrQJのデー
タを出力する。
Each of the two neural layers of the neural layer 2G compares the total sum of each input data multiplied by a weight with a threshold value, and outputs data rl according to the comparison result, as shown in the above equation (7), for example. , or output "0". Each neuron of the output layer 90 corresponds to each neuron of the neural layer 20 and the second group of data 14.15.
Find the sum of 16... multiplied by their respective weights,
According to the comparison result between this sum and the threshold value, data of "1" or rQJ is outputted similarly to the neurons of the neural layer 20.

第1グループのデータ11,12.13・・・は、本装
置を画像処理装置に適用した場合、例えば1、画素が「
l」 (例えば黒)か「0」 (例えば白)かを示す0
次データであり、また第2グループのデータ14.15
.16・・・は、画像の特徴を示す高次のデータである
When this device is applied to an image processing device, the first group of data 11, 12, 13, . . .
0 indicating whether it is "l" (e.g. black) or "0" (e.g. white)
The following data is also the data of the second group 14.15
.. 16... is high-order data indicating the characteristics of the image.

しかして第3実施例において、第1グループのデータす
なわち低次のデータは、ニューラルレイヤ20のニュー
ロンに入力され、第2グループのデータすなわち高次の
データは、出力レイヤ90のニューロンに入力される。
Thus, in the third embodiment, the first group of data, ie, low-order data, is input to the neurons of the neural layer 20, and the second group of data, ie, high-order data, is input to the neurons of the output layer 90. .

したがって、ニューラルレイヤ20のニューロンは、よ
り低次の処理すなわち例えば画素そのもののデータに対
する処理を行い、出力レイヤ90のニューロンは、より
高次の処理すなわち例えば画素の持つ様々な性質等に対
する処理を行う。
Therefore, the neurons in the neural layer 20 perform lower-order processing, for example, processing on the data of the pixel itself, and the neurons in the output layer 90 perform higher-order processing, such as processing on various properties of pixels, etc. .

このように、第3実施例においては、高次のデータが直
接出力レイヤ90に入力され、ニューラルレイヤ20に
は入力されないので、シナプス数すなわち入力要素とニ
ューロンあるいはニューロン同士の接続部の数は減少し
、またニューロン数も減少する。シナプス数が少なくな
ると、ニューロンにとって演算回数が減少するために、
演算速度が上昇し、また重みデータ数も減少するので、
メモリ容量も小さくてすむ、また、ニューロン数が少な
くなると、閾値の数も少なくてすみ、これによりメモリ
容量が小さくなるとともに、演算回数も少な(なり演算
速度が上昇する。しかして本実施例によれば、小さいメ
モリ容量でかつ高速の演算処理が可能になり、単純な回
路で効率の高いデータ処理装置が得られる。
In this way, in the third embodiment, high-order data is input directly to the output layer 90 and not to the neural layer 20, so the number of synapses, that is, the number of connections between input elements and neurons or between neurons is reduced. However, the number of neurons also decreases. As the number of synapses decreases, the number of operations required for neurons decreases, so
The calculation speed increases and the number of weight data decreases, so
Also, as the number of neurons decreases, the number of threshold values also decreases, which reduces the memory capacity and reduces the number of calculations (thus increasing the calculation speed. Accordingly, high-speed arithmetic processing can be performed with a small memory capacity, and a highly efficient data processing device can be obtained with a simple circuit.

第1図(b)は本発明の第4実施例を示し、この実施例
におけるデータ処理装置は、3つのグループの入力デー
タ群lOと、ニューラルレイヤ20.30および出力レ
イヤ90を有する。
FIG. 1(b) shows a fourth embodiment of the present invention, and the data processing device in this embodiment has three groups of input data lO, a neural layer 20, 30, and an output layer 90.

入力データ群10は、第1グループのデータ11S 1
2.13・・・と、第2グループのデータ14.15.
16・・・と、第3グループのデータ17.18.19
・・・とを備える。すなわち入力データ群は、第3実施
例と異なり、3種類に分類されている。第1のニューラ
ルレイヤ20はニューロン21,22.23・・・を有
し、また第2のニューラルレイヤ30はニューロン31
.32.33・・・を有する。出力レイヤ90は、ニュ
ーロン9192.93・・・を有する。第1のニューラ
ルレイヤ20の各ニューロン数、第2のニューラルレイ
ヤ30の各ニューロンに、また第2のニューラルレイヤ
30の各ニューロンは、出力レイヤ90の各ニューロン
にそれぞれ接続される。
The input data group 10 is the first group of data 11S 1
2.13... and the second group's data 14.15.
16...and the third group's data 17.18.19
...and is provided. That is, unlike the third embodiment, the input data group is classified into three types. The first neural layer 20 has neurons 21, 22, 23..., and the second neural layer 30 has neurons 31, 22, 23...
.. It has 32.33... The output layer 90 has neurons 9192, 93, . . . . Each number of neurons in the first neural layer 20 is connected to each neuron in the second neural layer 30, and each neuron in the second neural layer 30 is connected to each neuron in the output layer 90, respectively.

第1グループのデータ11.12.13・・・は第1の
ニューラルレイヤ20の各ニューロンに、第2グループ
のデータ14.15.16・・・は第2のニューラルレ
イヤ30の各ニューロンに、第3グループのデータ17
.18.19・・・は出力レイヤ90め各ニューロンに
それぞれ接続される。
The first group of data 11, 12, 13... are sent to each neuron of the first neural layer 20, the second group of data 14, 15, 16... is sent to each neuron of the second neural layer 30, Third group data 17
.. 18, 19, . . . are respectively connected to the output layer 90 and each neuron.

各二ニーロンは、第3実施例と同様に、例えば上記(7
)式に従い、入力された各データに応じて、出力データ
「1」または「0」を出力する。
As in the third embodiment, each of the two knee-longs is, for example, (7
), output data "1" or "0" is output according to each input data.

第1グループのデータ11.12.13・・・は0次デ
ータ、第2グループのデータ14.15.16・・・は
1次データ、第3グループのデータ17.18.19・
・・は2次データである。すなわち、第2のニューラル
レイヤ30には高次のデータが入力され、出力レイヤ9
0にはさらに高次のデータが入力される。
The first group of data 11.12.13... is zero-order data, the second group of data 14.15.16... is first-order data, and the third group of data 17.18.19.
... is secondary data. That is, high-order data is input to the second neural layer 30, and the output layer 9
Further higher-order data is input to 0.

この第3実施例においても、第3実施例と同様に、シナ
プス数は減少し、またニューロン数も減少する。したが
って、第2実施例と同様な効果が得られる。
In this third embodiment, as in the third embodiment, the number of synapses is reduced and the number of neurons is also reduced. Therefore, the same effects as in the second embodiment can be obtained.

第7図(a)、(b)は本発明の第5実施例を比較例と
ともに表したものであり、この例は入力データを論理演
算 (AeB)e (CeD) に従って処理する場合を示す。なおここで、eは「排他
的論理和」を示し、またA、B、C,Dは「1」または
「0」のデジタル値であり、この論理演算の結果も「l
」またはrQJのデジタル値として出力されるとして説
明する。
FIGS. 7(a) and 7(b) show a fifth embodiment of the present invention together with a comparative example, and this example shows a case where input data is processed according to the logical operation (AeB)e (CeD). Here, e indicates "exclusive OR", and A, B, C, and D are digital values of "1" or "0", and the result of this logical operation is also "l".
” or as a digital value of rQJ.

第7図(a)は比較例を示し、この装置は入力データを
通過させるための入力データ群10と第1および第2の
ニューラルレイヤ20.30と出力レイヤ90とを有す
る。入力データ群10は入力データASB、C,Dから
なる。第1のニューラルレイヤ20は4個のニューロン
21.22.23.24を有し、第2のニューラルレイ
ヤ30は4個のニューロン31.32.33.34を有
する。各データA−Dは、それぞれ第1のニューラルレ
イヤ20の各ニューロンに入力され、第1のニューラル
レイヤ20の各ニューロンはそれぞれ第2のニューラル
レイヤ30の各ニューロンに接続される。一方、出力レ
イヤ90は1個のニューロン91を有し、このニューロ
ン91には、第2のニューラルレイヤ20の各ニューロ
ンがそれぞれ接続される。
FIG. 7(a) shows a comparative example, and this device has an input data group 10 for passing input data, first and second neural layers 20, 30, and an output layer 90. The input data group 10 consists of input data ASB, C, and D. The first neural layer 20 has four neurons 21.22.23.24 and the second neural layer 30 has four neurons 31.32.33.34. Each data A-D is input to each neuron of the first neural layer 20, and each neuron of the first neural layer 20 is connected to each neuron of the second neural layer 30, respectively. On the other hand, the output layer 90 has one neuron 91, and each neuron of the second neural layer 20 is connected to this neuron 91, respectively.

第1のニューラルレイヤ20において、各ニューロン2
1は各入力データに対して乗じられる重みと閾値とを有
し、上記式(7)に従い、各入力データと重みの積の総
和が閾値以上の時出力データrlJを出力し、この総和
が閾値θよりも小さい時出力データ「O」を出力する。
In the first neural layer 20, each neuron 2
1 has a weight and a threshold by which each input data is multiplied, and according to the above equation (7), output data rlJ is output when the sum of the products of each input data and the weight is greater than or equal to the threshold, and this sum is the threshold. When it is smaller than θ, output data “O” is output.

同様にニューロン22.23.24も各入力データに応
じて、「1」または「0」を出力する。第2のニューラ
ルレイヤ30においても同様に、各ニューロンは、入力
データに応じて「1」または「0」を出力する。出力レ
イヤ90のニューロン91も同様に、第2のニューラル
レイヤ30のニューロンからの出力データに応じて、「
1」または「0」のデータを出力する。
Similarly, neurons 22, 23, and 24 also output "1" or "0" depending on each input data. Similarly, in the second neural layer 30, each neuron outputs "1" or "0" depending on the input data. Similarly, the neurons 91 of the output layer 90 also respond to the output data from the neurons of the second neural layer 30.
Outputs data of ``1'' or ``0''.

サテ論理演算(AeB)e (([D)(7)演算結果
は、データA、Bが不一致で、かつC,Dが−致すると
き、またA、Bが一致し、かつC,Dが不一致のとき、
「1」となる。それ以外の場合は「0」となる。このた
め、第7図(a)においては、各ニューロンは次のよ°
うに構成される。
Sate logical operation (AeB) e (([D) (7) The operation result is when data A and B do not match and C and D match, and when A and B match and C and D When there is a mismatch,
It becomes "1". In other cases, it is "0". Therefore, in Figure 7(a), each neuron is
It is composed of sea urchins.

第1のニューラルレイヤ20において、ニューロン21
,22.23.24は、ASB、CSDを4ビツトパタ
ーンで表した場合、それぞれ「(11 XXJ、rlO
xx」、rxxol」、rXXloJの時「1」を出力
し、それ以外の場合「0」を出力する。ここで、rXX
Jはそのデータを無視することを意味する。一方、第2
のニューラルレイヤ30において、ニューロン31は、
第1のニューラルレイヤ20のニューロン21のみが「
1」を出力する時「1」を出力し、それ以外の時「0」
を出力する。またニューロン32は、第1のニューラル
レイヤ20のニューロン22のみがrlJを出力する時
r1.を出力し、それ以外の時「0」を出力する。同様
にして、ニューロン33は、第1のニューラルレイヤ2
0のニューロン23のみが「1」を出力する時「1」を
出力し、またニューロン34は、第1のニューラルレイ
ヤ20のニューロン24のみが「1」を出力する時「1
」を出力する。一方、出力レイヤ90のニューロン91
は、第2のニューラルレイヤ30のニューロンの少なく
ともひとつがrl、を出力する時「1」を出力する。
In the first neural layer 20, neurons 21
, 22.23.24 are respectively "(11 XXJ, rlO
xx", rxxol", rXXloJ, outputs "1", and otherwise outputs "0". Here, rXX
J means ignore the data. On the other hand, the second
In the neural layer 30 of , the neurons 31 are
Only the neurons 21 of the first neural layer 20 are "
When outputting ``1'', output ``1'', otherwise output ``0''
Output. Further, when only the neuron 22 of the first neural layer 20 outputs rlJ, the neuron 32 outputs r1. is output, and "0" is output otherwise. Similarly, the neurons 33 are connected to the first neural layer 2
0 outputs "1" when only the neuron 23 outputs "1", and the neuron 34 outputs "1" when only the neuron 24 of the first neural layer 20 outputs "1".
" is output. On the other hand, neurons 91 of the output layer 90
outputs "1" when at least one neuron of the second neural layer 30 outputs rl.

したがって、ASB、C,Dの入力データがビットパタ
ーンでrooo 1Jの場合、第1のニューラルレイヤ
20においてニューロン23のみが「l」を出力し、他
のニューロン21.22.24が「0」を出力する。こ
の結果、第2のニューラルレイヤ30においてニューロ
ン33が「1」を出力することとなり、出力レイヤ90
のニューロン91が「1」を出力する。同様にしてA、
B、CSDが、rootoJ、ro 100.、rl。
Therefore, if the input data of ASB, C, and D has a bit pattern of rooo 1J, only the neuron 23 in the first neural layer 20 outputs "l", and the other neurons 21, 22, and 24 output "0". Output. As a result, the neuron 33 in the second neural layer 30 outputs "1", and the output layer 90
The neuron 91 outputs "1". Similarly, A,
B, CSD, rootoJ, ro 100. , rl.

00」、rllloJ、rllol、、「1(11l」
、ro 111Jの場合、第2のニューラルレイヤ30
において、いずれかのニューロンが「l」を出力し、出
力レイヤ90のニューロン91がrlJを出力する。
00'', rllloJ, rllol,, ``1(11l'')
, ro 111J, the second neural layer 30
, one of the neurons outputs "l", and the neuron 91 of the output layer 90 outputs rlJ.

第7図(b)は本発明の第5の実施例を示し、この装置
は入力データ群10と第11第2および第3のニューラ
ルレイヤ20.30.40と出力レイヤ90とを有する
。入力データ群10は、入力データASB、CSDから
なる。第1のニューラルレイヤ20は4個のニューロン
21,22.23.24、第2のニューラルレイヤ30
は2個のニューロン31,32、第3のニューラルレイ
ヤ40は2個のニューロン41.42、出力レイヤ90
は1個のニューロン91を有する。入力データ群のデー
タA−Dは、それぞれ第1のニューラルレイヤ20の各
二ニーロンに入力され、第1のニューラルレイヤ20の
各二ニーロンはそれぞれ第2のニューラルレイヤ30の
各二ニーロンに接続される。第2のニューラルレイヤ3
0の各ニューロンは第3のニューラルレイヤ40の各二
ニーロンに接続され、第3のニューラルレイヤ40の各
ニューロンは出力レイヤ90のニューロンに接続される
FIG. 7(b) shows a fifth embodiment of the invention, this device having an input data group 10, eleventh second and third neural layers 20, 30, 40 and an output layer 90. The input data group 10 consists of input data ASB and CSD. The first neural layer 20 has four neurons 21, 22, 23, 24, and the second neural layer 30
has two neurons 31, 32, the third neural layer 40 has two neurons 41, 42, and the output layer 90
has one neuron 91. The data A to D of the input data group are respectively input to each of the two neural layers of the first neural layer 20, and each of the two neural layers of the first neural layer 20 is connected to each of the two neural layers of the second neural layer 30. Ru. Second neural layer 3
Each neuron of the third neural layer 40 is connected to a neuron of the output layer 90, and each neuron of the third neural layer 40 is connected to a neuron of the output layer 90.

各ニューラルレイヤ20.30,40および出力レイヤ
90における各ニューロンは、第7図(a)の場合と同
様に、入力されるデータに応じてrlJまたは「O」を
出力する。
Each neuron in each neural layer 20, 30, 40 and output layer 90 outputs rlJ or "O" depending on the input data, as in the case of FIG. 7(a).

第1のニューラルレイヤ20において、ニューロン21
22.23.24は、A、B5C5Dを4ビツトパター
ンで表した場合、それぞれ「0IXXJ、rloxx」
、rxxol」、rXXloJの時rlJを出力し、そ
れ以外の場合「0」を出力する。一方、第2のニューラ
ルレイヤ30において、ニューロン31は、第1のニュ
ーラルレイヤ20のニューロン21または22が「l」
を出力する時「1」を出力し、それ以外の時「0」を出
力する。またニューロン32は、第1のニューラルレイ
ヤ20のニューロン23または24が「l」を出力する
時rlJを出力し、それ以外の時「0」を出力する。第
3のニューラルレイヤ40において、ニューロン41は
、第2のニューラルレイヤ20のニューロン32のみが
「1」を出力する時「l」を出力し、それ以外の時「0
」を出力する。またニューロン42は、第2のニューラ
ルレイヤ20のニューロン31のみが「l」を出力する
時「l」を出力し、それ以外の時「0」を出力する。一
方、出力レイヤ90のニューロン91は、第3のニュー
ラルレイヤ40のニューロンの少なくともひとつが「l
」を出力する時「1」を出力する。
In the first neural layer 20, neurons 21
22.23.24 is "0IXXJ, rloxx" when A, B5C5D are expressed as 4-bit patterns, respectively.
, rxxol", rXXloJ, outputs rlJ, and otherwise outputs "0". On the other hand, in the second neural layer 30, the neuron 31 is the same as the neuron 21 or 22 of the first neural layer 20.
When it outputs "1", it outputs "0" otherwise. Further, the neuron 32 outputs rlJ when the neuron 23 or 24 of the first neural layer 20 outputs "l", and outputs "0" at other times. In the third neural layer 40, the neuron 41 outputs "l" when only the neuron 32 of the second neural layer 20 outputs "1", and otherwise outputs "0".
" is output. Further, the neuron 42 outputs "l" when only the neuron 31 of the second neural layer 20 outputs "l", and outputs "0" at other times. On the other hand, the neurons 91 of the output layer 90 indicate that at least one of the neurons of the third neural layer 40 is "l".
”, outputs “1”.

したがって、A、B、、C,Dの入力データがビットパ
ターンで「00(11」の場合、第1のニューラルレイ
ヤ20においてニューロン23のみが「l」を出力し、
他のニューロン21,22.24が「0」を出力する。
Therefore, if the input data of A, B, , C, D has a bit pattern of "00 (11"), only the neuron 23 in the first neural layer 20 outputs "l",
Other neurons 21, 22, and 24 output "0".

この結果、第2のニューラルレイヤ30においてニュー
ロン32のみが「l」を出力し、第3のニューラルレイ
ヤ40においてニューロン42が「l」を出力すること
となる。したがって出力レイヤ90のニューロン91が
「l」を出力する。同様にしてA、B、C,Dが、ro
olo、、roloo」、rlooo」、rlllOJ
、rl 1(11J、rlollJ、「(1111Jの
場合、第2のニューラルレイヤ30において、いずれか
のニューロンが「l」を出力し、これにより第3のニュ
ーラルレイヤ40のいずれか一方のニューロンが、「1
」を出力することとなり、第4のニューラルレイヤ40
のいずれか一方のニューロンが「l」を出力する。した
がって、出力レイヤ90のニューロン91が「l」を出
力する。
As a result, only the neuron 32 in the second neural layer 30 outputs "l", and the neuron 42 in the third neural layer 40 outputs "l". Therefore, the neuron 91 of the output layer 90 outputs "l". Similarly, A, B, C, D are ro
olo,,roloo",rlooo",rlllOJ
, rl 1(11J, rlollJ, "(In the case of 1111J, one of the neurons in the second neural layer 30 outputs "l", which causes one of the neurons in the third neural layer 40 to output "l". "1
", and the fourth neural layer 40
Either one of the neurons outputs "l". Therefore, the neuron 91 of the output layer 90 outputs "l".

第7図(a)から容易q理解されるように、比較例にお
いて、シナプス数は36であり、ニューロン数は10で
ある。これに対し本実施例においては、第7図(b)か
ら理解されるようにシナプス数は30であり、ニューロ
ン数はlOである。
As can be easily understood from FIG. 7(a), in the comparative example, the number of synapses is 36 and the number of neurons is 10. On the other hand, in this example, as understood from FIG. 7(b), the number of synapses is 30 and the number of neurons is 1O.

シカシテ、論理演算(AeB)e (COD)4.:よ
って入力データを処理する場合、比較例において36個
のシナプスが必要であったのに対し、本実施例によれば
30個のシナプスですむことが理解される。
Shikashite, logical operations (AeB)e (COD)4. :Thus, it is understood that when input data is processed, 36 synapses were required in the comparative example, whereas 30 synapses are required according to the present example.

すなわち、本実施例によればシナプス数は約2割減少し
、上記各実施例において述べたのと同様な効果が得られ
る。つまり、ニューラルレイヤの数を増加させるととも
に、出力レイヤ90側に構築されるニューラルレイヤの
ニューロン数をそれより前段のニューラルレイヤのニュ
ーロン数以下に定めることにより、シナプス数を減少さ
せることができ、データ処理装置のメモリ容量を削減す
るとともに演算速度を向上させることができる。
That is, according to this embodiment, the number of synapses is reduced by about 20%, and the same effects as described in the above embodiments can be obtained. In other words, by increasing the number of neural layers and setting the number of neurons in the neural layer constructed on the output layer 90 side to be less than or equal to the number of neurons in the preceding neural layer, the number of synapses can be reduced, and the number of synapses can be reduced. The memory capacity of the processing device can be reduced and the calculation speed can be improved.

第8図(a)、(b)は本発明の第6実施例を比較例と
ともに表したものであり、この例は入力データを論理演
算 ((A6)B)e (CeD)) 61)E  (8)
に従って処理する場合を示す。
FIGS. 8(a) and (b) show the sixth embodiment of the present invention together with a comparative example. In this example, input data is subjected to a logical operation ((A6)B)e (CeD)) 61)E (8)
Indicates the case where processing is performed according to the following.

第8図(a)は比較例を示し、入力データ群lOは5個
のデータA−E、初段のレイヤ20は15個のニューロ
ン、出力レイヤ90は1個のニューロンをそれぞれ有す
る。比較例において、上記式(8)を展開して得られる
各項をニューラルレイヤ20の各二ニーロンへ入力して
いる。したかって、全てのデータは0次データとして処
理されている。
FIG. 8(a) shows a comparative example, in which the input data group IO has five data A to E, the first layer 20 has 15 neurons, and the output layer 90 has one neuron. In the comparative example, each term obtained by expanding Equation (8) above is input to each two-neelon of the neural layer 20. Therefore, all data is processed as zero-order data.

これに対し、第8図(b)は本発明の第6実施例を示し
、この装置は入力データ群1oと、第1、第2、第3お
よび第4のニューラルレイヤ20゜30.40.50と
、出力レイヤ90とを有する。
On the other hand, FIG. 8(b) shows a sixth embodiment of the present invention, in which this device has an input data group 1o and a first, second, third and fourth neural layer 20°30.40 . 50 and an output layer 90.

第1のニューラルレイヤ20と第2のニューラルレイヤ
30は(A e B ) ト(Ce D ) ニ従ツタ
処理をそれぞれ行い、第3のニューラルレイヤ4゜は(
(A69B)@ (CeD)) に従った処理を行う、
そして第4のニューラルレイヤ5oおよび出力レイヤ9
0により、((A61)B)@ (C6)D))eEに
よる最終結果が求められる。
The first neural layer 20 and the second neural layer 30 respectively perform (A e B ) and (Ce D ) 2 follow-up processing, and the third neural layer 4° performs (
(A69B) @ (CeD))
and a fourth neural layer 5o and an output layer 9
0, the final result is determined by ((A61)B)@(C6)D))eE.

第8図(a)および第8図(b)の対比から理解される
ように、比較例において、シナプス数は80、ニューロ
ン数は16であり、これに対し本実施例においては、シ
ナプス数は32であり、ニューロン数は10である。し
かして、本実施例によればシナプス数は約4割に減少し
、またニューロン数は約6割に減少する。したがって本
実施例においても、上記各実施例において述べたのと同
様な効果が得られる。
As can be understood from the comparison between FIG. 8(a) and FIG. 8(b), in the comparative example, the number of synapses is 80 and the number of neurons is 16, whereas in the present example, the number of synapses is 32, and the number of neurons is 10. According to this embodiment, the number of synapses is reduced by about 40%, and the number of neurons is reduced by about 60%. Therefore, in this embodiment as well, effects similar to those described in each of the above embodiments can be obtained.

以上の説明から理解されるように、本発明において、入
力データ群、ニューラルレイヤ、および出力レイヤから
なる層構造は、そのデータ処理において必要とする次数
、および入力データの次数に応じて最適に構成される必
要があり、また入力デー、夕はその層構造に応じて適当
なレイヤに入力される。なお、ここで次数とは、前述し
たように、データあるいは処理内容の抽象度を意味する
As can be understood from the above explanation, in the present invention, the layered structure consisting of the input data group, neural layer, and output layer is optimally configured according to the order required for data processing and the order of the input data. Input data needs to be input to an appropriate layer depending on its layer structure. Note that the degree here means the degree of abstraction of data or processing content, as described above.

さて、ニューロンが上述のような処理を行うには、重み
が学習により適当な値に定められなければならない。こ
のため本実施例においては、後述するように、重みが時
間的に指数関数的に変化せしめられる。なお、重みの修
正方法として、特願昭63−297541号に開示され
ているように大別して3つの方法があり、これらをここ
ではそれぞれモード■、モード■、モード■と呼ぶこと
とする。
Now, in order for a neuron to perform the processing described above, the weights must be determined to appropriate values through learning. Therefore, in this embodiment, the weights are changed exponentially over time, as will be described later. There are three methods for modifying the weights, as disclosed in Japanese Patent Application No. 63-297541, and these will be referred to herein as Mode (2), Mode (2), and Mode (2), respectively.

モード■は第9図に示すように、ニューロンの重みがそ
のニューロンの出力に基づいて修正されるものである。
In mode (2), as shown in FIG. 9, the weight of a neuron is modified based on the output of that neuron.

この修正力法は、各レイヤの出力の目標値が明らかにな
っている場合に有効である。
This correction force method is effective when the target value of the output of each layer is clear.

さて、ある入力に対してそのニューロンが出力を生じた
場合その出力が目標値に一致し、あるいは目標値に十分
近かった時、その時の入出力の関係は強化されるべきで
ある。これは、有意な入力が与えられたシナプスの重み
を高めることに相当する。モード■においては、各ニュ
ーロンの出力の目標値が予め分かっているので、各ニュ
ーロンの出力を目標値と比較し、両者が一致あるいは十
分近かった時、例えば2値入力の場合r1」が入力され
たシナプスの重みが増加せしめられる。
Now, when the neuron produces an output in response to a certain input, and the output matches the target value or is sufficiently close to the target value, the relationship between the input and output at that time should be strengthened. This corresponds to increasing the weight of synapses given significant input. In mode ■, the target value of the output of each neuron is known in advance, so the output of each neuron is compared with the target value, and when the two match or are sufficiently close, for example, in the case of binary input, r1 is input. The weight of synapses that have been synapsed is increased.

モード■は第10図に示すように、ニューロンの重みが
最終的な出力の評価結果に基づいて修正されるものであ
る。この修正方法は、データ処理装置の処理内容を大局
的に判断する場合に有効である。このモードにおける評
価方法としては、出力レイヤの最終出力と目標値とのハ
ミング距離、あるいはピタゴラス距離の評価、あるいは
感応的評価等が可能である。この評価の結果、出力が目
標値と一敗あるいは十分近ければ、その時の入出力関係
は強化されるべきであり、その時、例えば「l」が入力
された各シナプスの重みが増加せしめられる。
In mode (2), as shown in FIG. 10, the weights of the neurons are modified based on the final output evaluation results. This correction method is effective when determining the processing content of the data processing apparatus from a global perspective. As an evaluation method in this mode, evaluation of Hamming distance or Pythagorean distance between the final output of the output layer and the target value, or sensitive evaluation is possible. As a result of this evaluation, if the output is one loss or sufficiently close to the target value, the input/output relationship at that time should be strengthened, and at that time, for example, the weight of each synapse to which "l" is input is increased.

モード■は、入力をそのまま記憶するタイプの学習の場
合の重みの修正方法であり、入力とその入力に対して最
初に生じた出力との関係を強化する。すなわち、第9図
の構成において、その入力に対して「1」を出力したニ
ューロンにおける、rlJが入力されたシナプスの重み
が増加せしめられる。
Mode (2) is a weight modification method for a type of learning in which inputs are memorized as they are, and strengthens the relationship between the input and the output that originally occurred for that input. That is, in the configuration of FIG. 9, the weight of the synapse to which rlJ is input in the neuron that outputs "1" in response to that input is increased.

このような重みの修正において、発明者等は、まずニュ
ーロンの重みの変化を生体の神経細胞における膜電位の
変化と仮定した。つまり、重みが生体の神経細胞におけ
る膜電位と同様に設定されるならば、データ処理装置に
おける学習の効率は生体の脳細胞と同様に極めて高くな
ると、考えられる。そしてまた、重みが膜電位と同様な
変化を示すので蘂れば、その変化は、−船釣なRLC回
路と同様に指数関数で表現されると考えられる。
In modifying the weights in this manner, the inventors first assumed that changes in the weights of neurons were changes in membrane potential in living nerve cells. In other words, if the weights are set similar to the membrane potential of biological nerve cells, it is thought that the efficiency of learning in the data processing device will be extremely high, similar to that of biological brain cells. Furthermore, since the weight shows a change similar to the membrane potential, the change can be considered to be expressed by an exponential function, similar to a negative RLC circuit.

しかして重みWは、第11図に示すように、W−±ex
p(t)           (9)で表される。た
だし、tは個々のニューロンにおける学習時間、すなわ
ち学習回数を表す。
Therefore, the weight W is W−±ex as shown in FIG.
It is expressed as p(t) (9). However, t represents the learning time in each neuron, that is, the number of learning times.

式(9)において、シナプスが興奮型の場合には符号は
十になり、重みWは、実線Iで示すように0から始まっ
て最初は急速に大きくなり、学習開始から時間がたつほ
どその変化量は小さくなり最大値W工に近づく、これに
対し、シナプスが抑制型の場合には符号は−になり、重
みWは、実線Jで示すように0から始まって最初は急速
に小さくなり、学習開始から時間がたつほどその変化量
は小さ(なり最小値W、に近づく。
In equation (9), when the synapse is excitatory type, the sign is 10, and the weight W starts from 0 and increases rapidly at first, as shown by the solid line I, and the weight changes as time passes from the start of learning. The amount decreases and approaches the maximum value W. On the other hand, if the synapse is an inhibitory type, the sign becomes -, and the weight W starts from 0 and quickly decreases at first, as shown by the solid line J. As time passes from the start of learning, the amount of change becomes smaller (becomes closer to the minimum value W).

学習の開始直後、そのシナプスについてあまりデータ相
関がないので、この時の重みWは小さく定められるが、
その後、データ相関が大きくなっていくので、重みWは
急速に大きくなり、これにより学習による収束が早めら
れる。これに対し、学習が進んで重みWが既に大きくな
っている場合、そのシナプスはそれまでの学習において
十分データ相関がある。したがって、その重みWをいた
ずらに変動させると、単に振動を起こすだけであり学習
における収束性を阻害することとなるが、重みWはほと
んど変化しないように定められているので、十分な収束
性が得られる。
Immediately after the start of learning, there is not much data correlation for that synapse, so the weight W at this time is set small;
Thereafter, as the data correlation increases, the weight W rapidly increases, which speeds up the convergence due to learning. On the other hand, if learning has progressed and the weight W has already become large, that synapse has sufficient data correlation in the learning up to that point. Therefore, if the weight W is changed unnecessarily, it will simply cause oscillation and impede the convergence in learning, but since the weight W is set so that it hardly changes, sufficient convergence can be achieved. can get.

なお、従来、ニューロンの出力特性として抑制型および
興奮型ニューロンが考えられており、これをデータ処理
装置として最適配置するには処理内容を考慮した詳細な
検討が必要であり、データ処理装置において抑制楢ニュ
ーロンと興奮型具ニーロンの結合は複雑である。しかし
本実施例によれば、ひとつのシナプスの特性として重み
Wの符号を+または−に選択するだけで、抑制型、興奮
型を任意に実現でき、したがって回路構成が単純化され
、回路の自由度が高まる。なお、抑制型具ニーロンの存
在によって、データの分離性が向上することは、ローゼ
ンブラット以来よく知られたところである( 1958
−年 F、Rosenblatt  Theperce
ptron  :  a probabilistic
  a+odel  forinforsation 
storage and organization 
in thebrain″、  Psychologi
cal Review ’65: 386−408)。
Conventionally, inhibitory and excitatory neurons have been considered as the output characteristics of neurons, and in order to optimally place them in a data processing device, a detailed study is required that takes into account the processing content. The connection between the Narayon neuron and the excitatory neuron is complex. However, according to this embodiment, by simply selecting the sign of the weight W as + or - as a characteristic of one synapse, it is possible to arbitrarily realize an inhibitory type or an excitatory type. Therefore, the circuit configuration is simplified and the circuit is free. The degree increases. It has been well known since Rosenblatt (1958
-Year F. Rosenblatt Theperce
ptron: a probabilistic
a+odel forinforsation
storage and organization
in thebrain'', Psychology
cal Review '65: 386-408).

しかして本実施例によれば、データ処理装置における学
習の効率が向上し、最終出力データを早期に収束かつ安
定化させることができる。また、上述のように、重みW
の正負の符号を変えるだけで抑制型および興奮型の特性
が得られるので、デ。
According to this embodiment, the efficiency of learning in the data processing device is improved, and the final output data can be converged and stabilized quickly. Also, as mentioned above, the weight W
Since inhibitory and excitatory properties can be obtained by simply changing the sign of , de.

−夕処理装置の回路の自由度が高まる。- Increased degree of freedom in the circuit of the processing equipment.

なお、重みWの時間的変化は、必ずしも正確に指数関数
に定める必要はな(、例えば折れ線等で近似してもよい
Note that the temporal change in the weight W does not necessarily need to be determined exactly as an exponential function (for example, it may be approximated by a polygonal line, etc.).

〔発明の効果〕〔Effect of the invention〕

以上のように本発明によれば、所定の処理に必要なシナ
プス数あるいはニューロン数を減少させることができ、
これにより、データ処理装置のメモリ容量を削減するこ
とが可能となり、また処理速度を向上させることが可能
となる。さらに、重みを時間的に変化させることにより
、データ処理装置に、生体系に近い脳細胞の学習を実現
化させ、学習効率を向上させることができる。
As described above, according to the present invention, the number of synapses or neurons required for a given process can be reduced,
This makes it possible to reduce the memory capacity of the data processing device and improve processing speed. Furthermore, by temporally changing the weights, it is possible to make the data processing device realize learning of brain cells similar to that of a biological system, and improve learning efficiency.

【図面の簡単な説明】[Brief explanation of drawings]

第1図(a)は本発明の第3実施例を示す概念図、 第1図(b)は本発明の第4実施例を示す概念図、 第2図は一般的な神経細胞モデルを示す概念図、第3図
は一般的な神経細胞モデルを示す概念図、第4図(a)
は比較例を示す概念図、 第4図(b)は他の比較例を示す概念図、第4図(C)
は本発明の第1実施例を示す概念図、 第5図(a)は図形処理における3x3コンボリユーシ
ヨンを示す図、 第5図(b)は各画素の図形濃度の状態を示す図、 第5図(c)は本発明の第2実施例であって、図形処理
における端点を判断するデータ処理装置の例を示す概念
図、 第6図は本発明の各実施例のデータ処理装置が構築され
るコンピュータ部を示すブロック図、第7図(a)は比
較例を示す概念図、 第7図(b)は本発明の第5実施例を示す概念図、 第8図(a)は比較例を示す概念図、 第8図(b)は本発明の第6実施例を示す概念図、 第9図はモード■の学習を行うデータ処理装置の概念図
、 第1O図はモードHの学習を行うデータ処理装置の概念
図、 第11図は重みの時間的変化を示すグラフである。 IO・・・データ群 11〜19、A〜■・・・データ 20.30.40.50,90 ・・・ニューラルレイヤ 21〜24.31〜34.41,42 91〜93・・・ニューロン 90・・・出力レイヤ 第  2 図 第  1 図 第3図 (i) (iV) (Vii) (ii) (V) (Viii) 図 (iii) (vi) 1υ 第 図 第 図 第 図 手続補正書 (自発) 平成 1年 5月17日
FIG. 1(a) is a conceptual diagram showing a third embodiment of the present invention, FIG. 1(b) is a conceptual diagram showing a fourth embodiment of the present invention, and FIG. 2 is a general neuron model. Conceptual diagram, Figure 3 is a conceptual diagram showing a general neuron model, Figure 4 (a)
is a conceptual diagram showing a comparative example, Figure 4(b) is a conceptual diagram showing another comparative example, and Figure 4(C) is a conceptual diagram showing another comparative example.
is a conceptual diagram showing the first embodiment of the present invention, FIG. 5(a) is a diagram showing 3x3 convolution in graphic processing, FIG. 5(b) is a diagram showing the state of graphic density of each pixel, FIG. 5(c) is a second embodiment of the present invention, and is a conceptual diagram showing an example of a data processing device that determines endpoints in graphic processing. FIG. FIG. 7(a) is a conceptual diagram showing a comparative example; FIG. 7(b) is a conceptual diagram showing a fifth embodiment of the present invention; FIG. 8(a) is a comparative diagram. A conceptual diagram showing an example. FIG. 8(b) is a conceptual diagram showing the sixth embodiment of the present invention. FIG. 9 is a conceptual diagram of a data processing device that performs mode ■ learning. FIG. 1O is a conceptual diagram showing mode H learning. A conceptual diagram of a data processing device that performs the following. FIG. 11 is a graph showing temporal changes in weights. IO...Data group 11-19, A-■...Data 20.30.40.50,90...Neural layer 21-24.31-34.41,42 91-93...Neuron 90 ...Output layer Figure 2 Figure 1 Figure 3 (i) (iV) (Vii) (ii) (V) (Viii) Figure (iii) (vi) 1υ Figure Figure Figure 3 Procedure amendment ( (Voluntary) May 17, 1999

Claims (15)

【特許請求の範囲】[Claims] (1)入力データに所定の重みを乗じたものの総和と閾
値との比較結果に応じたデータを出力するニューロンが
並列的に設けられたニューラルレイヤを多層有し、ある
ニューラルレイヤの出力が次段のニューラルレイヤの入
力データとなるように構成されたデータ処理装置におい
て、2段目以後のニューラルレイヤに、それより前段の
ニューラルレイヤを経ずに直接入力データが入力されて
いることを特徴とするデータ処理装置。
(1) It has multiple neural layers in which neurons are installed in parallel to output data according to the comparison result of the sum of input data multiplied by a predetermined weight and a threshold value, and the output of one neural layer is sent to the next stage. A data processing device configured to input data to a neural layer, characterized in that the input data is directly input to the second and subsequent neural layers without passing through the preceding neural layer. Data processing equipment.
(2)処理すべきデータ群中のデータを、その抽象度(
以下、「次数」という)に応じて分類し、より高い次数
(以下、「より高次」という)のデータをより後段のニ
ューラルレイヤに直接入力することを特徴とする特許請
求の範囲第1項記載のデータ処理装置。
(2) The level of abstraction (
Claim 1 characterized in that data of a higher order (hereinafter referred to as "higher order") is classified according to the order (hereinafter referred to as "order") and is directly input to a later stage neural layer. The data processing device described.
(3)同一分類のデータが複数のニューラルレイヤに直
接入力されていることを特徴とする特許請求の範囲第2
項記載のデータ処理装置。
(3) Claim 2, characterized in that data of the same classification is directly input to multiple neural layers.
The data processing device described in Section 1.
(4)ニューロンの出力データの次数を入力データの次
数より1次高いととらえることを特徴とする特許請求の
範囲第2項記載のデータ処理装置。
(4) The data processing device according to claim 2, wherein the order of the output data of the neuron is considered to be one order higher than the order of the input data.
(5)1つの作用素で結合されるデータ対は相等しい次
数であるととらえることを特徴とする特許請求の範囲第
2項記載のデータ処理装置。
(5) The data processing device according to claim 2, wherein data pairs connected by one operator are considered to have equal orders.
(6)各データの次数を、そのデータがとり得る最も高
い次数を基準として判断し、この判断に基づいてデータ
を分類することを特徴とする特許請求の範囲第2項記載
のデータ処理装置。
(6) The data processing device according to claim 2, wherein the degree of each data is determined based on the highest possible degree of the data, and the data is classified based on this determination.
(7)初段のニューラルレイヤに入力される入力データ
の次数をn_0とするとき、n段(n≧2)目のニュー
ラルレイヤの次数を(n_0+n−1)次ととらえ、こ
のニューラルレイヤには、(n_0+n−1)次のデー
タを直接入力することを特徴とする特許請求の範囲第2
項記載のデータ処理装置。
(7) When the order of the input data input to the first stage neural layer is n_0, the order of the n-th stage (n≧2) neural layer is assumed to be (n_0+n-1) order, and this neural layer has the following: (n_0+n-1) The second claim characterized in that the following data is directly input.
The data processing device described in Section 1.
(8)ニューラルレイヤのニューロン数がより後段にな
るにつれ減少していることを特徴とする特許請求の範囲
第1項記載のデータ処理装置。
(8) The data processing device according to claim 1, characterized in that the number of neurons in the neural layer decreases as the stage progresses.
(9)最終段のニューラルレイヤは出力データをデータ
処理装置外部に出力する出力レイヤであることを特徴と
する特許請求の範囲第1項記載のデータ処理装置。
(9) The data processing device according to claim 1, wherein the final stage neural layer is an output layer that outputs output data to the outside of the data processing device.
(10)ある入力データにより重みが増加するニューロ
ンがあるとき、その入力データを繰り返し入力したとき
の重みを指数関数的に変化させることを特徴とする特許
請求の範囲第1項に記載のデータ処理装置。
(10) When there is a neuron whose weight increases depending on certain input data, the data processing according to claim 1 is characterized in that when the input data is repeatedly input, the weight is changed exponentially. Device.
(11)重みは指数関数的に増加することを特徴とする
特許請求の範囲第10項記載のデータ処理装置。
(11) The data processing device according to claim 10, wherein the weight increases exponentially.
(12)重みは指数関数的に減少することを特徴とする
特許請求の範囲第10項記載のデータ処理装置。
(12) The data processing device according to claim 10, wherein the weight decreases exponentially.
(13)重みの初期値がゼロであることを特徴とする特
許請求の範囲第10項記載のデータ処理装置。
(13) The data processing device according to claim 10, wherein the initial value of the weight is zero.
(14)指数関数はイクスポーネンシャル関数であるこ
とを特徴とする特許請求の範囲第10項記載のデータ処
理装置。
(14) The data processing device according to claim 10, wherein the exponential function is an exponential function.
(15)指数関数は指数関数の近似関数であることを特
徴とする特許請求の範囲第10項記載のデータ処理装置
(15) The data processing device according to claim 10, wherein the exponential function is an approximation function of the exponential function.
JP1084783A 1989-04-05 1989-04-05 Data processor Pending JPH02264354A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP1084783A JPH02264354A (en) 1989-04-05 1989-04-05 Data processor
EP90106502A EP0391404B1 (en) 1989-04-05 1990-04-05 Data processing system
DE69023034T DE69023034T2 (en) 1989-04-05 1990-04-05 Data processing system.
US07/767,565 US5195171A (en) 1989-04-05 1991-09-30 Data processing system
US08/461,538 US5553196A (en) 1989-04-05 1995-06-05 Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1084783A JPH02264354A (en) 1989-04-05 1989-04-05 Data processor

Publications (1)

Publication Number Publication Date
JPH02264354A true JPH02264354A (en) 1990-10-29

Family

ID=13840297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1084783A Pending JPH02264354A (en) 1989-04-05 1989-04-05 Data processor

Country Status (1)

Country Link
JP (1) JPH02264354A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233585A (en) * 1992-02-24 1993-09-10 Hitachi Ltd Device abnormality diagnostic method
JP2019531535A (en) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated Binary neural network on programmable integrated circuit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233585A (en) * 1992-02-24 1993-09-10 Hitachi Ltd Device abnormality diagnostic method
JP2019531535A (en) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated Binary neural network on programmable integrated circuit

Similar Documents

Publication Publication Date Title
Hagan et al. Training feedforward networks with the Marquardt algorithm
EP0378689B1 (en) Inference rule determination method and inference apparatus
JPH08297716A (en) Adaptive weight adjusting circuit for neural network
US5630023A (en) Signal processor
Brouwer A feed-forward network for input that is both categorical and quantitative
Kumara et al. Use of associative memory and self-organization in conceptual design
JPH06161981A (en) Neural network circuit
EP0661645A2 (en) Neural network
JPH02264354A (en) Data processor
JPH04182769A (en) Digital neuro processor
Arnold et al. On the cost effectiveness of logarithmic arithmetic for backpropagation training on SIMD processors
Plagianakos et al. Evolutionary training of hardware realizable multilayer perceptrons
JPH05165987A (en) Signal processor
Li et al. Neural networks composed of single-variable CMACs
Urcid et al. Single layer morphological perceptron solution to the N-bit parity problem
JPH05128285A (en) Neuro-processor
Ghorbani et al. Incremental communication for multilayer neural networks
Ohtani et al. Structural learning with M-apoptosis in neurofuzzy GMDH
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JPH02301876A (en) Picture processor
JPH03167655A (en) Neural network
El-Bakry et al. Simplification and implementation of boolean functions
Barrón et al. Morphological neural networks with dendrite computation: A geometrical approach
Domen et al. Implementation of Massive Artificial Neural Networks with Field-programmable Gate Arrays
Chen et al. A weighted grey CMAC neural network with output differentiability