JPH0498356A - Neural network which can output combined weight - Google Patents

Neural network which can output combined weight

Info

Publication number
JPH0498356A
JPH0498356A JP2212142A JP21214290A JPH0498356A JP H0498356 A JPH0498356 A JP H0498356A JP 2212142 A JP2212142 A JP 2212142A JP 21214290 A JP21214290 A JP 21214290A JP H0498356 A JPH0498356 A JP H0498356A
Authority
JP
Japan
Prior art keywords
neuro
unit
output
data
weight value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2212142A
Other languages
Japanese (ja)
Inventor
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Ryusuke Masuoka
竜介 益岡
Yuri Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP2212142A priority Critical patent/JPH0498356A/en
Publication of JPH0498356A publication Critical patent/JPH0498356A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To learn a network that treats a combined weight as processing data by arranging a neuro circuit which has a weighting function and does not have a threshold in the front stage of a neuro unit from which a weight value is to be detected. CONSTITUTION:For outputting the combined weight value between the neuro units 5 and 6, the neuro unit 7 is arranged for outputting the weight value between the neuro units 5 and 6 and the weight value for a signal from the neuro unit in the neuro unit 6 is fixed to '1' at the time of learning. At the time of learning, the neuro unit 7 weights data from the neuro unit 5. A division part 8 composed of the neuro units is connected and the output of the neuro unit 7 is divided by the output of the neuro unit 5. Thus, combined weight can be outputted and the overall learning becomes possible.

Description

【発明の詳細な説明】 〔目次〕 概要 産業上の利用分野 従来の技術(第8図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用 実施例(第2図〜第7図) 発明の効果 〔概要〕 結合重みが出力可能なニューラル・ネットワークに関し
、 ニューラル・ネットワークにより結合重みを出力可能と
して全体を学習可能に構成することを目的とし、 それぞれ線型又は非線型のニューロ・ユニットで構成さ
れる入力層と、中間層と、出力層を有するネットワーク
構成のデータ処理装置において、第1ニューロ・ユニッ
トから出力されたデータdに重み値Wを付加したd×W
に関する演算を行う第2ニューロ・ユニットと、この第
1ニューロ・ユニットとの間に第3ニユーロ・ユニソト
ヲ設ケ、この第3ニューロ・ユニットには第1ニューロ
・ユニットから出力されるデータdに対し結合重み値W
を付加して(d×W)とする重み付手段を設け、この重
み付けされたデータ(d×W)をそのまま第2ニューロ
・ユニットに出力し、第2ニユーロ・ユニ・ノ)テハ、
:(7)第3ニューロ・ユニットから伝達されたデータ
に対し別に結合重み付けすることなく闇値処理を行うよ
うにし、また、前記第3ニューロ・ユニットからこの結
合重み値に関する情報を出力するように構成する。
[Detailed description of the invention] [Table of contents] Overview Industrial field of application Prior art (Figure 8) Means for solving the problems to be solved by the invention (Figure 1) Working examples (Figure 2) ~Figure 7) Effects of the invention [Summary] Regarding a neural network that can output connection weights, the purpose is to configure the neural network to output connection weights so that the whole can be learned. In a data processing device having a network configuration including an input layer composed of neuro units, a middle layer, and an output layer, d×W is obtained by adding a weight value W to data d output from the first neuro unit.
A third neuro unit is installed between the second neuro unit that performs calculations related to the data d and the first neuro unit, and the third neuro unit has a Connection weight value W
A weighting means is provided to add (d×W), and this weighted data (d×W) is outputted as it is to the second neuro unit, and
:(7) Perform dark value processing on the data transmitted from the third neuro unit without separately applying connection weights, and output information regarding this connection weight value from the third neuro unit. Configure.

〔産業上の利用分野〕[Industrial application field]

本発明は、ニューロ・ユニットにおける結合重み値を算
出できるニューラル・1ノドワークに関する。
The present invention relates to a neural one-node work that can calculate connection weight values in neural units.

〔従来の技術〕[Conventional technology]

ニューラル・矛ノドワークでは、入力信号が与えられる
と、そのニューロ・ユニット内で重みづけ処理と闇値処
理が行われ、出力信号を出す。従って、ニューラル・ネ
ットワークでは所望の処理を行うためあらかしめ既知の
入力信号と教師データを使用して学習を行い、中間層を
構成するニューロ・ユニットと、出力層を構成するニュ
ーロ・ユニットの閾値とを重み値を調整している。
In neural docker work, when an input signal is given, weighting processing and dark value processing are performed within the neuron unit, and an output signal is produced. Therefore, in order to perform the desired processing, a neural network performs learning using a preliminarily known input signal and training data. The weight values are adjusted.

従来のニューラル・ネットワークで重み値を人出力信号
として扱う場合の方法を第8図に示す。
FIG. 8 shows a method for treating weight values as human output signals in a conventional neural network.

第8図では、ニューロ・ユニノ)101〜105より構
成される第1ネツトワーク100と、ニューロ・ユニッ
ト1)1〜1)5より構成される第2ネツトワーク1)
0からなる。そして第2ネツトワーク1)0は第12ソ
トワーク100の出力と、第1ネノトワークノニューロ
・ユニット104と105間の重み値Wとを、それぞれ
入力信号としている。ニューロ・ユニットでも学習によ
り得られた重み値を名ノドワークのデータとして扱うこ
とにより、より高度な処理が可能となるものと考えられ
る。
In FIG. 8, a first network 100 consisting of neuro units 101 to 105 and a second network 1) consisting of neuro units 1) 1 to 1) 5 are shown.
Consists of 0. The second network 1)0 uses the output of the twelfth network 100 and the weight value W between the first network neuro units 104 and 105 as input signals, respectively. It is thought that more advanced processing will be possible in the neuro unit by treating the weight values obtained through learning as the data of the master node work.

従来のヱ/トワークでは、ニューロ・ユニットにおける
重み値を直接信号として出力できないので、何らかの重
み読み出し手段が必要となる。このため、例えばプログ
ラムによる重み続出部120を使用していた。
In the conventional network, the weight values in the neuro unit cannot be directly output as signals, so some kind of weight reading means is required. For this reason, for example, a program-based weight succession unit 120 has been used.

〔発明が解決しようとする課題] ところで、第8図に示す従来のものでは、重み続出部1
20プログラムによる読出し手段のような、ニューラル
・ネットワークとは別のモジュールで構成していた。従
って、第8図に示すシステムでは、全体システムとして
の学習ができず、現場にこのような矛、トワークを設置
して、例えば制御システムを構成するような場合、学習
ができないので、精密な調整ができないという欠点があ
った。
[Problems to be Solved by the Invention] By the way, in the conventional device shown in FIG.
It consisted of a module separate from the neural network, such as a readout means using a 20 program. Therefore, with the system shown in Figure 8, it is not possible to learn as a whole system, and when such systems are installed at the site to configure, for example, a control system, learning is not possible, so precise adjustments cannot be made. The drawback was that it was not possible.

それ故、本発明の目的は、重み続出手段をも含めて全体
をニューラル・ネットワークで構成することである。
Therefore, an object of the present invention is to configure the entire system including the weight successive means using a neural network.

〔課題を解決するための手段〕[Means to solve the problem]

前記目的を達成するため、本発明では第1図に示す如く
、例えばニューロ・ユニット5と6間の結合の重み値を
出力させる場合、これらのニューロ・ユニット5と6と
の間に重み値出力用にニューロ・ユニット7を配置する
とともに、後述する学H時にこのニューロ・ユニット6
におけるニューロ・ユニット7からの信号に対する重み
値を1に固定する。そして学習時のとき、従来のもので
は、ニューロ・ユニット6において調整していたニュー
ロ・ユニット5からのデータに対する重み付けをニュー
ロ・ユニット7で行う。また、ニューロ・ユニットで構
成された割算部8を接続し、ニューロ・ユニット7の出
力ヲニューロ・ユニ・ノド5の出力で割算する。なお割
算部8は、予め学習を行って2つの人力(X、Y)に対
しZ=X/Yの出力を得るように調整ずみのものを接続
する。
In order to achieve the above object, in the present invention, as shown in FIG. At the same time, neuro unit 7 is placed for
The weight value for the signal from the neuro unit 7 in is fixed to 1. During learning, the neuro unit 7 weights the data from the neuro unit 5, which was adjusted in the neuro unit 6 in the conventional system. Further, a division section 8 composed of a neuro unit is connected, and the output of the neuro unit 7 is divided by the output of the neuro uni node 5. Note that the dividing unit 8 is connected to a unit that has been trained in advance and adjusted so as to obtain an output of Z=X/Y for two human forces (X, Y).

なお第1ネツトワーク1は、例えばニューロ・ユニット
2.3.4.5.6と前記ニューロ・ユニット7で構成
し、第2ネツトワーク10は例えばニューロ・ユニット
1).12.13.14.15で構成する。そして第2
ネツトワーク10は、割算部8の出力と、第1ネツトワ
ーク1の出力で適宜の演算を行う第8図に示す第2ネツ
トワーク1)0と同様に機能するもので構成され、また
第1ネツトワーク1は、第1人力と第2人力により適宜
の演算を行う、第8図に示す第1ネツトワーク100と
同様に機能するもので構成される。
The first network 1 is composed of, for example, neuro units 2.3.4.5.6 and the neuro unit 7, and the second network 10 is composed of, for example, neuro units 1). 12.13.14.15. and the second
The network 10 is configured to function in the same way as the second network 1)0 shown in FIG. The first network 1 is configured to function similarly to the first network 100 shown in FIG. 8, which performs appropriate calculations using first and second human power.

そして学習を行うとき、各ネットワークは単独に学習デ
ータにもとづき学習されるが、第1図の如く接続されて
、再度学習することもできる。
When learning is performed, each network is learned individually based on learning data, but it can also be connected as shown in FIG. 1 and learned again.

〔作用〕[Effect]

本発明では、第1ネツトワーク1に対する学習のとき、
ニューロ・ユニット7では闇値をゼロとして、ニューロ
・ユニット5から伝達された信号dlに対しニューロ・
ユニット7において重みづけ調整を行ったとき、その重
み値をWlとすればdIXV/+をそのまま出力する。
In the present invention, when learning for the first network 1,
In the neuro unit 7, the darkness value is set to zero, and the neuron
When weighting is adjusted in unit 7, if the weighting value is Wl, dIXV/+ is output as is.

そしてニューロ・ユニット6ではニューロ・ユニ、ドア
から伝達された前記d+×W+の信号に対しては重み値
1を付加する。従ってニューロ・ユニット6ではニュー
ロ・ユニット4から伝達される信号d2については重み
値W2を付加する。そして前記(d+×W1 +d 2
 ×W2)に対し閾値θを調整する。
The neuro unit 6 adds a weight value of 1 to the signal d+×W+ transmitted from the neuro unit and the door. Therefore, the neuro unit 6 adds a weight value W2 to the signal d2 transmitted from the neuro unit 4. And the above (d+×W1 +d2
×W2), the threshold value θ is adjusted.

従って、ニューロ・ユニット6の出力は、第8図におけ
るニューロ・ユニット105と同しものとなる。
Therefore, the output of neuro unit 6 is the same as neuro unit 105 in FIG.

本発明では、ニューロ・ユニット5より信号dlが出力
され、ニューロ・ユニット7より信号(dl×Wl)が
出力され、これらが割算部8に伝達され(dl×Wl)
÷d1が演算されるので、割算部8より重み値W1が得
られる。
In the present invention, the neuro unit 5 outputs the signal dl, the neuro unit 7 outputs the signal (dl×Wl), and these are transmitted to the divider 8 (dl×Wl).
Since ÷d1 is calculated, the weight value W1 is obtained from the dividing unit 8.

このWlは、第8図において、ニューロ・ユニット10
5のニューロ・ユニット104からの信号に対する重み
値と同しものであり、かくして重み値をニューラル・ネ
ットワークにより得ることができる。
This Wl is the neuro unit 10 in FIG.
The weight values for the signals from the neuro unit 104 of No. 5 are the same as those for the signals from the neuro unit 104 of No. 5, and thus the weight values can be obtained by the neural network.

〔実施例〕〔Example〕

本発明の一実施例を第2図〜第6図に基づき説明する。 An embodiment of the present invention will be described based on FIGS. 2 to 6.

第2図は本発明の一実施例を示し、第3図はそ割算部の
説明図、第4図は割算部の学習データ、第5図はニュー
ロ・ユニットの説明図、第6図(A)はニューロ・ユニ
ットの一実施例構成図、第6図(B)は階層ネットワー
クの一実施例を示す。
Fig. 2 shows an embodiment of the present invention, Fig. 3 is an explanatory diagram of the division section, Fig. 4 is the learning data of the division section, Fig. 5 is an explanatory diagram of the neuro unit, and Fig. 6 is an explanatory diagram of the division section. 6(A) is a block diagram of an embodiment of a neuro unit, and FIG. 6(B) is a diagram illustrating an embodiment of a hierarchical network.

まず、本発明を詳述するに先立ち、第5図により本発明
を構成するニューロ・ユニットについて説明する。
First, before describing the present invention in detail, the neuro unit constituting the present invention will be explained with reference to FIG.

第5図において、21はニューロ・ユニット、22は複
数の入力(図示の場合は入力X1〜×5の5人力の場合
を示す)に対し夫々の内部結合の重み値(W 1、W 
2〜W s )を乗算する乗算部22−1〜22−5を
具備する乗算処理部、23は乗算処理部22から出力さ
れる全乗算結果X1・W1〜X5・Wsを加算する累算
処理部、24は前記累算処理部23の累算値に例えばS
字形関数(シグモイド関数)を使用して非線型の闇値処
理を行う闇値処理部である。勿論、用途に応して前記S
字形関数の代わりに他の関数、例えばf (X)=Xの
恒等関数を使用することができる。
In FIG. 5, 21 is a neuro unit, 22 is a neuro unit, and 22 is a weight value of each internal connection (W 1, W
2 to Ws), and 23 is an accumulation processing unit that adds all the multiplication results X1.W1 to X5.Ws output from the multiplication processing section 22. The unit 24 adds, for example, S to the accumulated value of the accumulation processing unit 23.
This is a dark value processing unit that performs nonlinear dark value processing using a glyph function (sigmoid function). Of course, depending on the application, the above S
Other functions can be used instead of the glyph function, for example the identity function f (X)=X.

このニューロ°ユニット21で行われる演算を数式で示
すと以下のようになる。
The calculations performed by the neuro unit 21 are expressed as follows.

加算部23の出力Yは、入力信号をXI、X2X5とす
れば、 Y−(X+・W1+X2・W ! −+−−−−4X 
s・Wt)となる。
If the input signals are XI and X2X5, the output Y of the adder 23 is Y-(X+・W1+X2・W! −+−−−−4X
s・Wt).

闇値処理部24の出力Zは、闇値をθとするとき、 前記各式においてWiとθは可変である。The output Z of the dark value processing section 24 is expressed as follows, when the dark value is θ. In each of the above equations, Wi and θ are variable.

なお、ニューロ・ユニット21は、第6図(A)に示す
如く、具体的に構成されている。第6図(A)において
、22aは乗算型D/Aコンバータ、23は累算処理部
であってアナログ加算器23a及びサンプルホールド回
路23bを具備するもの、24は闇値処理部、25は出
力保持部、26は出力スイッチ部、27は入力スイッチ
部、28は重み保持部、29は制御回路である。そして
第6図(A)において、第5図と同−記号部は同一部分
を示す。
Note that the neuro unit 21 is specifically configured as shown in FIG. 6(A). In FIG. 6(A), 22a is a multiplication type D/A converter, 23 is an accumulation processing section which includes an analog adder 23a and a sample hold circuit 23b, 24 is a dark value processing section, and 25 is an output. 26 is an output switch section, 27 is an input switch section, 28 is a weight holding section, and 29 is a control circuit. In FIG. 6(A), the same part as in FIG. 5 indicates the same part.

入カスインチ部27は、入力信号XI、X2、X3−が
順次入力されるものであり、この入力タイミングに同期
してオン制御される。そしてこの入力タイミングに応じ
て重み信号W、、W、、Ws−が伝達されるが、このと
き制御回路29より重み入力制御信号が順次レシーバに
出力され、レシーバを経由してこの重み信号W+、W2
、Wsを重み保持部28に順次送出する。このようにし
て乗算型D/Aコンバータ22aにおいて、XIWI、
X2W2、X 3 W 9−が順次演算される。
The input signal input section 27 receives input signals XI, X2, and X3- in sequence, and is controlled to be turned on in synchronization with the input timing. Then, weight signals W, , W, , Ws- are transmitted according to this input timing, and at this time, the weight input control signals are sequentially outputted from the control circuit 29 to the receiver, and the weight signals W+, W, , Ws- are transmitted via the receiver. W2
, Ws are sequentially sent to the weight holding unit 28. In this way, in the multiplication type D/A converter 22a, XIWI,
X2W2 and X3W9- are sequentially calculated.

累算処理部23は、初めサンプルホールド回路23bは
零にクリアされているので、前記XIW1とこの零がア
ナログ加算器23aにて加算され、得られたX 1w、
が保持される。次にX 2W2が入力されるとき、アナ
ログ加算器23aはサンプルホールド回路23bに保持
されたXIW、とこのX 2 W 2を加算して、得ら
れた(X+W++X2W2)をサンプルホールド回路2
3bに保持する。このようにして累算値Y−(XtWt
+X×W2 +X s Ws−)が演算される。
In the accumulation processing unit 23, since the sample hold circuit 23b is initially cleared to zero, the above-mentioned XIW1 and this zero are added in the analog adder 23a, and the obtained X1w,
is retained. Next, when X2W2 is input, the analog adder 23a adds the XIW held in the sample and hold circuit 23b and this X2W2, and the obtained (X+W++X2W2) is sent to the sample and hold circuit 2.
Hold at 3b. In this way, the cumulative value Y-(XtWt
+X×W2 +X s Ws−) is calculated.

このようにして、累算処理部23における累算処理が終
了したとき、制御回路29は変換制御信号を出力し、次
いで出力制御信号を出力する。これに応して前記累算値
Yが閾値処理部24が閾値処理を行い、得られた出力Z
を出力保持部25で一時的に保持し、出力スイッチ26
がオンに制御されることによりこの出力Zが出力される
In this manner, when the accumulation processing in the accumulation processing section 23 is completed, the control circuit 29 outputs a conversion control signal, and then outputs an output control signal. In response to this, the threshold processing unit 24 performs threshold processing on the accumulated value Y, and the obtained output Z
is temporarily held by the output holding unit 25, and the output switch 26
This output Z is output by being controlled to be turned on.

第6図(A)に示すニューロ・ユニ、トを使用し、例え
ば第6図(B)に示す如く、階層ネットワークを構成す
る。第6図(B)において、70はアナログハスであっ
て、入力層を構成するニュロ・ユニ;z)21h、中間
層を構成する二二一ロ・ユニット21i、出力層を構成
するニューロ・ユニット21」等を、第6図(B)に示
す如く、接続するもの、71は前記重み保持部28に重
み値を与える重み出力回路、72は入力層を構成するニ
ューロ・ユニット21hに対する入力信号を保持する入
力信号保持回路、73はデータ転送の制御信号である同
期制御信号を伝送する同期制御信号線、74は階層ネ7
)ワークを総合的ムこ制御する主制御部である。なお、
入力層のニューロ・ユニノ)21hの重み値は、前記の
如く1のため、これらのニューロ・ユニノ)21hの重
み出力回路71にはいずれも数値1が記入されている。
Using the neuro units shown in FIG. 6(A), a hierarchical network is constructed, for example, as shown in FIG. 6(B). In FIG. 6(B), reference numeral 70 is an analog lotus, which includes a neuro unit 21h that constitutes an input layer, a 221 unit 21i that constitutes an intermediate layer, and a neuro unit that constitutes an output layer. 21'', etc., as shown in FIG. 6(B), 71 is a weight output circuit that provides a weight value to the weight holding section 28, and 72 is a weight output circuit that provides an input signal to the neuro unit 21h constituting the input layer. 73 is a synchronous control signal line that transmits a synchronous control signal that is a data transfer control signal; 74 is a hierarchical network 7;
) This is the main control unit that comprehensively controls the workpiece. In addition,
Since the weight value of the input layer Neuro-Unino) 21h is 1 as described above, the numerical value 1 is written in the weight output circuit 71 of these Neuro-Unino) 21h.

ところで、ニューロ・ユニットを使用した階層ネットワ
ーク構成のデータ処理装置では、データ変換機能を規定
するところの階N7ソトワーク構造の重み値等を学習処
理により求めることが必要である。そしてこの学習処理
のアルゴリズムとして、ハック・プロパゲーンヨン法が
その実用性の高さから注目されている。このハック・プ
ロパゲーショソ法は、階層ネットワークの重み値と闇値
を、誤差のフィードバンクにより調節することにより学
習するものである。
Incidentally, in a data processing apparatus having a hierarchical network configuration using a neuro unit, it is necessary to obtain weight values and the like of the rank N7 sotowork structure that defines the data conversion function through a learning process. As an algorithm for this learning process, the Huck propagation method is attracting attention due to its high practicality. This hack propagation method learns by adjusting the weight values and shadow values of a hierarchical network using an error feedbank.

例えば、第1の数値の入力信号(X l、 X 2 −
)を入力してこのときの出力層のニューロ・ユニット2
1jの各出力(Z 1 、 Z x−)を図示省略した
減算部により数値の教師信号(DI、D 2−)と比較
してその誤差Δdl=(Dt−Zt)、Δd t−<D
2−Zx)−を求める。
For example, the first numerical input signal (X l, X 2 −
) is input and the neuro unit 2 of the output layer at this time is
Each output (Z 1 , Z x−) of 1j is compared with the numerical teacher signal (DI, D 2−) by a subtraction unit (not shown), and the error Δdl=(Dt−Zt), Δd t−<D
2-Zx)- is determined.

そしてまず出力層の各ニューロ・ユニット21jの闇値
、重み値W j iをΔdl、Δd2−が小さくなるよ
うに調整し、次に中間層のニューロ・ユニソ)21iの
闇値、重み値Wihを同様に調整する。
First, the dark value and weight value W j i of each neuro unit 21j in the output layer are adjusted so that Δdl and Δd2- are small, and then the dark value and weight value Wih of the neuro unit 21i in the middle layer are adjusted. Adjust in the same way.

それから第2の数値の入力信号(X+′、X2)を入力
してこのときの出力層のニューロユニット21hの各出
力(Z+’、22 ′−)を図示省略した減算部により
、これまた数値の教師信号(D1′、D2’−)と比較
してその誤差Δdx′= (D+’−Z+′)、Δd2
’=(D272′)−を求める。そして出力層の二二一
ロ・ユニット21j0)闇値、重み値を同様に調整し、
次に中間層のニューロ・ユニット21iの闇値、重み値
を調整する。このような処理を複数の入力信号と教師信
号にもとづき行い、学習することになる。
Then, the second numerical input signal (X+', Compared with the teacher signal (D1', D2'-), the error Δdx'= (D+'-Z+'), Δd2
Find '=(D272')-. Then, adjust the darkness value and weight value of the output layer 221ro unit 21j0) in the same way,
Next, the darkness value and weight value of the intermediate layer neuro unit 21i are adjusted. Learning is performed by performing such processing based on a plurality of input signals and a teacher signal.

なお第6図(B)において、入力層、出力層のニューロ
・ユニットの数は、入力データ数、出力データ数に応し
て定まるものであり、第1ネツトワークlや第2ネツト
ワーク10の如く、入力信号が2つで出力信号が1つの
場合には、第2図に示す如く、入力層は2個のニューロ
・ユニットで構成され、出力層は1個のニューロ・ユニ
ソトテ構成される。
In FIG. 6(B), the numbers of neuro units in the input layer and the output layer are determined according to the number of input data and the number of output data, and the numbers of neuro units in the input layer and output layer are determined according to the number of input data and the number of output data, As shown in FIG. 2, when there are two input signals and one output signal, the input layer is composed of two neuro units and the output layer is composed of one neuro unit.

第2図に示す本発明の一実施例に対しても当然のことな
がら、このような学習が必要である。
Naturally, such learning is necessary for the embodiment of the present invention shown in FIG.

第2図において、第1図と同記号部は同一部分を示す。In FIG. 2, the same symbols as in FIG. 1 indicate the same parts.

割算部8は、入力層を構成するニューロ・ユニット8−
1.8−2、中間層を構成するニューロ・ユニット8−
3.8−4−8−5 、及び出力層を構成するニューロ
・ユニット8−6で構成されている。そして中間層は、
例えば10個のニューロ・ユニットで構成されている。
The division unit 8 includes a neuro unit 8- which constitutes an input layer.
1.8-2, Neuro unit 8- that constitutes the middle layer
3.8-4-8-5, and a neuro unit 8-6 forming an output layer. And the middle class is
For example, it is composed of 10 neuro units.

この割算部8は、Z=X/Yを演算するように学習する
ために、予め、第1ネツトワークl、第2ネ、トワーク
10とは別に構成し、例えば第4図に示す如き学習パタ
ーンを使用してハックプロパゲーション法で学習する。
In order to learn to calculate Z=X/Y, this dividing unit 8 is configured in advance separately from the first network 1, the second network 10, and a learning network 10 as shown in FIG. Learn with hack propagation methods using patterns.

なお割算部8の入力層を構成するニューロ・ユニット8
−1.8−2は入力信号をそのまま出力するものであり
、重み値はI、数値闇値は0である。また、第4図にお
いて、X、Yはそれぞれ人力値であり、Dは教師データ
である。
Note that the neuro unit 8 that constitutes the input layer of the divider 8
-1.8-2 outputs the input signal as it is, the weight value is I, and the numerical darkness value is 0. Furthermore, in FIG. 4, X and Y are human power values, and D is teacher data.

まずバタンAOIを使用して第3図に示す如(、学習す
る。このときX=0.1 、Y=0.2 、D=0゜5
00テアル。Xはニューロ・ユニット8〜1に、Yはニ
ューロ・ユニット8〜2にそれぞれ入力され、教師デー
タDは減算部9に印加される。減算部9!こは、出力層
を構成するニューロ・ユニット8−6の出力Zが印加さ
れ、教師データDとの差に応した誤差信号、例えば(Z
−D)2が出力される。
First, we will learn as shown in Figure 3 using Battan AOI. In this case, X = 0.1, Y = 0.2, D = 0°5
00 theal. X is input to neuro units 8-1, Y is input to neuro units 8-2, respectively, and teacher data D is applied to subtraction section 9. Subtraction part 9! Here, the output Z of the neuro unit 8-6 constituting the output layer is applied, and an error signal corresponding to the difference with the teacher data D, for example (Z
-D) 2 is output.

このとき、学習は、前記の如く、ハックプロパゲーショ
ン法により行われる。
At this time, learning is performed by the hack propagation method as described above.

■ 前記パターンAOIを人力することにより減算部9
より前記誤差信号が出力されるが、ニューロ・ユニット
8−6における重み値Wl、W2−WIo及び閾値6口
を調整する。当然のことながら前記誤差信号が小さくな
るようにこれらを調整する。
■ By manually inputting the pattern AOI, the subtraction unit 9
The error signal is then outputted, and the weight values Wl, W2-WIo and threshold value 6 in the neuro unit 8-6 are adjusted. Naturally, these are adjusted so that the error signal becomes small.

■ ニューロ・ユニット8−6に対する前記調整に続き
、今度は同しパターンについてニューロ・ユニット8−
3.8−4−8−5における重み値W2いW22、W2
3、W、、−W、、、W z 6と閾値θ28、θ2□
−θ2.の調整が行われる。
■Following the above adjustment for neuro unit 8-6, now adjust neuro unit 8-6 for the same pattern.
3. Weight value W2 in 8-4-8-5 W22, W2
3. W, , -W, , W z 6 and threshold values θ28, θ2□
−θ2. adjustments will be made.

■ このようにしてパターンAOIに対し学習が行われ
たあと、パターンAO2を入力して学習ヲ行つ。即ち、
ニューロ・ユニット8−1にX=0.1を入力し、ニュ
ーロ・ユニット8−2にY=0.3を入力し、減算部9
に教師データD=0.333を入力する。これにより前
記■と同様に減算部9より誤差信号が出力されるが、ニ
ューロ・ユニ・ノド8−6における閾値θI+と重み値
Wl、W2−・−WIGをこの誤差信号が小さくなるよ
うに調整する。それから同しパターンについてニューロ
・ユニット8−3.8−4−8−5における閾値θ20
、θ2□−θ23と、重み値W21、W2□、W Z 
:l 、 W Z a−W z 5、W26を調整する
(2) After learning is performed on pattern AOI in this way, pattern AO2 is input to perform learning. That is,
Input X=0.1 to the neuro unit 8-1, input Y=0.3 to the neuro unit 8-2, and input the subtractor 9
Input the teacher data D=0.333 into. As a result, an error signal is output from the subtraction unit 9 in the same way as in the case (2) above, but the threshold value θI+ and the weight values Wl, W2-...-WIG in the neuro-uni-node 8-6 are adjusted so that this error signal becomes small. do. Then, for the same pattern, the threshold value θ20 in neuro unit 8-3.8-4-8-5
, θ2□−θ23, and weight values W21, W2□, W Z
:l, WZ a-Wz 5, adjust W26.

■ これを他のパターンA03〜HOIについても行う
。そしてパターンAOI〜HOIについて前記学習を行
ったあと、再びパターンA01〜HOIについて同様の
学習を繰返す。これを約5000回(正確には4246
回)学習することによりその演算の誤差を許容範囲にす
ることができた。
(2) Repeat this for other patterns A03 to HOI. After performing the learning for patterns AOI to HOI, the same learning is repeated for patterns A01 to HOI again. Repeat this about 5000 times (4246 times to be exact)
By learning the calculations (times), I was able to bring the errors in the calculations within an acceptable range.

このようにして割算部8を得ておき、次に第2図に示す
名ノドワークを学習する。
The division section 8 is obtained in this way, and then the master node work shown in FIG. 2 is learned.

この場合、第1ネツトワーク1及び第2ネツトワークで
それぞれ、ネットワーク毎に学習可能な場合、即ち、第
1ネツトワーク1または第2ネツトワーク10において
、2つの入力データとそれに応した教師データが予め得
られるならば、その学習データを使用して個別に学習す
ることができる。
In this case, if learning is possible for each network in the first network 1 and the second network, that is, in the first network 1 or the second network 10, two input data and corresponding training data are used. If obtained in advance, the learning data can be used for individual learning.

この場合、第1ネツトワークでは、ニューロ・ユニット
2及びニューロ・ユニット3にそれぞれ第1人力データ
、第2人力データを入力し、ニューロ・ユニット6の出
力を図示省略した減算部に入力する。そして減算部には
前記第1人力データ、第2人力データに対応する教師デ
ータが入力され、この教師データとニューロ・ユニット
6の出力との差を減算部は出力する。学習に際しては、
前記ノ如く、ニューロ・ユニット6においてはニューロ
・ユニット7からの出力に対して重み値を数値1に固定
し、またニューロ・ユニット7においては、闇値を設定
せずにニューロ・ユニット5からの出力データdiにニ
ューロ・ユニット7における重み値Wl’を乗した値を
そ′のまま出力するように制御される。
In this case, in the first network, first human power data and second human power data are input to neuro unit 2 and neuro unit 3, respectively, and the output of neuro unit 6 is input to a subtraction section (not shown). Then, teacher data corresponding to the first human power data and second human power data is input to the subtraction section, and the subtraction section outputs the difference between the teacher data and the output of the neuro unit 6. When learning,
As mentioned above, in the neuro unit 6, the weight value is fixed to the numerical value 1 for the output from the neuro unit 7, and in the neuro unit 7, the weight value is fixed to the numerical value 1 for the output from the neuro unit 5. It is controlled so that the value obtained by multiplying the output data di by the weight value Wl' in the neuro unit 7 is output as is.

従って、学習に際しては、第1の学習パターン(図示省
略、もし第1ネトワーク1を割算部として動作させる場
合には、例えば第4図に示す如き学習パターンを使用す
ることができる)の人カデタを入力層のニューロ・ユニ
ット2.3に入力し、図示省略した減算部に教師データ
を入力する。
Therefore, during learning, the first learning pattern (not shown; if the first network 1 is operated as a divider, a learning pattern such as that shown in FIG. 4 can be used, for example) is input to the neuro unit 2.3 of the input layer, and teacher data is input to a subtraction unit (not shown).

そして出力層のニューロ−ユニット6における閾イ直θ
】と、ニューロ・ユニット4からの出力d2に対する重
み4iW2゛及びニューロ・ユニット7における重み値
Wl’を調整する。それからニューロ・ユニット4.5
ムこおける閾値θ2、θ3と、それぞれの入力に対する
重み値W3’、W4、W5’、Wl ′を調整する。
Then, the threshold value in the neuron unit 6 of the output layer is θ
], the weight 4iW2' for the output d2 from the neuro unit 4 and the weight value Wl' in the neuro unit 7 are adjusted. Then neuro unit 4.5
The threshold values θ2 and θ3 for the input values and the weight values W3', W4, W5', and Wl' for the respective inputs are adjusted.

このようにして第1の学習パターンについて学習後、第
2の学習パターンを使用して同様の学習を行う。これを
多数の学習パターンに対して行って各学習パターンに対
し学習後、再び第1の学習パターンより学習を繰返す。
After learning the first learning pattern in this way, similar learning is performed using the second learning pattern. This is done for a large number of learning patterns, and after learning for each learning pattern, learning is repeated again starting from the first learning pattern.

そして出力層のニューロ・ユニット6の出力と教師デー
タとの誤差が許容値以下になったとき学習は終了する。
Learning ends when the error between the output of the neuro unit 6 in the output layer and the teacher data becomes less than a tolerance value.

このとき出力層のニューロ・ユニット6においては、中
間層のニューロ・ユニット4の出力d2に対して重み値
W2’を乗したd2×W2’と、中間層のニューロ・ユ
ニット5の出力d1に対して重み値W+’を乗したd1
×W1’との和(dl ×W l ’ + d 2 ×
W2 ’)に対して閾値θ1で処理したデータが出力さ
れることになり、ニューロ・ユニット7がない場合と同
等のものとなる。
At this time, the neuro unit 6 of the output layer calculates d2×W2', which is the output d2 of the neuro unit 4 of the middle layer multiplied by the weight value W2', and the output d1 of the neuro unit 5 of the middle layer. d1 multiplied by the weight value W+'
×W1' sum (dl ×W l' + d2 ×
W2') is processed using the threshold value θ1, and the data is output, which is equivalent to the case where the neuro unit 7 is not provided.

しかも、ニューロ・ユニット7の出力d 、 ×W′と
、ニューロ・ユニット5の出力d、か割算部8に伝達さ
れて (d I×Wl ’)  ÷dl=W+が演算され、重
み値Wl′が得られる。即ち、このようにして所望のニ
ューロ・ユニットにおける重み値を得ることができる。
Moreover, the output d, ×W' of the neuro unit 7 and the output d of the neuro unit 5 are transmitted to the division unit 8, where (dI×Wl')÷dl=W+ is calculated, and the weight value Wl ′ is obtained. That is, in this way, a weight value for a desired neuro unit can be obtained.

なお、前記説明では、第12ノドワーク1が予め定めら
れた演算処理を行い、その学習データを事前に得ること
ができる場合について説明したが、第2図に示す如く、
第1矛、トワーク1と第2ネツトワーク10及び割算部
8を接続して1つの処理を行わせるとともに、V]算郡
部8らは前記重み値を出力させてこれと前記第1ネツト
ワークlの出力にもとづき、演算を行うような場合でも
使用することができる。
In the above description, the twelfth node work 1 performs predetermined arithmetic processing and the learning data can be obtained in advance. However, as shown in FIG.
The first network 1, the second network 10, and the division section 8 are connected to perform one process, and the calculation section 8 outputs the weight value and connects this and the first network. It can also be used in cases where calculations are performed based on the output of l.

学習に際しては、第1ネ・ノドワークlの入力層のニュ
ーロ・ユニット2及びニューロ・ユニット3にそれぞれ
第1入カデータ、第2人力データを入力し、ニューロ・
ユニット15の出力を図示省略した減算部に入力する。
During learning, the first input data and the second human input data are input to the neuro unit 2 and neuro unit 3 of the input layer of the first node work l, respectively, and the neuro
The output of the unit 15 is input to a subtractor (not shown).

そして減算部には前記第1人力データ、第2人力データ
に対応する教師データが入力され、減算部はこの教師デ
ータとニューロ・ユニット15の出力との差を誤差信号
として出力する。従って、まずニューロ・ユニット15
の闇値及び重み値にニューロ・ユニット13.14から
の各出力に対するもの)を調整し、それからニューロ・
ユニット13.14における闇値、重み値を調整し、次
にニューロ・ユニット1).12における闇値、重み値
を調整する。
Then, teacher data corresponding to the first human power data and second human power data is input to the subtraction section, and the subtraction section outputs the difference between the teacher data and the output of the neuro unit 15 as an error signal. Therefore, first, neuro unit 15
for each output from neuro unit 13.14) to the darkness value and weight value of
Adjust the darkness value and weight value in units 13 and 14, then neuro unit 1). Adjust the darkness value and weight value in 12.

それから第1矛ノドワーク1の出力層のニューロ・ユニ
ット6(7)15i値ト、ニューロ・ユニ7)4からの
データd2に対する重み値と、ニューロ・ユニット5か
らのデータd1に対するニューロ。
Then, the neuro unit 6 (7) 15i value of the output layer of the first work 1, the weight value for the data d2 from the neuro unit 7) 4, and the neuro weight value for the data d1 from the neuro unit 5.

ユニット7における重み値を調整し、その後にニューロ
・ユニット4.5における闇値と重み値を調整する。
Adjust the weight values in unit 7, and then adjust the darkness and weight values in neuro unit 4.5.

このことを各学習パターンについて行い、JLtした学
習パターンについて行った後に、再びこれを繰り返す。
This is done for each learning pattern, and after the JLt learning pattern is done, this is repeated again.

このとき、割算部8は調整済のため、前記の同様にニュ
ーロ・ユニット7からd r ×W1′が入力され、ニ
ューロ・ユニット5からdlが入力されるので、 (d 1×W1 ’)÷(dt)=Wtという演算が行
われ、割算部8よりこの重み値W1′が出力される。
At this time, since the divider 8 has already been adjusted, dr ×W1' is input from the neuro unit 7 and dl is input from the neuro unit 5, so (d 1 × W1') The calculation ÷(dt)=Wt is performed, and the division section 8 outputs this weight value W1'.

次に本発明の第2実施例について第7図にもとづき説明
する。
Next, a second embodiment of the present invention will be described based on FIG. 7.

第7図(A)は本発明の第2実施例構成図、同(B)は
特殊ニューロ・ユニット説明図である。
FIG. 7(A) is a configuration diagram of a second embodiment of the present invention, and FIG. 7(B) is an explanatory diagram of a special neuro unit.

第7図において、第2図と同記号は同一部分を示す。In FIG. 7, the same symbols as in FIG. 2 indicate the same parts.

本発明の第2実施例の特徴的なところは、特殊ニューロ
・ユニット3Iを設ける。この特殊ニューロ・ユニット
31は、乗算部37及び重み値W′を保持する重み保持
部38を具備する。この重み保持部38は、例えばレジ
スタで構成される。
The characteristic feature of the second embodiment of the present invention is that a special neuro unit 3I is provided. This special neuro unit 31 includes a multiplication section 37 and a weight holding section 38 that holds a weight value W'. This weight holding unit 38 is composed of, for example, a register.

そしてこの重み保持部38に数値を記入するための重み
値設定部39を設ける。
A weight value setting section 39 is provided for writing numerical values into the weight holding section 38.

第127トワーク20の出力層のニューロ・ユニ、トロ
は、第2図のニューロ・ユニット6と同一構成であり、
特殊ニューロ・ユニ・7ト31から出力されるデータに
ついては重み値として数値1を固定し、ニューロ・ユニ
ット4から出力されるデータについては重み(I!W2
’を調整できるように構成される。また、特殊ニューロ
・ユニット31においては、ニューロ・ユニット5から
出力されたデータdに対し重み保持部38に保持された
重み(iW+ ″を乗算部37で乗算したdl×W1′
をニューロ・ユニット6に出力するのみならず、また重
み保持部38に保持された重み4aW1’をも出力する
。勿論この重み値Wl’は学習過程では変わるが、−旦
学習が終了すれば固定値とじて保持される。
The neuro unit and toro in the output layer of the 127th network 20 have the same configuration as the neuro unit 6 in FIG.
For the data output from the special neuro unit 7 31, the numerical value 1 is fixed as the weight value, and for the data output from the neuro unit 4, the weight (I!W2
' is configured so that it can be adjusted. In addition, in the special neuro unit 31, the data d output from the neuro unit 5 is given the weight held in the weight holding unit 38 (dl×W1′, which is obtained by multiplying the weight (iW+″ by the multiplier 37)
Not only is the weight 4aW1' held in the weight holding section 38 outputted, but also the weight 4aW1' held in the weight holding section 38 is outputted. Of course, this weight value Wl' changes during the learning process, but once the learning is completed, it is held as a fixed value.

次に、第2実施例の学習について、ハックプロパゲーシ
ョン法で行う場合について説明する。
Next, a case where learning in the second embodiment is performed using the hack propagation method will be described.

第1不、トワーク30及び第2ネツトワークlOが個別
に機能してそれぞれの学習データが得られるときはこれ
らを使用して個別調整し、それから全体調整してもよ(
、第1ネツトワーク30のみあるいは第2ネツトワーク
10のみが個別に機能してその学習データが得られると
きは第1ネツトワーク30あるいは第2ネツトワークl
Oをまず学習して、それから第7図(A)に示すように
全体接続して全体を調整すればよい。また第1ネツトワ
ーク20及び第27ノトワークlOのいずれも個別の学
習データが得られない場合は、第7図(A)に示す如(
全体接続して全体を調整すればよい。ここでは説明の便
宜上、第1ネツトワーク30でも学習データが得られる
ケース即ち、第1ネツトワーク30の学習について説明
する。
When the first network 30 and the second network 10 function individually and each learning data is obtained, these can be used to make individual adjustments, and then make overall adjustments (
, when only the first network 30 or only the second network 10 functions individually and the learning data can be obtained, the first network 30 or the second network l
0 first, and then as shown in FIG. 7(A), the entire system can be connected and adjusted as a whole. In addition, if individual learning data cannot be obtained for either the first network 20 or the 27th network IO, as shown in FIG. 7(A),
All you have to do is connect everything and adjust everything. Here, for convenience of explanation, a case where learning data is obtained also in the first network 30, that is, learning in the first network 30 will be explained.

第1不フトワーク30を学習するとき、ニューロ・ユニ
ット2及びニューロ・ユニノl−3ニソレぞれ第1入カ
データ、第2人力データを入力し、ニューロ・ユニット
6の出力を、図示省略した減算部に入力する。そして減
算部には、前記第1人力データ及び第2人力データに対
応する教師データが入力され、この教師データとニュー
ロ・ユニット6の出力との差を減算部は出力する。学習
に際しては前記の如く、ニューロ・ユニット6において
は特殊ニューロ・ユニット31からの出力に対して重み
値を数値1に固定し、また特殊ニューロ・ユニット31
の重み保持部38に初期値例えば数値1を重み値設定部
39が初期設定する。
When learning the first soft work 30, the first input data and the second manual data are input to the neuro unit 2 and the neuro unino l-3, respectively, and the output of the neuro unit 6 is calculated by a subtraction unit (not shown). Enter. The subtraction section receives teacher data corresponding to the first human power data and the second human power data, and outputs the difference between the teacher data and the output of the neuro unit 6. During learning, as described above, in the neuro unit 6, the weight value is fixed to the numerical value 1 for the output from the special neuro unit 31, and
The weight value setting unit 39 initializes the weight holding unit 38 with an initial value, for example, a numerical value of 1.

まず、前記の如く、第1人力データ、第2人力データ、
教師データをそれぞれ入力する。それから減算部の前記
差出力つまり誤差信号が小さくなるように、ニューロ・
ユニット6の闇値と、ニューロ・ユニット4からの出力
d2に対する重み値W2’及び特殊ニューロ・ユニット
31における重み保持部38に記入される重み値W+’
を調整する。重み値W2’の調整は重み値設定部39を
調整することにより行う。それからニューロ・ユニット
4.5における闇値と、それぞれの重み値W3 ’、w
4 ’、Ws ′、w! ′を調整する。
First, as mentioned above, the first human power data, the second human power data,
Input each teacher data. Then, the neuron is
The darkness value of the unit 6, the weight value W2' for the output d2 from the neuro unit 4, and the weight value W+' written in the weight holding section 38 in the special neuro unit 31
Adjust. The weight value W2' is adjusted by adjusting the weight value setting section 39. Then, the darkness value in neuro unit 4.5 and the respective weight values W3', w
4', Ws', w! Adjust ′.

このようにして第1の学習パターンについて学習後、第
2の学習パターンを使用して同様の学習を行う。これを
多数の学習パターンに対し行って各学習パターンについ
て学習後、再び第1の学習パターンより学習を繰返す。
After learning the first learning pattern in this way, similar learning is performed using the second learning pattern. This is done for a large number of learning patterns, and after learning each learning pattern, learning is repeated again starting from the first learning pattern.

そして出力層のニューロ・ユニット6の出力と教師デー
タとの誤差が許容値以下になったとき、学習は終了する
。このとき、特殊ニューロ・ユニット31の重み保持部
38に設定された重み値Wl’は、調整が行われるまで
はそのまま記入される。
Then, when the error between the output of the neuro unit 6 in the output layer and the teacher data becomes less than the allowable value, learning ends. At this time, the weight value Wl' set in the weight holding section 38 of the special neuro unit 31 is written as is until adjustment is performed.

勿論前述の如く、第1ネツトワーク30と第2ネツトワ
ーク10を第7図(A)に示す如く、接続した状態で、
全体として学習し調整してもよく、この場合モ、特殊ニ
ューロ・ユニット31については、全く同様にしてその
重み値W1′が調整される。
Of course, as mentioned above, when the first network 30 and the second network 10 are connected as shown in FIG. 7(A),
It may be learned and adjusted as a whole, and in this case, the weight value W1' of the special neuro unit 31 is adjusted in exactly the same manner.

このようにして、第2実施例では、ニューロ・ユニット
5からのデータdiに対する重み値Wl′を重み保持部
38に記入することができるので、きわめて簡単な構成
でこれを出力させることが可能となり、その重み値Wl
’を得ることができる。
In this way, in the second embodiment, the weight value Wl' for the data di from the neuro unit 5 can be written into the weight holding section 38, so it is possible to output it with an extremely simple configuration. , its weight value Wl
' can be obtained.

なお前記実施例では、ニューロ・ユニット5と6間の重
み値を得る場合について説明したが、本発明は勿論これ
のみに限定されるものではなく、どのニューロ・ユニッ
トに関する重み値でも、同様にして得ることができる。
In the above embodiment, the case where the weight value between neuro units 5 and 6 is obtained was explained, but the present invention is of course not limited to this, and the weight value regarding any neuro unit can be obtained in the same way. Obtainable.

またニューラル・ネオ1−ワークは2人力に限るもので
はなく、1人力でもその他の入力数のものでもよい。
Further, Neural Neo 1-Work is not limited to two-person labor, and may be one-person labor or other number of inputs.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、その重み値を検出したいニューロ・ユ
ニットの前段に重み値を検出したいニューロ・ユニット
の前段に、重み付は機能を有し闇値のないニューロ・ユ
ニットを配置することにより、容易↓こ重み値を出力さ
せることが可能になる。
According to the present invention, by placing a neuro unit that has a weighting function and does not have a dark value in front of a neuro unit whose weight value is desired to be detected, It becomes possible to output weight values easily.

このようにして、今までプログラム等で行ってきたネッ
トワーク結合重みの読み出しを、ニューラル・ネットワ
ークの枠組みの中で行うことができる。その結果、結合
重みを処理データとして扱うこと及び結合重みを処理デ
ータとして扱う不。
In this way, network connection weights can be read out within the framework of a neural network, which has hitherto been done using a program or the like. As a result, it is possible to treat connection weights as processing data and not to treat connection weights as processing data.

トワークの学習が可能になる。It becomes possible to learn how to work.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理構成図、 第2図は本発明の一実施例構成図、 第3図は本発明で使用される割算部の説明図、第4図は
割算部の学習パターンの一例、第5図はニューロ・ユニ
ットの説明図、!6図(A)はニューロ・ユニットの一
実施例(B)は階層ネットワークの一例、 第7図は本発明の第二実施例、 第8図は従来例を示す。 1−第1ネツトワーク 2〜7−ニューロ・ユニット 8−割算部 1〇−第2ネツトワーク 1)〜15−ニューロ・ユニノト 、f、光間の原rl!超 従ネの事ノtし1七し手段− バクーンAh × オ文官φデータCD) す発明0す/爽杷例 第2図 書りX部/lこ鳥−8月Pl ニューロ−・ユニット 第5図
Figure 1 is a diagram showing the principle of the present invention; Figure 2 is a diagram showing the configuration of an embodiment of the present invention; Figure 3 is an explanatory diagram of the divider used in the present invention; Figure 4 is a learning diagram of the divider. An example of a pattern, Figure 5 is an explanatory diagram of a neuro unit! 6(A) shows an embodiment of a neuro unit (B) shows an example of a hierarchical network, FIG. 7 shows a second embodiment of the present invention, and FIG. 8 shows a conventional example. 1-1st network 2-7-neuro unit 8-division section 10-2nd network 1)-15-neuro uninote, f, original rl between light! Super Obedience Thing 17 Means - Bakun Ah x O Civilian φ Data CD) Invention 0 / Solo Loquat Example 2 Book X Part / Kotori - August Pl Neuro Unit No. 5 figure

Claims (3)

【特許請求の範囲】[Claims] (1)それぞれ線型又は非線型のニューロ・ユニットで
構成される入力層と、中間層と、出力層を有するネット
ワーク構成のデータ処理装置において、 第1ニューロ・ユニットから出力されたデータdに重み
値Wを付加したd×Wに関する演算を行う第2ニューロ
・ユニットと、この第1ニューロ・ユニットとの間に第
3ニューロ・ユニットを設け、 この第3ニューロ・ユニットには第1ニューロ・ユニッ
トから出力されるデータdに対し結合重み値Wを付加し
て(d×W)とする重み付手段を設け、この重み付けさ
れたデータ(d×W)をそのまま第2ニューロ・ユニッ
トに出力し、第2ニューロ・ユニットではこの第3ニュ
ーロ・ユニットから伝達されたデータに対し別に結合重
み付けすることなく閾値処理を行うようにし、また、前
記第3ニューロ・ユニットからこの結合重み値に関する
情報を出力するようにしたことを特徴とする結合重みが
出力可能なニューラル・ネットワーク。
(1) In a data processing device with a network configuration having an input layer, an intermediate layer, and an output layer each composed of linear or nonlinear neuro units, a weight value is assigned to the data d output from the first neuro unit. A third neuro unit is provided between the first neuro unit and a second neuro unit that performs an operation regarding d×W with W added, and the third neuro unit is connected to the first neuro unit. A weighting means is provided which adds a connection weight value W to the output data d to obtain (d×W), and outputs this weighted data (d×W) as it is to the second neuro unit, and then outputs the weighted data (d×W) to the second neuro unit. The second neuro unit performs threshold processing on the data transmitted from the third neuro unit without separately applying connection weights, and the third neuro unit outputs information regarding this connection weight value. A neural network that can output connection weights.
(2)ニューロ・ユニットで構成された割算手段を設け
、前記第1ニューロ・ユニットから出力されるデータd
と、前記第3ニューロ・ユニットから出力された前記結
合重み値付加データ(d×W)をこの割算手段に伝達し
、これらの商を求めて結合重み値Wを得ることを特徴と
する請求項(1)記載の結合重みが出力可能なニューラ
ル・ネットワーク。
(2) A division means constituted by a neuro unit is provided, and the data d output from the first neuro unit is provided.
and the connection weight value additional data (d×W) output from the third neuro unit are transmitted to the dividing means, and the quotient of these is determined to obtain the connection weight value W. A neural network capable of outputting the connection weights described in item (1).
(3)前記第3ニューロ・ユニットに乗算手段と重み値
保持手段を具備し、この重み値保持手段に記入された結
合重み値を出力するように構成したことを特徴とする請
求項(1)記載の結合重みが出力可能なニューラル・ネ
ットワーク。
(3) Claim (1) characterized in that the third neuro unit is provided with a multiplication means and a weight value holding means, and is configured to output the combination weight value written in the weight value holding means. A neural network that can output the described connection weights.
JP2212142A 1990-08-10 1990-08-10 Neural network which can output combined weight Pending JPH0498356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2212142A JPH0498356A (en) 1990-08-10 1990-08-10 Neural network which can output combined weight

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2212142A JPH0498356A (en) 1990-08-10 1990-08-10 Neural network which can output combined weight

Publications (1)

Publication Number Publication Date
JPH0498356A true JPH0498356A (en) 1992-03-31

Family

ID=16617587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2212142A Pending JPH0498356A (en) 1990-08-10 1990-08-10 Neural network which can output combined weight

Country Status (1)

Country Link
JP (1) JPH0498356A (en)

Similar Documents

Publication Publication Date Title
US5056037A (en) Analog hardware for learning neural networks
EP0421639B1 (en) Parallel data processing system
JPH04290155A (en) Parallel data processing system
US5455891A (en) System and method for a learning neural network for generating random directions for weight changes
Yu et al. Distributed-delay-dependent exponential stability of impulsive neural networks with inertial term
JPH0498356A (en) Neural network which can output combined weight
US11625593B2 (en) Fixed-weighting-code learning device
JPH04149663A (en) Inverse model generating method and control system applying same generating method
GB2206428A (en) Computer
JPH076146A (en) Parallel data processing system
JPH05197705A (en) Learning system for neural network
WO2020213670A1 (en) Neural calculation device and neural calculation method
Pintér et al. Practical method for designing robust RBF-MRAC neurocontrollers: The first-order case
JPH0464184A (en) If-then type rule arithmetic unit by neural network
Budik A Resource Efficient Localized Recurrent Neural Network Architecture and Learning Algorithm
Zhang et al. Drive-Response Synchronization for Second-Order Memristor-Based Delayed Neural Networks with Settling Time Estimation via Discontinuous Feedback Control
Ehkan et al. Artificial neural network for character recognition on embedded-based FPGA
JP2559879B2 (en) Fuzzy controller
JP2559882B2 (en) Fuzzy controller
JP2559881B2 (en) Fuzzy controller
JP2559876B2 (en) Fuzzy controller
Lu et al. Almost periodic dynamics for memristor-based shunting inhibitory cellular neural networks with leakage delays
JPH04348453A (en) Neuron element for fuzzy logic arithmetic
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JP3137996B2 (en) Neural network using membership function and its learning method