JPH04199259A - Neural network and methods or device for remembering and learning neural network - Google Patents

Neural network and methods or device for remembering and learning neural network

Info

Publication number
JPH04199259A
JPH04199259A JP2317807A JP31780790A JPH04199259A JP H04199259 A JPH04199259 A JP H04199259A JP 2317807 A JP2317807 A JP 2317807A JP 31780790 A JP31780790 A JP 31780790A JP H04199259 A JPH04199259 A JP H04199259A
Authority
JP
Japan
Prior art keywords
value
neural network
neuron
layer
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2317807A
Other languages
Japanese (ja)
Inventor
Haruki Inoue
春樹 井上
Kenichi Nakamura
中村 兼一
Keiji Oshima
大島 啓二
Masakazu Yahiro
八尋 正和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Engineering Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd, Hitachi Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP2317807A priority Critical patent/JPH04199259A/en
Priority to US07/797,534 priority patent/US5402519A/en
Priority to EP91120155A priority patent/EP0488150B1/en
Priority to KR1019910021293A priority patent/KR100243353B1/en
Priority to DE69132003T priority patent/DE69132003T2/en
Publication of JPH04199259A publication Critical patent/JPH04199259A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To make the learning speed of a neural network faster by removing such synapses that the absolute value of the weighting factor becomes smaller than a prescribed value from the neural network. CONSTITUTION:A neural network learning device which removes an asphyxial synapse/neuron is constituted of an input network 1, error reversely propagating weight modifying means 2, asphyxial synapse/neuron removing means 3, and control means 4. In order to optimize the neural network, such synapses that the absolute value of the weighting factor is close to zero and smaller than a fixed value and neurons from which all synapses are disconnected are disconnected from the neural network. Therefore, the neural network learning speed can be improved.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はニューラルネットワークに係り、特に、その学
習または想起を高速におこなう方法及び装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to neural networks, and particularly to a method and apparatus for performing learning or recall thereof at high speed.

〔従来の技術〕[Conventional technology]

ニューラルネットワークは形状や文字の認識。 Neural networks recognize shapes and characters.

音声や画像信号の分析+m別処理などにおいて、複雑な
アルゴリズムを用いることなく、学習を反復することに
よってこれらの処理を可能にしている。このニューラル
ネットの構成と動作については、例エバ「ハターン認識
と学習のアルゴリズム」(上坂吉則/尾関和彦著;文−
総合出版)に詳しい。
In the analysis of audio and image signals + m-separate processing, these processes are made possible by repeating learning without using complex algorithms. Regarding the configuration and operation of this neural network, please refer to Example Eva's "Hatern Recognition and Learning Algorithm" (written by Yoshinori Uesaka and Kazuhiko Ozeki).
General Publishing).

ニューラルネットワークを実装置に応用するうえでの問
題の一つは、学習、想起における積および非線形関数演
算に長時間を要することである。
One of the problems in applying neural networks to real devices is that it takes a long time to perform product and nonlinear function operations during learning and recall.

この問題を解決する一案が、特開平1−201764号
公報に記載されている。それによれば、複数の入力神経
細胞にニューロン)の状態(出方値)と複数の連結係数
(シナップスの重み)の積演算、およびこの積値の総和
に基づく非線形演算によって次の神経細胞の新たな状態
(出方値)を決定する処理において、各神経細胞の演算
処理を並列におこなうことで高速化を図ることが提案さ
れている。
One idea to solve this problem is described in Japanese Patent Application Laid-Open No. 1-201764. According to this, a new neuron is generated by multiplying the state (output value) of a neuron in multiple input neurons and multiple connection coefficients (synaps weights), and by a nonlinear operation based on the sum of these product values. It has been proposed to speed up the process of determining the state (output value) by performing arithmetic processing on each neuron in parallel.

またこの問題点に対する別の観点からの解決策として、
特開昭64−82133号公報には、学習の過程で沈静
化したニューロンを再び初期化することにより、ニュー
ラルネットの学習能力の向上をはかることが記載されて
いる。
Also, as a solution to this problem from another perspective,
Japanese Unexamined Patent Publication No. 64-82133 describes that the learning ability of a neural network can be improved by reinitializing neurons that have become quiet during the learning process.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、上記の従来技術においては、 (1)対象問題に対するニューラルネットワークの最適
化が図られていない、 (2)膨大な演算処理やリアルタイム処理が要求される
対象への適用は困難、 という問題が依然として残されている。このため、学習
および想起に多大な処理を要求されるプロセス等の予測
1診断あるいは制御への適用を困難にしている。
However, the above-mentioned conventional technology has the following problems: (1) the neural network is not optimized for the target problem; and (2) it is difficult to apply it to targets that require enormous arithmetic processing or real-time processing. still remains. This makes it difficult to apply the method to prediction-1 diagnosis or control of processes that require a large amount of processing for learning and recall.

本発明の目的は、上記問題点を克服し、ニューラルネッ
トワークの対象に対する最適化を図ることで学習、想起
の高速化を実現するニューラルネットワークおよびその
学習または想起方法を提供することにある。
An object of the present invention is to overcome the above-mentioned problems and provide a neural network and a method for learning or recalling the same, which realize faster learning and recall by optimizing the neural network for the target.

本発明の他の目的は、ニューラルネットワークの入力情
報を正規化することで、学習、想起の高速化を実現し、
プロセスの診断や制御に適用可能なニューラルネットワ
ークおよびその学習または想起方法を提供することにあ
る。
Another object of the present invention is to normalize the input information of the neural network to speed up learning and recall.
The object of the present invention is to provide a neural network that can be applied to process diagnosis and control, and a method for learning or recalling the neural network.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明の特徴とするところ
は1次の点にある。
In order to achieve the above object, the present invention is characterized by the following points.

第1に、情報を入力する入力層、最終結果を8力する出
力層、該両層の間にある1段以上の中間層、前記各層ご
とに複数のニューロン及び隣接する層のニューロン間を
結合する重み係数つきのシナップスを有するニューラル
ネットワークにおいて、前記重み係数の絶対値が所定値
以下となるシナップスを前記ニューラルネットワークか
ら除去する手段を設けた点にある。
First, an input layer that inputs information, an output layer that outputs the final result, one or more intermediate layers between these two layers, multiple neurons in each layer, and connections between neurons in adjacent layers. In the neural network having synapses with weighting coefficients, there is provided means for removing synapses for which the absolute value of the weighting coefficient is less than or equal to a predetermined value from the neural network.

第2に、入力情報を入力する入力層、最終結果を出力す
る出力層、該両層の間にある1段以上の中間層、前記各
層ごとに設けられる複数のニューロン及び隣接する層間
の前記ニューロンを結合する重み係数つきのシナップス
を有するニューラルネットワークにおいて、前記入力情
報を所定のレンジに正規化して入力層に入力する手段を
設け、これによってニューロン出力値のダイナミックレ
ンジを定める点にある。
Second, an input layer that inputs input information, an output layer that outputs a final result, one or more intermediate layers between the two layers, a plurality of neurons provided for each layer, and the neurons between adjacent layers. In a neural network having synapses with weighting coefficients for connecting , there is provided means for normalizing the input information to a predetermined range and inputting it to the input layer, thereby determining the dynamic range of neuron output values.

〔作用〕[Effect]

上記本発明の第1の特徴は、前向きニューラルネットワ
ークは一分な学習を行なうほど仮死状態のシナップス/
ニューロンが増加し、しかも−旦仮死化したシナップス
/ニューロンはそのままでは再生することはないという
性質に基づいている。
The first feature of the present invention is that the forward neural network is able to perform synapse/synapse in a state of suspended animation to the extent that it performs one-minute learning.
This is based on the property that the number of neurons increases, and that once synapses/neurons are suspended, they cannot be regenerated as they are.

すなわち、その重みの絶対値がOに近い一定値以下のシ
ナップスをニューラルネットから切り離し、さらに全て
のシナップスが切除されたニューロンも切り離してニュ
ーラルを最適化する。これによって、学習、想起におけ
る冗長を積演算および非線形関数値演算を排除でき、処
理性能が向上される。
That is, synapses whose absolute value of weight is below a certain value close to O are separated from the neural network, and neurons from which all synapses have been removed are also separated to optimize the neural network. As a result, redundant product operations and nonlinear function value operations in learning and recall can be eliminated, and processing performance is improved.

上記第2の特徴は、産業や情報分野の実システムにおけ
る入力情報や重み係数は有限な範囲で十分効果があり、
したがって、ニューラルネットワーク内で使用する数値
空間範囲(レンジ)を所定の範囲に有限化することで、
演算に多大な時間を要する積演算や非線形関数演算を容
易化できるという技術思想に基づいている。
The second feature mentioned above is that input information and weighting coefficients in actual systems in the industrial and information fields are sufficiently effective within a finite range;
Therefore, by limiting the numerical space range used within the neural network to a predetermined range,
It is based on the technical idea that product operations and nonlinear function operations that require a large amount of time can be simplified.

このため、入力層ニューロンに入力される複数の入力値
xi(i=1〜n)を所定のレンジに正規化し、入力か
ら出力ニューロンに至る演算及びシナップスの重み値の
レンジを予め定めたものとすることで、積、商、べき乗
演算等の必要な結果を全て予めテーブル化し、これを入
力に応じてアドレス探索する直接参照処理に置換するこ
とで、学習、想起における膨大な演算処理を飛躍的に高
速化することができる。
For this reason, the multiple input values xi (i = 1 to n) input to the input layer neurons are normalized to a predetermined range, and the range of the weight values of the calculations and synapses from the input to the output neuron is determined in advance. By doing this, all necessary results of products, quotients, exponentiation operations, etc. are created in advance into a table, and by replacing this with direct reference processing that searches for addresses according to input, the huge amount of calculation processing in learning and recall can be dramatically reduced. can be accelerated to

また、ニューラルネットワーク内の処理は線形モデルの
ような入力情報の絶対値ではなく、その特徴量の抽出に
よっておこなわれるものであるから7入力層ニューロン
の各入力値x、(i=1〜n)の正規化は同一のデイメ
ンジョン(単位次元)で伸縮する必要はないという考え
に基づいている。
In addition, since the processing within the neural network is performed not by the absolute value of input information as in a linear model, but by extracting its feature quantities, each input value x, (i = 1 to n) of the 7 input layer neurons is The normalization of is based on the idea that it is not necessary to scale by the same dimension (unit dimension).

これは特に、本発明の好適な適用対象であるプロセスの
診断、制御などにおいて有用で、様々な入力情報に対し
て線形や非線形処理を交えた正規化をおこなうことで高
速かつ、高精度な学習/想起が可能になる。
This is particularly useful in process diagnosis and control, which is the preferred application target of the present invention, and allows for fast and highly accurate learning by normalizing various input information using linear and nonlinear processing. / Recollection becomes possible.

さらに、上記第1の特徴と第2の特徴を組み合わせるこ
とによって、より高速なニューラルネットワークを実現
できる。
Furthermore, by combining the first feature and the second feature, a faster neural network can be realized.

〔実施例〕〔Example〕

以下、本発明の好適な実施例を図面に基づいて説明する
。第1図から第5図は本発明の第1の特徴に係る第1の
発明の実施例である。第1図は仮死シナップス/ニュー
ロンを除去するニューラルネットワークの学習装置の全
体構成を示し、ニューラルネットワーク1.誤差逆伝搬
重み修正手段2、仮死シナップス/ニューロン除去手段
3、および制御手段4から構成されている。
Hereinafter, preferred embodiments of the present invention will be described based on the drawings. 1 to 5 are embodiments of the first invention according to the first feature of the invention. FIG. 1 shows the overall configuration of a neural network learning device for removing asphyxial synapses/neurons, and shows the neural network 1. It is composed of error backpropagation weight correction means 2, asphyxia synapse/neuron removal means 3, and control means 4.

本装置では、学習パターンの集合×を入力とし、Xに対
する既知の教師パターン集合d(x)が与えられる。入
力×に対する前向きニューラルネット】の出力、すなわ
ち想起パターンh(×)とd(x)の誤差を最少化する
ように修正手段2は各シナップスの重みを演算して再設
定する。この処理を繰返し行ない修正が完了した後に除
去手段3が起動され仮死状態にあるシナップス・ニュー
ロンを除去する。制御装置4は計算機によって構成され
上記の処理を制御する。
In this device, a set x of learning patterns is input, and a known teacher pattern set d(x) for X is given. The correction means 2 calculates and resets the weight of each synapse so as to minimize the output of the forward neural network for the input x, that is, the error between the recall patterns h(x) and d(x). After this process is repeated and the correction is completed, the removing means 3 is activated to remove the synapses neurons in the suspended animation state. The control device 4 is constituted by a computer and controls the above processing.

第2図は前向きニューラルネットワーク1の構成を概念
的に示す。前向き三層モデルを例示しているが、四層以
上の多層構造においても本発明は同様に適用可能である
FIG. 2 conceptually shows the configuration of the forward neural network 1. Although a forward-facing three-layer model is illustrated, the present invention is equally applicable to a multi-layer structure of four or more layers.

ニューラルネット1はn個の入力層ニューロンx 1(
x = 1. + 2 t ・・、n ) ト、m個の
中f’JiN(カ〈れ層)ニューロンyj(j=1.2
.・・・、 rn)と、Q個の出力層ニューロンzb(
k=1.2.・・・、ff)と、入力層と中間層を結合
する重みWIJを有するシナップスと、中間層と出力層
を結合する重みV J hを有するシナップスよりなっ
ている。重みW lj、 V Jk(7)レンジは−1
,0−1,01’ある。各ニューロンは空間加算性と非
線形性を有していて、下記の処理(想起)をおこなう。
Neural net 1 has n input layer neurons x 1 (
x = 1. + 2 t..., n), m middle f'JiN (filter layer) neurons yj (j=1.2
.. ..., rn) and Q output layer neurons zb(
k=1.2. . Weight W lj, V Jk (7) range is -1
,0-1,01'. Each neuron has spatial additivity and nonlinearity, and performs the following processing (recall).

■中間ニューロン出力値演算 入力層ニューロン出力値、すなわち学習パターンまたは
入力情報の入力値とシナップスの重みW I Jの積を
演算後、それらの総和を演算し、総和に対する非線形関
数(ここではシグモイド関数)を演算し、中間層ニュー
ロンの出力値を求める。
■ Intermediate neuron output value calculation After calculating the input layer neuron output value, that is, the product of the input value of the learning pattern or input information and the synapse weight W I J, calculate the sum of them, and calculate the nonlinear function (here, the sigmoid function) for the sum. ) to find the output value of the hidden layer neuron.

y=δ(woa+w、ax1+w、ax、−1−+wn
4xll)F=1y2+・・・+ n) ここで、yJ :中間層ニューロンの出力値δ :シグ
モイド関数 δ(s )”” 1 / (1+ e−s)Xl :入
力層ニューロンの出力値 (xE’x) ■出力層ニューロン呂力値演算 上記■で求めた中間層ニューロン出力値と重みVJkの
積を演算後、それらの総和を演算し、さらに総和に対す
る非線形関数(シグモイド関数)を演算して出力層ニュ
ーロン出力値を求める。
y=δ(woa+w, ax1+w, ax, -1-+wn
4xll)F=1y2+...+n) Here, yJ: Output value of hidden layer neuron δ: Sigmoid function δ(s)''1/(1+e-s)Xl: Output value of input layer neuron (xE 'x) ■ Output layer neuron power value calculation After calculating the product of the intermediate layer neuron output value obtained in (■) above and the weight VJk, calculate their sum, and then calculate a nonlinear function (sigmoid function) for the sum. Find the output layer neuron output value.

Zk=δ(vok+ VLSI y1+ Vzk’J 
z + °゛+ V nk3’ n)(k=1.2. 
 ・・+m) 上記の処理によって得られたニューラルネット1の出力
値Zkの集合、すなわち想起パターンh(X)は第1図
の誤差逆伝搬重み修正手段2により以下の処理をおこな
って重みを修正し、これを繰返すことによってニューラ
ルネットの学習をおこなう。
Zk=δ(vok+VLSI y1+Vzk'J
z + °゛+ V nk3' n) (k=1.2.
...+m) The set of output values Zk of the neural network 1 obtained by the above processing, that is, the recall pattern h(X), is weighted by the error backpropagation weight correction means 2 shown in FIG. 1 by performing the following processing. By repeating this process, the neural network is trained.

■シナップスの重み修正量演算 既知の教師パターンd (X)とh(x)の誤差を最小
にするシナップスの重み 修正量δ、−(x)とδ、、(X)を計算する。
(2) Calculation of synapse weight correction amounts Calculate synapse weight correction amounts δ, -(x) and δ, , (X) that minimize the error between known teacher patterns d(X) and h(x).

δah(x)=α(x)(hb(x)  dk(x))
hk(x)(1hk(x))(j=1.  ・、m) ここで、α(X)は入力ベクトル×に対する、出力ベク
トルh(×)の近さに関する重要度合で、既知項目であ
る。
δah(x)=α(x)(hb(x) dk(x))
hk(x) (1hk(x)) (j=1. , m) Here, α(X) is the degree of importance regarding the closeness of the output vector h(x) to the input vector x, and is a known item. .

f 、(x )はm個のn変数関数で f、(x)=δ(wo、++w、+・x、−1−+wn
Jxj(j=1.・・・+ n) ■重み修正 現在のシナップスの重みv?“  、O:+1  を上
記■の結果を用いて新しい重みV4  HWiJ  に
修正する。
f, (x) is a function of m n variables, f, (x) = δ(wo, ++w, +・x, -1−+wn
Jxj (j=1....+n) ■Weight correction Current synapse weight v? “ , O:+1 is corrected to a new weight V4 HWiJ using the result of ① above.

(j=o、・・・、m;に=1.・・・、Q)(i=o
、・・・、n:j=1.・・・+m)ここで、lxlは
学習パターン要素数 Δは微分幅で既知項目である。
(j=o,...,m; to=1...,Q) (i=o
,...,n:j=1. ...+m) Here, lxl is the number of learning pattern elements Δ is the differential width and is a known item.

以上の手順で学習を完了した後、各シナップスの修正さ
れた重みは仮死シナップス/ニューロン除去手段3によ
って以下のように判定され、仮死状態にあるシナップス
/ニューロンはニューラルネットから除去される。
After completing the learning through the above procedure, the modified weight of each synapse is determined as follows by the suspended synapse/neuron removal means 3, and the suspended synapse/neuron is removed from the neural network.

なお、仮死シナップス/ニューロンの除去は制御装置4
による処理手順をパスする方法などによっておこなわれ
る。
In addition, removal of asphyxial synapses/neurons is performed by control device 4.
This is done by a method such as passing the processing procedure by.

第3図は、仮死シナップス/ニューロン除去手段の処理
の流れを示したものである。処理A−Dにて入力〜中間
層間の仮死シナップスの除去を、処理E−Hにて中間〜
出力層間の仮死シナップスの除去を、処理1〜にで中間
層仮死ニューロンの除去を、処理L−Nで出力層仮死ニ
ューロンの除去を行なう。
FIG. 3 shows the processing flow of the asphyxia synapse/neuron removal means. Processing A-D removes asphyxia synapses between input and middle layers, and processing E-H removes synapses between middle and middle layers.
Asphyxia synapses between output layers are removed in processes 1 to 1 to remove asphyxic neurons in the middle layer, and asphyxic neurons in the output layer are removed in process LN.

(処理C)仮死シナップスの判定条件はI wiJ! 
<α(i=1.・・・t n ; J = 1 +・・
・+ m )ならば仮死とする。
(Process C) The judgment condition for asphyxia synapses is I wiJ!
<α(i=1....t n ; J=1 +...
・+m), it is considered asphyxia.

(処理D)前向きニューラルネットワーク1からW I
 Jを有するニューロンを取り去る。
(Processing D) From forward neural network 1 to W I
Remove neurons with J.

(処理G)仮死シナップスの判定条件は、1 vtbl
 <α(j=1.−、m ; k=1.・、Q)ならば
仮死とする。
(Processing G) The judgment condition for asphyxia synapses is 1 vtbl
If <α (j=1.-, m; k=1.., Q), it is assumed to be asphyxia.

(処理H)前向きニューラルネットワーク1からVik
を有するニューロンを取り去る。
(Processing H) From forward neural network 1 to Vik
Remove neurons with .

(処理J)仮死ニューロンの判定条件は、y、+=(W
i、+=φ for  i=1〜n)ならば仮死とする
(Processing J) The conditions for determining asphyxia neurons are y, +=(W
i, +=φ for i=1 to n), then it is assumed to be asphyxia.

(処理K)前向きニューラルネットワーク1よりy、を
取り去る。
(Processing K) Remove y from the forward neural network 1.

(処理M)仮死ニューロンの判定条件は、zk=(VJ
k=φ for  j = 1〜m)(処理N)前向き
ニューラルネットワーク1よりZk を取り去る。
(Processing M) The judgment condition for asphyxia neurons is zk=(VJ
k=φ for j = 1 to m) (Processing N) Remove Zk from forward neural network 1.

第4図は、仮死シナップス/ニューロン除去手段3の動
作を説明する図である。手段3の動作前は図のように全
てのニューロンがシナップスによって結合されている。
FIG. 4 is a diagram illustrating the operation of the asphyxia synaps/neuron removal means 3. Before the operation of means 3, all neurons are connected by synapses as shown in the figure.

ここで仮死判定定数αをα=O,O13 とすると、3動作後に、 I Wt−I J+□I =O,OO8l WI   
J−、l = 0.0091 w l−s、 j+1 
t = o 、 o i 2が仮死条件に適合するので
、これらに対応するシナップスが除去さ数る。これによ
り中間層ニューロンyJixも仮死状態となる為、yJ
。、よりの出カシナップスVj□k(k、1.・・+m
)と共にニューロンy、41は除去される。
Here, if the asphyxia determination constant α is α=O, O13, after 3 movements, I Wt-I J+□I =O, OO8l WI
J-, l = 0.0091 w l-s, j+1
Since t = o and o i 2 meet the asphyxia condition, the synapses corresponding to these are removed and counted. As a result, the middle layer neuron yJix also enters a state of suspended animation, so yJ
. , the output power Vj□k(k, 1...+m
) along with neuron y, 41 are removed.

このように、学習完了時点に仮死シナップス/二コーロ
ンの除去を行なうことでニューラルネット1の最適化が
図られ、想起動作時のニューロン出力値とシナップス重
みの積演算回数等が削減されるので高速化が達成される
In this way, the neural network 1 is optimized by removing asphyxial synapses/two corons at the time of completion of learning, and the number of times to calculate the product of neuron output values and synapses weights during virtual activation is reduced, resulting in faster operation. is achieved.

以上は学習直後に前向きニューラルネットワークの最適
化を図る方法である。これに対し学習完了後の重みをそ
のまま固定したニューラルネットを、実システムに移植
して想起する場合の例を示す。ここで想起とは実システ
ムのニューラルネットの動作をいう。想起の動作は前記
■、■・段階と同じである。すなわち入力情報とシナッ
プスの重みの積の総和を演算後シグモイド関数値演p゛
により、中間層ニューロンの出力値を求める。次に同様
にして、中間層ニューロン出力値とシナップスの重みに
より出力層ニューロン値、すなわち想起結果を得る。
The above is a method for optimizing a forward neural network immediately after learning. In contrast, an example will be shown in which a neural network with fixed weights after completion of learning is transplanted to an actual system and recalled. Recall here refers to the operation of a neural network in a real system. The recollection operation is the same as in stages ① and ② above. That is, after calculating the sum of the products of input information and synapse weights, the output value of the intermediate layer neuron is determined by a sigmoid function value operation p'. Next, in a similar manner, output layer neuron values, that is, recall results, are obtained using the intermediate layer neuron output values and synapse weights.

第5図は、仮死シナップス/ニューロンの除去をしてい
ない前向きニューラルネットワークに本発明を応用して
想起する例を示したものである。・処理a−fにて入力
〜中間層ニューロン間の仮死シナップスに対する演算を
、処理g−αにて中間〜出力層ニューロン間の仮死シナ
ップスに対する演算を不要としている。これにより、最
適化されていないニューラルネットであっても本方法に
て高速想起を実現することができる。
FIG. 5 shows an example of recollection by applying the present invention to a forward neural network in which suspended synapses/neurons are not removed. - It eliminates the need for calculations for asphyxial synapses between input and intermediate layer neurons in processing a-f, and for the asphyxial synapses between intermediate and output layer neurons in processing g-α. As a result, high-speed recall can be achieved using this method even with a neural network that is not optimized.

つぎに本発明の第2の特徴に係る第2の発明を第6図か
ら第16図に基づいて説明する。第6図は本発明を応用
した学習装置10の構成を示したものである。入力情報
正規化手段13は学習パターンXの情報量を正規化する
6高速ニユーラルネツトワーク]1.メモリー14.誤
差逆伝搬重み修正手段12および制御手段15は第1図
と同等のものである。以上の構成において学習パターン
Xに対する教師パターン集合d(x)を用いて高速ニュ
ーラルネットワーク11内のシナップスの重みを決定す
る。
Next, a second invention related to the second feature of the invention will be explained based on FIGS. 6 to 16. FIG. 6 shows the configuration of a learning device 10 to which the present invention is applied. The input information normalization means 13 is a 6-high speed neural network that normalizes the amount of information of the learning pattern X]1. Memory 14. The error backpropagation weight correction means 12 and the control means 15 are the same as those shown in FIG. In the above configuration, the weights of synapses in the high speed neural network 11 are determined using the teacher pattern set d(x) for the learning pattern X.

第7図は同様に第2の発明を応用した想起装置20の構
成を示したものである。想起装置20は入力情報正規化
手段13.高速ニューラルネットワーク11.メモリー
14および制御装置15からなり、入力情報x=(xユ
、X2.・・xn)に対する想起結果h(x)を出力す
る。
FIG. 7 similarly shows the configuration of a recollection device 20 to which the second invention is applied. The recall device 20 includes the input information normalization means 13. High speed neural network 11. It consists of a memory 14 and a control device 15, and outputs a recall result h(x) for input information x=(xyu, X2...xn).

第7図の符号と第6図の符号で同一のものは同じ機能を
有する。また、第6図中の誤差逆伝搬重み修正手段12
は上記した第1の発明と同じ動作を行なう。したがって
、以下の説明は第7図に示す想起装置20を用いて行な
う。
The same symbols in FIG. 7 and FIG. 6 have the same functions. Furthermore, the error backpropagation weight correction means 12 in FIG.
performs the same operation as the first invention described above. Therefore, the following explanation will be made using the recollection device 20 shown in FIG.

第8図は入力情報正規化手段13の構成を示したもので
ある。正規化手段13は入力x、(j = 1 。
FIG. 8 shows the configuration of the input information normalization means 13. The normalization means 13 receives an input x, (j = 1.

2、・・+n)をbビットで成るディジタル値に正規化
するn個の情報正規化手段16より構成される。入力情
報xlはアナログ量あるいはディジタル量である。以下
に、aビットで成る入力情報X。
2, . . +n) into a digital value consisting of b bits. The input information xl is an analog quantity or a digital quantity. Below, input information X consisting of a bits.

についての正規化動作を説明する。The normalization operation for is explained.

第9図はO〜(2a−1)のレンジを持つ入力情報xi
をO〜(2”l)のレンジに線形処理する場合の変換グ
ラフである。ここでa > bとし、a=12.b=8
とするとO〜(212−1=4095)のレンジがO〜
(28−1=255)のレンジに線形変換される。これ
により様々なレンジを有する入力情報X、が、全てbビ
ット以下のレンジを持つXi’ に正規化される。
Figure 9 shows input information xi having a range of O~(2a-1).
This is a conversion graph when linearly processing the range from O to (2"l).Here, a > b, and a=12.b=8
Then the range of O~(212-1=4095) is O~
It is linearly transformed into a range of (28-1=255). As a result, input information X having various ranges is normalized to Xi' having a range of all b bits or less.

第10図は入力XI が不確定要素を含み、かつ非線形
な特性を有する場合の正規化手段の例を示している。こ
こではファジィ集合概念を導入し、入力情報X、に対し
く21′−1)のレンジをもつ三種の定性評価XIBI
 X+M、 XiSを出力とする。同図で横軸はX+ 
のレンジO〜(2a−1,)を定義する。縦軸はX+’
  のレンジ0〜(2b−1)を定義する。定性評価の
種類としてメンバーシップ関数をS(小さい)、M(中
位)、B(大きい)と定義する。これによりaビットで
成るX、はしビツトで成るxts(小さい度合い)、X
’1M(中位の度合い)*Xta(大きい度合い)に変
換される。この方法によると、不確定要素が大で非線形
要素が強い入力情報であっても、安定した学習、想起が
可能となる。
FIG. 10 shows an example of the normalization means when the input XI includes uncertain elements and has nonlinear characteristics. Here, we introduce the concept of fuzzy set and evaluate three types of qualitative evaluation XIBI with a range of 21'-1) for input information X.
X+M, XiS is the output. In the same figure, the horizontal axis is X+
Define the range O~(2a-1,). The vertical axis is X+'
Define the range 0 to (2b-1). As types of qualitative evaluation, membership functions are defined as S (small), M (medium), and B (large). This results in X consisting of a bits, xts consisting of bits (smaller degree),
'Converted to 1M (medium degree) * Xta (large degree). According to this method, stable learning and recall is possible even when input information has large uncertainties and strong nonlinear elements.

第11図は第7図のニューラルネットワーク11の想起
動作を示したものである。処理A−Eで中間層ニューロ
ンの出力値を、処理F−Jで出力層ニューロンの出力値
、すなわち高速ニューラルネット11の出力値を求めて
いる。本発明の特徴は処理C,E、H,Jにある。処理
CとH1処理EとJは同じ動作を行なうので、以下処理
Cと処理Eについて説明する。
FIG. 11 shows the imagination operation of the neural network 11 of FIG. 7. In processing A-E, the output value of the intermediate layer neuron is obtained, and in processing FJ, the output value of the output layer neuron, that is, the output value of the high-speed neural network 11 is obtained. The features of the present invention reside in processes C, E, H, and J. Processing C and H1 processing E and J perform the same operation, so processing C and processing E will be explained below.

(処理C) 情報量が正規化された入力値xI′(bビットで成る)
とシナップスの重みW I J (Cビットで成る)の
積 xt’XwiJ を求める。従来は入力値Xlのレンジが不定の為積演算
を実行せざるを得なかった。しかし、本発明では入力情
報正規化手段13によりXlはbビットに正規化されて
いる為、演算結果を予め記憶装置に格納しておくことに
より、アドレス探索により直接求めることができる。
(Processing C) Input value xI' (consisting of b bits) with normalized information amount
and the synaps weight W I J (consisting of C bits), the product xt'XwiJ is calculated. Conventionally, since the range of the input value Xl was undefined, a product operation had to be performed. However, in the present invention, since Xl is normalized to b bits by the input information normalization means 13, by storing the calculation result in a storage device in advance, it is possible to directly obtain it by address search.

第12図(a)は、メモリー14内に(0〜(2b−1
))X(0〜2b−1))(7)2次元テーブルヲ定義
し、予め(b+c)ビットで成る積値を格納して、アド
レス検索を行なう例を示す。
FIG. 12(a) shows that (0 to (2b-1)
))

(処理E) 上記で求めた積値の総和に対するシグモイド関数値を求
める。
(Process E) Find the sigmoid function value for the sum of the product values found above.

シグモイド関数のSのレンジは中間層/出力層のニュー
ロン最大数をPとすると(p x 2 b+C)〜(p
 x 2b+C)に限定される。従って第12図(b)
のように予め関数値を定義しておくことによりアドレス
検索で演算結果を取り出すことができる。これにより非
線形関数(シグモイド関数)演算が不要となる。
The range of S of the sigmoid function is (p x 2 b + C) ~ (p
x 2b+C). Therefore, Fig. 12(b)
By defining a function value in advance as in the example below, the calculation result can be retrieved by address search. This eliminates the need for nonlinear function (sigmoid function) calculations.

以上は積値、関数値の一般式における例であるが、さら
に具体的な数値で説明する。
The above is an example of the general formula of the product value and the function value, but it will be explained using more specific numerical values.

第13図は、ビット数す、cを共に11ビツトとし、有
効レンジを−1000〜1000に定めた例である。
FIG. 13 shows an example in which the bit numbers (a) and (c) are both 11 bits, and the effective range is set to -1000 to 1000.

同図(a)の積値テーブルは縦軸にニューロン出力値−
10oO〜100oを、横軸にシナップス荷重値−10
00〜1000を定義し、各積値が格納されている。例
令ばニューロン出力積が998、シナップス荷重値が9
99の場合997002が積値として直接検索される。
In the product value table in Figure (a), the vertical axis is the neuron output value -
10oO to 100o, synaps load value -10 on the horizontal axis
00 to 1000 are defined, and each product value is stored. For example, the neuron output product is 998 and the synapses weight value is 9.
In the case of 99, 997002 is directly searched as the product value.

同図(、b)のシグモイド関数テーブルは1次元のテー
ブルであり対象ニューラルネットワークにおける各層の
ニューロン数の最大値Pと、ニューロン呂力値レンジと
、シナップス荷重値レンジの積数分のエリアが確保され
る。本例ではニューロン数の最大値を10としテいル為
、−10,000,000〜10,000,000のエ
リアを有している。記憶エリアには上記値をSとすると
、 が格納される。Sを1 、000.000で割るのは、
次元揃えの為であり、1,000  が掛けられている
の、は、対象ニューラルネットワークの持つレンジが−
1000〜1000とする為である。
The sigmoid function table in the same figure (, b) is a one-dimensional table, and the area is secured for the maximum number of neurons P in each layer in the target neural network, the neuron load value range, and the integral of the synapse load value range. be done. In this example, the maximum number of neurons is set to 10, so there is an area from -10,000,000 to 10,000,000. Letting the above value be S, the following is stored in the storage area. Dividing S by 1,000.000 is
This is to align the dimensions, and the reason why it is multiplied by 1,000 is because the range of the target neural network is -
This is to set it to 1000-1000.

このようにメモリ14にテーブルを構成しておくことに
より、従来多大な時間を要していた、積演算、非線形関
数演算が不要となる。
By configuring the table in the memory 14 in this manner, product calculations and nonlinear function calculations, which conventionally require a large amount of time, become unnecessary.

以上説明した第2の発明における高速化の程度を、想起
時間を例に定量的に評価する。評価の前提として、 ta=1(μ5)21回のアドレス検索時間taa* 
=5(μs): 1回の和演算時間tm  =50(μ
s):1回の積、除演算時間とすると、各処理での演算
回数と処理時間は第14図のようになる。
The degree of speedup in the second invention described above will be quantitatively evaluated using recall time as an example. As a premise of the evaluation, ta=1 (μ5) 21 address search times taa*
=5(μs): Time for one sum operation tm =50(μs)
s): Assuming the time for one multiplication and division operation, the number of operations and processing time in each process are as shown in FIG.

一般的なニューラルネットワークとして各層のニューロ
ン数n、m、Qを n=m=ffi=100 とすると、従来方法での1回の想起時間′r^01は、
TAo“= t adiX (2X (m+ Q ))
+ t mX((n+2)Xrn、+(rn+2)xf
f)=5X(2X(loo+100))+50X((1
00+2)X100+(loO+2)X100)=1,
022,000 (μ5) =1.022 C秒) これに対し、本発明による想起装置の想起時間Tx N
E’  lま、 TANE11= taX(n Xm+mX D、)+ 
taitX(m+ 11)=IX(100XL00+1
00X100)+5X(100+100) =21,000 (μ5) =0.021(秒) 従来方法の処理時間の1750となる。
Assuming that the number of neurons in each layer n, m, and Q in a general neural network is n=m=ffi=100, the one-time recall time ′r^01 in the conventional method is
TAo"= t adiX (2X (m+Q))
+ t mX((n+2)Xrn, +(rn+2)xf
f)=5X(2X(loo+100))+50X((1
00+2)X100+(loO+2)X100)=1,
022,000 (μ5) = 1.022 C seconds) On the other hand, the recall time Tx N of the recall device according to the present invention
E' lma, TANE11= taX(n Xm+mX D,)+
taitX(m+11)=IX(100XL00+1
00X100)+5X(100+100) =21,000 (μ5) =0.021 (seconds) The processing time of the conventional method is 1750.

第15図は、以」二の方法を同期信号による並列処理で
、より高速化を図った想起装置50の構成図である。想
起装置50はメモリ14と、ニューロン出力値とシナッ
プス重み積値アドレス検索手段53.総和演算手段52
.シグモイド関数値検索手段51によりなっている。
FIG. 15 is a block diagram of a retrieval device 50 in which the above second method is processed in parallel using a synchronization signal to achieve higher speed. The recall device 50 includes a memory 14, a neuron output value and a synapses weight product address retrieval means 53. Sum calculation means 52
.. It consists of a sigmoid function value search means 51.

第16A図は、ニューラルネット11との対応を示しな
から、想起装置50の詳細構成を示したものである。同
図では出力ニューロン2! と、中間ニューロンy、〜
3/nの結合を取り出し、想起装W50の構成を説明し
ている。
FIG. 16A does not show the correspondence with the neural network 11, but shows the detailed configuration of the recollection device 50. In the figure, output neuron 2! and intermediate neuron y, ~
The configuration of the recall device W50 is explained by taking out the 3/n bond.

アドレス探索手段53は中間ニューロンの出力値y、と
、シナップス値wi、を入力とし、前述の積値テーブル
を参照し、積演算を行うことなく積値y□*w1を決定
は総和演算手段52は全ての中間ニューロンの出力値を
入力とし、その総和値を出力する。総和値を入力とする
、シグモイド関数値探索手段51は前述のシグモイド関
数値テーブルを参照し、非線形演算を行なうことなくシ
グモイド関数値を決定する。
The address search means 53 inputs the output value y of the intermediate neuron and the synapse value wi, refers to the product value table mentioned above, and determines the product value y□*w1 without performing a product operation. takes the output values of all intermediate neurons as input and outputs the sum value. The sigmoid function value search means 51, which receives the total sum value, refers to the sigmoid function value table described above and determines the sigmoid function value without performing nonlinear calculations.

本装置の想起時間TAPara口0は、TAParaf
fitell=t、(、%力値xシナップス重み処理時
間)十t2(総和処理時間) +t、(シグモイド関数処理時間) +t4(中間層ニューロン出力値×シナノプス重み処理
時間)+し、(総和処理時間)+ tc(シグモイド関数処理時間) ”ta+mXtaaa+ta+ta+QXtaad+t
a=1004 (μS) ミ1.(ms) 従来方法による処理時間の1/1000を達成している
The recall time TAPara port 0 of this device is TAParaf
fitell=t, (% force value x synapses weight processing time) + t2 (summation processing time) +t, (sigmoid function processing time) +t4 (middle layer neuron output value x synapses weight processing time) + (summation processing time) )+tc (sigmoid function processing time) ”ta+mXtaaa+ta+ta+QXtaad+t
a=1004 (μS) Mi1. (ms) Achieved 1/1000 of the processing time of the conventional method.

第17図および第18図は上記の第1の発明と第2の発
明を組合わせた学習装置30と想起装置40の例である
6 学習装置130は前記入力情報正規化手段13、高速ニ
ューラルネットワーク11、メモリ14゜制御装置15
.仮死シナップス/ニューロン除去手段3により成って
おり、前記した第1および第2の発明による動作を兼ね
備えて、両方の効果を達成するので、学習装置の一層の
高速化が実現されている。
17 and 18 are examples of a learning device 30 and a recall device 40 that combine the first invention and the second invention described above.6 The learning device 130 includes the input information normalization means 13, a high-speed neural network 11. Memory 14° Control device 15
.. It consists of the asphyxial synapse/neuron removal means 3, and combines the operations according to the first and second inventions described above to achieve both effects, thereby achieving further speeding up of the learning device.

想起装置40は前記入力情報正規化手段13゜仮死シナ
ップス/ニューロンの除去手段と積演算。
The recall device 40 performs a product operation with the input information normalization means 13° and the asphyxia synapse/neuron removal means.

非線形演算をアドレス探索にて直接決定する構成を有す
る高速ニューラルネットワーク11により成っており、
両発明による効果を併せ達成できる。
It consists of a high-speed neural network 11 having a configuration that directly determines nonlinear operations by address search,
The effects of both inventions can be achieved together.

〔発明の効果〕〔Effect of the invention〕

本発明は、以上のように構成されているので(1)仮死
シナップス/ニューロン除去手段により、想起に貢献し
ない冗長なるシナップス/二1−ロンが除去され、ニュ
ーラルネットワークが最適化 (2)入力情報正規化手段により、ニューロン出力値と
シナップスの重み値の積演算、及び非線形関数(シグモ
イド関数)演算をアドレス探索処理に置換 できるので、ニューラルネットの学習、想起を飛躍的に
高速化できる効果がある。これによって、従来適用不可
能であったプロセスの実時間制御や診断に対してもニュ
ーラルネットワークの適用が可能になる効果がある。
Since the present invention is configured as described above, (1) redundant synapses/neurons that do not contribute to recall are removed by the suspended synapse/neuron removal means, and the neural network is optimized (2) input information By using the normalization means, the product operation of the neuron output value and the synapse weight value and the nonlinear function (sigmoid function) operation can be replaced with address search processing, which has the effect of dramatically speeding up the learning and recall of the neural network. . This has the effect of making it possible to apply neural networks to real-time process control and diagnosis, which were previously not applicable.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図から第5図は本発明の第1の実施例を説明するも
ので、第1図はニューラルネソトワークの学習装置の構
成図、第2図はニューラルネットワークの概念的な説明
図、第3図及び第4図は仮死シナップス/ニューロン除
去手段の処理手順を示すフローチャートと除去前後のニ
ューラルネットの状態を示す説明図、第S図はニューラ
ルネットワークの想起における仮死シナップス/ニュー
ロン除去手段の処理手順を示すフローチャートである。 第6図から第16図は本発明の第2の実施例を説明する
もので、第6図及び第7図は入力情報正規化手段を設け
たニューラルネットワークの学習装置とニューラルネッ
トワークの構成図、第8図から第10図は正規化手段の
機能を有するための図、第11図はニューラルネットワ
ークの想起動作を説明するフローチャート、第12図及
び第13図は積値と関数値ファイルの内容を説明するた
めの図、第14図は第2の実施例の効果を説明するため
の図、第15図及び第16図は第2の実施例のニューラ
ルネットの具体的な構成図とその説明図である。第17
図及び第18図は本発明の第3の実施例を説明する学習
装置と想起装置の構成図である。 1.10,20,30,40,50・・・ニューラルネ
ットワーク、2,12・・誤差逆伝搬重み修正手段、3
・・・仮死シナップス/ニューロン除去手段、4.15
・・・制御装置、13・・入力情報正規化手段、14・
・メモリ。 代理人 弁理士 小川勝馬16′ \U 第2図 第4図 仮死二コーロン除去 第8図 第9図 第10図 ローNの嘴噂りNロー−−−−−−−−−−−1に −QQ6−
1 to 5 explain the first embodiment of the present invention, in which FIG. 1 is a configuration diagram of a neural network learning device, FIG. 2 is a conceptual explanatory diagram of a neural network, and FIG. 3 and 4 are flowcharts showing the processing procedure of the asphyxia synaps/neuron removal means and an explanatory diagram showing the state of the neural network before and after removal, and FIG. S is the processing procedure of the asphyxia synapse/neuron removal means in recalling the neural network. It is a flowchart which shows. 6 to 16 explain a second embodiment of the present invention, and FIGS. 6 and 7 are configuration diagrams of a neural network learning device provided with input information normalization means and a neural network, Figures 8 to 10 are diagrams for having the function of a normalization means, Figure 11 is a flowchart explaining the imaginative operation of the neural network, and Figures 12 and 13 are diagrams showing the contents of the product value and function value file. FIG. 14 is a diagram for explaining the effect of the second embodiment. FIGS. 15 and 16 are specific configuration diagrams of the neural network of the second embodiment and their explanatory diagrams. It is. 17th
18A and 18B are configuration diagrams of a learning device and a recall device for explaining a third embodiment of the present invention. 1. 10, 20, 30, 40, 50... neural network, 2, 12... error back propagation weight correction means, 3
... Asphyxia synapses/neuron removal means, 4.15
...control device, 13..input information normalization means, 14.
·memory. Agent Patent Attorney Katsuma Ogawa 16' \U Figure 2 Figure 4 Asphyxia Removal of two corons Figure 8 Figure 9 Figure 10 Rumors of the beak of Low N N Low -----------------------1 -QQ6-

Claims (14)

【特許請求の範囲】[Claims] 1.情報を入力する入力層、最終結果を出力する出力層
、該両層の間にある1段以上の中間層、前記各層ごとに
複数のニューロン及び隣接する層のニューロン間を重み
係数によって結合するシナップスを有するニューラルネ
ットワークの学習方法において、 前記入力層に入力された情報を学習して得られる前記ニ
ューラルネットワークの出力情報と予め定められる教師
情報との誤差を所定値以下とするように前記重み係数を
修正し、該修正によって前記重み係数の絶対値が一定値
以下となるシナップスを前記ニューラルネットワークの
動作において不使用とするようにしたことを特徴とする
ニューラルネットワークの学習方法。
1. An input layer that inputs information, an output layer that outputs the final result, one or more intermediate layers between the two layers, a plurality of neurons in each layer, and a synapse that connects neurons in adjacent layers using weight coefficients. In the neural network learning method, the weighting coefficient is set so that an error between output information of the neural network obtained by learning information input to the input layer and predetermined teacher information is equal to or less than a predetermined value. A method for learning a neural network, characterized in that synapses for which the absolute value of the weighting coefficient becomes equal to or less than a certain value are not used in the operation of the neural network.
2.請求項1において、次段の任意のニューロンに接続
される全てのシナップスの重み係数の前記絶対値が前記
一定値以下となるとき当該ニューロンを前記ニューラル
ネットワークから除去するようにしたことを特徴とする
ニューラルネットワークの学習方法。
2. In claim 1, the neuron is removed from the neural network when the absolute value of the weighting coefficients of all synapses connected to an arbitrary neuron in the next stage is less than or equal to the certain value. How to learn neural networks.
3.学習情報を入力する入力層、最終結果を出力する出
力層、該両層の間にある1段以上の中間層、前記各層ご
とに情報の入出力と処理をおこなう1以上のニューロン
、隣接する層間のニューロンを重み係数によって結合す
るシナップスおよびニューロンの出力値と重み係数の積
値に基づいて次段ニューロンの出力値を決定する出力値
演算手段および前記シナップスの重み係数を記憶する記
憶手段を有するニューラルネットワークと、予め定めら
れた教師情報と前記ニューラルネットワークの出力情報
の誤差を求めこれを所定値以下とするように前記重み係
数の修正値を演算する重み係数修正手段と、前記重み係
数の絶対値が一定値以下になったことを判定して当該シ
ナップスを前記ニューラルネットワークから除去する除
去手段を具備し、 学習によって修正され前記重み係数の絶対値が一定値以
下になったシナップスを前記除去手段によりニューラル
ネットから除去するようにしたことを特徴とするニュー
ラルネットワークの学習装置。
3. An input layer that inputs learning information, an output layer that outputs the final result, one or more intermediate layers between these two layers, one or more neurons that input/output and process information for each layer, and adjacent layers. a synapse that connects the neurons of the synapses using weighting coefficients, an output value calculation means that determines the output value of the next-stage neuron based on the product of the output value of the neuron and the weighting coefficient, and a storage means that stores the weighting coefficient of the synapse. a network; a weighting coefficient correcting means for calculating a corrected value of the weighting coefficient so as to calculate an error between predetermined teacher information and the output information of the neural network and make the error less than a predetermined value; and an absolute value of the weighting coefficient. the synapse is determined to be below a certain value and removes the synapse from the neural network; A neural network learning device characterized in that the neural network is removed from the neural network.
4.入力情報を入力する入力層、最終結果を出力する出
力層、該両層の間にある1段以上の中間層、前記各層ご
とに情報の入出力と処理をおこなう1以上のニューロン
、隣接する層間のニューロンを重み係数によって結合す
るシナップスおよびニューロンの出力値と重み係数の積
値に基づいて次段ニューロンの出力値を決定する出力値
演算手段および前記シナップスの重み係数を記憶する記
憶手段を有するニューラルネットワークにおいて、 前記重み係数の絶対値が所定値以下か否かを判定して該
所定値以下のときは当該シナップスの結合を遮断するシ
ナップス除去判定手段を具備したことを特徴とするニュ
ーラルネットワーク。
4. An input layer that inputs input information, an output layer that outputs the final result, one or more intermediate layers between the two layers, one or more neurons that input and output information and process information for each layer, and between adjacent layers. a synapse that connects the neurons of the synapses using weighting coefficients, an output value calculation means that determines the output value of the next-stage neuron based on the product of the output value of the neuron and the weighting coefficient, and a storage means that stores the weighting coefficient of the synapse. What is claimed is: 1. A neural network comprising: a synapse removal determining means for determining whether the absolute value of the weighting coefficient is less than or equal to a predetermined value, and cutting off the connection of the synapses when the absolute value of the weighting coefficient is less than or equal to the predetermined value.
5.1以上の入力情報を入力する入力層、1以上の最終
情報を出力する出力層、該両層の間にある1段以上の中
間層、前記各層ごとに設けられる1以上のニューロン及
び隣接する層間の前記ニューロンを結合する重み係数つ
きのシナップスを有するニューラルネットワークにおい
て、前記入力情報を所定のレンジに正規化する正規化手
段を設け、該正規化された情報を前記入力層のニューロ
ンに与えるようにしたことを特徴とするニューラルネッ
トワーク。
5. An input layer that inputs one or more input information, an output layer that outputs one or more final information, one or more intermediate layers between the two layers, one or more neurons provided for each layer, and adjacent In a neural network having a synapse with a weighting coefficient that connects the neurons between layers, a normalization means for normalizing the input information to a predetermined range is provided, and the normalized information is provided to the neurons of the input layer. A neural network characterized by the following.
6.請求項5において、前記入力情報正規化手段が入力
情報の線形およびまたは非線形処理を含むことを特徴と
するニューラルネットワーク。
6. Neural network according to claim 5, characterized in that said input information normalization means includes linear and/or non-linear processing of input information.
7.請求項6において、前記非線形処理は予め前記入力
情報を評価し記憶されているメンバシップ関数を用いて
ファジイ評価をおこなうことを特徴とするニューラルネ
ットワーク。
7. 7. The neural network according to claim 6, wherein said nonlinear processing performs fuzzy evaluation using a membership function that evaluates said input information in advance and is stored.
8.情報を入力する入力層、最終結果を出力する出力層
、該両層の間にある1段以上の中間層、前記各層ごとに
1以上のニューロン及び隣接する層間の前記ニューロン
を結合する重み係数つきのシナップスを有するニューラ
ルネットワークの学習方法において、1以上の学習情報
を所定のレンジに正規化して前記入力層のニューロンに
与え当該ニューロンはそれを出力値となし、該出力値と
これを次段に伝達する複数の前記シナップスの重み係数
との積値は予め記憶している積値テーブルから各々求め
、前記次段の層の各ニューロンの出力値はニューロンご
との前記積値の総和に応じて求まる所定の非線形関数値
を予め前記所定のレンジで記憶している関数値テーブル
から各々求め、これらニューロンの出力値を求める処理
を各層について順次繰り返して得た前記ニューラルネッ
トワークの出力値と前記複数の学習情報に対応して予め
与えられる教師情報との誤差が所定の値以下となるよう
に前記シナップスの重み係数を修正するようにしたこと
を特徴とするニューラルネットワークの学習方法。
8. an input layer for inputting information, an output layer for outputting a final result, one or more intermediate layers between the two layers, one or more neurons for each layer, and a weighting coefficient for connecting the neurons between adjacent layers. In a learning method for a neural network having synapses, one or more pieces of learning information are normalized to a predetermined range and given to a neuron in the input layer, which neuron uses it as an output value, and transmits the output value and this to the next stage. The product values of the plurality of synapses with the weighting coefficients are obtained from a product value table stored in advance, and the output value of each neuron in the next layer is a predetermined value determined according to the sum of the product values for each neuron. each of the nonlinear function values stored in advance in the predetermined range from the function value table, and the output value of the neural network obtained by sequentially repeating the process of determining the output values of these neurons for each layer and the plurality of learning information. A method for learning a neural network, characterized in that the weighting coefficients of the synapses are modified so that an error with teacher information given in advance corresponding to the synapses is equal to or less than a predetermined value.
9.学習情報を所定レンジに正規化する入力情報正規化
手段と、前記正規化された学習情報を入力する入力層、
最終結果を出力する出力層、該両層の間にある1段以上
の中間層、前記各層ごとに情報の変換処理をおこなうニ
ューロン、隣接する層間のニューロンを所定レンジの重
み係数によって結合するシナップスおよびニューロンの
出力値と重み係数の積値に基づいて次段ニューロンの出
力値を決定するニューロン出力値演算手段、前記ニュー
ロンの出力値と前記重み係数の積値の集合およびまたは
該積値のニューロン単位の総和を変数としニューロンの
出力値を示す所定の非線形関数値の集合を予め記憶する
記憶手段を有するニューラルネットワークと、予め定め
られた教師情報と前記ニューラルネットワークの出力情
報との誤差を求めこれを所定値以下とするように前記重
み係数の修正値を演算する重み係数修正手段を具備し、 前記学習情報に対する各ニューロンの出力値を前記出力
値演算手段によって前記記憶手段からアドレス検索して
決定し、該処理を各層について順次おこなって得たニュ
ーラルネットワークの出力情報と前記教師情報の誤差が
所定値以下となるように前記重み係数を修正するように
したことを特徴とするニューラルネットワークの学習装
置。
9. an input information normalization means for normalizing learning information to a predetermined range; and an input layer for inputting the normalized learning information;
An output layer that outputs the final result, one or more intermediate layers between the two layers, neurons that perform information conversion processing for each layer, synapses that connect neurons between adjacent layers using weight coefficients in a predetermined range, and Neuron output value calculating means for determining the output value of the next stage neuron based on the product value of the output value of the neuron and the weighting coefficient, a set of the product value of the output value of the neuron and the weighting coefficient, and/or a neuron unit of the product value a neural network having a storage means for storing in advance a set of predetermined nonlinear function values representing output values of neurons using the sum total of Weighting coefficient correction means is provided for calculating a correction value of the weighting coefficient so that it is equal to or less than a predetermined value, and the output value calculation means determines the output value of each neuron for the learning information by searching the address from the storage means. A learning device for a neural network, characterized in that the weighting coefficient is modified so that the error between the output information of the neural network obtained by sequentially performing the processing for each layer and the teacher information is equal to or less than a predetermined value.
10.情報を入力する入力層、最終結果を出力する出力
層、該両層の間にある1段以上の中間層、前記各層ごと
に1以上のニューロン及び隣接する層間のニューロンを
結合する重み係数つきのシナップスを有するニューラル
ネットワークの想起方法において、 1以上の入力情報を所定レンジに正規化して前記入力層
のニューロンにあたえ当該ニューロンはこれを出力値と
なし、該出力値とこれを次段に伝達する複数の前記シナ
ップスの重み係数とは積値は予め記憶している積値テー
ブルから各々求め、前記次段の層の各ニューロンの出力
値はニューロンごとの前記積値の総和に応じて求まる所
定の非線形関数値を予め記憶している関数値テーブルか
ら各々求め、これらニューロンの出力値を求める処理を
各層について順次繰り返して前記ニューラルネットワー
クの出力値を得るようにしたことを特徴とするニューラ
ルネットワークの想起方法。
10. An input layer that inputs information, an output layer that outputs the final result, one or more intermediate layers between the two layers, one or more neurons for each layer, and synapses with weighting coefficients that connect neurons between adjacent layers. In a method for recollecting a neural network, one or more pieces of input information are normalized to a predetermined range and given to a neuron in the input layer, the neuron uses this as an output value, and a plurality of input information that transmits the output value and this to the next stage are provided. What is the weighting coefficient of the synapses? The product values are obtained from a product value table stored in advance, and the output value of each neuron in the next layer is a predetermined nonlinear weight coefficient that is obtained according to the sum of the product values for each neuron. A method for recollecting a neural network, characterized in that each function value is determined from a function value table stored in advance, and the process of determining the output values of these neurons is repeated for each layer in sequence to obtain the output value of the neural network. .
11.入力情報を所定レンジに正規化する入力情報正規
化手段と、前記正規化された情報を入力する入力層、最
終結果を出力する出力層、該両層の間にある1段以上の
中間層、前記各層ごとに情報の入出力と処理をおこなう
1以上のニューロン、隣接する層間のニューロンを結合
する所定レンジの重み係数つきのシナップスおよびニュ
ーロンの出力値と重み係数の積値に基づいて次段ニュー
ロンの出力値を決定する出力値演算手段、前記ニューロ
ンの出力情報と前記重み係数の積値の集合およびまたは
該積値の次段のニューロン単位の総和を変数とし該次段
のニューロンの出力値を示す所定の非線形関数値の集合
を予め記憶する記憶手段を具備し、 入力情報に対応する各ニューロンの出力値を前記出力値
演算手段によって前記記憶手段からアドレス検索し決定
する処理を各層について順次おこなって前記ニューラル
ネットワークの出力情報を得るようにしたことを特徴と
するニューラルネットワーク。
11. an input information normalization means for normalizing input information to a predetermined range; an input layer for inputting the normalized information; an output layer for outputting a final result; one or more intermediate layers between the two layers; One or more neurons input/output and process information for each layer; synapses with weighting coefficients in a predetermined range that connect neurons between adjacent layers; an output value calculation means for determining an output value, and a set of product values of the output information of the neuron and the weighting coefficient, and/or a sum total of the product value in units of the next stage neuron as a variable to indicate the output value of the next stage neuron. A storage means is provided for storing in advance a set of predetermined nonlinear function values, and the output value calculation means sequentially performs processing for each layer to search the address from the storage means and determine the output value of each neuron corresponding to the input information. A neural network characterized in that output information of the neural network is obtained.
12.請求項11において、前記入力情報を正規化する
所定レンジを最大bビット及(b=1,2,…,b)前
記重み係数のレンジを最大cビット(c=1,2,…,
c)とするとき前記ニューロンの出力情報と前記重み係
数の積値は (2^b−1)×(2^c−1) 個の要素の集合となることを特徴とするニューラルネッ
トワーク。
12. In claim 11, the predetermined range for normalizing the input information is set to a maximum of b bits (b=1, 2, . . . , b), and the range of the weighting coefficient is set to a maximum of c bits (c=1, 2, . . . ,
c), the product value of the output information of the neuron and the weighting coefficient is a set of (2^b-1) x (2^c-1) elements.
13.請求項11において、前記非線形関数値は前記積
値の総和を変数とするシグモイド関数によって与えられ
ることを特徴とするニューラルネットワーク。
13. 12. The neural network according to claim 11, wherein the nonlinear function value is given by a sigmoid function whose variable is the sum of the product values.
14.情報を入力する入力層、最終結果を出力する出力
層、該両層の間にある1以上の中間層、前記各層ごとに
1以上のニューロン及び隣接する層間のニューロンを重
み係数によって結合するシナップスを有するニューラル
ネットワークの学習方法において、 学習情報をそれぞれ所定のレンジに正規化して前記入力
層のニューロンにあたえて当該ニューロンの出力値とな
し、該出力値とこれを次段に伝達する複数の前記シナッ
プスの重み係数との積値は予め記憶している積値テーブ
ルから各々求め、前記次段の層の各ニューロンの出力値
はニューロンごとの前記積値の総和に応じて求まる所定
の非線形関数値を予め記憶している関数値テーブルから
各々求め、これらのニューロンの出力値を求める処理を
各層について順次繰り返して得た前記ニューラルネット
ワークの出力値と予め与えられる教師情報との偏差を所
定値以下となるように前記シナップスの重み係数を修正
し、該修正された重み係数の絶対値が一定値以下となる
ことを判定して当該シナップスを前記ニューラルネット
ワークの結合から除去するようにしたことを特徴とする
ニューラルネットワークの学習方法。
14. An input layer that inputs information, an output layer that outputs the final result, one or more intermediate layers between the two layers, one or more neurons for each layer, and synapses that connect neurons between adjacent layers using weight coefficients. In the neural network learning method, the learning information is normalized to a predetermined range and applied to each neuron in the input layer as an output value of the neuron, and a plurality of synapses transmitting the output value and this to the next stage. The product value of each neuron with the weighting coefficient is obtained from a product value table stored in advance, and the output value of each neuron in the next layer is a predetermined nonlinear function value obtained according to the sum of the product values for each neuron. The deviation between the output value of the neural network obtained by sequentially repeating the process of calculating the output values of these neurons for each layer by calculating each from a function value table stored in advance and the teacher information given in advance is less than a predetermined value. The method is characterized in that the weighting coefficient of the synapse is modified as follows, and when it is determined that the absolute value of the modified weighting coefficient is less than or equal to a certain value, the synapse is removed from the connection of the neural network. How to learn neural networks.
JP2317807A 1990-11-26 1990-11-26 Neural network and methods or device for remembering and learning neural network Pending JPH04199259A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2317807A JPH04199259A (en) 1990-11-26 1990-11-26 Neural network and methods or device for remembering and learning neural network
US07/797,534 US5402519A (en) 1990-11-26 1991-11-25 Neural network system adapted for non-linear processing
EP91120155A EP0488150B1 (en) 1990-11-26 1991-11-26 Fuzzy inference system including neural network
KR1019910021293A KR100243353B1 (en) 1990-11-26 1991-11-26 Neural network system adapted for non-linear processing
DE69132003T DE69132003T2 (en) 1990-11-26 1991-11-26 Fuzzy inference-based system and the neural network it contains

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2317807A JPH04199259A (en) 1990-11-26 1990-11-26 Neural network and methods or device for remembering and learning neural network

Publications (1)

Publication Number Publication Date
JPH04199259A true JPH04199259A (en) 1992-07-20

Family

ID=18092261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2317807A Pending JPH04199259A (en) 1990-11-26 1990-11-26 Neural network and methods or device for remembering and learning neural network

Country Status (1)

Country Link
JP (1) JPH04199259A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200553A (en) * 2018-05-15 2019-11-21 国立大学法人東京工業大学 Neural network circuit device, neural network, neural network processing method, and neural network execution program
US20200088120A1 (en) * 2018-09-14 2020-03-19 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02140886A (en) * 1988-11-21 1990-05-30 Omron Tateisi Electron Co Picture preprocessing device
JPH02231670A (en) * 1989-03-03 1990-09-13 Sharp Corp Learning device for neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02140886A (en) * 1988-11-21 1990-05-30 Omron Tateisi Electron Co Picture preprocessing device
JPH02231670A (en) * 1989-03-03 1990-09-13 Sharp Corp Learning device for neural network

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200553A (en) * 2018-05-15 2019-11-21 国立大学法人東京工業大学 Neural network circuit device, neural network, neural network processing method, and neural network execution program
WO2019220975A1 (en) * 2018-05-15 2019-11-21 国立大学法人東京工業大学 Neural network circuit device, neural network processing method, and neural network execution program
US11915128B2 (en) 2018-05-15 2024-02-27 Tokyo Artisan Intelligence Co., Ltd. Neural network circuit device, neural network processing method, and neural network execution program
US20200088120A1 (en) * 2018-09-14 2020-03-19 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
JP2020045773A (en) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 Internal combustion engine control device
US11047325B2 (en) * 2018-09-14 2021-06-29 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine

Similar Documents

Publication Publication Date Title
Hagan et al. Training feedforward networks with the Marquardt algorithm
Gudise et al. Comparison of particle swarm optimization and backpropagation as training algorithms for neural networks
International Neural Network Society (INNS), the IEEE Neural Network Council Cooperating Societies et al. BFGS optimization for faster and automated supervised learning
Ishibuchi et al. Interpolation of fuzzy if-then rules by neural networks
Arena et al. Multilayer perceptrons to approximate quaternion valued functions
Irwin et al. Neural network applications in control
Thuillard A review of wavelet networks, wavenets, fuzzy wavenets and their applications
Wang Period-doublings to chaos in a simple neural network: An analytical proof
Wilamowski Challenges in applications of computational intelligence in industrial electronics
Leung et al. Rational function neural network
Wilamowski et al. Neural network trainer with second order learning algorithms
Jin et al. Fast neural learning and control of discrete-time nonlinear systems
Jin et al. Adaptive tracking of SISO nonlinear systems using multilayered neural networks
Ye et al. Dynamic system identification using recurrent radial basis function network
Zomaya Reinforcement learning for the adaptive control of nonlinear systems
JPH04199259A (en) Neural network and methods or device for remembering and learning neural network
Puffer et al. Modeling nonlinear systems with cellular neural networks
Gupta et al. of Nonlinear Systems: An Overview
Wang On the dynamics of discrete-time, continuous-state Hopfield neural networks
Yu et al. Comparison of different neural network architectures for digit image recognition
Hattori et al. Episodic associative memories
Zhang et al. A fast learning algorithm for wavelet network and its application in control
Sedykh et al. Comparison of Learning Hierarchical Dynamic Neuro-neighborhood Models Based on Perceptron and Radial-basic Functions
Castellano et al. An approach to structure identification of fuzzy models
JPH05128285A (en) Neuro-processor