JPH117435A - Neural network - Google Patents

Neural network

Info

Publication number
JPH117435A
JPH117435A JP9173126A JP17312697A JPH117435A JP H117435 A JPH117435 A JP H117435A JP 9173126 A JP9173126 A JP 9173126A JP 17312697 A JP17312697 A JP 17312697A JP H117435 A JPH117435 A JP H117435A
Authority
JP
Japan
Prior art keywords
neural network
learning
output
input
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9173126A
Other languages
Japanese (ja)
Inventor
Toshiyuki Ogawa
敏幸 小河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Electric Manufacturing Ltd
Original Assignee
Toyo Electric Manufacturing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Electric Manufacturing Ltd filed Critical Toyo Electric Manufacturing Ltd
Priority to JP9173126A priority Critical patent/JPH117435A/en
Publication of JPH117435A publication Critical patent/JPH117435A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently obtain a high evaluation value by arranging two kinds of neural networks(NNs) in parallel at the time of executing learning and recognition based on the NNs, mutually comparing both the NNs in each divided learning and efficiently advancing the leaning of the NN having a better condition. SOLUTION: An NN group 8 consisting of an advancing side NN and a comparing side NN is formed. Final learning frequency and divided learning frequency are set up in a condition setting table 7. An NN control part 1 repeates processing for referring to the table 7, applying NN learning processing to respective NNs, comparing the advancing side NN with the comparing side NN in each divided learning frequency, selecting the NN having a high evaluation value, and advancing the learning. The initial value or condition of the NN can be set up by a random number or the like in each processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、情報処理におけるニュ
ーラルネットワーク型パターン識別装置や値推定装置及
びその学習手段に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network type pattern discriminating apparatus and value estimating apparatus for information processing and learning means for the same.

【0002】[0002]

【従来の技術】ニューラルネットワーク(多層階層構造
型神経回路網)の構造及び学習手段としては、代表的な
誤差逆伝播法(バックプロパゲーション法)がある。
(例えば「神経回路網モデルとコネクショニズム」、甘
利俊一著、東京大学出版会に掲載されている。) この概要を図3のユニット内部状態説明図により説明す
ると、入力層以外のユニットiの入出力関係は(1)、
(2)、(3)式に示され、ユニットiに対する入力を
Oj(j=1からN)、各Ojに対する結合係数(重
み)をWijで表す。このとき、結合係数Wijは、指
定範囲内の乱数で初期設定する。
2. Description of the Related Art As a structure and learning means of a neural network (multi-layer hierarchical neural network), there is a typical error back propagation method (back propagation method).
(For example, “Neural Network Model and Connectionism”, written by Shunichi Amari, published by The University of Tokyo Press.) This outline will be described with reference to the unit internal state diagram of FIG. The relationship is (1)
Expressions (2) and (3) show that the input to the unit i is represented by Oj (j = 1 to N), and the coupling coefficient (weight) for each Oj is represented by Wij. At this time, the coupling coefficient Wij is initialized with random numbers within the specified range.

【0003】 入力の積和 Xi=Σ WijOj ・・・・・・・・・・(1) (1)式を関数f(Xi )に適用し変換する。関数と
しては一般に微分可能な次の(2)式のようなシグモイ
ド関数を使うことが多い。 f(Xi)=1/{1+exp(−Xi)} ・・・・・・・・・・(2) 出力 Yi=f(Xi) ・・・・・・・・・(3) ここでYiの値は0から1の間の数となる。他方、入力
層のユニットは入力値をそのまま出力値とする。
The sum of products of inputs Xi = ΣWijOj (1) The equation (1) is applied to a function f (Xi) for conversion. In general, a sigmoid function such as the following equation (2) that is differentiable is generally used as a function. f (Xi) = 1 / {1 + exp (−Xi)} (2) Output Yi = f (Xi) (3) where Yi The value is a number between 0 and 1. On the other hand, the units in the input layer use the input value as it is as the output value.

【0004】誤差逆伝播法とは、学習パターンXkから
得られる出力パターンYiと学習パターンに対する所望
の出力値Ii(以後教師パターンと言う)とのユニット
の2乗誤差を最小化する学習方法である。ここでは図2
のような3層構造の例について説明するが、多層の場合
も同様である。結合係数の学習は次のようにする。まず
出力層の学習は損失関数をE(二乗誤差)とすると、
(4)式に示され、iは出力層のユニット番号、jは中
間層のユニット番号、kは入力層のユニット番号、Oj
は中間層の出力、Wijは中間層と出力層間の結合係
数、Yiは出力層の出力、Iiは教師パターンである。 E(W)=1/2Σ(Yi−Ii)・(Yi−Ii) ・・・・・・・(4) WはすべてのWijを示す。
The error backpropagation method is a learning method for minimizing the square error of a unit between an output pattern Yi obtained from a learning pattern Xk and a desired output value Ii (hereinafter referred to as a teacher pattern) for the learning pattern. . Here, Figure 2
An example of such a three-layer structure will be described, but the same applies to a multilayer structure. The learning of the coupling coefficient is performed as follows. First, in the learning of the output layer, if the loss function is E (square error),
Where i is the unit number of the output layer, j is the unit number of the intermediate layer, k is the unit number of the input layer, and Oj
Is an output of the intermediate layer, Wij is a coupling coefficient between the intermediate layer and the output layer, Yi is an output of the output layer, and Ii is a teacher pattern. E (W) = 1 / 2Σ (Yi−Ii) · (Yi−Ii) (4) W indicates all Wij.

【0005】最急降下法(確率的降下法)を適用する
と、(5)式を学習信号として(6)式に示すように結
合係数を変えればよい。 δE/δWij=(Yi−Ii)f’(ΣWijOj)Oj ・・・・(5) 新Wij=旧Wij−cδE/δWij ・・・・・・・・(6) ここで、cは学習係数、Ojは中間層の出力である。
When the steepest descent method (probabilistic descent method) is applied, the coupling coefficient may be changed as shown in equation (6) using equation (5) as a learning signal. δE / δWij = (Yi−Ii) f ′ (ΣWijOj) Oj (5) New Wij = old Wij−cδE / δWij (6) where c is a learning coefficient, Oj is the output of the hidden layer.

【0006】(2)式のシグモイド関数は、一般的には
次の(7)式で表せ、これを微分すると、元の関数を使
い、(8)式のように表される。 f(x)=1/{1+exp(−x)} ・・・・・・・・・・(7) f’(x)=f(x)(1−f(x)) ・・・・・・・・・・(8) 実際にはf(ΣWijOj)=Yiであるから、(8)
式は、 f’(ΣWijOj)=Yi(1−Yi) で示され、(5)式は(9)式となる。 δE/δWij=(Yi−Ii)Yi(1−Yi)Oj ・・・・・(9) したがってc=1とすると、(6)式は、 新Wij=旧Wij−(Yi−Ii)Yi(1−Yi)Oj ・・・・(10) で示される。ここで、D1i=(Ii−Yi)Yi(1
−Yi)とすると、(10)式は(11)式で表され
る。 新Wij=旧Wij+D1iOj ・・・・・・・・・(11) 中間層の学習も損失関数をE(二乗誤差)とすると、
(12)式で表される。 E(V)=1/2(Yi−Ii)・(Yi−Ii) ・・・・・・・(12) VはすべてのVjkのことである。ここで、Vjkは中
間層と入力層間の結合係数を表す。最急降下法(確率的
降下法)を適用すると、(13)式を学習信号として
(14)式に示すように結合係数を変えればよい。
The sigmoid function of the equation (2) can be generally expressed by the following equation (7), and by differentiating the sigmoid function, the original function is used and expressed by the equation (8). f (x) = 1 / {1 + exp (−x)} (7) f ′ (x) = f (x) (1−f (x)) (8) Since f (@WijOj) = Yi in practice, (8)
The equation is represented by f ′ (ΣWijOj) = Yi (1−Yi), and equation (5) becomes equation (9). δE / δWij = (Yi−Ii) Yi (1−Yi) Oj (9) Therefore, if c = 1, the expression (6) is expressed as follows: New Wij = Old Wij− (Yi−Ii) Yi ( 1-Yi) Oj (10) Here, D1i = (Ii−Yi) Yi (1
-Yi), equation (10) is represented by equation (11). New Wij = Old Wij + D1Oij (11) If learning of the hidden layer is E (square error) as the loss function,
It is expressed by equation (12). E (V) = 1 / (Yi−Ii) · (Yi−Ii) (12) V is all Vjk. Here, Vjk represents a coupling coefficient between the intermediate layer and the input layer. When the steepest descent method (probabilistic descent method) is applied, the coupling coefficient may be changed as shown in Expression (14) using Expression (13) as a learning signal.

【0007】 δE/δVjk=δE/δOj・δOj/δVjk =Σ(Yi−Ii)δYi/δOj・δOj/δVjk ={Σ(Yi−Ii)f’(WijOj)Wij} ×f’(ΣVjkXk)Xk ・・・(13) 新Vi=旧Vi−cδE/δVjkより ・・・・・・・・・(14) (14)式は(15)〜(18)式を用いて変換し、
(19)式を得る。 Dj =−{Σ(Yi−Ii)f’(WijOj)Wij} =ΣD1iWij ・・・・・・・・・(15) f’(ΣVjkXk)Xk=Oj(1−Oj)Xk ・・・・・・・(16) δE/δVjk=−DjOj(1−Oj)Xk ・・・・・・・・(17) なお、Xkは入力層の出力である。したがってc=1と
すると 新Vjk=旧Vjk+DjOj(1−Oj)Xk ・・・・・・・・(18) ここで D2j=DjOj(1−Oj) とする。 したがって、新Vjk=旧Vjk+D2jXk ・・・・・・・・(19) このようにして、入力層中間層間の結合係数の学習式も
表すことが出来る。結合係数の計算は出力層のユニット
から始めて中間層のユニットへ移り、次々に前段の中間
層へ移っていく。従って学習は次のように進む。まず学
習用のパターンを入力し、結果を計算する。結果の教師
パターンとの誤差を減らすように全ての結合係数を変更
する。再び、学習用パターンを入力する。これを収束す
るまで繰り返す。学習方法としては上記説明した結合係
数の更新を学習パターンごとに行う逐次学習方式や全学
習パターンの誤差をまとめて修正する一括学習方式等が
ある。
ΔE / δVjk = δE / δOj · δOj / δVjk = Σ (Yi-Ii) δYi / δOj · δOj / δVjk = {Σ (Yi-Ii) f ′ (WijOj) Wij} × f ′ (ΣVjkXk) Xk (13) From new Vi = old Vi−cδE / δVjk (14) Expression (14) is converted using Expressions (15) to (18),
Equation (19) is obtained. Dj =-{(Yi-Ii) f '(WijOj) Wij} = {D1iWij ... (15) f' (@ VjkXk) Xk = Oj (1-Oj) Xk ... (16) δE / δVjk = −DjOj (1−Oj) Xk (17) where Xk is an output of the input layer. Therefore, if c = 1, new Vjk = old Vjk + DjOj (1-Oj) Xk (18) where D2j = DjOj (1-Oj). Therefore, new Vjk = old Vjk + D2jXk (19) In this way, the learning equation of the coupling coefficient between the input layer and the intermediate layer can also be expressed. The calculation of the coupling coefficient starts from the unit of the output layer, moves to the unit of the intermediate layer, and then to the intermediate layer of the preceding stage. Therefore, the learning proceeds as follows. First, a learning pattern is input, and the result is calculated. All coupling coefficients are changed so as to reduce the error from the resulting teacher pattern. The learning pattern is input again. This is repeated until convergence. As the learning method, there are a sequential learning method for updating the coupling coefficient described above for each learning pattern and a collective learning method for correcting errors of all learning patterns collectively.

【0008】[0008]

【発明が解決しようとする課題】従来の技術では、次の
ような欠点がある。 (1)従来の多層階層構造型ニューラルネットワークに
於ける入力層と中間層の間の結合係数および中間層と出
力層間の結合係数の初期値は乱数で設定し、学習データ
により学習して結合係数を調整しているため、結合係数
の初期値の設定具合により学習が進まない、また学習回
数を増やしても学習が収束しない、学習時間がかかるこ
とがある。 (2)従来の多層階層構造型ニューラルネットワークに
於ける中間層のユニット数は定まった理論的最適ユニッ
ト数がなく、経験や勘で設定し、学習して各結合係数を
調整しているため、中間層の設定具合により学習が進ま
ない、また学習回数を増やしても学習が収束しない、学
習時間がかかることがある。 (3)従来の多層階層構造型ニューラルネットワークに
於ける各種学習パラメータは課題ごとに条件が異なるの
で、経験や勘で設定し、学習して各結合係数を調整して
いるため、各種学習パラメータの設定具合により学習が
進まない、また学習回数を増やしても学習が収束しな
い、学習時間がかかることがある。
The prior art has the following disadvantages. (1) In the conventional multilayer hierarchical structure type neural network, the initial values of the coupling coefficient between the input layer and the intermediate layer and the coupling coefficient between the intermediate layer and the output layer are set by random numbers, and the coupling coefficient is learned by learning data. Is adjusted, the learning does not proceed depending on the setting of the initial value of the coupling coefficient, and the learning does not converge even if the number of times of learning is increased. (2) Since the number of units in the intermediate layer in the conventional multilayer hierarchical structure type neural network does not have a fixed theoretical optimum number of units, it is set based on experience and intuition, and each coupling coefficient is adjusted by learning. Depending on the setting of the intermediate layer, learning does not proceed, and learning does not converge even if the number of times of learning is increased. (3) Since various learning parameters in the conventional multilayer hierarchical structure type neural network have different conditions for each task, they are set based on experience and intuition, and learning is performed to adjust each coupling coefficient. Depending on the setting, learning does not proceed, and learning does not converge even if the number of times of learning is increased.

【0009】本発明は上記した従来技術の問題点を考慮
してなされたものであり、本発明の目的は、初期値や条
件を変えて試行した中で効率的に良い評価値を持つニュ
ーラルネットワークを選択し、効率的に学習を行うこと
ができるニューラルネットワークを提供することであ
る。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above-mentioned problems of the prior art, and an object of the present invention is to provide a neural network having an efficient evaluation value in trials with different initial values and conditions. Is to provide a neural network that can perform learning efficiently.

【0010】[0010]

【課題を解決するための手段】上記課題を本発明におい
ては次のように解決する。 (1)二種類の多層階層構造型神経回路網を並列に配置
してニューラルネットワーク群を形成し、その内の一方
を進行側ニューラルネットワークとし、他方を比較側ニ
ューラルネットワークとする。二種類のニューラルネッ
トワークは独立して設定し、並列的にニューラルネット
ワークの学習処理を適用して、区切り学習回数ごとに比
較し進行側ニューラルネットワークが良い評価値を持つ
場合、進行側ニューラルネットワークは次の区切り学習
回数までニューラルネットワークの学習処理を適用し、
比較側ニューラルネットワークは新たに初期値を設定し
直し、区切り学習回数までニューラルネットワークの学
習処理を適用し前述の処理を繰り返す、逆に比較側ニュ
ーラルネットワークが良い評価値を持つ場合で、進行側
学習回数と比較側学習回数が同一でない場合、進行側ニ
ューラルネットワークと学習回数が同じになるまで比較
側ニューラルネットワークにニューラルネットワークの
学習処理を適用する、同一の場合はに比較側ニューラル
ネットワークの全ての値を進行側ニューラルネットワー
クに設定し、比較側ニューラルネットワークは新たに初
期値を設定し直し、区切り学習回数までニューラルネッ
トワークの学習処理を適用し前述の処理を繰り返す処理
を行う。 (2)上記(1)において、各ニューラルネットワーク
の初期値や条件、すなわち各結合係数、学習方法、学習
係数、層数、中間層ユニット数等は乱数やあらかじめ作
成した手順、入力装置等で設定する。
Means for Solving the Problems The above-mentioned problems are solved in the present invention as follows. (1) A neural network group is formed by arranging two kinds of multilayer hierarchical neural networks in parallel, one of which is a traveling neural network and the other is a comparing neural network. The two types of neural networks are set independently, and the learning process of the neural network is applied in parallel. The neural network learning process is applied up to
The comparison side neural network resets the initial value newly, applies the learning processing of the neural network up to the number of segmentation learning, and repeats the above-described processing. Conversely, when the comparison side neural network has a good evaluation value, If the number of times and the number of times of learning on the comparison side are not the same, the learning processing of the neural network is applied to the neural network on the side of comparison until the number of times of learning becomes the same as that of the neural network on the progress side. Is set in the progress-side neural network, the comparison-side neural network resets the initial value, and repeats the above-described process by applying the neural network's learning process up to the number of segment learning. (2) In the above (1), initial values and conditions of each neural network, that is, each coupling coefficient, learning method, learning coefficient, number of layers, number of hidden units, and the like are set by random numbers, previously created procedures, input devices, and the like. I do.

【0011】次にその作用について説明する。本発明の
請求項1〜2の発明においては、上記(1)(2)のよ
うに、ニューラルネットワークの学習処理を適用する
際、二種類のニューラルネットワークを並列的に配置
し、各ニューラルネットワークにニューラルネットワー
クの学習処理を適用し区切り学習回数ごとに評価を行っ
ているので、悪い初期値や条件を持つニューラルネット
ワークの試行を早め打ち切ることができ、逆に良い初期
値や条件を持つニューラルネットワークを選択し学習を
進めることのできるニューラルネットワークの学習処理
の手法で、評価値の良いニューラルネットワークを得る
ことができる。また、各ニューラルネットワーク毎に初
期値や条件、すなわち各結合係数、学習方法、学習係
数、層数、中間層ユニット数等を設定することができ、
各種試行を比較し選択することができる。このため、条
件の良いニューラルネットワークはより学習が進み、学
習を効率的に進めることができ、また、計算時間を短縮
することができる。
Next, the operation will be described. In the invention of claims 1 and 2 of the present invention, as described in the above (1) and (2), when applying the learning process of the neural network, two types of neural networks are arranged in parallel, and each neural network is assigned to each neural network. Since neural network learning processing is applied and evaluation is performed for each number of times of segmentation learning, trials of neural networks with bad initial values and conditions can be terminated earlier, and conversely neural networks with good initial values and conditions can be A neural network with a good evaluation value can be obtained by a neural network learning processing method capable of selecting and proceeding with learning. In addition, initial values and conditions for each neural network, that is, each coupling coefficient, a learning method, a learning coefficient, the number of layers, the number of hidden units, and the like can be set.
Various trials can be compared and selected. For this reason, the neural network with good conditions can learn more, can learn efficiently, and can shorten the calculation time.

【0012】[0012]

【発明の実施の形態】以下、本発明の神経回路網の実施
例を、図面に基づいて詳述する。 (1) 請求項1において、二種類の多層階層構造型神
経回路網を並列に配置してニューラルネットワーク群を
形成し、その内の一方を進行側ニューラルネットワーク
とし、他方を比較側ニューラルネットワークとする。二
種類のニューラルネットワークは独立して設定し、並列
的にニューラルネットワークの学習処理を適用して、区
切り学習回数ごとに比較し進行側ニューラルネットワー
クが良い評価値を持つ場合、進行側ニューラルネットワ
ークは次の区切り学習回数までニューラルネットワーク
の学習処理を適用し、比較側ニューラルネットワークは
新たに初期値を設定し直し、区切り学習回数までニュー
ラルネットワークの学習処理を適用し前述の処理を繰り
返す、逆に比較側ニューラルネットワークが良い評価値
を持つ場合で、進行側学習回数と比較側学習回数が同一
でない場合、進行側ニューラルネットワークと学習回数
が同じになるまで比較側ニューラルネットワークにニュ
ーラルネットワークの学習処理を適用する、同一の場合
はに比較側ニューラルネットワークの全ての値を進行側
ニューラルネットワークに設定し、比較側ニューラルネ
ットワークは新たに初期値を設定し直し、区切り学習回
数までニューラルネットワークの学習処理を適用し前述
の処理を繰り返す処理を行うニューラルネットワークの
実施例を図1から図6および図7から図9のフローチャ
ートにより示す。なお、図1から図6および図7から図
9の詳細手順は後述する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the neural network according to the present invention will be described below in detail with reference to the drawings. (1) In claim 1, two types of multilayer hierarchical neural networks are arranged in parallel to form a neural network group, one of which is a traveling-side neural network and the other is a comparison-side neural network. . The two types of neural networks are set independently, and the learning process of the neural network is applied in parallel. The learning process of the neural network is applied up to the number of departure learning times, the initial value of the comparison side neural network is newly reset, the learning process of the neural network is applied up to the number of departure learning times, and the above process is repeated. If the neural network has a good evaluation value and the number of learnings on the traveling side and the number of learnings on the comparison side are not the same, the learning processing of the neural network is applied to the comparing side neural network until the number of learnings on the traveling side becomes equal to the number of learnings on the comparing side If they are the same, All values of the neural network are set to the progressing neural network, the comparison neural network resets the initial value newly, applies the neural network learning process up to the number of segmentation learning, and repeats the above process An embodiment of the network is shown by the flowcharts of FIGS. 1 to 6 and 7 to 9. The detailed procedure of FIGS. 1 to 6 and FIGS. 7 to 9 will be described later.

【0013】(2) 請求項2において各ニューラルネ
ットワークの初期値や条件、すなわち各結合係数、学習
方法、学習係数、層数、中間層ユニット数等は乱数やあ
らかじめ作成した手順、入力装置等で設定するニューラ
ルネットワークの実施例を図1から図6および図7から
図9のフローチャートにより示す。なお、図1から図6
および図7から図9の詳細手順は後述する。図1は本発
明のニューラルネットワークを含む学習認識装置の一実
施例の全体の構成図で、10は神経回路網学習認識装
置、1はニューラルネットワーク制御部、2はワーキン
グメモリ(ニューラルネットワーク制御部1で使用する
一時的に入力あるいは演算したものを記憶しておく場
所)、3は入力制御部、4は出力制御部、5は入力装
置、6は出力・表示を行う装置、7は条件設定テーブ
ル、8はニューラルネットワーク群である。
(2) In claim 2, the initial values and conditions of each neural network, that is, each coupling coefficient, learning method, learning coefficient, number of layers, number of hidden units, and the like are determined by random numbers, previously created procedures, input devices, and the like. Embodiments of the neural network to be set are shown by flowcharts in FIGS. 1 to 6 and FIGS. 7 to 9. 1 to 6
The detailed procedure of FIGS. 7 to 9 will be described later. FIG. 1 is an overall configuration diagram of an embodiment of a learning / recognition device including a neural network according to the present invention. Reference numeral 10 denotes a neural network learning / recognition device, 1 denotes a neural network control unit, and 2 denotes a working memory (neural network control unit 1). 3 is an input control unit, 4 is an output control unit, 5 is an input device, 6 is an output / display device, and 7 is a condition setting table. , 8 are a group of neural networks.

【0014】神経回路網学習認識装置10において、学習
パターン、教師パターン等各種設定値を入力装置5に入
力すると、入力された値は、入力制御部3を介してワー
キングメモリ2にそれぞれのパターンが記憶される。そ
れぞれの入力値はニューラルネットワーク1に入力さ
れ、ここで、ワーキングメモリ2上の学習パターン、教
師パターン、条件テーブル7内の各種設定値をもとにニ
ューラルネットワーク制御部1で学習を行い結合係数を
更新する。結合係数はニューラルネットワーク群8の内
部に蓄えられ、学習結果を、出力制御部4を介して、出
力・表示を行う装置6に出力・表示する。また神経回路
網学習認識装置10において、未知パターンを入力装置5
より入力すると、前述したと同様に、入力された値は入
力制御部3を介してワーキングメモリ2に記憶される。
ニューラルネットワーク制御部1は、ニューラルネット
ワーク群8内の結合係数をもとに認識または値推定を行
い、結果を出力制御部4を介して、出力・表示を行う装
置6に出力・表示する。
In the neural network learning / recognition device 10, when various set values such as a learning pattern and a teacher pattern are input to the input device 5, the input values are stored in the working memory 2 via the input control unit 3. It is memorized. Each input value is input to the neural network 1, where learning is performed by the neural network control unit 1 based on the learning pattern on the working memory 2, the teacher pattern, and various setting values in the condition table 7 to determine the coupling coefficient. Update. The coupling coefficient is stored in the neural network group 8 and the learning result is output and displayed on the output / display device 6 via the output control unit 4. In the neural network learning / recognition device 10, the unknown pattern is input to the input device 5.
When input is made, the input value is stored in the working memory 2 via the input control unit 3 as described above.
The neural network control unit 1 performs recognition or value estimation based on the coupling coefficient in the neural network group 8 and outputs / displays the result to the output / display unit 6 via the output control unit 4.

【0015】次に図2〜図8により本発明の一実施例を
説明する。図2は入力、中間、出力層からなるニューラ
ルネットワークのユニットによる結合状態を示す概念
図、図3は1ユニットの内部状態説明図である。図4は
数字認識を行うニューラルネットワークの一実施例であ
り、入力パターンとしては数字データの特徴量を与え、
出力パターンにより、いずれの数字か判別するシステム
である。このニューラルネットワークは、層数が3層
で、入力層〓のユニットは文字の特徴量を表わす64ユ
ニット、中間層〓のユニットは各入力層のユニットと結
合係数で結ばれた8ユニット、出力層〓は1〜9と0の
数字を示す10ユニットからなる。この例の場合教師パ
ターンとしては例えば数字1の場合は10000000
00のパターンを与える。この意味するところは最初の
1は出力ユニットの1番目の値が1であることを示し、
以下の出力ユニットの値は0であることを示す。他の数
字も同様に教師パターンを作成する。各出力ユニット
で、学習時、認識判定時にはこの値を使用する。誤差合
計値、判定時に最適ユニットを選出する場合は、例えば
出力層のユニットの計算した値が順に0.1 、0.9 、0.3
、…、0.1 、0.2 の場合出力ユニットの2番目の値が
0.9 で最大なので数字の2と判定する。
Next, an embodiment of the present invention will be described with reference to FIGS. FIG. 2 is a conceptual diagram showing a connection state by a unit of a neural network composed of input, intermediate and output layers, and FIG. 3 is an explanatory diagram of an internal state of one unit. FIG. 4 shows an embodiment of a neural network for performing digit recognition, in which a feature of numeric data is given as an input pattern.
This is a system that determines which number is based on the output pattern. In this neural network, the number of layers is three, the unit of the input layer 64 is 64 units representing the characteristic amount of the character, the unit of the intermediate layer 8 is 8 units connected to the unit of each input layer by a coupling coefficient, and the output layer is 〓 is composed of 10 units each representing a number from 1 to 9 and 0. In this example, the teacher pattern is 10000000 in the case of the numeral 1, for example.
00 pattern is given. This means that the first one indicates that the first value of the output unit is one,
The following output unit values indicate 0. For other numbers, a teacher pattern is created similarly. Each output unit uses this value at the time of learning and recognition determination. When selecting the optimum unit at the time of judgment, the calculated value of the unit of the output layer is, for example, 0.1, 0.9, 0.3
, ..., 0.1, 0.2 If the second value of the output unit is
Since it is 0.9, which is the maximum, it is judged to be the number 2.

【0016】図5は前記図1に示した条件設定テーブル
7の内部の一例を示す図であり、最終学習回数と区切り
学習回数を示している。ここで区切り学習回数はニュー
ラルネットワークの学習処理における学習回数をこの回
数だけ処理しこの回数の処理後に進行側ニューラルネッ
トワークと比較側ニューラルネットワークとで評価値を
比較することを意味する。
FIG. 5 is a diagram showing an example of the interior of the condition setting table 7 shown in FIG. 1 and shows the number of final learnings and the number of segmented learnings. Here, the number of times of segment learning means that the number of times of learning in the learning process of the neural network is processed by this number of times, and after this number of times of processing, the evaluation value is compared between the progressing neural network and the comparison side neural network.

【0017】図6は評価値テーブルの内の区切り学習回
数ごとの進行側ニューラルネットワークと比較側ニュー
ラルネットワークの評価値の一例を示す図であり、通常
ワーキングメモリ2内に設ける。また必要に応じて表
示、出力することができる。図は各区切り学習回数に対
する進行側ニューラルネットワークと比較側ニューラル
ネットワークの評価値を示している。この場合区切り学
習回数1,000では進行側ニューラルネットワークの
評価値が0.076、比較側ニューラルネットワークの
評価値が0.085、区切り学習回数2,000では進
行側ニューラルネットワークの評価値が0.054、比
較側ニューラルネットワークの評価値は求まっていな
い、区切り学習回数3,000では進行側ニューラルネ
ットワークの評価値が0.032、比較側ニューラルネ
ットワークの評価値は求まっていない、区切り学習回数
10,000では進行側ニューラルネットワークおよび
比較側ニューラルネットワークの評価値は求まっていな
いことを示している。ここでニューラルネットワークの
評価値とはニューラルネットワークの学習結果の損失関
数の値とする。したがって、少ない方がより良いことを
示す。
FIG. 6 is a diagram showing an example of the evaluation values of the traveling-side neural network and the comparison-side neural network for each segment learning number in the evaluation value table. It can be displayed and output as needed. The figure shows the evaluation values of the traveling-side neural network and the comparison-side neural network with respect to each segment learning count. In this case, the evaluation value of the traveling-side neural network is 0.076 when the number of segment learning is 1,000, the evaluation value of the comparison-side neural network is 0.085, and the evaluation value of the traveling neural network is 0.0 when the number of segment learning is 2,000. 054, the evaluation value of the comparison side neural network has not been obtained. The evaluation value of the progress side neural network is 0.032 at the delimitation learning number of 3,000. The evaluation value of the comparison side neural network has not been obtained. 000 indicates that the evaluation values of the traveling-side neural network and the comparison-side neural network have not been determined. Here, the evaluation value of the neural network is the value of the loss function of the learning result of the neural network. Thus, less indicates better.

【0018】図7、図8はニューラルネットワークの学
習手段を説明するフローチャートである。図9はニュー
ラルネットワークの認識手段を説明するフローチャート
である。以下、図7、図8のフローチャートを用いて学
習を行う手順を示す。 11・・・処理開始。 12・・・ニューラルネットワーク制御部1において、
ニューラルネットワーク群8内の進行側ニューラルネッ
トワークの学習回数を0に設定する。フローチャート上
ではニューラルネットワークのことをNNと略記する。
入力装置5より入力した値を入力制御部3を経由しニュ
ーラルネットワーク制御部1またはワーキングメモリ2
内の各種パラメータの値を設定する。条件テーブル7内
の最終学習回数、区切り学習回数を入力装置5より入力
した値を入力制御部3を経由し設定する。 13・・・ニューラルネットワーク制御部1において、
進行側ニューラルネットワーク内の結合係数等を乱数等
により初期化する。また、学習方法、学習係数、層数、
中間層ユニット数等は乱数またはあらかじめ作成した手
順または入力装置5で設定する。 14・・・ニューラルネットワーク制御部1において、
比較側ニューラルネットワーク内の結合係数等を乱数等
により初期化する。比較側ニューラルネットワークの学
習回数を0に設定する。また、学習方法、学習係数、層
数、中間層ユニット数等は乱数またはあらかじめ作成し
た手順または入力装置5等で設定する。
FIGS. 7 and 8 are flowcharts for explaining the learning means of the neural network. FIG. 9 is a flowchart for explaining the recognition means of the neural network. Hereinafter, a procedure for performing learning using the flowcharts of FIGS. 7 and 8 will be described. 11 ... Process start. 12 ... In the neural network control unit 1,
The number of times of learning of the traveling-side neural network in the neural network group 8 is set to zero. In the flowchart, the neural network is abbreviated as NN.
The value input from the input device 5 is passed through the input control unit 3 to the neural network control unit 1 or the working memory 2
Set the value of each parameter in. The values obtained by inputting the number of final learning and the number of segment learning in the condition table 7 from the input device 5 are set via the input control unit 3. 13 ... In the neural network control unit 1,
A coupling coefficient and the like in the traveling-side neural network are initialized by random numbers and the like. Also, the learning method, learning coefficient, number of layers,
The number of units in the intermediate layer and the like are set by a random number, a procedure created in advance, or the input device 5. 14 In the neural network control unit 1,
Initialize the coupling coefficients and the like in the comparison-side neural network with random numbers and the like. The number of times of learning of the comparison side neural network is set to zero. Further, the learning method, the learning coefficient, the number of layers, the number of hidden units, and the like are set by random numbers or by a previously created procedure or by the input device 5 or the like.

【0019】15・・・ニューラルネットワーク制御部
1において、進行側ニューラルネットワークに区切り学
習回数分だけニューラルネットワークの学習を適用す
る。結合係数はニューラルネットワーク群8内の進行側
ニューラルネットワーク内に保持する。この詳細は図8
のフローチャートにより説明する。 16・・・計算終了条件を満たしたか?YESの場合は
19へ行く。NOの場合は次の17へ行く。ここで計算
終了条件とは 1指定処理時間に達した。 2指定繰り返し
回数に達した。 3損失関数の値が指定値を下回った。 4
指定認識率に達した。 5指定誤認識率を下回った。 6指
定不認識率を下回った。 7学習データ、認識データの区
分が変化しなくなった。等の条件やその複合条件をい
う。ここで、認識率、誤認識率、不認識率とは判定に用
いた検証用データ数と正認識データ数、誤認識データ
数、不認識データ数の割合のことである。 17・・・ニューラルネットワーク制御部1において、
比較側ニューラルネットワークに区切り学習回数分だけ
ニューラルネットワークの学習を適用する。結合係数は
ニューラルネットワーク群8内の比較側ニューラルネッ
トワーク内に保持する。この詳細は図8のフローチャー
トにより説明する。 18・・・計算終了条件を満たしたか?YESの場合は
19へ行く。NOの場合は次の21へ行く。 19・・・ニューラルネットワーク制御部1において、
学習によって得られた結合係数等の結果を出力制御部4
を通じて出力・表示を行う装置6に保存、出力表示す
る。 20・・・学習処理を終了する。 21・・・ニューラルネットワーク制御部1において、
比較側ニューラルネットワークの最新評価値と同一学習
回数の進行側ニューラルネットワークの評価値を比較準
備設定する。評価値とはニューラルネットワークの学習
結果の損失関数の値とする。 22・・・ニューラルネットワーク制御部1において、
進行側ニューラルネットワークの評価値が比較側ニュー
ラルネットワークの評価値より良いかすなわち小さいか
比較する。YESの場合は14へ戻り処理を繰り返す。
NOの場合は次の23へ行く。 23・・・進行側ニューラルネットワークの学習回数が
比較側ニューラルネットワークの学習回数と等しいか比
較する。YESの場合は24へ行く。NOの場合は17
へ行き処理を繰り返す。 24・・・ニューラルネットワーク制御部1において、
比較側ニューラルネットワークの各値を進行側ニューラ
ルネットワークに設定する。14へ戻り処理を繰り返
す。
15. In the neural network controller 1, learning of the neural network is applied to the traveling-side neural network by the number of times of the partition learning. The coupling coefficient is held in the traveling neural network in the neural network group 8. This is shown in FIG.
This will be described with reference to the flowchart of FIG. 16 ... Is the calculation end condition satisfied? If yes, go to 19. If no, go to the next step 17. Here, the calculation termination condition is one specified processing time. 2 The specified number of repetitions has been reached. 3 The value of the loss function has fallen below the specified value. Four
The specified recognition rate has been reached. 5 Below the false recognition rate. It was less than 6 designated unrecognition rates. 7 The classification of learning data and recognition data no longer changes. Etc. and its composite conditions. Here, the recognition rate, the false recognition rate, and the non-recognition rate are the ratios of the number of verification data and the number of correct recognition data, the number of false recognition data, and the number of non-recognition data used for the determination. 17 ... In the neural network control unit 1,
The learning of the neural network is applied to the comparison side neural network by the number of times of the partition learning. The coupling coefficient is held in the comparison side neural network in the neural network group 8. This will be described in detail with reference to the flowchart of FIG. 18 ... Is the calculation end condition satisfied? If yes, go to 19. If NO, go to the next 21. 19: In the neural network control unit 1,
Output control unit 4 outputs a result such as a coupling coefficient obtained by learning.
Is stored and output and displayed in the device 6 that performs output and display through the. 20 ... The learning process ends. 21: In the neural network control unit 1,
The latest neural network evaluation value and the evaluation value of the progressive neural network having the same number of learning times as the comparison neural network are set for comparison preparation. The evaluation value is a value of the loss function of the learning result of the neural network. 22... In the neural network control unit 1
It is compared whether the evaluation value of the traveling-side neural network is better, that is, smaller than the evaluation value of the comparison-side neural network. In the case of YES, the process returns to 14 and the process is repeated.
If NO, go to the next step 23. 23: It is compared whether the number of times of learning of the traveling side neural network is equal to the number of times of learning of the comparison side neural network. If yes, go to 24. 17 in case of NO
And repeat the process. 24 In the neural network control unit 1,
Each value of the comparison side neural network is set to the progress side neural network. Returning to step 14, the process is repeated.

【0020】101・・処理開始。 102・・ニューラルネットワーク制御部1において、
ニューラルネットワーク群8内の所定のニューラルネッ
トワーク内の学習パターン番号を0に初期化する。繰り
返しカウントを0に初期化する。繰り返し終了回数を設
定する。入力層、中間層、出力層の各ユニット数の値を
設定する。全ての学習パターンと教師値を入力装置5か
ら入力して入力制御部3を経由しワーキングメモリ2に
設定する。結合係数はニューラルネットワーク群8内の
所定のニューラルネットワーク内に保持してある値を使
用する。学習パターン数を入力装置5から入力して設定
する。 103・・ニューラルネットワーク制御部1において、
学習パターンを入力層の各ユニットに設定する。
101: Processing started. 102. In the neural network control unit 1,
A learning pattern number in a predetermined neural network in the neural network group 8 is initialized to zero. Initialize the repeat count to zero. Set the repetition end count. Set the value of each unit number of the input layer, the middle layer, and the output layer. All learning patterns and teacher values are input from the input device 5 and set in the working memory 2 via the input control unit 3. As the coupling coefficient, a value held in a predetermined neural network in the neural network group 8 is used. The number of learning patterns is input from the input device 5 and set. 103. In the neural network control unit 1,
A learning pattern is set for each unit in the input layer.

【0021】104・・ニューラルネットワーク制御部
1において、入力層の各ユニットと入力層と中間層間の
結合係数により中間層ユニットの出力値を計算する。中
間層の各ユニットと中間層と出力層間の結合係数により
出力層ユニットの出力値を計算する。 105・・ニューラルネットワーク制御部1において、
教師値と出力層ユニットの出力値との誤差値を計算す
る。さらに、出力層ユニットの誤差値を中間層側に伝搬
させ中間層の誤差値を計算する。 106・・ニューラルネットワーク制御部1において、
誤差値により、中間層と出力層間の結合係数を更新す
る。同様に、入力層と中間層間の結合係数も更新する。 107・・ニューラルネットワーク制御部1において、
学習パターン番号をカウントアップする。 108・・ニューラルネットワーク制御部1において、
学習パターンが終了か判定する。YESの場合は次へ、
NOの場合は105へ行く。 109・・ニューラルネットワーク制御部1において、
誤差値の合計が指定値以下か判定する。YESの場合は
113へ、NOの場合は次へ行く。
104. The neural network controller 1 calculates the output value of the intermediate layer unit based on each unit of the input layer and the coupling coefficient between the input layer and the intermediate layer. The output value of the output layer unit is calculated from each unit of the intermediate layer and the coupling coefficient between the intermediate layer and the output layer. 105. In the neural network control unit 1,
An error value between the teacher value and the output value of the output layer unit is calculated. Further, the error value of the output layer unit is propagated to the intermediate layer side to calculate the error value of the intermediate layer. 106. In the neural network control unit 1,
The coupling coefficient between the intermediate layer and the output layer is updated based on the error value. Similarly, the coupling coefficient between the input layer and the intermediate layer is updated. 107. In the neural network control unit 1,
Count up the learning pattern number. 108. In the neural network control unit 1,
It is determined whether the learning pattern is completed. If yes, go to
If NO, go to 105. 109. In the neural network control unit 1,
It is determined whether the sum of the error values is equal to or less than a specified value. If YES, go to 113; if NO, go to next.

【0022】110・・ニューラルネットワーク制御部
1において、全出力パターンと教師パターンは一致して
いるか判定する。YESの場合は113へ、NOの場合
は次へ行く。 111・・ニューラルネットワーク制御部1において、
繰り返しカウントをカウントアップする。学習パターン
番号を0に再初期化する。 112・・ニューラルネットワーク制御部1において、
繰り返しは終了か判定する。YESの場合は次へ、NO
の場合は103へ行く。 113・・ニューラルネットワーク制御部1において、
図6の評価値テーブル内の所定の区切り回数、ニューラ
ルネットワークの対応するマトリックス上の位置に評価
値を保存する。 終了。101が呼ばれた元の次に進む。
110. The neural network controller 1 determines whether all output patterns and the teacher pattern match. If YES, go to 113; if NO, go to next. 111. In the neural network control unit 1,
Count up the repetition count. The learning pattern number is re-initialized to 0. 112. In the neural network control unit 1,
It is determined whether the repetition is completed. If YES, go to next, NO
If so, go to 103. 113. In the neural network control unit 1,
The evaluation value is stored at a predetermined number of breaks in the evaluation value table of FIG. 6 and at a position on the corresponding matrix of the neural network. End. Proceed to the position where 101 was called.

【0023】次に、図9のフローチャートを用いて認識
を行う手順を示す。 201・・処理開始。 202・・ニューラルネットワーク制御部1において、
ニューラルネットワークモデル名を入力装置5から入力
して入力制御部3を経由しニューラルネットワーク群8
内の所定のニューラルネットワーク内に設定する。入力
層、中間層、出力層の各ユニット数を読み込み値を設定
する。各種パラメータの値を読み込み設定する。学習済
み結合係数を読み込み設定する。 203・・入力装置5から、認識データまたは未知デー
タを入力する。 204・・ニューラルネットワーク制御部1において、
認識データまたは未知データを入力層に設定し、各結合
係数値により中間層、出力層ユニットの出力値を計算す
る。 205・・ニューラルネットワーク制御部1において、
出力層ユニットの出力値と判定条件より判定結果を計算
する。 206・・ニューラルネットワーク制御部1において、
判定結果を出力制御部4を通じて出力・表示を行う装置
6に出力・表示を行う。 207・・ニューラルネットワーク制御部1において、
認識データまたは未知データ終了か判定し?YESのと
き次へ、NOのとき203へ行く。 208・・終了。201が呼ばれた元の次に進む。
Next, a procedure for performing recognition using the flowchart of FIG. 9 will be described. 201 ... Processing started. 202. In the neural network control unit 1,
The neural network model name is input from the input device 5 via the input control unit 3 and the neural network group 8
Is set in a predetermined neural network. Read the number of each unit of the input layer, the middle layer, and the output layer and set the value. Read and set the values of various parameters. Read and set the learned coupling coefficients. 203. Input recognition data or unknown data from the input device 5. 204. In the neural network control unit 1,
The recognition data or unknown data is set in the input layer, and the output values of the intermediate layer and the output layer unit are calculated based on the respective coupling coefficient values. 205. In the neural network control unit 1,
The judgment result is calculated from the output value of the output layer unit and the judgment condition. 206. In the neural network control unit 1,
The determination result is output and displayed on the device 6 for outputting and displaying the result through the output control unit 4. 207. In the neural network control unit 1,
Is recognition data or unknown data end? If YES, go to the next step. If NO, go to 203. 208 ... End. Proceed to the place where 201 was called.

【0024】[0024]

【発明の効果】以上説明したように本発明のニューラル
ネットワークによれば、数字認識、文字認識、形状認識
等の学習、認識および推定に、二種類のニューラルネッ
トワークを並列的に配置し、各ニューラルネットワーク
に学習処理を適用し区切り学習回数ごとに評価を行って
いるので、悪い初期値や条件を持つニューラルネットワ
ークの試行を早めに打ち切り、良い初期値や条件を持つ
ニューラルネットワークを選択し進行させるニューラル
ネットワークの手法で、評価値の良いニューラルネット
ワークを得ることができる。また、各ニューラルネット
ワーク毎に学習方法、学習係数、層数、中間層ユニット
数等を設定することができ、各種試行を比較し選択する
ことができる。このため、条件の良いニューラルネット
ワークはより学習が進行し、良い評価値効率的に得るこ
とができ、また、計算時間を短縮することができ、実用
上、極めて有効性が高い。
As described above, according to the neural network of the present invention, two types of neural networks are arranged in parallel for learning, recognition and estimation of numeral recognition, character recognition, shape recognition, and the like. Since the learning process is applied to the network and evaluation is performed for each number of times of learning, the trial of the neural network with bad initial values and conditions is terminated early, and the neural network with good initial values and conditions is selected and advanced. A neural network with a good evaluation value can be obtained by a network technique. Further, a learning method, a learning coefficient, the number of layers, the number of hidden units, and the like can be set for each neural network, and various trials can be compared and selected. For this reason, a neural network with good conditions has more advanced learning, can obtain good evaluation values efficiently, and can reduce the calculation time, and is extremely effective in practice.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明によるニューラルネットワークを
採用した一実施例のシステム構成図である。
FIG. 1 is a system configuration diagram of an embodiment employing a neural network according to the present invention.

【図2】図2は3層構造神経回路網のユニット結合概説
図である。
FIG. 2 is a schematic diagram of unit connection of a three-layered neural network.

【図3】図3はユニット内部状態説明図である。FIG. 3 is an explanatory diagram of a unit internal state.

【図4】図4は数字認識を行うニューラルネットワーク
の一実施例の説明図である。
FIG. 4 is an explanatory diagram of one embodiment of a neural network for performing digit recognition.

【図5】図5は本発明の一実施例である条件テーブル内
の最終学習回数と区切り学習回数を示す図である。
FIG. 5 is a diagram showing a final learning count and a break learning count in a condition table according to an embodiment of the present invention.

【図6】図6は本発明の一実施例の進行側ニューラルネ
ットワークと比較側ニューラルネットワークの評価値を
示す図である。
FIG. 6 is a diagram showing evaluation values of a traveling-side neural network and a comparison-side neural network according to one embodiment of the present invention.

【図7】図7はニューラルネットワークの学習手段を説
明するフローチャートである。
FIG. 7 is a flowchart illustrating learning means of the neural network.

【図8】図8はニューラルネットワークの学習手段を説
明するフローチャートである。
FIG. 8 is a flowchart illustrating learning means of a neural network.

【図9】図9はニューラルネットワークの認識および推
定手段を説明するフローチャートである。
FIG. 9 is a flowchart for explaining a neural network recognition and estimation unit.

【符号の説明】[Explanation of symbols]

1 ニューラルネットワーク制御部 2 ワーキングメモリ 3 入力制御部 4 出力制御部 5 入力装置 6 出力・表示を行う装置 7 条件設定テーブル 8 ニューラルネットワーク群 10 神経回路網学習認識装置 DESCRIPTION OF SYMBOLS 1 Neural network control part 2 Working memory 3 Input control part 4 Output control part 5 Input device 6 Device which performs output and display 7 Condition setting table 8 Neural network group 10 Neural network learning and recognition device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 二種類の多層階層構造型神経回路網を並
列に配置してニューラルネットワーク群を形成し、その
内の一方を進行側ニューラルネットワークとし、他方を
比較側ニューラルネットワークとし、これら両者のニュ
ーラルネットワークは独立して設定し、並列的にニュー
ラルネットワークの学習処理を行い、所望の条件を満足
するまで学習処理を行うニューラルネットワークの学習
方法であって、 前記ニューラルネットワークの学習処理手順に区切り、
学習回数ごとにニューラルネットワークの学習結果を比
較し、選択、置換、学習を進める仕組みを設定し、区切
り学習回数ごとにニューラルネットワークの学習結果を
比較し、良い評価値を持つニューラルネットワークを選
択して前記進行側ニューラルネットワークを置き換え、
そうでないニューラルネットワークは新たに初期値を設
定し直し、区切り学習回数までニューラルネットワーク
の学習を行い、前述の処理を繰り返す処理を行うことを
特徴とするニューラルネットワーク。
A neural network group is formed by arranging two types of multilayer hierarchical neural networks in parallel, one of which is a traveling-side neural network and the other is a comparing-side neural network. The neural network is independently set, performs a learning process of the neural network in parallel, and is a learning method of a neural network that performs a learning process until a desired condition is satisfied.
Set a mechanism to compare the learning results of the neural network for each learning count, advance the selection, replacement, and learning, compare the learning results of the neural network for each partition learning count, and select a neural network with a good evaluation value Replacing the traveling side neural network,
Other neural networks are characterized by resetting a new initial value, learning the neural network up to the number of times of segmentation learning, and repeating the processing described above.
【請求項2】 各ニューラルネットワークの初期値や条
件、すなわち各結合係数、学習方法、学習係数、層数、
中間層ユニット数等は乱数やあらかじめ作成した手順、
入力装置等で設定することを特徴とする請求項1記載の
ニューラルネットワーク。
2. The initial values and conditions of each neural network, ie, each coupling coefficient, learning method, learning coefficient, number of layers,
The number of units in the middle layer, etc.
2. The neural network according to claim 1, wherein the neural network is set by an input device or the like.
JP9173126A 1997-06-13 1997-06-13 Neural network Pending JPH117435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9173126A JPH117435A (en) 1997-06-13 1997-06-13 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9173126A JPH117435A (en) 1997-06-13 1997-06-13 Neural network

Publications (1)

Publication Number Publication Date
JPH117435A true JPH117435A (en) 1999-01-12

Family

ID=15954619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9173126A Pending JPH117435A (en) 1997-06-13 1997-06-13 Neural network

Country Status (1)

Country Link
JP (1) JPH117435A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program
US11165952B2 (en) 2018-11-29 2021-11-02 Canon Kabushiki Kaisha Information processing apparatus, image capturing apparatus, method for controlling information processing apparatus, and non-transitory storage medium

Similar Documents

Publication Publication Date Title
EP0384689B1 (en) A learning system and learning method for a data processing apparatus
JP2001236337A (en) Predicting device using neural network
JP2016139176A (en) Image processing device, image processing system, image processing method, and image processing program therefor
US5313559A (en) Method of and system for controlling learning in neural network
JP3247803B2 (en) Fuzzy neural network system
JPH117435A (en) Neural network
JPH11175494A (en) Neural network
JPH05197705A (en) Learning system for neural network
JPH10187649A (en) Neural network
JP2699447B2 (en) Signal processing device
JP2000172662A (en) Learning method for neural network
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
JPH096881A (en) Neural network
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
JP3273568B2 (en) Hierarchical neural network and learning method thereof
JP3262340B2 (en) Information processing device
JPH09311846A (en) Neural network
JPH05108601A (en) Neural network learning device
JPH08221378A (en) Learning machine
JP2979562B2 (en) Learning processing device
JPH06231106A (en) Method and device for learning recurrent type neural network
JP2732603B2 (en) Learning process monitoring device for network configuration data processing device
JPH05189397A (en) Learning method and information processing system for neural network
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JPH08166934A (en) Function generator using neural network