JP3304476B2 - Neural network construction method, learning method, and generalization ability evaluation method - Google Patents

Neural network construction method, learning method, and generalization ability evaluation method

Info

Publication number
JP3304476B2
JP3304476B2 JP05408093A JP5408093A JP3304476B2 JP 3304476 B2 JP3304476 B2 JP 3304476B2 JP 05408093 A JP05408093 A JP 05408093A JP 5408093 A JP5408093 A JP 5408093A JP 3304476 B2 JP3304476 B2 JP 3304476B2
Authority
JP
Japan
Prior art keywords
layer neuron
output
input
unit
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05408093A
Other languages
Japanese (ja)
Other versions
JPH06266689A (en
Inventor
晃正 城坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP05408093A priority Critical patent/JP3304476B2/en
Publication of JPH06266689A publication Critical patent/JPH06266689A/en
Application granted granted Critical
Publication of JP3304476B2 publication Critical patent/JP3304476B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力層ニューロンユニ
ット,中間層ニューロンユニット及び出力層ニューロン
ユニットを備えた階層構造をとり、認識カテゴリに関す
る学習が行われる神経回路網についての、それを構成す
る方法,その学習を行う方法及びその汎化能力を評価す
る方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention has a hierarchical structure including an input layer neuron unit, an intermediate layer neuron unit, and an output layer neuron unit, and constitutes a neural network in which learning on recognition categories is performed. The present invention relates to a method, a method for performing the learning, and a method for evaluating the generalization ability.

【0002】[0002]

【従来の技術】神経回路網は、構造上、階層型に属する
ものと相互結合型に属するものとに大別される。これら
のうち、階層型に属するものの典型的なものとして、入
力層ニューロンユニット,中間層ニューロンユニット及
び出力層ニューロンユニットを備えた三層構造をとるも
のがある。
2. Description of the Related Art Neural networks are structurally classified into those belonging to a hierarchical type and those belonging to a mutual connection type. Among them, a typical one belonging to the hierarchical type has a three-layer structure including an input layer neuron unit, an intermediate layer neuron unit and an output layer neuron unit.

【0003】三層構造をとる神経回路網にあっては、通
常、複数個の入力層ニューロンユニットと、それらの夫
々に結合された1個もしくは複数個の中間層ニューロン
ユニットと、中間層ニューロンユニットに結合された複
数個もしくは1個の出力層ニューロンユニットとを有
し、入力層ニューロンユニットの夫々とそれに結合され
た中間層ニューロンユニットとの間のシナプス伝達効率
(以下、入力・中間層間シナプス伝達効率という)、及
び、1個の中間層ニューロンユニットもしくは複数個の
中間層ニューロンユニットの夫々とそれに結合された出
力層ニューロンユニットとの間のシナプス伝達効率(以
下、中間・出力層間シナプス伝達効率という)の各々が
所定の値をとるものとされて構成される。そして、入力
層ニューロンユニットの夫々に、所定の認識カテゴリに
関する入力信号が供給されるとき、出力層ニューロンユ
ニットからその認識カテゴリに応答する出力信号が得ら
れる。
In a neural network having a three-layer structure, usually, a plurality of input layer neuron units, one or more intermediate layer neuron units connected to each of them, and an intermediate layer neuron unit And one or more output layer neuron units coupled to the input layer neuron unit, and the synapse transmission efficiency between each of the input layer neuron units and the intermediate layer neuron unit coupled thereto (hereinafter referred to as input / intermediate interlayer synaptic transmission). Efficiency), and the synaptic transmission efficiency between one intermediate layer neuron unit or a plurality of intermediate layer neuron units and the output layer neuron unit connected thereto (hereinafter referred to as the intermediate / output interlayer synaptic transmission efficiency). ) Takes a predetermined value. When an input signal related to a predetermined recognition category is supplied to each of the input layer neuron units, an output signal responsive to the recognition category is obtained from the output layer neuron unit.

【0004】入力・中間層間シナプス伝達効率及び中間
・出力層間シナプス伝達効率の夫々の値は、先ず、各々
についての初期値が設定され、初期値の設定がなされた
もとで、例えば、バックプロパゲーションの手法によ
る、認識カテゴリに関する複数種の入力信号をもっての
学習が行われて決定される。斯かる学習は、例えば、特
定の認識カテゴリに関する入力信号が入力層ニューロン
ユニットに供給されるとき、それに応答して出力層ニュ
ーロンユニットに得られる出力信号が、供給された入力
信号に対応して予め設定されている適正な信号(教師信
号)に近接するように、入力・中間層間シナプス伝達効
率及び中間・出力層間シナプス伝達効率の夫々の値が変
更せしめられることにより行われる。その際、入力信号
が入力層ニューロンユニットに供給されたとき出力層ニ
ューロンユニットに得られる出力信号を教師信号に近接
させるべく入力・中間層間シナプス伝達効率及び中間・
出力層間シナプス伝達効率の夫々の値を変更する学習
は、通常、複数回が繰り返して行われ、有限回の学習の
結果、入力層ニューロンユニットに供給された入力信号
に応答して出力層ニューロンユニットに得られる出力信
号が教師信号に十分に近接したものとなる状態が学習が
収束する状態(学習収束状態)と称される。
[0004] Initial values for each of the input and intermediate interlayer synapse transmission efficiencies and the intermediate and output interlayer synapse transmission efficiencies are first set, and the initial values are set. The learning is performed and determined using a plurality of types of input signals related to the recognition category. Such learning is performed, for example, when an input signal relating to a specific recognition category is supplied to an input layer neuron unit, an output signal obtained in response to the input layer neuron unit is previously stored in correspondence with the supplied input signal. This is performed by changing the values of the input and intermediate interlayer synapse transmission efficiencies and the intermediate and output interlayer synapse transmission efficiencies so as to approach the proper signal (teacher signal) that has been set. At this time, when the input signal is supplied to the input layer neuron unit, the output signal obtained from the output layer neuron unit is made closer to the teacher signal so that the synapse transmission efficiency between the input and intermediate layers and the intermediate and
Learning to change each value of the output inter-layer synaptic transmission efficiency is usually repeated a plurality of times, and as a result of the finite number of learnings, the output layer neuron unit responds to the input signal supplied to the input layer neuron unit. The state in which the output signal obtained in step (1) is sufficiently close to the teacher signal is called a state in which learning converges (learning convergence state).

【0005】[0005]

【発明が解決しようとする課題】上述の如くの三層構造
をとる神経回路網にあっては、その構成過程において、
バックプロパゲーション等の手法に従った、認識カテゴ
リに関する複数種の入力信号をもっての学習に先立って
行われる、入力・中間層間シナプス伝達効率及び中間・
出力層間シナプス伝達効率の夫々の初期値の設定が、当
該神経回路網の汎化能力に影響を及ぼすことになる。従
来の神経回路網の構成方法にあっては、入力・中間層間
シナプス伝達効率及び中間・出力層間シナプス伝達効率
の夫々の初期値が、当該神経回路網の具体的構造にかか
わらず、例えば、入力・中間層間シナプス伝達効率及び
中間・出力層間シナプス伝達効率の夫々の初期値をW
IJ, 閾値をVth, 0から1までの乱数を rand として、 WIJ=( rand − 0.5)+Vth というように設定されている。
In a neural network having a three-layer structure as described above, in the course of its construction,
Prior to learning with multiple types of input signals related to the recognition category according to a method such as back propagation, the input / intermediate interlayer synapse transmission efficiency and intermediate /
The setting of each initial value of the output interlayer synaptic transmission efficiency affects the generalization ability of the neural network. In the conventional neural network configuration method, each initial value of the input / intermediate interlayer synapse transmission efficiency and the intermediate / output interlayer synapse transmission efficiency is, for example, the input value regardless of the specific structure of the neural network.・ The initial values of the synaptic transmission efficiency between the intermediate layers and the synapse transmission efficiency between the intermediate and output layers are W
It is set such that IJ, the threshold value is Vth, and a random number from 0 to 1 is rand, and WIJ = (rand-0.5) + Vth .

【0006】それゆえ、学習収束状態が得られる神経回
路網内部構造が複数種存在することになり、バックプロ
パゲーション等の手法に従った学習が、入力信号に係る
認識カテゴリを認識する方向に進む神経回路網内部構造
をもって収束する場合と、それとは異なるものとなる神
経回路網内部構造をもって収束する場合とが生じて、後
者の場合には、出力層ニューロンユニットに得られる出
力信号の信頼性が低い、実用性に欠ける神経回路網が形
成されることになる。即ち、学習後の神経回路網が、学
習がなされた認識カテゴリとそれ以外の認識カテゴリと
を適切に識別する汎化能力が高いものとされる場合と、
学習がなされた認識カテゴリとそれ以外の認識カテゴリ
との識別を殆ど行わない、汎化能力が著しく低いものと
される場合とが生じてしまう。
Therefore, there are a plurality of types of neural network internal structures capable of obtaining a learning convergence state, and learning according to a method such as back propagation proceeds in a direction of recognizing a recognition category related to an input signal. There are cases where convergence takes place with a neural network internal structure and cases where convergence takes place with a different neural network internal structure.In the latter case, the reliability of the output signal obtained in the output layer neuron unit is reduced. A low, unpractical neural network will be formed. That is, the case where the neural network after learning has a high generalization ability to appropriately identify the recognized recognition category and the other recognition categories,
There is a case where the recognition category that has undergone learning is hardly distinguished from the other recognition categories, and the generalization ability is extremely low.

【0007】斯かる点に鑑み、本発明は、入力層ニュー
ロンユニット,中間層ニューロンユニット及び出力層ニ
ューロンユニットを備えた階層型に属し、認識カテゴリ
に関する複数種の入力信号をもっての学習の結果、常
に、優れた汎化能力を具える内部構造を有するものとさ
れる神経回路網を得ることができる神経回路網の構成方
法を提供することを目的とし、さらに、入力層ニューロ
ンユニット,中間層ニューロンユニット及び出力層ニュ
ーロンユニットを備えた階層型に属する神経回路網につ
いての、その汎化能力を比較的用意に評価できることに
なる学習方法、及び、斯かる学習方法が実行されるもと
での神経回路網の汎化能力評価方法を提供することをも
目的とする。
In view of the above, the present invention belongs to a hierarchical type having an input layer neuron unit, an intermediate layer neuron unit and an output layer neuron unit, and as a result of learning with a plurality of types of input signals related to a recognition category, always obtains. To provide a method of constructing a neural network capable of obtaining a neural network having an internal structure having excellent generalization ability, and further comprising an input layer neuron unit and an intermediate layer neuron unit And a learning method that makes it possible to relatively easily evaluate the generalization ability of a neural network belonging to a hierarchical type having an output layer neuron unit, and a neural circuit under which the learning method is executed It is another object of the present invention to provide a method for evaluating network generalization ability.

【0008】[0008]

【課題を解決するための手段】上述の目的を達成すべ
く、本発明に係る神経回路網の構成方法の第1の態様
は、複数個の入力層ニューロンユニット,入力層ニュー
ロンユニットの夫々に結合された1個もしくは複数個の
中間層ニューロンユニット、及び、中間層ニューロンユ
ニットに結合された複数個もしくは1個の出力層ニュー
ロンユニットを、夫々についての入出力関数f(x) が不
等式:0<f(x) ≦1を成立させるるものとして配し、
入力・中間層間シナプス伝達効率の初期値を、入力層ニ
ューロンユニットに対する入力が全て予め設定された最
低レベルであるとき、中間層ニューロンユニットの出力
を予め設定された最低レベルとなすべく設定するととも
に、中間・出力層間シナプス伝達効率の初期値を、1個
の中間層ニューロンユニットもしくは複数個の中間層ニ
ューロンユニットの夫々の出力が予め設定された最低レ
ベルであるとき、出力層ニューロンユニットの出力を予
め設定された最高レベルとなすべく設定したもとで、バ
ックプロパゲーションの手法による学習を行って、入力
・中間層間シナプス伝達効率の値、及び、中間・出力層
間シナプス伝達効率の値を決定するものとされる。
In order to achieve the above object, a first aspect of the method for constructing a neural network according to the present invention is to connect a plurality of input layer neuron units to each of a plurality of input layer neuron units. The input or output intermediate neuron units and the output neuron units connected to the intermediate layer neuron unit are expressed by an inequality: 0 < f (x) ≦ 1 is established,
The initial value of the input / interlayer synaptic transmission efficiency is set so that when all the inputs to the input layer neuron unit are at the preset minimum level, the output of the intermediate layer neuron unit is set to the preset minimum level, When the output of one intermediate layer neuron unit or a plurality of intermediate layer neuron units is the preset minimum level, the output of the output layer neuron unit is set in advance. Under the setting of the highest level set, learning by backpropagation method is used to determine the value of the input / middle layer synaptic transmission efficiency and the value of the intermediate / output layer synaptic transmission efficiency. It is said.

【0009】また、本発明に係る神経回路網の構成方法
の第2の態様は、複数個の入力層ニューロンユニット,
入力層ニューロンユニットの夫々に結合された1個の中
間層ニューロンユニット、及び、中間層ニューロンユニ
ットに結合された複数個の出力層ニューロンユニット
を、夫々についての入出力関数f(x) が不等式:0<f
(x) ≦1を成立させるものとして有する単位三層神経回
路網を、複数の認識カテゴリに夫々対応させて複数個用
意し、単位三層神経回路網の夫々に関して、入力・中間
層間シナプス伝達効率の初期値を、入力層ニューロンユ
ニットに対する入力が全て予め設定された最低レベルで
あるとき、中間層ニューロンユニットの出力を予め設定
された最低レベルとなすべく設定するとともに、中間・
出力層間シナプス伝達効率の初期値を、中間層ニューロ
ンユニットの出力が予め設定された最低レベルであると
き、出力層ニューロンユニットの出力を予め設定された
最高レベルとなすべく設定したもとで、対応する認識カ
テゴリに関しての学習をバックプロパゲーションの手法
により行って、入力・中間層間のシナプス伝達効率の値
及び中間・出力層間のシナプス伝達効率の値を決定し、
学習が行われた複数の単位三層神経回路網について、夫
々における複数個の入力層ニューロンユニットの共通化
及び夫々における複数個の出力層ニューロンユニットの
共通化を行って1個の三層神経回路網を得るものとされ
る。
A second aspect of the method for constructing a neural network according to the present invention is a method for constructing a neural network, comprising the steps of:
One intermediate-layer neuron unit connected to each of the input-layer neuron units and a plurality of output-layer neuron units connected to the intermediate-layer neuron unit are expressed by an inequality of an input / output function f (x) for each: 0 <f
(x) A plurality of unit three-layer neural networks having conditions satisfying ≦ 1 are prepared in correspondence with a plurality of recognition categories, respectively, and for each of the unit three-layer neural networks, the input / intermediate interlayer synaptic transmission efficiency is provided. Is set so that when the inputs to the input layer neuron units are all at the preset minimum level, the output of the intermediate layer neuron unit is set to the preset minimum level.
The initial value of the output inter-layer synaptic transmission efficiency is set so that when the output of the intermediate layer neuron unit is at the preset minimum level, the output of the output layer neuron unit is set to the preset maximum level. Learning about the recognition category to be performed by the method of back propagation, determine the value of the synaptic transmission efficiency between the input and intermediate layers and the value of the synaptic transmission efficiency between the intermediate and output layers,
For a plurality of unit three-layer neural networks on which learning has been performed, a plurality of input layer neuron units in each of them are shared, and a plurality of output layer neuron units in each of them are shared, thereby forming one three-layer neural network. It is supposed to get a net.

【0010】一方、本発明に係る神経回路網の学習方法
は、複数個の入力層ニューロンユニット,入力層ニュー
ロンユニットの夫々に結合された、複数の認識カテゴリ
に夫々対応する複数個の中間層ニューロンユニット、及
び、中間層ニューロンユニットの夫々に結合された複数
個の出力層ニューロンユニットを有し、入力層ニューロ
ンユニット,中間層ニューロンユニット及び出力層ニュ
ーロンユニットの夫々についての入出力関数f(x) が不
等式:0<f(x) ≦1を成立させるものとされた三層神
経回路網について、入力・中間層間シナプス伝達効率の
初期値を、入力層ニューロンユニットに対する入力が全
て予め設定された最低レベルであるとき、中間層ニュー
ロンユニットの出力を予め設定された最低レベルとなす
べく設定するとともに、中間・出力層間シナプス伝達効
率の初期値を、中間層ニューロンユニットの出力が予め
設定された最低レベルであるとき、出力層ニューロンユ
ニットの出力を予め設定された最高レベルとなすべく設
定したもとで、複数の認識カテゴリの夫々に関しての学
習を、複数の認識カテゴリの夫々に対応する1個の中間
層ニューロンユニットに関わるシナプス伝達効率のみを
学習対象としてバックプロパゲーションの手法によって
行うことにより、入力・中間層間シナプス伝達効率の値
及び中間・出力層間シナプス伝達効率の値を決定するも
のとされる。
On the other hand, a method for learning a neural network according to the present invention comprises a plurality of input layer neuron units, and a plurality of intermediate layer neurons respectively connected to a plurality of recognition categories and connected to the input layer neuron units. Unit, and a plurality of output layer neuron units coupled to each of the hidden layer neuron units, and an input / output function f (x) for each of the input layer neuron unit, the hidden layer neuron unit and the output layer neuron unit Is an inequality: For a three-layer neural network that satisfies 0 <f (x) ≦ 1, the initial value of the input / interlayer synaptic transmission efficiency is set to the minimum value in which all inputs to the input layer neuron unit are preset Level, the output of the hidden neuron unit is set to be a preset minimum level. The initial value of the synapse transmission efficiency between the intermediate and output layers is set so that the output of the output layer neuron unit becomes the predetermined maximum level when the output of the intermediate layer neuron unit is the predetermined minimum level. Then, learning about each of the plurality of recognition categories is performed by a back-propagation method using only the synaptic transmission efficiency relating to one intermediate layer neuron unit corresponding to each of the plurality of recognition categories as a learning target. -The value of the intermediate layer synapse transmission efficiency and the value of the intermediate and output layer synapse transmission efficiency are determined.

【0011】さらに、本発明に係る神経回路網の汎化能
力評価方法は、複数個の入力層ニューロンユニット,入
力層ニューロンユニットの夫々に結合された、複数の認
識カテゴリに夫々対応する複数個の中間層ニューロンユ
ニット、及び、中間層ニューロンユニットの夫々に結合
された複数個の出力層ニューロンユニットを有し、入力
層ニューロンユニット,中間層ニューロンユニット及び
出力層ニューロンユニットの夫々についての入出力関数
f(x) が不等式:0<f(x) ≦1を成立させるものとさ
れた三層神経回路網について、入力・中間層間シナプス
伝達効率の初期値を、入力層ニューロンユニットに対す
る入力が全て予め設定された最低レベルであるとき、中
間層ニューロンユニットの出力を予め設定された最低レ
ベルとなすべく設定するとともに、中間・出力層間シナ
プス伝達効率の初期値を、中間層ニューロンユニットの
出力が予め設定された最低レベルであるとき、出力層ニ
ューロンユニットの出力を予め設定された最高レベルと
なすべく設定したもとで、複数の認識カテゴリの夫々に
関しての学習を、複数の認識カテゴリの夫々に対応する
1個の中間層ニューロンユニットに関わるシナプス伝達
効率のみを学習対象としてバックプロパゲーションの手
法によって行うことにより、入力・中間層間シナプス伝
達効率の値、及び、中間・出力層間シナプス伝達効率の
値を決定し、学習成立後における中間層ニューロンユニ
ットの夫々がオン出力状態をとることになる入力層ニュ
ーロンユニットにおけるオン出力とオフ出力との比率を
求め、求められた比率に基づいて三層神経回路網につい
ての汎化能力を判定することを特徴とするものとされ
る。
Further, the method for evaluating the generalization ability of a neural network according to the present invention includes a plurality of input-layer neuron units and a plurality of input-layer neuron units respectively corresponding to a plurality of recognition categories. An intermediate layer neuron unit, and a plurality of output layer neuron units coupled to each of the intermediate layer neuron units, and an input / output function f for each of the input layer neuron unit, the intermediate layer neuron unit, and the output layer neuron unit For a three-layer neural network in which (x) satisfies the inequality: 0 <f (x) ≦ 1, the initial value of the input / interlayer synaptic transmission efficiency is preset for all inputs to the input layer neuron unit. Set the output of the hidden neuron unit to the preset minimum level In addition, the initial value of the intermediate / output interlayer synaptic transmission efficiency is set so that the output of the output layer neuron unit becomes the preset maximum level when the output of the intermediate layer neuron unit is the preset minimum level. Originally, learning about each of a plurality of recognition categories is performed by a back propagation method with only the synaptic transmission efficiency relating to one intermediate layer neuron unit corresponding to each of the plurality of recognition categories as a learning target. , The value of the input / middle layer synaptic transmission efficiency and the value of the intermediate / output layer synapse transmission efficiency are determined, and after the learning is established, each of the intermediate layer neuron units takes the on-output state. The ratio between the ON output and the OFF output is calculated, and the three-layered god is determined based on the calculated ratio. The method is characterized in that a generalization ability of a network is determined.

【0012】[0012]

【作用】上述の本発明に係る神経回路網の構成方法の第
1の態様にあっては、入力・中間層間シナプス伝達効率
の初期値が、入力層ニューロンユニットに対する入力が
全て予め設定された最低レベルであるとき、中間層ニュ
ーロンユニットの出力を予め設定された最低レベルとな
すべく設定され、また、中間・出力層間シナプス伝達効
率の初期値が、1個の中間層ニューロンユニットもしく
は複数個の中間層ニューロンユニットの夫々の出力が予
め設定された最低レベルであるとき、出力層ニューロン
ユニットの出力を予め設定された最高レベルとなすべく
設定される。そして、このような入力・中間層間シナプ
ス伝達効率の初期値及び中間・出力層間シナプス伝達効
率の初期値の設定がなされたもとで、バックプロパゲー
ションの手法による学習を行って、入力・中間層間シナ
プス伝達効率の値、及び、中間・出力層間シナプス伝達
効率の値を決定するものとされる。従って、構成される
神経回路網が、常に、優れた汎化能力を具えた内部構造
を有するものとされる。
In the first aspect of the above-described neural network configuration method according to the present invention, the initial value of the input / intermediate interlayer synaptic transmission efficiency is set to a minimum value at which all inputs to the input layer neuron unit are preset. When the level is at the level, the output of the intermediate layer neuron unit is set to be a predetermined minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is set to one intermediate layer neuron unit or a plurality of intermediate layer neuron units. When the output of each of the layer neuron units is at the preset lowest level, the output of the output layer neuron unit is set to be at the preset maximum level. Then, based on the setting of the initial value of the input / intermediate interlayer synapse transmission efficiency and the initial value of the intermediate / output interlayer synapse transmission efficiency, learning by the back propagation method is performed, and the input / intermediate interlayer synapse transmission efficiency is determined. The value of the efficiency and the value of the intermediate / output interlayer synaptic transmission efficiency are determined. Therefore, the configured neural network always has an internal structure with excellent generalization ability.

【0013】また、本発明に係る神経回路網の構成方法
の第2の態様にあっては、各単位三層神経回路網に関し
て、入力・中間層間シナプス伝達効率の初期値が、入力
層ニューロンユニットに対する入力が全て予め設定され
た最低レベルであるとき、中間層ニューロンユニットの
出力を予め設定された最低レベルとなすべく設定され、
また、中間・出力層間シナプス伝達効率の初期値が、1
個の中間層ニューロンユニットの出力が予め設定された
最低レベルであるとき、出力層ニューロンユニットの出
力を予め設定された最高レベルとなすべく設定されたも
とで、対応する認識カテゴリに関しての学習がバックプ
ロパゲーションの手法により行われて、入力・中間層間
のシナプス伝達効率の値及び中間・出力層間のシナプス
伝達効率の値が決定される。そして、斯かる学習が行わ
れた複数の単位三層神経回路網について、夫々における
複数個の入力層ニューロンユニットの共通化及び夫々に
おける複数個の出力層ニューロンユニットの共通化がな
されて、1個の三層神経回路網が構成される。従って、
常に、優れた汎化能力を具えた内部構造を有するものと
される三層神経回路網が、学習が迅速に行われるもと
で、比較的容易に得られることになる。
In a second aspect of the method for constructing a neural network according to the present invention, for each unit three-layer neural network, the initial value of the input / interlayer synaptic transmission efficiency is set to the input layer neuron unit. Are set to bring the output of the hidden neuron unit to the preset minimum level when all the inputs to are at the preset minimum level,
Also, the initial value of the transmission efficiency between the intermediate and output layers is 1
When the outputs of the intermediate layer neuron units are at the preset lowest level, the learning for the corresponding recognition category is back-proportional under the condition that the output of the output layer neuron unit is set to the preset maximum level. The value of the synapse transmission efficiency between the input and intermediate layers and the value of the synapse transmission efficiency between the intermediate and output layers are determined by the gating method. Then, for a plurality of unit three-layer neural networks on which such learning has been performed, a plurality of input layer neuron units are shared in each of the plurality of output layer neuron units, and a plurality of output layer neuron units in each are shared. Is constructed. Therefore,
A three-layer neural network, which always has an internal structure with excellent generalization ability, can be relatively easily obtained with rapid learning.

【0014】そして、本発明に係る神経回路網の学習方
法によれば、複数個の入力層ニューロンユニット,複数
の認識カテゴリに夫々対応する複数個の中間層ニューロ
ンユニット、及び、複数個の出力層ニューロンユニット
を有した三層神経回路網が、その入力・中間層間シナプ
ス伝達効率の初期値が、入力層ニューロンユニットに対
する入力が全て予め設定された最低レベルであるとき、
中間層ニューロンユニットの出力を予め設定された最低
レベルとなすべく設定されるとともに、その中間・出力
層間シナプス伝達効率の初期値が、中間層ニューロンユ
ニットの出力が予め設定された最低レベルであるとき、
出力層ニューロンユニットの出力を予め設定された最高
レベルとなすべく設定されたもとで、複数の認識カテゴ
リの夫々に関しての学習が、複数の認識カテゴリの夫々
に対応する1個の中間層ニューロンユニットに関わるシ
ナプス伝達効率のみを学習対象としてバックプロパゲー
ションの手法によって行われ、それによって、入力・中
間層間シナプス伝達効率の値及び中間・出力層間シナプ
ス伝達効率の値が決定されるものとされる。従って、学
習後の入力・中間層間シナプス伝達効率の値及び中間・
出力層間シナプス伝達効率の値に基づいて、三層神経回
路網の汎化能力を比較的容易に評価できることになる。
According to the neural network learning method of the present invention, a plurality of input layer neuron units, a plurality of intermediate layer neuron units respectively corresponding to a plurality of recognition categories, and a plurality of output layers are provided. When the three-layer neural network having the neuron unit has an initial value of the input / intermediate interlayer synaptic transmission efficiency, all the inputs to the input layer neuron unit are at the preset minimum level,
When the output of the intermediate layer neuron unit is set to be the preset minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is the preset minimum level of the output of the intermediate layer neuron unit. ,
Under the condition that the output of the output layer neuron unit is set to be a preset highest level, learning for each of the plurality of recognition categories involves one intermediate layer neuron unit corresponding to each of the plurality of recognition categories. The synapse transmission efficiency is learned only by the back propagation method, and the value of the input / middle layer synapse transmission efficiency and the value of the intermediate / output layer synapse transmission efficiency are determined. Therefore, the value of the input / interlayer synaptic transmission efficiency after learning and the
The generalization ability of the three-layer neural network can be relatively easily evaluated based on the value of the output interlayer synaptic transmission efficiency.

【0015】さらに、本発明に係る神経回路網の汎化能
力評価方法によれば、複数個の入力層ニューロンユニッ
ト,複数の認識カテゴリに夫々対応する複数個の中間層
ニューロンユニット、及び、複数個の出力層ニューロン
ユニットを有した三層神経回路網が、その入力・中間層
間シナプス伝達効率の初期値が、入力層ニューロンユニ
ットに対する入力が全て予め設定された最低レベルであ
るとき、中間層ニューロンユニットの出力を予め設定さ
れた最低レベルとなすべく設定されるとともに、その中
間・出力層間シナプス伝達効率の初期値が、中間層ニュ
ーロンユニットの出力が予め設定された最低レベルであ
るとき、出力層ニューロンユニットの出力を予め設定さ
れた最高レベルとなすべく設定されたもとで、複数の認
識カテゴリの夫々に関しての学習が、複数の認識カテゴ
リの夫々に対応する1個の中間層ニューロンユニットに
関わるシナプス伝達効率のみを学習対象としてバックプ
ロパゲーションの手法によって行われ、それによって、
入力・中間層間シナプス伝達効率の値及び中間・出力層
間シナプス伝達効率の値が決定され、さらに、学習成立
後における中間層ニューロンユニットの夫々がオン出力
状態をとることになる入力層ニューロンユニットにおけ
るオン出力とオフ出力との比率が求められて、それに基
づいて汎化能力が判定されるものとなされる。従って、
三層神経回路網の汎化能力の評価が、迅速かつ比較的容
易に行われることになる。
Further, according to the method for evaluating the generalization ability of a neural network according to the present invention, a plurality of input layer neuron units, a plurality of intermediate layer neuron units respectively corresponding to a plurality of recognition categories, and a plurality of When the initial value of the input / intermediate interlayer synaptic transmission efficiency is the minimum level of all the inputs to the input layer neuron unit, the three-layer neural network having the output layer neuron unit The output of the output layer neuron is set when the output of the intermediate layer neuron unit is set to the preset minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is the preset minimum level. Each of the multiple recognition categories, with the unit output set to the highest preset level Learning of regarding, performed by a technique of back propagation plurality of recognition categories each only synaptic transmission efficiency involved in one hidden neuron unit corresponding to a learning target, whereby,
The values of the input and intermediate interlayer synapse transmission efficiencies and the values of the intermediate and output interlayer synapse transmission efficiencies are determined, and furthermore, after learning is completed, each of the intermediate layer neuron units will be in the on-output state. The ratio between the output and the off output is determined, and the generalization ability is determined based on the ratio. Therefore,
Evaluation of the generalization ability of the three-layer neural network will be performed quickly and relatively easily.

【0016】[0016]

【実施例】本発明に係る神経回路網の構成方法の第1の
例に従って、三層神経回路網を構成する場合について以
下に述べる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A case where a three-layer neural network is constructed according to a first example of a neural network constructing method according to the present invention will be described below.

【0017】先ず、図1に示される如くに、64個の入
力層ニューロンユニットSA1〜SA64,各々が入力
層ニューロンユニットSA1〜SA64の夫々に結合さ
れた5個の中間層ニューロンユニットAA1〜AA5、
及び、各々が中間層ニューロンユニットAA1〜AA5
の夫々に結合された16個の出力層ニューロンユニット
RA1〜RA16を配置する。その際、これら入力層ニ
ューロンユニットSA1〜SA64,中間層ニューロン
ユニットAA1〜AA5及び出力層ニューロンユニット
RA1〜RA16の夫々についての入出力関数f(x)
を、不等式:0<f(x) ≦1が成立するものとなす。具
体的には、例えば、 f(x)= 1 /( 1+exp(−x−50)) ・・・・・(1) とし、但し、1 /( 1+exp(−x−50)) > 0.9 である
ときには、f(x)= 0.9、また、1 /( 1+exp(−x−5
0)) < 0.1 であるときには、f(x)= 0.1とする。
First, as shown in FIG. 1, 64 input layer neuron units SA1 to SA64, five intermediate layer neuron units AA1 to AA5 each connected to each of the input layer neuron units SA1 to SA64,
And each of the intermediate layer neuron units AA1 to AA5
And 16 output-layer neuron units RA1 to RA16 connected to each of them. At this time, the input / output function f (x) for each of the input layer neuron units SA1 to SA64, the intermediate layer neuron units AA1 to AA5, and the output layer neuron units RA1 to RA16.
For the inequality: 0 <f (x) ≦ 1 holds. Specifically, for example, f (x) = 1 / (1 + exp (−x−50)) (1), where 1 / (1 + exp (−x−50))> 0.9. Sometimes f (x) = 0.9 and 1 / (1 + exp (−x−5
0)) <0.1, f (x) = 0.1.

【0018】続いて、入力層ニューロンユニットSA1
〜SA64の夫々とそれに結合された中間層ニューロン
ユニットAA1〜AA5のいずれかとの間の入力・中間
層間シナプス伝達効率wij(IH)の初期値WIJ(IH)を、入
力層ニューロンユニットSA1〜SA64に夫々入力さ
れる入力信号DI1〜DI64が全て最低レベル、即
ち、0.1 であるとき、中間層ニューロンユニットAA1
〜AA5の夫々における出力信号を最低レベル、即ち、
0.1 とすべく設定するとともに、中間層ニューロンユニ
ットAA1〜AA5の夫々とそれに結合された出力層ニ
ューロンユニットRA1〜RA16のうちのいずれかと
の間の中間・出力層間シナプス伝達効率wij(H0)の初期
値WIJ(HO)を、中間層ニューロンユニットAA1〜AA
5の夫々の出力信号が全て最低レベル、即ち、0.1 であ
るとき、出力層ニューロンユニットRA1〜RA16の
夫々からの出力信号DO1〜DO16を最高レベル、即
ち、0.9 とすべく設定する。
Subsequently, the input layer neuron unit SA1
To SA64, and the initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency wij (IH) between any one of the intermediate layer neuron units AA1 to AA5 coupled thereto. Are all at the lowest level, that is, 0.1, the intermediate layer neuron unit AA1
To AA5 at the lowest level, that is,
0.1, and the initial value of the intermediate / output interlayer synaptic transmission efficiency wij (H0) between each of the intermediate layer neuron units AA1 to AA5 and any of the output layer neuron units RA1 to RA16 coupled thereto. The value W IJ (HO) is converted to the intermediate layer neuron units AA1 to AA.
When all the output signals of No. 5 are at the lowest level, that is, 0.1, the output signals DO1 to DO16 from the output layer neuron units RA1 to RA16 are set to the highest level, that is, 0.9.

【0019】具体的には、例えば、入力・中間層間シナ
プス伝達効率wij(IH)についての基準値をwo(IH), 中間・出力層間シナプス伝達効率wij(HO)についての基
準値をwo(HO), 各ニューロンユニットのオフ出力をOL= 0.1 , 入力層ニューロンユニットの数をNI(=64), 中間層ニューロンユニットの数をNH=(5), オフ出力状態にある中間層ニューロンユニットの内部ポ
テンシャルをmpL(H),オン出力状態にある出力層ニュ
ーロンユニットの内部ポテンシャルをmpH(O),0〜1
までの乱数を rand ( 0 ≦ rand ≦ 1 ),として、 wo(IH)・OL・NI<mpL(H), WIJ(IH)=wo(IH)− rand ・・・(2) wo(HO)・OL・NH>mpH(O), WIJ(HO)=wo(HO)− rand ・・・(3) という関係が成立するようになす。そして、mpL(H)及
びmpH(O)は、式(1) から算出されて、 mpL(H)=−52.1972 , mpH(O)=−47.8028 , となるので、式(2) 及び式(3) より、 wo(IH)・OL・NI=wo(IH)・ 0.1・64 < mpL(H)=−52.1972 , wo(HO)・OL・NH=wo(HO)・ 0.1・ 5 > mpH(O)=−47.8028 , となる。従って、wo(IH)=−50 ,wo(HO)=−50
となり、これよりして、WIJ(IH)=−50−rand 及び
IJ(HO)=−50−rand が設定される。
Specifically, for example, the reference value for the input / intermediate interlayer synapse transmission efficiency wij (IH) is wo (IH), and the reference value for the intermediate / output interlayer synapse transmission efficiency wij (HO) is wo (HO). ), OFF output of each neuron unit is OL = 0.1, number of input layer neuron units is NI (= 64), number of hidden layer neuron units is NH = (5), inside of hidden layer neuron unit in off output state The potential is mpL (H), the internal potential of the output layer neuron unit in the ON output state is mpH (O), 0 to 1
A random number to rand (0 ≦ rand ≦ 1) , as, wo (IH) · OL · NI <mpL (H), W IJ (IH) = wo (IH) - rand ··· (2) wo (HO ) · OL · NH> mpH ( O), W IJ (HO) = wo (HO) - form as relationship rand ··· (3) is satisfied. Then, mpL (H) and mpH (O) are calculated from equation (1), and mpL (H) = − 52.1972 and mpH (O) = − 47.8028, so that equations (2) and (3) ), Wo (IH) · OL · NI = wo (IH) · 0.1 · 64 <mpL (H) = − 52.1972, wo (HO) · OL · NH = wo (HO) · 0.1 · 5> mpH (O ) = − 47.8028. Therefore, wo (IH) =-50, wo (HO) =-50
From this, W IJ (IH) = − 50−rand and
WIJ (HO) = − 50−rand is set.

【0020】このようにして入力・中間層間シナプス伝
達効率wij(IH)の初期値WIJ(IH)及び中間・出力層間シ
ナプス伝達効率wij(H0)の初期値WIJ(HO)を設定したも
とで、バックプロパゲーションの手法による学習を行
い、それによって入力・中間層間シナプス伝達効率wij
(IH)の値及び中間・出力層間シナプス伝達効率wij(H0)
の値を決定する。バックプロパゲーションの手法による
学習は、例えば、形成された三層神経回路網をアルファ
ベットパターン認識装置として機能するものとして行
い、入力層ニューロンユニットSA1〜SA64に夫々
入力される入力信号DI1〜DI64を、例えば、アル
ファベットパターンをあらわす64ビット構成のデータ
信号とし、それに対して、例えば、16ビットの教師信
号を設定し、また、学習アルゴリズムは、例えば、 δWk-1 i k j (t+l) =−0.2 d k j O k-1 i+ 0.2δWk-1 i k j (t) によってあらわされるものとする。ここで、Wk-1 i k
j は、k-1 層における第i番目のニューロンユニットか
ら k層における第 j番目のニューロンユニットへのシナ
プス伝達効率値であって、δWk-1 i k j (t) 及びδW
k-1 i k j (t+l)は、夫々時刻t 及び t+1におけるW
k-1 i k j の修正量をあらわし、O k-1 i は、k-1 層に
おける第 i番目のニューロンユニットの出力をあらわ
し、d k j は、Wk-1 i k j の修正に用いられる学習信
号をあらわす。
In this way, the initial value W IJ (IH) of the input / middle layer synaptic transmission efficiency wij (IH) and the initial value W IJ (HO) of the intermediate / output layer synapse transmission efficiency wij (H0) are set. Then, learning by the back propagation method is performed, and thereby, the input / intermediate interlayer synaptic transmission efficiency wij
(IH) value and intermediate / output interlayer synaptic transmission efficiency wij (H0)
Determine the value of. The learning by the back propagation method is performed, for example, assuming that the formed three-layer neural network functions as an alphabet pattern recognition device. The input signals DI1 to DI64 input to the input layer neuron units SA1 to SA64 are For example, the data signal is a 64-bit data signal representing an alphabet pattern, and a 16-bit teacher signal is set for the data signal. The learning algorithm is, for example, δW k−1 i k j (t + l) = −0.2 d k j O k−1 i + 0.2δW k−1 i k j (t). Where W k-1 i k
j is the synaptic transmission efficiency value from the i-th neuron unit in the k-1 layer to the j-th neuron unit in the k layer, where δW k-1 i k j (t) and δW
k-1 i k j (t + l) is W at times t 1 and t + 1, respectively.
represents the correction amount of k-1 i k j, O k-1 i represents the output of the i-th neuron units in k-1 layer, d k j is the modification of W k-1 i k j Represents the learning signal used.

【0021】学習に際しては、入力信号DI1〜DI6
4として、図2に示される如くに配列したとき、図3の
Aに示される如くに“0”と“1”とをとって、ノイズ
を含むことなく“A”をあらわす信号群GDI1、及
び、図3のB,C,D及びEの夫々に一部のものが示さ
れる如くに“0”と“1”とをとって、2ビット分のノ
イズを含んで“A”をあらわす9種類の信号群GDI2
〜GDI10を選定する。2ビット分のノイズを含んで
“A”をあらわす9種類の信号群GDI2〜GDI10
の夫々における2ビット分のノイズは、入力信号DI1
〜DI64のうちの乱数に従って選定した二つについ
て、“0”であるべきところを“1”に、あるいは、
“1”であるべきところを“0”に反転することにより
生じさせる。また、教師信号としては、例えば、“A”
をあらわす16ビットのEUC(エンファンスド・ユニ
ックス・コード):0 0 1 0 0 0 1 1 0 1 0 0 0 0 0 1
を用いる。
At the time of learning, the input signals DI1 to DI6
4, when arranged as shown in FIG. 2, a signal group GDI1 which takes "0" and "1" as shown in FIG. 3A and represents "A" without including noise, and 9, "B", "B", "C", "D" and "E" as shown in part, "0" and "1" are taken to represent "A" including two bits of noise. Signal group GDI2
GDI 10 is selected. Nine types of signal groups GDI2 to GDI10 representing "A" including noise of 2 bits
Are the two-bit noise in each of the input signals DI1
Of two to DI64 selected according to random numbers, the place that should be "0" is replaced with "1", or
It is caused by inverting what should be "1" to "0". Further, as the teacher signal, for example, “A”
16-bit EUC (Enhanced Unix Code): 0 0 1 0 0 0 1 1 0 1 0 0 0 0 0 1
Is used.

【0022】信号群GDI1〜GDI10の夫々におい
て、“0”は最低レベル:0.1 をあらわし、“1”は最
高レベル:0.9 をあらわす。そして、学習の収束の判定
については、例えば、全ビット誤差が 0.01 以下となっ
たとき学習が収束したと判定することにより行い、学習
の実施態様は、信号群GDI1〜GDI10のうちの一
つを供給したもとでの学習を収束するまで繰り返し、収
束した後、信号群GDI1〜GDI10のうちの他の一
つを供給したもとでの学習を収束するまで繰り返すよう
にして、信号群GDI1〜GDI10の夫々についての
学習を順次行う。
In each of the signal groups GDI1 to GDI10, "0" represents the lowest level: 0.1, and "1" represents the highest level: 0.9. The convergence of the learning is determined, for example, by determining that the learning has converged when the total bit error is equal to or less than 0.01. In the embodiment of learning, one of the signal groups GDI1 to GDI10 is determined. The learning under supply is repeated until convergence, and after convergence, the learning under supply of another one of the signal groups GDI1 to GDI10 is repeated until convergence. Learning for each of the GDIs 10 is sequentially performed.

【0023】本願の発明者により、上述の如くの入力・
中間層間シナプス伝達効率wij(IH)の初期値WIJ(IH)及
び中間・出力層間シナプス伝達効率wij(H0)の初期値W
IJ(HO)の設定、及び、入力信号DI1〜DI64として
信号群GDI1〜GDI10が用いられたもとでの学習
が実際に行われた。その結果、入力・中間層間シナプス
伝達効率wij(IH)の初期値WIJ(IH)が、図4に示される
如くに決定されるとともに、中間・出力層間シナプス伝
達効率wij(H0)の初期値WIJ(HO)が、図5に示される如
くに設定され、また、入力・中間層間シナプス伝達効率
wij(IH)の値が、図6に示される如くに決定され、ま
た、中間・出力層間シナプス伝達効率wij(H0)の値が、
図7に示される如くに決定された。
According to the input of the present invention,
The initial value W IJ (IH) of the intermediate layer synaptic transmission efficiency wij (IH) and the initial value W of the intermediate / output layer synapse transmission efficiency wij (H0)
The setting of IJ (HO) and the learning using the signal groups GDI1 to GDI10 as the input signals DI1 to DI64 were actually performed. As a result, the initial value W IJ (IH) of the input / middle layer synaptic transmission efficiency wij (IH) is determined as shown in FIG. W IJ (HO) is set as shown in FIG. 5, the value of the synapse transmission efficiency wij (IH) between the input and intermediate layers is determined as shown in FIG. The value of synaptic transmission efficiency wij (H0) is
The determination was made as shown in FIG.

【0024】図4において、iの1〜64は夫々入力層
ニューロンユニットSA1〜SA64をあらわし、jの
1〜5は夫々中間層ニューロンユニットAA1〜AA5
をあらわす。また、図5において、iの1〜5は夫々中
間層ニューロンユニットAA1〜AA5をあらわし、j
の1〜16は夫々出力層ニューロンユニットRA1〜R
A16をあらわす。即ち、例えば、入力層ニューロンユ
ニットSA1と中間層ニューロンユニットAA1との間
の入力・中間層間シナプス伝達効率wij(IH)の初期値W
IJ(IH)は、図4におけるi=1,j=1によってあらわ
され、−50.51であり、また、中間層ニューロンユニッ
トAA5と出力層ニューロンユニットRA16との間の
中間・出力層間シナプス伝達効率wij(HO)の初期値WIJ
(HO)は、図5におけるi=5,j=16によってあらわ
され、−50.41 である。
In FIG. 4, 1 to 64 of i represent input layer neuron units SA1 to SA64, respectively, and 1 to 5 of j represent intermediate layer neuron units AA1 to AA5, respectively.
To represent. In FIG. 5, 1 to 5 of i represent intermediate layer neuron units AA1 to AA5, respectively, and j
Are output layer neuron units RA1 to R, respectively.
Represents A16. That is, for example, the initial value W of the input / interlayer synaptic transmission efficiency wij (IH) between the input layer neuron unit SA1 and the intermediate layer neuron unit AA1.
IJ (IH) is represented by i = 1, j = 1 in FIG. 4 and is -50.51, and the intermediate / output interlayer synapse transmission efficiency wij between the intermediate layer neuron unit AA5 and the output layer neuron unit RA16. (HO) initial value W IJ
(HO) is represented by i = 5, j = 16 in FIG. 5 and is -50.41.

【0025】さらに、図6において、iの1〜64は夫
々入力層ニューロンユニットSA1〜SA64をあらわ
し、jの1〜5は夫々中間層ニューロンユニットAA1
〜AA5をあらわす。また、図7において、iの1〜5
は夫々中間層ニューロンユニットAA1〜AA5をあら
わし、jの1〜16は夫々出力層ニューロンユニットR
A1〜RA16をあらわす。即ち、例えば、入力層ニュ
ーロンユニットSA1と中間層ニューロンユニットAA
1との間の入力・中間層間シナプス伝達効率wij(IH)の
値は、図6におけるi=1,j=1によってあらわさ
れ、−95.17 であり、また、中間層ニューロンユニット
AA5と出力層ニューロンユニットRA16との間の中
間・出力層間シナプス伝達効率wij(HO)の値は、図7に
おけるi=5,j=16によってあらわされ、−31.77
である。
In FIG. 6, 1 to 64 of i represent input layer neuron units SA1 to SA64, respectively, and 1 to 5 of j represent intermediate layer neuron units AA1 respectively.
~ AA5. Further, in FIG.
Denote intermediate layer neuron units AA1 to AA5, respectively, and 1 to 16 of j denote output layer neuron units R, respectively.
A1 to RA16 are shown. That is, for example, the input layer neuron unit SA1 and the intermediate layer neuron unit AA
The value of the input / interlayer synaptic transmission efficiency wij (IH) between 1 and −1 is expressed by i = 1 and j = 1 in FIG. 6 and is −95.17, and the intermediate layer neuron unit AA5 and the output layer neuron The value of the intermediate / output inter-layer synaptic transmission efficiency wij (HO) with the unit RA16 is represented by i = 5, j = 16 in FIG.
It is.

【0026】入力層ニューロンユニットSA1〜SA6
4,中間層ニューロンユニットAA1〜AA5及び出力
層ニューロンユニットRA1〜RA16を有し、入力・
中間層間シナプス伝達効率wij(IH)の値が、図6に示さ
れる如くに決定されるとともに、中間・出力層間シナプ
ス伝達効率wij(H0)の値が、図7に示される如くに決定
された、本発明に係る神経回路網の構成方法の第1の例
に従って得られた三層神経回路網に対しては、本願の発
明者により、汎化能力テストが行われた。斯かる汎化能
力テストは、入力信号DI1〜DI64として、図2に
示される如くに配列したとき、図8のA及びBの夫々に
一部のものが示される如くに“0”と“1”とをとっ
て、2ビット分のノイズを含んで“A”をあらわす10
種類の信号群GDI11〜GDI20、及び、図9のA
及びBの夫々に一部のものが示される如くに“0”と
“1”とをとって、ノイズを含むことなく“B”〜
“Z”を夫々あらわす25種類の信号群GDI21〜G
DI45が選定され、これらの信号群GDI11〜GD
I45の夫々が入力層ニューロンユニットSA1〜SA
64に供給されるもとで、出力層ニューロンユニットR
A1〜RA16から得られる出力信号DO1〜DO16
が検定されることにより行われた。なお、信号群GDI
21〜GDI45の夫々において、“0”は最低レベ
ル:0.1 をあらわし、“1”は最高レベル:0.9 をあら
わす。
Input layer neuron units SA1 to SA6
4, having intermediate layer neuron units AA1 to AA5 and output layer neuron units RA1 to RA16;
The value of the intermediate interlayer synaptic transmission efficiency wij (IH) was determined as shown in FIG. 6, and the value of the intermediate / output interlayer synapse transmission efficiency wij (H0) was determined as shown in FIG. The inventors of the present application performed a generalization ability test on the three-layer neural network obtained according to the first example of the method for constructing a neural network according to the present invention. Such a generalization ability test shows that when the input signals DI1 to DI64 are arranged as shown in FIG. 2, "0" and "1" as shown partially in FIGS. 8A and 8B respectively. To represent "A" including noise of 2 bits.
Type signal groups GDI11 to GDI20 and A in FIG.
And B respectively take on "0" and "1" as shown in part, and "B" to "B"
25 signal groups GDI21-G each representing "Z"
DI45 is selected and these signal groups GDI11 to GD
Each of I45 is an input layer neuron unit SA1 to SA
64, the output layer neuron unit R
Output signals DO1 to DO16 obtained from A1 to RA16
Was tested. The signal group GDI
In each of 21 to GDI 45, "0" represents the lowest level: 0.1, and "1" represents the highest level: 0.9.

【0027】斯かる汎化能力テストの結果、2ビット分
のノイズを含んで“A”をあらわす10種類の信号群G
DI11〜GDI20、及び、ノイズを含むことなく
“B”〜“Z”を夫々あらわす25種類の信号群GDI
21〜GDI45の全てが正しく認識され、特に、ノイ
ズを含むことなく“B”〜“Z”を夫々あらわす25種
類の信号群GDI21〜GDI45の夫々が入力される
もとでは、出力信号DO1〜DO16が全て最高レベ
ル:0.9をとる状態が得られた。これよりして、上述の本
発明に係る神経回路網の構成方法の第1の例に従って得
られる三層神経回路網が高い汎化能力を具えるものとな
ることが、実験的に確認された。
As a result of the generalization ability test, ten kinds of signal groups G representing "A" including noise of 2 bits
DI11 to GDI20, and 25 types of signal groups GDI each representing “B” to “Z” without including noise
21 to GDI 45 are correctly recognized, and in particular, the output signals DO1 to DO16 are input under the input of each of the 25 types of signal groups GDI21 to GDI45 representing “B” to “Z” without noise. All achieved the highest level: 0.9. Thus, it has been experimentally confirmed that the three-layer neural network obtained according to the above-described first example of the method for configuring a neural network according to the present invention has high generalization ability. .

【0028】本発明に係る神経回路網の構成方法の第2
の例に従って、三層神経回路網を構成する場合には、例
えば、図1に示される如くに、64個の入力層ニューロ
ンユニットSA1〜SA64,各々が入力層ニューロン
ユニットSA1〜SA64の夫々に結合された5個の中
間層ニューロンユニットAA1〜AA5、及び、各々が
中間層ニューロンユニットAA1〜AA5の夫々に結合
された16個の出力層ニューロンユニットRA1〜RA
16を配置し、入力層ニューロンユニットSA1〜SA
64,中間層ニューロンユニットAA1〜AA5及び出
力層ニューロンユニットRA1〜RA16の夫々につい
ての入出力関数f(x) を、不等式:0<f(x) ≦1が成
立するものとなしたもとで、入力・中間層間シナプス伝
達効率wij(IH)の初期値WIJ(IH)を、入力層ニューロン
ユニットSA1〜SA64に夫々入力される入力信号D
I1〜DI64が全て最低レベル:0.1 であるとき、中
間層ニューロンユニットAA1〜AA5の夫々における
出力信号を最低レベル:0.1 とすべく設定するととも
に、中間・出力層間シナプス伝達効率wij(H0)の初期値
IJ(HO)を、中間層ニューロンユニットAA1〜AA5
の夫々の出力信号が全て最低レベル:0.1 であるとき、
出力層ニューロンユニットRA1〜RA16の夫々から
の出力信号DO1〜DO16を最高レベル:0.9 とすべ
く設定するにあたり、具体的に、 WIJ(IH)=−40− 2・( rand−0.5 ) ,WIJ(HO)=−40
− 2・( rand−0.5)と設定する。
The second embodiment of the method for constructing a neural network according to the present invention.
In the case of forming a three-layer neural network according to the example of FIG. 1, for example, as shown in FIG. 1, 64 input layer neuron units SA1 to SA64 are connected to each of the input layer neuron units SA1 to SA64. Five intermediate layer neuron units AA1 to AA5 and 16 output layer neuron units RA1 to RA each connected to each of the intermediate layer neuron units AA1 to AA5.
16 and the input layer neuron units SA1 to SA
64, the input / output function f (x) for each of the intermediate layer neuron units AA1 to AA5 and the output layer neuron units RA1 to RA16 is based on the inequality: 0 <f (x) ≦ 1. , The initial value W IJ (IH) of the synaptic transmission efficiency w ij (IH) between the input and intermediate layers is converted to the input signal D input to the input layer neuron units SA1 to SA64, respectively.
When I1 to DI64 are all at the lowest level: 0.1, the output signals in each of the intermediate layer neuron units AA1 to AA5 are set to the lowest level: 0.1, and the initial synapse transmission efficiency wij (H0) between the intermediate and output layers is set. The value W IJ (HO) is converted to the hidden neuron units AA1 to AA5.
When all the output signals are at the lowest level: 0.1,
In setting the output signals DO1 to DO16 from the output layer neuron units RA1 to RA16 to have the highest level: 0.9, specifically, W IJ (IH) = − 40−2 · (rand−0.5), W IJ (HO) = -40
− Set to 2 · (rand−0.5).

【0029】そして、上述の本発明に係る神経回路網の
構成方法の一例に従って三層神経回路網を構成する場合
と同様にして、バックプロパゲーションの手法による学
習を、入力信号DI1〜DI64として、図2に示され
る如くに配列したとき、図3のAに示される如くに
“0”と“1”とをとって、ノイズを含むことなく
“A”をあらわす信号群GDI1、及び、図3のB,
C,D及びEの夫々に一部のものが示される如くに
“0”と“1”とをとって、2ビット分のノイズを含ん
で“A”をあらわす9種類の信号群GDI2〜GDI1
0の夫々を供給するもとで行い、それによって入力・中
間層間シナプス伝達効率wij(IH)の値及び中間・出力層
間シナプス伝達効率wij(H0)の値を決定する。
Then, in the same manner as in the case of forming the three-layer neural network according to the above-described example of the neural network configuring method according to the present invention, learning by the back propagation method is performed as the input signals DI1 to DI64. When arranged as shown in FIG. 2, a signal group GDI1 which takes "0" and "1" as shown in FIG. 3A and represents "A" without including noise, and FIG. B,
Nine types of signal groups GDI2 to GDI1 which take "0" and "1" as shown by C, D and E, respectively, and represent "A" including noise of 2 bits
0 is supplied, thereby determining the value of the synaptic transmission efficiency wij (IH) between the input and intermediate layers and the value of the synaptic transmission efficiency wij (H0) between the intermediate and output layers.

【0030】本願の発明者により、斯かる如くの本発明
に係る神経回路網の構成方法の第2の例に従っての、入
力・中間層間シナプス伝達効率wij(IH)の初期値WIJ(I
H)及び中間・出力層間シナプス伝達効率wij(H0)の初期
値WIJ(HO)の設定、及び、入力信号DI1〜DI64と
して信号群GDI1〜GDI10が用いられたもとでの
学習が、実際に行われた。その結果、入力・中間層間シ
ナプス伝達効率wij(IH)の初期値WIJ(IH)が、図10に
示される如くに決定されるとともに、中間・出力層間シ
ナプス伝達効率wij(H0)の初期値WIJ(HO)が、図11に
示される如くに設定され、また、学習後の入力・中間層
間シナプス伝達効率wij(IH)の値が、図12に示される
如くに決定されるとともに、学習後の中間・出力層間シ
ナプス伝達効率wij(H0)の値が、図13に示される如く
に決定された。
According to the second example of the method for constructing a neural network according to the present invention, an initial value W IJ ( IJ ) of the input / interlayer synaptic transmission efficiency wij (IH) is set by the inventor of the present application.
H) and the initial value W IJ (HO) of the intermediate and output interlayer synaptic transmission efficiency wij (H0), and learning using the signal groups GDI1 to GDI10 as the input signals DI1 to DI64 is actually performed. I was As a result, the initial value W IJ (IH) of the input / intermediate interlayer synaptic transmission efficiency wij (IH) is determined as shown in FIG. 10 and the initial value of the intermediate / output interlayer synapse transmission efficiency wij (H0) is determined. W IJ (HO) is set as shown in FIG. 11, and the value of the input / intermediate interlayer synaptic transmission efficiency w ij (IH) after learning is determined as shown in FIG. The value of the later intermediate / output interlayer synapse transmission efficiency wij (H0) was determined as shown in FIG.

【0031】図10,11,12及び13におけるi及
びjは、図4,5,6及び7におけるi及びjと同様の
ものであり、例えば、入力層ニューロンユニットSA1
と中間層ニューロンユニットAA1との間の入力・中間
層間シナプス伝達効率wij(IH)の初期値WIJ(IH)は、図
10におけるi=1,j=1によってあらわされ、−4
0.03 であり、また、中間層ニューロンユニットAA5
と出力層ニューロンユニットRA16との間の中間・出
力層間シナプス伝達効率wij(HO)の初期値WIJ(HO)は、
図11におけるi=5,j=16によってあらわされ、
−39.82 である。さらに、学習後における、例えば、入
力層ニューロンユニットSA1と中間層ニューロンユニ
ットAA1との間の入力・中間層間シナプス伝達効率w
ij(IH)の値は、図12におけるi=1,j=1によって
あらわされ、−34.89 であり、また、中間層ニューロン
ユニットAA5と出力層ニューロンユニットRA16と
の間の中間・出力層間シナプス伝達効率wij(HO)の値
は、図13におけるi=5 ,j=16によってあらわさ
れ、−35.74 である。
10, 11, 12, and 13 are the same as i and j in FIGS. 4, 5, 6, and 7, and for example, the input layer neuron unit SA1
The initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency wij (IH) between the input and intermediate layer neuron unit AA1 is represented by i = 1 and j = 1 in FIG.
0.03 and the intermediate layer neuron unit AA5
The initial value W IJ (HO) of the intermediate and output interlayer synaptic transmission efficiency wij (HO) between the output and the output layer neuron unit RA16 is
It is represented by i = 5, j = 16 in FIG.
−39.82. Further, after learning, for example, the input / intermediate interlayer synapse transmission efficiency w between the input layer neuron unit SA1 and the intermediate layer neuron unit AA1
The value of ij (IH) is represented by i = 1, j = 1 in FIG. 12 and is −34.89, and the intermediate / output interlayer synapse transmission between the intermediate layer neuron unit AA5 and the output layer neuron unit RA16. The value of the efficiency wij (HO) is represented by i = 5 and j = 16 in FIG. 13 and is -35.74.

【0032】入力層ニューロンユニットSA1〜SA6
4,中間層ニューロンユニットAA1〜AA5及び出力
層ニューロンユニットRA1〜RA16を有し、入力・
中間層間シナプス伝達効率wij(IH)の値が、図12に示
される如くに決定されるとともに、中間・出力層間シナ
プス伝達効率wij(H0)の値が、図13に示される如くに
決定された、本発明に係る神経回路網の構成方法の第2
の例に従って得られた三層神経回路網に対しても、本願
の発明者により、汎化能力テストが行われた。斯かる汎
化能力テストも、入力信号DI1〜DI64として、図
2に示される如くに配列したとき、図8のA及びBの夫
々に一部のものが示される如くの10種類の信号群GD
I11〜GDI20、及び、図9のA及びBの夫々に一
部のものが示される如くの25種類の信号群GDI21
〜GDI45の夫々が入力層ニューロンユニットSA1
〜SA64に供給されるもとで、出力層ニューロンユニ
ットRA1〜RA16から得られる出力信号DO1〜D
O16が検定されることにより行われた。その結果、1
0種類の信号群GDI11〜GDI20、及び、25種
類の信号群GDI21〜GDI45の全てが正しく認識
され、特に、25種類の信号群GDI21〜GDI45
の夫々が入力されるもとでは、出力信号DO1〜DO1
6が全て最高レベル:0.9をとる状態が得られた。これよ
りして、上述の本発明に係る神経回路網の構成方法の第
2の例に従って得られる三層神経回路網も高い汎化能力
を具えるものとなることが、実験的に確認された。
Input layer neuron units SA1 to SA6
4, having intermediate layer neuron units AA1 to AA5 and output layer neuron units RA1 to RA16;
The value of the intermediate interlayer synaptic transmission efficiency wij (IH) was determined as shown in FIG. 12, and the value of the intermediate / output interlayer synapse transmission efficiency wij (H0) was determined as shown in FIG. Second, a method for configuring a neural network according to the present invention
The generalization ability test was also performed by the inventors of the present application on the three-layer neural network obtained according to the example of (1). In such a generalization ability test, when the input signals DI1 to DI64 are arranged as shown in FIG. 2, ten kinds of signal groups GD as shown in FIG.
I11 to GDI20, and 25 types of signal groups GDI21 as shown partially in each of FIGS.
To GDI 45 are input layer neuron units SA1
Output signals DO1 to DO16 obtained from the output layer neuron units RA1 to RA16 while being supplied to
This was done by assaying O16. As a result, 1
All of the 0 types of signal groups GDI11 to GDI20 and the 25 types of signal groups GDI21 to GDI45 are correctly recognized, and in particular, the 25 types of signal groups GDI21 to GDI45.
Are input, the output signals DO1 to DO1
6 were all at the highest level: 0.9. Thus, it was experimentally confirmed that the three-layer neural network obtained according to the above-described second example of the neural network configuration method according to the present invention also has high generalization ability. .

【0033】本発明に係る神経回路網の構成方法の第3
の例に従って、三層神経回路網を構成する場合には、例
えば、図1に示される如くに、64個の入力層ニューロ
ンユニットSA1〜SA64,各々が入力層ニューロン
ユニットSA1〜SA64の夫々に結合された5個の中
間層ニューロンユニットAA1〜AA5、及び、各々が
中間層ニューロンユニットAA1〜AA5の夫々に結合
された16個の出力層ニューロンユニットRA1〜RA
16を配置し、入力層ニューロンユニットSA1〜SA
64,中間層ニューロンユニットAA1〜AA5及び出
力層ニューロンユニットRA1〜RA16の夫々につい
ての入出力関数f(x) を、不等式:0<f(x) ≦1が成
立するものとなしたもとで、入力・中間層間シナプス伝
達効率wij(IH)の初期値WIJ(IH)を、入力層ニューロン
ユニットSA1〜SA64に夫々入力される入力信号D
I1〜DI64が全て最低レベル:0.1 であるとき、中
間層ニューロンユニットAA1〜AA5の夫々における
出力信号を最低レベル:0.1 とすべく設定するととも
に、中間・出力層間シナプス伝達効率wij(H0)の初期値
IJ(HO)を、中間層ニューロンユニットAA1〜AA5
の夫々の出力信号が全て最低レベル:0.1 であるとき、
出力層ニューロンユニットRA1〜RA16の夫々から
の出力信号DO1〜DO16を最高レベル:0.9 とすべ
く設定するにあたり、具体的に、 WIJ(IH)=−30−rand ,WIJ(HO)=−20− 2・( rand
−0.5)と設定する。
The third method for constructing a neural network according to the present invention.
In the case of forming a three-layer neural network according to the example of FIG. 1, for example, as shown in FIG. 1, 64 input layer neuron units SA1 to SA64 are connected to each of the input layer neuron units SA1 to SA64. Five intermediate layer neuron units AA1 to AA5 and 16 output layer neuron units RA1 to RA each connected to each of the intermediate layer neuron units AA1 to AA5.
16 and the input layer neuron units SA1 to SA
64, the input / output function f (x) for each of the intermediate layer neuron units AA1 to AA5 and the output layer neuron units RA1 to RA16 is based on the inequality: 0 <f (x) ≦ 1. , The initial value W IJ (IH) of the synaptic transmission efficiency w ij (IH) between the input and intermediate layers is converted to the input signal D input to the input layer neuron units SA1 to SA64, respectively.
When I1 to DI64 are all at the lowest level: 0.1, the output signals in each of the intermediate layer neuron units AA1 to AA5 are set to the lowest level: 0.1, and the initial synapse transmission efficiency wij (H0) between the intermediate and output layers is set. The value W IJ (HO) is converted to the hidden neuron units AA1 to AA5.
When all the output signals are at the lowest level: 0.1,
In setting the output signals DO1 to DO16 from the output layer neuron units RA1 to RA16 to have the highest level: 0.9, specifically, W IJ (IH) = − 30−rand, W IJ (HO) = − 20−2 ・ (rand
−0.5) is set.

【0034】そして、上述の本発明に係る神経回路網の
構成方法の一例に従って三層神経回路網を構成する場合
と同様にして、バックプロパゲーションの手法による学
習を、入力信号DI1〜DI64として、図2に示され
る如くに配列したとき、図3のAに示される如くに
“0”と“1”とをとって、ノイズを含むことなく
“A”をあらわす信号群GDI1、及び、図3のB,
C,D及びEの夫々に一部のものが示される如くに
“0”と“1”とをとって、2ビット分のノイズを含ん
で“A”をあらわす9種類の信号群GDI2〜GDI1
0の夫々を供給するもとで行い、それによって入力・中
間層間シナプス伝達効率wij(IH)の値及び中間・出力層
間シナプス伝達効率wij(H0)の値を決定する。
Then, learning by the back propagation method is performed as input signals DI1 to DI64 in the same manner as in the case of configuring a three-layer neural network according to the above-described example of the neural network configuring method according to the present invention. When arranged as shown in FIG. 2, a signal group GDI1 representing "A" without noise by taking "0" and "1" as shown in FIG. 3A, and FIG. B,
Nine types of signal groups GDI2 to GDI1 which take "0" and "1" as shown by C, D and E, respectively, and represent "A" including noise of 2 bits
0 is supplied, thereby determining the value of the synaptic transmission efficiency wij (IH) between the input and intermediate layers and the value of the synaptic transmission efficiency wij (H0) between the intermediate and output layers.

【0035】本願の発明者により、斯かる如くの本発明
に係る神経回路網の構成方法の第3の例に従っての、入
力・中間層間シナプス伝達効率wij(IH)の初期値WIJ(I
H)及び中間・出力層間シナプス伝達効率wij(H0)の初期
値WIJ(HO)の設定、及び、入力信号DI1〜DI64と
して信号群GDI1〜GDI10が用いられたもとでの
学習が、実際に行われた。その結果、入力・中間層間シ
ナプス伝達効率wij(IH)の初期値WIJ(IH)が、図14に
示される如くに決定されるとともに、中間・出力層間シ
ナプス伝達効率wij(H0)の初期値WIJ(HO)が、図15に
示される如くに設定され、また、学習後の入力・中間層
間シナプス伝達効率wij(IH)の値が、図16に示される
如くに決定されるとともに、学習後の中間・出力層間シ
ナプス伝達効率wij(H0)の値が、図17に示される如く
に決定された。
According to the third example of the method for constructing the neural network according to the present invention, the inventor of the present application has provided an initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency wij (IH).
H) and the initial value W IJ (HO) of the intermediate and output interlayer synaptic transmission efficiency wij (H0), and learning using the signal groups GDI1 to GDI10 as the input signals DI1 to DI64 is actually performed. I was As a result, the initial value W IJ (IH) of the input / intermediate interlayer synapse transmission efficiency wij (IH) is determined as shown in FIG. 14, and the initial value of the intermediate / output interlayer synapse transmission efficiency wij (H0) is obtained. W IJ (HO) is set as shown in FIG. 15, and the value of the input / intermediate interlayer synaptic transmission efficiency w ij (IH) after learning is determined as shown in FIG. The value of the later intermediate / output interlayer synapse transmission efficiency wij (H0) was determined as shown in FIG.

【0036】図14,15,16及び17におけるi及
びjは、図4,5,6及び7におけるi及びjと同様の
ものであり、例えば、入力層ニューロンユニットSA1
と中間層ニューロンユニットAA1との間の入力・中間
層間シナプス伝達効率wij(IH)の初期値WIJ(IH)は、図
14におけるi=1,j=1によってあらわされ、−3
0.51 であり、また、中間層ニューロンユニットAA5
と出力層ニューロンユニットRA16との間の中間・出
力層間シナプス伝達効率wij(HO)の初期値WIJ(HO)は、
図15におけるi=5,j=16によってあらわされ、
−19.82 である。さらに、学習後における、例えば、入
力層ニューロンユニットSA1と中間層ニューロンユニ
ットAA1との間の入力・中間層間シナプス伝達効率w
ij(IH)の値は、図16におけるi=1,j=1によって
あらわされ、−25.10 であり、また、中間層ニューロン
ユニットAA5と出力層ニューロンユニットRA16と
の間の中間・出力層間シナプス伝達効率wij(HO)の値
は、図17におけるi=5,j=16によってあらわさ
れ、−16.46 である。
14, 15, 16 and 17 are the same as i and j in FIGS. 4, 5, 6 and 7, and for example, the input layer neuron unit SA1
The initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency wij (IH) between the input and intermediate layer neuron unit AA1 is represented by i = 1 and j = 1 in FIG.
0.51 and the intermediate layer neuron unit AA5
The initial value W IJ (HO) of the intermediate and output interlayer synaptic transmission efficiency wij (HO) between the output and the output layer neuron unit RA16 is
It is represented by i = 5, j = 16 in FIG.
−19.82. Further, after learning, for example, the input / intermediate interlayer synapse transmission efficiency w between the input layer neuron unit SA1 and the intermediate layer neuron unit AA1
The value of ij (IH) is represented by i = 1, j = 1 in FIG. 16 and is -25.10, and the intermediate / output interlayer synapse transmission between the intermediate layer neuron unit AA5 and the output layer neuron unit RA16. The value of the efficiency wij (HO) is represented by i = 5, j = 16 in FIG. 17, and is -16.46.

【0037】入力層ニューロンユニットSA1〜SA6
4,中間層ニューロンユニットAA1〜AA5及び出力
層ニューロンユニットRA1〜RA16を有し、入力・
中間層間シナプス伝達効率wij(IH)の値が、図16に示
される如くに決定されるとともに、中間・出力層間シナ
プス伝達効率wij(H0)の値が、図17に示される如くに
決定された、本発明に係る神経回路網の構成方法の第3
の例に従って得られた三層神経回路網に対しても、本願
の発明者により、汎化能力テストが行われた。斯かる汎
化能力テストも、入力信号DI1〜DI64として、図
2に示される如くに配列したとき、図8のA及びBの夫
々に一部のものが示される如くの10種類の信号群GD
I11〜GDI20、及び、図9のA及びBの夫々に一
部のものが示される如くの25種類の信号群GDI21
〜GDI45の夫々が入力層ニューロンユニットSA1
〜SA64に供給されるもとで、出力層ニューロンユニ
ットRA1〜RA16から得られる出力信号DO1〜D
O16が検定されることにより行われた。その結果、1
0種類の信号群GDI11〜GDI20、及び、25種
類の信号群GDI21〜GDI45の全てが正しく認識
され、特に、25種類の信号群GDI21〜GDI45
の夫々が入力されるもとでは、出力信号DO1〜DO1
6が全て最高レベル:0.9をとる状態が得られた。これよ
りして、上述の本発明に係る神経回路網の構成方法の第
3の例に従って得られる三層神経回路網も高い汎化能力
を具えるものとなることが、実験的に確認された。
Input layer neuron units SA1 to SA6
4, having intermediate layer neuron units AA1 to AA5 and output layer neuron units RA1 to RA16;
The value of the intermediate interlayer synapse transmission efficiency wij (IH) was determined as shown in FIG. 16, and the value of the intermediate / output interlayer synapse transmission efficiency wij (H0) was determined as shown in FIG. Third, a method for configuring a neural network according to the present invention
The generalization ability test was also performed by the inventors of the present application on the three-layer neural network obtained according to the example of (1). In such a generalization ability test, when the input signals DI1 to DI64 are arranged as shown in FIG. 2, ten kinds of signal groups GD as shown in FIG.
I11 to GDI20, and 25 types of signal groups GDI21 as shown partially in each of FIGS.
To GDI 45 are input layer neuron units SA1
Output signals DO1 to DO16 obtained from the output layer neuron units RA1 to RA16 while being supplied to
This was done by assaying O16. As a result, 1
All of the 0 types of signal groups GDI11 to GDI20 and the 25 types of signal groups GDI21 to GDI45 are correctly recognized, and in particular, the 25 types of signal groups GDI21 to GDI45.
Are input, the output signals DO1 to DO1
6 were all at the highest level: 0.9. Thus, it was experimentally confirmed that the three-layer neural network obtained according to the above-described third example of the method for configuring a neural network according to the present invention also has high generalization ability. .

【0038】次に、本発明に係る神経回路網の構成方法
の第4の例に従って、三層神経回路網を構成する場合に
ついて以下に述べる。斯かる第4の例に従って構成され
る三層神経回路網は、入力信号があらわす内容を識別す
る機能を具えるものとされ、例えば、アルファベット2
6文字の夫々等とされる認識カテゴリの識別を行うもの
とされる。
Next, a case where a three-layer neural network is configured according to the fourth example of the method for configuring a neural network according to the present invention will be described below. The three-layer neural network configured according to the fourth example has a function of identifying the content represented by the input signal.
Recognition categories, such as six characters, are identified.

【0039】斯かる第4の例に従って三層神経回路網を
構成するにあたっては、先ず、複数個の入力層ニューロ
ンユニット,それらの夫々に結合された1個の中間層ニ
ューロンユニット、及び、各々が中間層ニューロンユニ
ットに結合された複数個の出力層ニューロンユニットを
配置してなる単位三層神経回路網を、認識カテゴリの数
に対応する個数だけ用意する。具体的には、例えば、ア
ルファベット26文字の夫々を26個の認識カテゴリと
したもとで、図18に示される如くに、64個の入力層
ニューロンユニットSBa1〜SBa64,入力層ニュ
ーロンユニットSBa1〜SBa64の夫々に結合され
た1個の中間層ニューロンユニットAB1、及び、各々
が中間層ニューロンユニットAB1に結合された16個
の出力層ニューロンユニットRBa1〜RBa16を配
置してなる単位三層神経回路網CC1,64個の入力層
ニューロンユニットSBb1〜SBb64,入力層ニュ
ーロンユニットSBb1〜SBb64の夫々に結合され
た1個の中間層ニューロンユニットAB2、及び、各々
が中間層ニューロンユニットAB2に結合された16個
の出力層ニューロンユニットRBb1〜RBb16を配
置して成る単位三層神経回路網CC2,・・・・・,6
4個の入力層ニューロンユニットSBz1〜SBz6
4,入力層ニューロンユニットSBz1〜SBz64の
夫々に結合された1個の中間層ニューロンユニットAB
26、及び、各々が中間層ニューロンユニットAB26
に結合された16個の出力層ニューロンユニットRBz
1〜RBz16を配置して成る単位三層神経回路網CC
26の合計26個の単位三層神経回路網を、26個の認
識カテゴリであるアルファベット26文字に夫々対応さ
せて用意する。
In constructing a three-layer neural network according to the fourth example, first, a plurality of input layer neuron units, one intermediate layer neuron unit connected to each of them, and each of the input layer neuron units, A unit three-layer neural network in which a plurality of output layer neuron units connected to the intermediate layer neuron unit are arranged is prepared in a number corresponding to the number of recognition categories. Specifically, for example, based on each of the 26 letters of the alphabet as 26 recognition categories, as shown in FIG. 18, 64 input layer neuron units SBa1 to SBa64 and 64 input layer neuron units SBa1 to SBa64. , And a unit three-layer neural network CC1 in which 16 output-layer neuron units RBa1 to RBa16 each connected to the intermediate-layer neuron unit AB1 are arranged. , 64 input layer neuron units SBb1 to SBb64, one intermediate layer neuron unit AB2 coupled to each of the input layer neuron units SBb1 to SBb64, and 16 intermediate layer neuron units AB2 each coupled to the intermediate layer neuron unit AB2 Output layer neuron units RBb1 to RBb1 Unit three layer neural network CC2 formed by placing, ..., 6
Four input layer neuron units SBz1 to SBz6
4, one intermediate layer neuron unit AB connected to each of the input layer neuron units SBz1 to SBz64
26 and each of the intermediate layer neuron units AB26
Output layer neuron units RBz coupled to
1 to RBz16 arranged unit three-layer neural network CC
A total of 26 unit trilayer neural networks of 26 are prepared corresponding to the 26 letters of the alphabet, which is the 26 recognition categories, respectively.

【0040】その際、単位三層神経回路網CC1〜CC
26の夫々における入力層ニューロンユニット,中間層
ニューロンユニット及び出力層ニューロンユニットの各
々についての入出力関数f(x) を、不等式:0<f(x)
≦1が成立するものとなす。具体的には、例えば、前述
の式(1) によりあらわされる如くに、 f(x)= 1 /( 1+exp(−x−50)) とし、但し、1 /( 1+exp(−x−50)) > 0.9 である
ときには、f(x)= 0.9、また、1 /( 1+exp(−x−5
0)) < 0.1 であるときには、f(x)= 0.1とする。
At this time, the unit three-layer neural network CC1-CC
The input / output function f (x) for each of the input layer neuron unit, the intermediate layer neuron unit, and the output layer neuron unit in each of the 26 units is represented by an inequality: 0 <f (x)
≦ 1 holds. Specifically, for example, f (x) = 1 / (1 + exp (−x−50)) as represented by the above-described equation (1), where 1 / (1 + exp (−x−50)) > 0.9, f (x) = 0.9, and 1 / (1 + exp (-x-5
0)) <0.1, f (x) = 0.1.

【0041】続いて、単位三層神経回路網CC1におけ
る入力層ニューロンユニットSBa1〜SBa64の夫
々と中間層ニューロンユニットAB1との間の入力・中
間層間シナプス伝達効率wij(IH)の初期値WIJ(IH)を、
入力層ニューロンユニットSBa1〜SBa64に夫々
入力される入力信号DIa1〜DIa64が全て最低レ
ベル、即ち、0.1 であるとき、中間層ニューロンユニッ
トAB1における出力信号を最低レベル、即ち、0.1 と
すべく設定する。また、単位三層神経回路網CC2〜C
C25の夫々についても、単位三層神経回路網CC1と
同様に、64個の入力層ニューロンユニットの夫々と1
個の中間層ニューロンユニットとの間の入力・中間層間
シナプス伝達効率wij(IH)の初期値WIJ(IH)を、64個
の入力層ニューロンユニットに夫々入力される入力信号
が全て最低レベル、即ち、0.1 であるとき、中間層ニュ
ーロンユニットにおける出力信号を最低レベル、即ち、
0.1 とすべく設定するとともに、単位三層神経回路網C
C26における入力層ニューロンユニットSBz1〜S
Bz64の夫々と中間層ニューロンユニットAB26と
の間の入力・中間層間シナプス伝達効率wij(IH)の初期
値WIJ(IH)を、入力層ニューロンユニットSBz1〜S
Bz64に夫々入力される入力信号DIz1〜DIz6
4が全て最低レベル、即ち、0.1 であるとき、中間層ニ
ューロンユニットAB26における出力信号を最低レベ
ル、即ち、0.1 とすべく設定する。
Subsequently, in the unit three-layer neural network CC1, the initial value W IJ of the input / interlayer synaptic transmission efficiency wij (IH) between each of the input layer neuron units SBa1 to SBa64 and the intermediate layer neuron unit AB1. IH),
When the input signals DIa1 to DIa64 input to the input layer neuron units SBa1 to SBa64 are all at the lowest level, that is, 0.1, the output signal of the intermediate layer neuron unit AB1 is set to have the lowest level, that is, 0.1. In addition, the unit three-layer neural network CC2-C
Similarly to the unit three-layer neural network CC1, each of the C25s also has one of each of the 64 input layer neuron units.
The initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency w ij (IH) between the intermediate layer neuron units is set to the lowest level, That is, when it is 0.1, the output signal of the hidden neuron unit is at the lowest level, that is,
0.1 and the unit three-layer neural network C
Input layer neuron units SBz1 to SBz in C26
The initial value W IJ (IH) of the input / interlayer synaptic transmission efficiency wij (IH) between each of the Bz64 and the intermediate layer neuron unit AB26 is determined by the input layer neuron units SBz1-S
Input signals DIz1 to DIz6 respectively input to Bz64
When all the signals 4 are at the lowest level, that is, 0.1, the output signal of the intermediate layer neuron unit AB26 is set to the lowest level, that is, 0.1.

【0042】さらに、単位三層神経回路網CC1におけ
る中間層ニューロンユニットAB1と出力層ニューロン
ユニットRBa1〜RBa16の夫々との間の中間・出
力層間シナプス伝達効率wij(HO)の初期値WIJ(HO)を、
中間層ニューロンユニットAB1からの出力信号が最低
レベル、即ち、0.1 であるとき、出力層ニューロンユニ
ットRBa1〜RBa16の夫々からの出力信号DOa
1〜DOa16を最高レベル、即ち、0.9 とすべく設定
する。また、単位三層神経回路網CC2〜CC25の夫
々についても、単位三層神経回路網CC1と同様に、1
個の中間層ニューロンユニットと16個の出力層ニュー
ロンユニットの夫々との間の中間・出力層間シナプス伝
達効率wij(OH)の初期値WIJ(0H)を、1個の中間層ニュ
ーロンユニットからの出力信号が最低レベル、即ち、0.
1 であるとき、16個の出力層ニューロンユニットの夫
々からの出力信号を最高レベル、即ち、0.9 とすべく設
定し、さらに、単位三層神経回路網CC26における中
間層ニューロンユニットAB26と出力層ニューロンユ
ニットRBz1〜RBz16の夫々との間の中間・出力
層間シナプス伝達効率wij(HO)の初期値WIJ(HO)を、中
間層ニューロンユニットAB26からの出力信号が最低
レベル、即ち、0.1 であるとき、出力層ニューロンユニ
ットRBz1〜RBz16の夫々からの出力信号DOz
1〜DOz16を最高レベル、即ち、0.9 とすべく設定
する。
Further, the initial value W IJ (HO) of the intermediate / output interlayer synaptic transmission efficiency wij (HO) between the intermediate layer neuron unit AB1 and each of the output layer neuron units RBa1 to RBa16 in the unit three-layer neural network CC1. ),
When the output signal from the intermediate layer neuron unit AB1 is at the lowest level, that is, 0.1, the output signal DOa from each of the output layer neuron units RBa1 to RBa16
1 to DOa16 are set to the highest level, that is, 0.9. In addition, each of the unit three-layer neural networks CC2 to CC25 also has 1 as in the unit three-layer neural network CC1.
The initial value W IJ (0H) of the intermediate / output interlayer synaptic transmission efficiency w ij (OH) between each of the intermediate layer neuron units and each of the 16 output layer neuron units is calculated from one intermediate layer neuron unit. The output signal is at the lowest level, i.e., 0.
When it is 1, the output signal from each of the 16 output layer neuron units is set to the highest level, that is, 0.9, and further, the intermediate layer neuron unit AB26 and the output layer neuron in the unit three-layer neural network CC26. The initial value W IJ (HO) of the intermediate / output interlayer synaptic transmission efficiency wij (HO) between each of the units RBz1 to RBz16 is determined when the output signal from the intermediate layer neuron unit AB26 is at the lowest level, that is, 0.1. , Output signals DOz from each of output layer neuron units RBz1 to RBz16
1 to DOz16 are set to the highest level, that is, 0.9.

【0043】具体的には、例えば、上述の式(2) 及び
(3) に示される如くの、 wo(IH)・OL・NI<mpL(H), WIJ(IH)=wo(IH)− rand , wo(HO)・OL・NH>mpH(O), WIJ(HO)=wo(HO)− rand , という関係が成立するようになす。そして、mpL(H)及
びmpH(O)は、式(1) から算出されて、 mpL(H)=−52.1972 , mpH(O)=−47.8028 , となるので、式(2) 及び式(3) の関係から、 wo(IH)・OL・NI=wo(IH)・ 0.1・64 < mpL(H)=−52.1972 , wo(HO)・OL・NH=wo(HO)・ 0.1 > mpH(O)=−47.8028 , となる。従って、wo(IH)=−50 ,wo(HO)=−50
となり、これよりして、WIJ(IH)=−50−rand 及び
IJ(HO)=−50−rand が設定される。
Specifically, for example, the above formula (2) and
(3) as shown in, wo (IH) · OL · NI <mpL (H), W IJ (IH) = wo (IH) - rand, wo (HO) · OL · NH> mpH (O), The relationship of W IJ (HO) = wo (HO) −rand is established. Then, mpL (H) and mpH (O) are calculated from equation (1), and mpL (H) = − 52.1972 and mpH (O) = − 47.8028, so that equations (2) and (3) ), Wo (IH) · OL · NI = wo (IH) · 0.1 · 64 <mpL (H) = − 52.1972, wo (HO) · OL · NH = wo (HO) · 0.1> mpH (O ) = − 47.8028. Therefore, wo (IH) =-50, wo (HO) =-50
From this, W IJ (IH) = − 50−rand and
WIJ (HO) = − 50−rand is set.

【0044】続いて、このようにして入力・中間層間シ
ナプス伝達効率wij(IH)の初期値W IJ(IH)及び中間・出
力層間シナプス伝達効率wij(H0)の初期値WIJ(HO)を設
定した単位三層神経回路網CC1〜CC26の夫々につ
いて、バックプロパゲーションの手法による学習を行
い、それによって単位三層神経回路網CC1〜CC26
の夫々における入力・中間層間シナプス伝達効率wij(I
H)の値及び中間・出力層間シナプス伝達効率wij(H0)の
値を決定する。
Subsequently, the input / intermediate interlayer
Initial value W of naps transmission efficiency wij (IH) IJ(IH) and middle / out
Initial value W of synaptic transmission efficiency wij (H0)IJ(HO)
For each of the specified unit three-layer neural networks CC1 to CC26
Learning using backpropagation techniques
And thereby the unit three-layer neural network CC1-CC26
Input and intermediate interlayer synaptic transmission efficiency wij (I
H) and the intermediate and output interlayer synapse transmission efficiency wij (H0)
Determine the value.

【0045】単位三層神経回路網CC1についてのバッ
クプロパゲーションの手法による学習は、入力層ニュー
ロンユニットSBa1〜SBa64に夫々供給される入
力信号DIa1〜DIa64として、図19に示される
如くに配列したとき、図20のAに示される如くに
“0”と“1”とをとって、ノイズを含むことなく、ア
ルファベットの“A”のパターンをあらわす信号群GD
Ia1、及び、図20のB,C,D及びEの夫々に一部
のものが示される如くに“0”と“1”とをとって、4
ビット分のノイズを含んで“A”のパターンをあらわす
9種類の信号群GDIa2〜GDIa10を選定し、ま
た、教師信号として、例えば、“A”をあらわす16ビ
ットのEUCを選定したもとで、学習アルゴリズムを、
例えば、δWk-1 i k j (t+l) =−0.2 d k j O k-1 i
+ 0.2δWk-1 i k j (t)として行う。なお、4ビット
分のノイズを含んで“A”のパターンをあらわす9種類
の信号群GDIa2〜GDIa10の夫々における4ビ
ット分のノイズは、入力信号DIa1〜DIa64のう
ちの、乱数に従って選定した二つの“0”であるべきと
ころを“1”に反転するとともに、乱数に従って選定し
た二つの“1”であるべきところを“0”に反転するこ
とにより生じさせる。
The learning by the back propagation method for the unit three-layer neural network CC1 is performed when the input signals DIa1 to DIa64 supplied to the input layer neuron units SBa1 to SBa64 are arranged as shown in FIG. 20. As shown in FIG. 20A, the signal group GD representing the pattern of the alphabet "A" by taking "0" and "1" without including noise.
As shown in Ia1 and some of B, C, D and E in FIG. 20, "0" and "1" are taken and 4
Based on the selection of nine types of signal groups GDIa2 to GDIa10 representing the pattern of “A” including the noise of bits, and selecting, for example, a 16-bit EUC representing “A” as the teacher signal, Learning algorithm
For example, δW k−1 i k j (t + l) = − 0.2 d k j O k−1 i
+ 0.2δW k−1 i k j (t). The noise of four bits in each of the nine types of signal groups GDIa2 to GDIa10 including the noise of four bits and representing the pattern of “A” is two of the input signals DIa1 to DIa64 selected according to a random number. This is generated by inverting a portion that should be “0” to “1” and inverting two portions that should be “1” selected according to random numbers to “0”.

【0046】信号群GDIa1〜GDIa10の夫々に
おいて、“0”は最低レベル:0.1をあらわし、“1”
は最高レベル:0.9 をあらわす。そして、学習の収束の
判定については、例えば、全ビット誤差が 0.01 以下と
なったとき学習が収束したと判定することにより行い、
学習の実施態様は、信号群GDIa1〜GDIa10の
うちの一つを供給したもとでの学習を収束するまで繰り
返し、収束した後、信号群GDIa1〜GDIa10の
うちの他の一つを供給したもとでの学習を収束するまで
繰り返すようにして、信号群GDIa1〜GDIa10
の夫々についての学習を順次行う。
In each of the signal groups GDIa1 to GDIa10, “0” represents the lowest level: 0.1, and “1”.
Represents the highest level: 0.9. Then, the convergence of the learning is determined, for example, by determining that the learning has converged when the total bit error is equal to or less than 0.01,
In the embodiment of learning, learning under supply of one of the signal groups GDIa1 to GDIa10 is repeated until convergence, and after convergence, another one of the signal groups GDIa1 to GDIa10 is supplied. The signal groups GDIa1 to GDIa10 are repeated until the learning with
Are sequentially learned.

【0047】同様にして、単位三層神経回路網CC2〜
CC25の夫々についてのバックプロパゲーションの手
法による学習を、64個の入力層ニューロンユニットに
夫々供給される入力信号として、“0”と“1”とをと
って、ノイズを含むことなく、アルファベットの“B”
〜“Y”の夫々のパターンをあらわす信号群、及び、
“0”と“1”とをとって、4ビット分のノイズを含ん
で“B”〜“Y”の夫々のパターンをあらわす9種類の
信号群を選定し、また、教師信号として、例えば、
“B”〜“Y”の夫々をあらわす16ビットのEUCを
選定したもとで、学習アルゴリズムを、単位三層神経回
路網CC1の場合と同様として行う。なお、“B”〜
“Y”の夫々のパターンをあらわす信号群において、
“0”は最低レベル:0.1 をあらわし、“1”は最高レ
ベル:0.9 をあらわす。
Similarly, the unit three-layer neural network CC2
The learning by the back propagation method for each of the CC25s is performed by taking "0" and "1" as input signals supplied to the 64 input layer neuron units, respectively, without including noise, and without using noise. “B”
~ Signal group representing each pattern of "Y", and
Taking "0" and "1", nine types of signal groups each representing a pattern of "B" to "Y" including noise of 4 bits are selected, and as a teacher signal, for example,
Based on the selection of the 16-bit EUC representing each of "B" to "Y", the learning algorithm is performed in the same manner as in the case of the unit three-layer neural network CC1. "B" ~
In a signal group representing each pattern of “Y”,
“0” indicates the lowest level: 0.1, and “1” indicates the highest level: 0.9.

【0048】さらに、単位三層神経回路網CC26につ
いてのバックプロパゲーションの手法による学習は、入
力層ニューロンユニットSBz1〜SBz64に夫々供
給される入力信号DIz1〜DIz64として、図21
のAに示される如くに“0”と“1”とをとって、ノイ
ズを含むことなく、アルファベットの“Z”のパターン
をあらわす信号群GDIz1、及び、図21のB,C,
D及びEの夫々に一部のものが示される如くに“0”と
“1”とをとって、4ビット分のノイズを含んで“Z”
のパターンをあらわす9種類の信号群GDIz2〜GD
Iz10を選定し、また、教師信号として、例えば、
“Z”をあらわす16ビットのEUCを選定したもと
で、学習アルゴリズムを、単位三層神経回路網CC1の
場合と同様として行う。なお、4ビット分のノイズを含
んで“Z”のパターンをあらわす9種類の信号群GDI
z2〜GDIz10の夫々における4ビット分のノイズ
は、入力信号DIz1〜DIz64のうちの、乱数に従
って選定した二つの“0”であるべきところを“1”に
反転するとともに、乱数に従って選定した二つの“1”
であるべきところを“0”に反転することにより生じさ
せる。なお、信号群GDIz1〜GDIz10の夫々に
おいて、“0”は最低レベル:0.1 をあらわし、“1”
は最高レベル:0.9 をあらわす。
Further, learning by the back propagation method for the unit three-layer neural network CC26 is performed by converting the input signals DIz1 to DIz64 supplied to the input layer neuron units SBz1 to SBz64 into the signals shown in FIG.
21A, the signal group GDIz1 representing the pattern of the alphabet "Z" without including noise by taking "0" and "1", and B, C, and C in FIG.
As shown in a part of each of D and E, "0" and "1" are taken and "Z" including noise for 4 bits is taken.
Signal groups GDIz2 to GD representing the pattern of
Iz10 is selected, and as a teacher signal, for example,
Based on the selection of the 16-bit EUC representing "Z", the learning algorithm is performed in the same manner as in the case of the unit three-layer neural network CC1. It should be noted that nine types of signal groups GDI representing a "Z" pattern including noise of 4 bits
The noise of 4 bits in each of z2 to GDIz10 is obtained by inverting the two input signals DIz1 to DIz64, which should be two “0” selected according to the random numbers, to “1” and the two noises selected according to the random numbers. “1”
Is caused by inverting "0" to "0". In each of the signal groups GDIz1 to GDIz10, “0” represents the lowest level: 0.1, and “1”.
Represents the highest level: 0.9.

【0049】本願の発明者により、上述の如くの単位三
層神経回路網CC1〜CC26の夫々についての、入力
・中間層間シナプス伝達効率wij(IH)の初期値WIJ(IH)
及び中間・出力層間シナプス伝達効率wij(H0)の初期値
IJ(HO)の設定、及び、64個の入力層ニューロンユニ
ットに供給される入力信号として信号群GDIa1〜G
DIa10,・・・・・,GDIz1〜GDIz10の
夫々が用いられたもとでの学習が実際に行われた。その
結果、単位三層神経回路網CC1についての入力・中間
層間シナプス伝達効率wij(IH)の値が、図22に示され
る如くに決定されるとともに、中間・出力層間シナプス
伝達効率wij(H0)の値が、図23に示される如くに決定
され、また、単位三層神経回路網CC2〜CC25の夫
々についての入力・中間層間シナプス伝達効率wij(IH)
の値及び中間・出力層間シナプス伝達効率wij(H0)の値
が、単位三層神経回路網CC1の場合と同様に決定さ
れ、さらに、単位三層神経回路網CC26についての入
力・中間層間シナプス伝達効率wij(IH)の値が、図24
に示される如くに決定されるとともに、中間・出力層間
シナプス伝達効率wij(H0)の値が、図25に示される如
くに決定された。
According to the inventors of the present application, the initial value W IJ (IH) of the input / intermediate interlayer synaptic transmission efficiency wij (IH) for each of the unit three-layer neural networks CC1 to CC26 as described above.
And setting of an initial value W IJ (HO) of the intermediate and output interlayer synapse transmission efficiency wij (H0), and signal groups GDIa1 to GDIa1 to G64 as input signals supplied to 64 input layer neuron units.
Learning was actually performed using each of DIa10,..., GDIz1 to GDIz10. As a result, the value of the input / intermediate interlayer synapse transmission efficiency wij (IH) for the unit three-layer neural network CC1 is determined as shown in FIG. 22, and the intermediate / output interlayer synapse transmission efficiency wij (H0) is determined. Is determined as shown in FIG. 23, and the input / intermediate interlayer synaptic transmission efficiency wij (IH) for each of the unit three-layer neural networks CC2 to CC25.
And the value of the intermediate / output interlayer synapse transmission efficiency wij (H0) are determined in the same manner as in the case of the unit three-layer neural network CC1, and further, the input / intermediate interlayer synapse transmission for the unit three-layer neural network CC26. The value of the efficiency wij (IH) is shown in FIG.
, And the value of the intermediate / output interlayer synaptic transmission efficiency wij (H0) was determined as shown in FIG.

【0050】図22及び24における、iの1〜64は
夫々64個の入力層ニューロンユニットに対応し、図2
3及び25における、jの1〜16は、16個の出力層
ニューロンユニットに対応する。即ち、例えば、単位三
層神経回路網CC1の場合、入力層ニューロンユニット
SBa1と中間層ニューロンユニットAB1との間の入
力・中間層間シナプス伝達効率wij(IH)の値は、図22
におけるi=1によってあらわされ、−43.90 であり、
また、中間層ニューロンユニットAB1と出力層ニュー
ロンユニットRBa16との間の中間・出力層間シナプ
ス伝達効率wij(HO)の値は、図23におけるj=16に
よってあらわされ、−50.40 である。さらに、例えば、
単位三層神経回路網CC26の場合、入力層ニューロン
ユニットSBz64と中間層ニューロンユニットAB2
6との間の入力・中間層間シナプス伝達効率wij(IH)の
値は、図24におけるi=64によってあらわされ、−
42.75 であり、また、中間層ニューロンユニットAB2
6と出力層ニューロンユニットRBz1との間の中間・
出力層間シナプス伝達効率wij(HO)の値は、図25にお
けるj=1によってあらわされ、−57.90 である。
In FIGS. 22 and 24, 1 to 64 of i correspond to 64 input layer neuron units, respectively.
1 to 16 of j in 3 and 25 correspond to 16 output layer neuron units. That is, for example, in the case of the unit three-layer neural network CC1, the value of the input / interlayer synaptic transmission efficiency wij (IH) between the input layer neuron unit SBa1 and the intermediate layer neuron unit AB1 is as shown in FIG.
At -43.90, represented by i = 1 at
Further, the value of the intermediate / output interlayer synaptic transmission efficiency wij (HO) between the intermediate layer neuron unit AB1 and the output layer neuron unit RBa16 is represented by j = 16 in FIG. 23 and is -50.40. Further, for example,
In the case of the unit three-layer neural network CC26, the input layer neuron unit SBz64 and the intermediate layer neuron unit AB2
The value of the input / intermediate interlayer synaptic transmission efficiency wij (IH) between 6 and 6 is represented by i = 64 in FIG.
42.75 and the intermediate layer neuron unit AB2
6 and the output layer neuron unit RBz1
The value of the output interlayer synapse transmission efficiency wij (HO) is represented by j = 1 in FIG. 25 and is -57.90.

【0051】このようにして、入力・中間層間シナプス
伝達効率wij(IH)の値及び中間・出力層間シナプス伝達
効率wij(H0)の値が決定された単位三層神経回路網CC
1〜CC26について、夫々が有する64個の入力層ニ
ューロンユニットSBa1〜SBa64,・・・・・,
SBz1〜SBz64に関する共通化、及び、夫々が有
する16個の出力層ニューロンユニットRBa1〜RB
a16,・・・・・,RBz1〜RBz16に関する共
通化を行い、図26に示される如くの、64個の入力層
ニューロンユニットSB1〜SB64,26個の中間層
ニューロンユニットAB1〜AB26及び16個の出力
層ニューロンユニットRB1〜RB16を有して構成さ
れる三層神経回路網CCを得る。
In this way, the value of the input / middle layer synaptic transmission efficiency wij (IH) and the value of the intermediate / output layer synapse transmission efficiency wij (H0) are determined.
1 to CC26, each of the 64 input layer neuron units SBa1 to SBa64,.
Sharing of SBz1 to SBz64 and 16 output layer neuron units RBa1 to RB of each
a16,... RBz1 to RBz16 are shared, and as shown in FIG. 26, 64 input layer neuron units SB1 to SB64, 26 intermediate layer neuron units AB1 to AB26 and 16 A three-layer neural network CC having output layer neuron units RB1 to RB16 is obtained.

【0052】斯かる本発明に係る神経回路網の構成方法
の第4の例によれば、入力・中間層間シナプス伝達効率
wij(IH)の値及び中間・出力層間シナプス伝達効率wij
(H0)の値を決定するための各入力信号群に対する学習繰
返回数が、比較的少とされ、学習すべき入力信号群数の
増大に伴って学習回数が膨大な数になるという、バック
プロパゲーションの手法による学習における問題が克服
される。
According to the fourth example of the method for constructing a neural network according to the present invention, the value of the input / middle layer synaptic transmission efficiency wij (IH) and the intermediate / output layer synapse transmission efficiency wij
The number of learning iterations for each input signal group to determine the value of (H0) is relatively small, and the number of learnings becomes enormous as the number of input signal groups to be learned increases. The problem in learning by the propagation method is overcome.

【0053】上述の如くにして、本発明に係る神経回路
網の構成方法の第4の例に従って得られる、図26に示
される如くの三層神経回路網に対し、本願の発明者によ
り、汎化能力テストが行われた。斯かる汎化能力テスト
にあっては、100種の乱数シードが用いられて、10
0種の入力・中間層間シナプス伝達効率wij(IH)の初期
値WIJ(IH)及び中間・出力層間シナプス伝達効率wij(H
0)の初期値WIJ(HO)の群が設定され、それらの夫々のも
とで本発明に係る神経回路網の構成方法の第4の例に従
って得られた三層神経回路網に対し、入力層ニューロン
ユニットSB1〜SB64に夫々供給される入力信号D
IB1〜DIB64として、図27に示される如くに配
列したとき、図20のAに示される信号群GDIa1の
如くに“0”と“1”とをとって、ノイズを含むこと無
く“A”のパターンをあらわす信号群、及び、図20の
B〜Eに示される信号群GDIa2,GDIa4,GD
Ia8,GDIa10等の如くに“0”と“1”とをと
って、4ビット分のノイズを含んで“A”をあらわす1
9種の信号群を含んだ合計20種の“A”に関する入力
信号群、及び、それらと同様な、各20種とされる
“B”〜“Z”の夫々に関する入力信号群が選定され
た。そして、これら合計520種の信号群の夫々が各三
層神経回路網の入力層ニューロンユニットSB1〜SB
64に供給されるもとで、出力層ニューロンユニットR
B1〜RB16から得られる出力信号DOB1〜DOB
16が適正なものか否かが判定されて汎化能力Gが算出
されることにより行われた。
As described above, a three-layer neural network as shown in FIG. 26 obtained according to the fourth example of the method of constructing a neural network according to the present invention is generalized by the present inventor. Ability test was conducted. In such a generalization ability test, 100 random number seeds are used, and 10
The initial value W IJ (IH) of the input / intermediate interlayer synapse transmission efficiency wij (IH) and the intermediate / output interlayer synapse transmission efficiency wij (H
0), a group of initial values W IJ (HO) is set, and under each of them, for a three-layer neural network obtained according to the fourth example of the method for configuring a neural network according to the present invention, Input signals D supplied to the input layer neuron units SB1 to SB64, respectively.
When arranged as shown in FIG. 27 as IB1 to DIB64, "0" and "1" are taken like the signal group GDIa1 shown in FIG. Signal groups representing patterns, and signal groups GDIa2, GDIa4, and GD shown in BE of FIG.
As shown in Ia8, GDIa10, etc., “0” and “1” are taken to represent “A” including noise of 4 bits.
A total of 20 input signal groups for "A" including 9 signal groups and similar input signal groups for each of 20 "B" to "Z" were selected. . Each of the 520 signal groups in total is connected to the input layer neuron units SB1 to SB of each three-layer neural network.
64, the output layer neuron unit R
Output signals DOB1 to DOB obtained from B1 to RB16
It was performed by determining whether 16 was appropriate or not and calculating the generalization ability G.

【0054】汎化能力Gは、 G=適正な出力信号DOB1〜DOB16が得られた入
力信号群の数/入力信号群の総数(=520) として算出された。従って、汎化能力Gは、その値が1
に近い程高いことになる。その結果得られた乱数シード
RNSと汎化能力Gとの関係は、図28のグラフ(横
軸:乱数シードRNS,縦軸:汎化能力G)に示される
如くであり、汎化能力Gは、最大値が1(誤り入力信号
群数0),最小値が 0.976923 (誤り入力信号群数12)
であって、平均値が 0.998139 (誤り入力信号群数1)
であった。これよりして、上述の本発明に係る神経回路
網の構成方法の第4の例に従って得られる三層神経回路
網が高い汎化能力を具えるものとなることが、実験的に
確認された。
The generalization ability G was calculated as G = the number of input signal groups from which appropriate output signals DOB1 to DOB16 were obtained / the total number of input signal groups (= 520). Therefore, the generalization ability G has a value of 1
The closer to, the higher it is. The relationship between the resulting random number seed RNS and the generalization ability G is as shown in the graph of FIG. 28 (horizontal axis: random number seed RNS, vertical axis: generalization ability G). , The maximum value is 1 (the number of error input signal groups is 0), and the minimum value is 0.976923 (the number of error input signal groups is 12)
And the average value is 0.998139 (the number of error input signal groups is 1)
Met. Thus, it was experimentally confirmed that the three-layer neural network obtained according to the fourth example of the neural network configuration method according to the present invention described above has high generalization ability. .

【0055】上述の図26に示される三層神経回路網の
如くの、複数個の入力層ニューロンユニット,それらの
夫々に結合された、複数の認識カテゴリに夫々対応する
複数個の中間層ニューロンユニット、及び、中間層ニュ
ーロンユニットの夫々に結合された複数個の出力層ニュ
ーロンユニットを有し、入力層ニューロンユニット,中
間層ニューロンユニット及び出力層ニューロンユニット
の夫々についての入出力関数f(x) が不等式:0<f
(x) ≦1を成立させるものとされた三層神経回路網につ
いては、その汎化能力を、本発明に係る神経回路網の汎
化能力評価方法によって評価することができる。
A plurality of input-layer neuron units, such as the three-layer neural network shown in FIG. 26, and a plurality of intermediate-layer neuron units respectively associated with a plurality of recognition categories and connected thereto. , And a plurality of output layer neuron units coupled to each of the hidden layer neuron units, and the input / output function f (x) for each of the input layer neuron unit, the hidden layer neuron unit and the output layer neuron unit is Inequality: 0 <f
The generalization ability of a three-layer neural network that satisfies (x) ≦ 1 can be evaluated by the neural network generalization ability evaluation method according to the present invention.

【0056】複数個の入力層ニューロンユニット,複数
の認識カテゴリに夫々対応する複数個の中間層ニューロ
ンユニット、及び、複数個の出力層ニューロンユニット
を有し、入力層ニューロンユニット,中間層ニューロン
ユニット及び出力層ニューロンユニットの夫々について
の入出力関数f(x) が不等式:0<f(x) ≦1を成立さ
せるものとされた三層神経回路網の汎化能力を、本発明
に係る神経回路網の汎化能力評価方法に従って評価する
にあたっては、先ず、複数個の入力層ニューロンユニッ
トの夫々とそれに結合された中間層ニューロンユニット
との間の入力・中間層シナプス伝達効率wij(IH)の初期
値WIJ(IH)を、複数個の入力層ニューロンユニットに対
する入力信号が全て予め設定された最低レベル、例え
ば、0.1 を有するとき、複数個の中間層ニューロンユニ
ットの夫々の出力信号を予め設定された最低レベル、例
えば、0.1 を有するものとすべく設定するとともに、各
中間層ニューロンユニットとそれに結合された出力層ニ
ューロンユニットとの間の中間・出力層間シナプス伝達
効率wij(H0)の初期値WIJ(HO)を、複数個の中間層ニュ
ーロンユニットの出力信号が全て予め設定された最低レ
ベル、例えば、0.1 を有するとき、複数個の出力層ニュ
ーロンユニットの夫々の出力信号を予め設定された最高
レベル、例えば、0.9 を有するものとすべく設定する。
It has a plurality of input layer neuron units, a plurality of intermediate layer neuron units respectively corresponding to a plurality of recognition categories, and a plurality of output layer neuron units. The generalization ability of the three-layer neural network in which the input / output function f (x) for each of the output layer neuron units satisfies the inequality 0 <f (x) ≦ 1 is determined by the neural circuit according to the present invention. When evaluating according to the network generalization ability evaluation method, first, the initial and intermediate layer synaptic transmission efficiencies wij (IH) between each of the plurality of input layer neuron units and the hidden layer neuron unit connected thereto are determined. the value W IJ (IH), the lowest level of the input signal is set every advance for a plurality of input layer neuron units, for example, when having 0.1, double The output signals of each of the intermediate layer neuron units are set to have a predetermined minimum level, for example, 0.1, and between each intermediate layer neuron unit and the output layer neuron unit connected thereto. The initial value W IJ (HO) of the intermediate / output interlayer synaptic transmission efficiency w ij (H 0) is set to a plurality of values when the output signals of the plurality of intermediate layer neurons all have a preset minimum level, for example, 0.1. The output signal of each of the output layer neuron units is set to have a preset highest level, eg, 0.9.

【0057】具体的には、例えば、各記号があらわす内
容を、上述の式(2) 及び(3) の場合と同様としたもと
で、 wo(IH)・OL・NI<mpL(H), WIJ(IH)=wo(IH)+ (rand−0.5)・・ (4) wo(HO)・OL・NH>mpH(O), WIJ(HO)=wo(HO)+ (rand−0.5)・・ (5) という関係が成立するようになす。
More specifically, for example, supposing that the contents represented by the respective symbols are the same as those in the above equations (2) and (3), wo (IH) .OL.NI <mpL (H) , W IJ (IH) = wo (IH) + (rand-0.5) ·· (4) wo (HO) · OL · NH> mpH (O), W IJ (HO) = wo (HO) + (rand- 0.5) .. (5) is established.

【0058】続いて、このようにして入力・中間層間シ
ナプス伝達効率wij(IH)の初期値W IJ(IH)及び中間・出
力層間シナプス伝達効率wij(H0)の初期値WIJ(HO)を設
定した三層神経回路網について、複数の認識カテゴリに
夫々対応する複数個の中間層ニューロンユニットの夫々
に関連する入力・中間層間シナプス伝達効率wij(IH)及
び中間・出力層間シナプス伝達効率wij(H0)を学習対象
としたバックプロパゲーションの手法による学習を、各
中間層ニューロンユニット別に行う。斯かる各中間層ニ
ューロンユニット別の学習は、複数個の入力層ニューロ
ンユニットに複数の認識カテゴリの夫々に関する入力信
号群が個別に順次供給されるようになし、複数個の入力
層ニューロンユニットに特定の認識カテゴリに関する入
力信号群が個別に供給されるときには、その特定の認識
カテゴリに対応する1個の中間層ニューロンユニットに
関連する入力・中間層間シナプス伝達効率wij(IH)及び
中間・出力層間シナプス伝達効率wij(H0)のみが、その
値が変更せしめられて適正値となるようにされ、他の中
間層ニューロンユニットに関連する入力・中間層間シナ
プス伝達効率wij(IH)及び中間・出力層間シナプス伝達
効率wij(H0)の夫々の値は変化せしめられないものとさ
れて行われる。
Subsequently, the input / intermediate interlayer
Initial value W of naps transmission efficiency wij (IH) IJ(IH) and middle / out
Initial value W of synaptic transmission efficiency wij (H0)IJ(HO)
The three-layer neural network
Each of the corresponding multiple hidden neuron units
Input-to-interlayer synaptic transmission efficiency wij (IH) and
Learning target synaptic transmission efficiency wij (H0)
Learning by the back propagation method
Perform this for each hidden neuron unit. Each such intermediate layer
Learning by neuron unit consists of multiple input layer neurons.
Input unit for each of multiple recognition categories
Groups are supplied individually and sequentially, multiple inputs
Input to the neuron unit for a specific recognition category
When force signals are supplied individually, their specific perceptions
One hidden neuron unit corresponding to a category
Related input / interlayer synaptic transmission efficiency wij (IH) and
Only the intermediate and output interlayer synapse transmission efficiency wij (H0)
The value is changed to an appropriate value, and
Input / interlayer interlayer related to interneuron unit
Transfer efficiency wij (IH) and synapse transfer between middle and output layers
Each value of the efficiency wij (H0) shall not be changed
It is done.

【0059】具体的には、例えば、入力層ニューロンユ
ニットの数が64個,中間層ニューロンユニットの数が
26個、及び、出力層ニューロンユニットの数が16個
とされ、前述の式(1) によりあらわされる如くに、 f(x)= 1 /( 1+exp(−x−50)) とされ、但し、1 /( 1+exp(−x−50)) > 0.9 であ
るときには、f(x)= 0.9、また、1 /( 1+exp(−x−
50)) < 0.1 であるときには、f(x)= 0.1とされた
もとで行う。斯かる際には、mpL(H)=−52.1972, m
pH(O)=−47.8028,となるので、式(4) 及び式(5) の関
係から、 WIJ(IH)=−50−rand 及び WIJ(HO)=−50−rand
が設定される。
More specifically, for example, the number of neurons in the input layer is 64, the number of neurons in the intermediate layer is 26, and the number of neurons in the output layer is 16; F (x) = 1 / (1 + exp (−x−50)), where f (x) = 0.9 when 1 / (1 + exp (−x−50))> 0.9. , And 1 / (1 + exp (−x−
50)) If <0.1, perform under the condition that f (x) = 0.1. In such a case, mpL (H) = − 52.1972, m
Since pH (O) = − 47.8028, W IJ (IH) = − 50−rand and W IJ (HO) = − 50−rand from the relations of equations (4) and (5).
Is set.

【0060】そして、先ず、26個の中間層ニューロン
ユニットのうちの1個に関連する入力・中間層間シナプ
ス伝達効率wij(IH)及び中間・出力層間シナプス伝達効
率wij(H0)を学習対象としたバックプロパゲーションの
手法による学習を、当該1個の中間層ニューロンユニッ
トに関連する入力・中間層間シナプス伝達効率wij(IH)
及び中間・出力層間シナプス伝達効率wij(H0)のみを変
更し得るものとし、学習アルゴリズムを、例えば、 δWk-1 i k j (t+l) =−0.2 d k j O k-1 i+ 0.2δWk-1 i k j (t) としたもとで、64個の入力層ニューロンユニットに入
力信号を供給して行い、それによって、当該1個の中間
層ニューロンユニットに関連する入力・中間層間シナプ
ス伝達効率wij(IH)及び中間・出力層間シナプス伝達効
率wij(H0)の夫々の値を決定する。
First, the input / middle layer synapse transmission efficiency wij (IH) and the middle / output layer synapse transmission efficiency wij (H0) related to one of the 26 intermediate layer neuron units were set as learning targets. The learning by the back propagation method is performed by using the input / interlayer synaptic transmission efficiency wij (IH) related to the one intermediate layer neuron unit.
Only the synapse transmission efficiency wij (H0) between the intermediate and output layers can be changed, and the learning algorithm is, for example, δW k−1 i k j (t + l) = − 0.2 d k j O k−1 i + Under the condition of 0.2δW k−1 i k j (t), an input signal is supplied to the 64 input layer neuron units, whereby the input / intermediate signal associated with the one hidden layer neuron unit is obtained. The respective values of the interlayer synapse transmission efficiency wij (IH) and the intermediate / output interlayer synapse transmission efficiency wij (H0) are determined.

【0061】斯かる際における入力信号は、例えば、図
20のAに示される、ノイズを含むことなくアルファベ
ットの“A”のパターンをあらわす信号群GDIa1、
及び、図20のB,C,D及びEの夫々に一部のものが
示される、4ビット分のノイズを含んで“A”のパター
ンをあらわす9種類の信号群GDIa2〜GDIa10
と同様な合計10種の信号群の夫々とし、また、それに
対応する教師信号として、例えば、“A”をあらわす1
6ビットのEUCを用いる。
The input signal in such a case is, for example, a signal group GDIa1, which represents the pattern of the alphabet "A" without noise as shown in FIG.
Also, nine types of signal groups GDIa2 to GDIa10, each of which includes a part of each of B, C, D and E in FIG.
And a teacher signal corresponding thereto, for example, 1 representing "A".
6-bit EUC is used.

【0062】その後、同様にして、残りの25個の中間
層ニューロンユニットの夫々に関連する入力・中間層間
シナプス伝達効率wij(IH)及び中間・出力層間シナプス
伝達効率wij(H0)を学習対象としたバックプロパゲーシ
ョンの手法による学習を、当該1個の中間層ニューロン
ユニットに関連する入力・中間層間シナプス伝達効率w
ij(IH)及び中間・出力層間シナプス伝達効率wij(H0)の
みを変更し得るものとし、学習アルゴリズムを、例え
ば、 δWk-1 i k j (t+l) =−0.2 d k j O k-1 i+ 0.2δWk-1 i k j (t) としたもとで、64個の入力層ニューロンユニットに入
力信号を供給して順次行い、それによって、各中間層ニ
ューロンユニットに関連する入力・中間層間シナプス伝
達効率wij(IH)及び中間・出力層間シナプス伝達効率w
ij(H0)の夫々の値を決定する。
Thereafter, similarly, the input / intermediate interlayer synapse transmission efficiency wij (IH) and the intermediate / output interlayer synapse transmission efficiency wij (H0) relating to each of the remaining 25 intermediate layer neuron units are set as learning targets. Learning by the back-propagation technique described above is performed by using the input / interlayer synaptic transmission efficiency w associated with the one intermediate layer neuron unit.
It is assumed that only ij (IH) and the intermediate / output interlayer synaptic transmission efficiency wij (H0) can be changed, and the learning algorithm is, for example, δW k−1 i k j (t + l) = − 0.2 d k j O k −1 i + 0.2δW k−1 i k j (t), input signals are sequentially supplied to the 64 input layer neuron units, whereby the input signals associated with each hidden layer neuron unit are obtained.・ Interlayer synapse transmission efficiency wij (IH) and intermediate / output layer synapse transmission efficiency w
Determine each value of ij (H0).

【0063】斯かる際における入力信号は、例えば、図
20のAに示される、ノイズを含むことなくアルファベ
ットの“A”のパターンをあらわす信号群GDIa1と
同様の態様をもってアルファベットの“B”〜“Z”の
夫々のパターンをあらわす信号群、及び、図20のB,
C,D及びEの夫々に一部のものが示される、4ビット
分のノイズを含んで“A”のパターンをあらわす9種類
の信号群GDIa2〜GDIa10と同様の態様をもっ
て“B”〜“Z”の夫々のパターンをあらわす9種類の
信号群から成る、合計250種の信号群の夫々とし、ま
た、アルファベットの“B”〜“Z”の夫々のパターン
をあらわす信号群に夫々対応する教師信号として、例え
ば、“B”〜“Z”の夫々をあらわす16ビットのEU
Cを用いる。
The input signal in this case is, for example, the alphabet “B” to “B” in the same manner as the signal group GDIa1 shown in FIG. 20B, a signal group representing each pattern of Z ", and B,
"B" to "Z" are displayed in the same manner as nine types of signal groups GDIa2 to GDIa10, each of which includes a part of each of C, D, and E, and represents a pattern of "A" including 4-bit noise. , Each of a total of 250 types of signal groups consisting of 9 types of signal groups representing the respective patterns of "", and the teacher signals respectively corresponding to the signal groups representing the respective patterns of the alphabet "B" to "Z". For example, a 16-bit EU representing each of “B” to “Z”
C is used.

【0064】このようにして、バックプロパゲーション
の手法による学習の結果、26個の中間層ニューロンユ
ニットの各々に関連する入力・中間層間シナプス伝達効
率wij(IH)及び中間・出力層間シナプス伝達効率wij(H
0)の夫々の値が決定された三層神経回路網(三層神経回
路網Xと呼ぶ)にあっては、その26個の中間層ニュー
ロンユニットの各々に関連する入力・中間層間シナプス
伝達効率wij(IH)の値が、正値と負値とに二値化され
る。そして、26個の中間層ニューロンユニットの夫々
がオン出力状態となるとき、16個の出力層ニューロン
ユニットからの出力信号が教師信号となる。
As described above, as a result of learning by the back propagation method, the input / interlayer synaptic transmission efficiency wij (IH) and the intermediate / output layer synaptic transmission efficiency wij associated with each of the 26 intermediate layer neuron units are obtained. (H
In the three-layer neural network (referred to as three-layer neural network X) in which the respective values of (0) are determined, the input / intermediate interlayer synaptic transmission efficiency associated with each of the 26 intermediate layer neuron units The value of wij (IH) is binarized into a positive value and a negative value. When each of the 26 intermediate-layer neuron units is turned on, the output signals from the 16 output-layer neuron units become teacher signals.

【0065】従って、正値とされる入力・中間層間シナ
プス伝達効率wij(IH)の値の平均値apと、負値とされる
入力・中間層間シナプス伝達効率wij(IH)の値の平均値
anとを算出し、平均値apと平均値anとを用いて、64個
の入力層ニューロンユニットにおけるオン出力とオフ出
力との比率を以下の如くにして求める。
Accordingly, the average value ap of the input / intermediate interlayer synapse transmission efficiency wij (IH) as a positive value and the average value of the input / intermediate interlayer synapse transmission efficiency wij (IH) as a negative value
An is calculated, and the ratio between the ON output and the OFF output in the 64 input layer neuron units is obtained as follows using the average value ap and the average value an.

【0066】maxhを正値とされる入力・中間層間シナプ
ス伝達効率wij(IH)の数,maxlを負値とされる入力・中
間層間シナプス伝達効率wij(IH)の数,hは0から1づ
つ増加するmaxhまでの値,lは0から1づつ増加するmax
lまでの値,oh を入力層ニューロンユニットのうちのオ
ン出力状態をとるものの数,ol を入力層ニューロンユ
ニットのうちのオフ出力状態をとるものの数,として、
入力層ニューロンユニットにおける入力の総和mpを、
式: mp=oh・( ap・h +an・( maxl− l)) +ol・( ap・( maxh− h) +an・l) が成立するもとで、 hに0からmaxhまでの夫々の値をと
らせるとともに、各 hの値に対応させて lに0からmaxl
までの夫々の値をとらせるようにして、繰り返し算出す
る。そして、各算出によって得られる入力層ニューロン
ユニットにおける入力の総和mpを、中間層ニューロンユ
ニットがオン出力状態をとるための入力層ニューロンユ
ニットにおける入力の総和についての閾値mpthと比較す
る。
Maxh is the number of input / intermediate interlayer synapse transmission efficiencies wij (IH) whose positive value is assumed, maxl is the number of input / intermediate interlayer synapse transmission efficiencies wij (IH) whose negative value is h, and h is 0 to 1 The value up to maxh that increases by one, l is the maximum that increases by one from 0
Let l be the value up to l, oh be the number of input layer neuron units in the on-output state, and ol be the number of input layer neuron units in the off-output state.
The sum mp of inputs in the input layer neuron unit is
Formula: mp = oh · (ap · h + an · (maxl−l)) + ol · (ap · (maxh−h) + an · l) where h is a value from 0 to maxh. And from 1 to maxl corresponding to each value of h
The values are repeatedly calculated so as to take the respective values up to. Then, the sum mp of inputs in the input layer neuron unit obtained by each calculation is compared with a threshold mpth for the sum of inputs in the input layer neuron unit for the intermediate layer neuron unit to be in the ON output state.

【0067】各算出によって得られる入力の総和mpが閾
値mpthより大であるとき、即ち、mp> mpth であるとき
中間層ニューロンユニットがオン出力状態をとることに
なるので、各算出によって得られる入力の総和mpと、中
間層ニューロンユニットがオン出力状態をとるための、
入力層ニューロンユニットにおける入力の総和について
の閾値mpthとの比較の結果に基づいて、閾値mpthより大
なる入力の総和mpが得られることになる算出回数と閾値
mpth以下の入力の総和mpが得られることになる算出回数
との比率として、64個の入力層ニューロンユニットに
おけるオン出力とオフ出力との比率が求められる。そし
て、求められた比率に基づき、三層神経回路網Xの汎化
能力を判定して評価する。
When the sum mp of inputs obtained by each calculation is larger than the threshold value mpth, that is, when mp> mpth, the intermediate layer neuron unit is in the ON output state. For the intermediate layer neuron unit to take on output state,
Based on the result of comparison of the sum of inputs in the input layer neuron unit with the threshold mpth, the number of calculations and the threshold at which a sum mp of inputs greater than the threshold mpth is obtained
The ratio between the ON output and the OFF output in the 64 input layer neuron units is obtained as the ratio to the number of calculations at which the sum mp of inputs equal to or less than mpth is obtained. Then, based on the obtained ratio, the generalization ability of the three-layer neural network X is determined and evaluated.

【0068】三層神経回路網Xについて本願発明者によ
り行われた実験の結果では、例えば、認識カテゴリ:
“B”に関しては、正値とされる入力・中間層間シナプ
ス伝達効率wij(IH)の数(maxh)が25,正値とされる入力
・中間層間シナプス伝達効率wij(IH)の値の平均値(ap)
が10.664, 負値とされる入力・中間層間シナプス伝達効
率wij(IH)の数(maxl)が39,負値とされる入力・中間層
間シナプス伝達効率wij(IH)の値の平均値(an)が−43.4
172 であり、64個の入力層ニューロンユニットのうち
のオン出力状態をとるべきものが13個反転してオフ出
力状態をとるものとなっても、16個の出力層ニューロ
ンユニットからの出力信号が教師信号とされることにな
って認識カテゴリ:“B”が適正に認識されることにな
った。
The results of an experiment conducted by the present inventor on the three-layer neural network X show that, for example, the recognition category:
Regarding “B”, the number (maxh) of the input / intermediate interlayer synapse transmission efficiencies wij (IH) as positive values is 25, and the average value of the input / intermediate interlayer synapse transmission efficiencies wij (IH) as positive values. Value (ap)
Is 10.664, the number of input / intermediate interlayer synapse transmission efficiencies wij (IH) as negative values (maxl) is 39, and the average value of input / interlayer synaptic transmission efficiencies wij (IH) as negative values (an ) Is −43.4
172. Even if 13 of the 64 input layer neuron units which should take the on output state are inverted to take the off output state, the output signals from the 16 output layer neuron units will be As a result, the recognition category: "B" is properly recognized.

【0069】[0069]

【発明の効果】以上の説明から明らかな如く、本発明に
係る神経回路網の構成方法の第1の態様(上述の本発明
に係る神経回路網の構成方法の第1,第2あるいは第3
の例によって例示される)によれば、複数個の入力層ニ
ューロンユニット,1個もしくは複数個の中間層ニュー
ロンユニット及び複数個もしくは1個の出力層ニューロ
ンユニットが、夫々についての入出力関数f(x) が不等
式:0<f(x) ≦1を成立させるものとして配されたも
とで、入力・中間層間シナプス伝達効率の初期値が、入
力層ニューロンユニットに対する入力が全て予め設定さ
れた最低レベルであるとき、中間層ニューロンユニット
の出力を予め設定された最低レベルとなすべく設定さ
れ、また、中間・出力層間シナプス伝達効率の初期値
が、1個の中間層ニューロンユニットもしくは複数個の
中間層ニューロンユニットの夫々の出力が予め設定され
た最低レベルであるとき、出力層ニューロンユニットの
出力を予め設定された最高レベルとなすべく設定され
る。そして、このような入力・中間層間シナプス伝達効
率の初期値及び中間・出力層間シナプス伝達効率の初期
値の設定がなされたもとで、バックプロパゲーションの
手法による学習を行って、入力・中間層間シナプス伝達
効率の値、及び、中間・出力層間シナプス伝達効率の値
を決定するものとされて、三層神経回路網が構成され
る。それにより、構成された神経回路網を、常に、優れ
た汎化能力を具えた内部構造を有するものとして得るこ
とができる。
As is clear from the above description, the first aspect of the method for constructing a neural network according to the present invention (the first, second or third aspect of the method for constructing a neural network according to the present invention described above).
), A plurality of input-layer neurons, one or more intermediate-layer neurons, and a plurality or one output-layer neuron unit include an input / output function f ( x) is arranged so as to satisfy the inequality: 0 <f (x) ≦ 1, and the initial value of the input-intermediate interlayer synaptic transmission efficiency is set to the minimum level at which all inputs to the input layer neuron unit are preset. At one time, the output of the intermediate layer neuron unit is set to be a predetermined minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is set to one intermediate layer neuron unit or a plurality of intermediate layer neurons. When the output of each of the units is at the preset lowest level, the output of the output layer neuron unit is set to the preset minimum level. It is set to make the level. Then, based on the setting of the initial value of the input / intermediate interlayer synapse transmission efficiency and the initial value of the intermediate / output interlayer synapse transmission efficiency, learning by the back propagation method is performed to perform the input / intermediate interlayer synapse transmission efficiency. It is assumed that the value of the efficiency and the value of the intermediate / output inter-layer synaptic transmission efficiency are determined, thereby forming a three-layer neural network. Thereby, the configured neural network can always be obtained as having an internal structure having excellent generalization ability.

【0070】また、本発明に係る神経回路網の構成方法
の第2の態様(上述の本発明に係る神経回路網の構成方
法の第1,第2あるいは第3の例によって例示される)
によれば、複数個の入力層ニューロンユニット,1個の
中間層ニューロンユニット及び複数個の出力層ニューロ
ンユニットを、夫々についての入出力関数f(x) が不等
式:0<f(x) ≦1を成立させるものとして有する単位
三層神経回路網が、複数の認識カテゴリに夫々対応させ
て複数個用意され、各単位三層神経回路網に関して、入
力・中間層間シナプス伝達効率の初期値が、入力層ニュ
ーロンユニットに対する入力が全て予め設定された最低
レベルであるとき、中間層ニューロンユニットの出力を
予め設定された最低レベルとなすべく設定され、また、
中間・出力層間シナプス伝達効率の初期値が、1個の中
間層ニューロンユニットもしくは複数個の中間層ニュー
ロンユニットの夫々の出力が予め設定された最低レベル
であるとき、出力層ニューロンユニットの出力を予め設
定された最高レベルとなすべく設定されたもとで、対応
する認識カテゴリに関しての学習がバックプロパゲーシ
ョンの手法により行われて、入力・中間層間のシナプス
伝達効率の値及び中間・出力層間のシナプス伝達効率の
値が決定される。そして、斯かる学習が行われた複数の
単位三層神経回路網について、夫々における複数個の入
力層ニューロンユニットの共通化及び夫々における複数
個の出力層ニューロンユニットの共通化がなされて、1
個の三層神経回路網が構成される。それにより、常に、
優れた汎化能力を具えた内部構造を有するものとされる
三層神経回路網を、学習が迅速に行われるもとで、比較
的容易に得ることができることになる。
Further, the second aspect of the method for constructing a neural network according to the present invention (exemplified by the first, second or third example of the method for constructing a neural network according to the present invention described above)
According to the above, the input / output function f (x) for each of a plurality of input layer neuron units, one intermediate layer neuron unit and a plurality of output layer neuron units is inequality: 0 <f (x) ≦ 1 A plurality of unit three-layer neural networks having the following conditions are prepared corresponding to a plurality of recognition categories, respectively, and for each unit three-layer neural network, the initial value of the input / intermediate interlayer synaptic transmission efficiency is set to the input value. When all inputs to the layer neuron unit are at the preset lowest level, the output of the hidden layer neuron unit is set to be the preset lowest level, and
When the initial value of the intermediate and output interlayer synapse transmission efficiency is the lowest level of each output of one intermediate layer neuron unit or a plurality of intermediate layer neuron units, the output of the output layer neuron unit is set in advance. Under the set maximum level, learning on the corresponding recognition category is performed by the backpropagation method, and the value of the synaptic transmission efficiency between the input and intermediate layers and the synapse transmission efficiency between the intermediate and output layers. Is determined. Then, for the plurality of unit three-layer neural networks on which the learning has been performed, the plurality of input layer neuron units are shared in each of the plurality of unit three-layer neural networks, and the plurality of output layer neuron units in each of the plurality are shared.
A three-layer neural network is configured. Thereby, always
A three-layer neural network having an internal structure with excellent generalization ability can be relatively easily obtained with rapid learning.

【0071】そして、本発明に係る神経回路網の学習方
法によれば、複数個の入力層ニューロンユニット,複数
の認識カテゴリに夫々対応する複数個の中間層ニューロ
ンユニット、及び、複数個の出力層ニューロンユニット
を有した三層神経回路網が、その入力・中間層間シナプ
ス伝達効率の初期値が、入力層ニューロンユニットに対
する入力が全て予め設定された最低レベルであるとき、
中間層ニューロンユニットの出力を予め設定された最低
レベルとなすべく設定されるとともに、その中間・出力
層間シナプス伝達効率の初期値が、中間層ニューロンユ
ニットの出力が予め設定された最低レベルであるとき、
出力層ニューロンユニットの出力を予め設定された最高
レベルとなすべく設定されたもとで、複数の認識カテゴ
リの夫々に関しての学習が、複数の認識カテゴリの夫々
に対応する1個の中間層ニューロンユニットに関わるシ
ナプス伝達効率のみを学習対象としてバックプロパゲー
ションの手法によって行われ、それによって、入力・中
間層間シナプス伝達効率の値及び中間・出力層間シナプ
ス伝達効率の値が決定されるものとされる。その結果、
学習後の入力・中間層間シナプス伝達効率の値及び中間
・出力層間シナプス伝達効率の値に基づいて、三層神経
回路網の汎化能力を比較的容易に評価できることにな
る。
According to the neural network learning method of the present invention, a plurality of input layer neuron units, a plurality of intermediate layer neuron units respectively corresponding to a plurality of recognition categories, and a plurality of output layer neurons. When the three-layer neural network having the neuron unit has an initial value of the input / intermediate interlayer synaptic transmission efficiency, all the inputs to the input layer neuron unit are at the preset minimum level,
When the output of the intermediate layer neuron unit is set to be the preset minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is the preset minimum level of the output of the intermediate layer neuron unit. ,
Under the condition that the output of the output layer neuron unit is set to be a preset highest level, learning for each of the plurality of recognition categories involves one intermediate layer neuron unit corresponding to each of the plurality of recognition categories. The synapse transmission efficiency is learned only by the back propagation method, and the value of the input / middle layer synapse transmission efficiency and the value of the intermediate / output layer synapse transmission efficiency are determined. as a result,
The generalization ability of the three-layer neural network can be relatively easily evaluated based on the value of the input / intermediate interlayer synapse transmission efficiency and the value of the intermediate / output interlayer synapse transmission efficiency after learning.

【0072】さらに、本発明に係る神経回路網の汎化能
力評価方法によれば、複数個の入力層ニューロンユニッ
ト,複数の認識カテゴリに夫々対応する複数個の中間層
ニューロンユニット、及び、複数個の出力層ニューロン
ユニットを有した三層神経回路網が、その入力・中間層
間シナプス伝達効率の初期値が、入力層ニューロンユニ
ットに対する入力が全て予め設定された最低レベルであ
るとき、中間層ニューロンユニットの出力を予め設定さ
れた最低レベルとなすべく設定されるとともに、その中
間・出力層間シナプス伝達効率の初期値が、中間層ニュ
ーロンユニットの出力が予め設定された最低レベルであ
るとき、出力層ニューロンユニットの出力を予め設定さ
れた最高レベルとなすべく設定されたもとで、複数の認
識カテゴリの夫々に関しての学習が、複数の認識カテゴ
リの夫々に対応する1個の中間層ニューロンユニットに
関わるシナプス伝達効率のみを学習対象としてバックプ
ロパゲーションの手法によって行われ、それによって、
入力・中間層間シナプス伝達効率の値及び中間・出力層
間シナプス伝達効率の値が決定され、さらに、学習成立
後における中間層ニューロンユニットの夫々がオン出力
状態をとることになる入力層ニューロンユニットにおけ
るオン出力とオフ出力との比率が求められて、それに基
づいて汎化能力が判定されるものとなされる。その結
果、三層神経回路網の汎化能力の評価を、迅速かつ比較
的容易に行えることになる。
Further, according to the method for evaluating generalization ability of a neural network according to the present invention, a plurality of input layer neuron units, a plurality of intermediate layer neuron units respectively corresponding to a plurality of recognition categories, and a plurality of When the initial value of the input / intermediate interlayer synaptic transmission efficiency is the minimum level of all the inputs to the input layer neuron unit, the three-layer neural network having the output layer neuron unit The output of the output layer neuron is set when the output of the intermediate layer neuron unit is set to the preset minimum level, and the initial value of the intermediate / output interlayer synaptic transmission efficiency is the preset minimum level. Each of the multiple recognition categories, with the unit output set to the highest preset level Learning of regarding, performed by a technique of back propagation plurality of recognition categories each only synaptic transmission efficiency involved in one hidden neuron unit corresponding to a learning target, whereby,
The values of the input and intermediate interlayer synapse transmission efficiencies and the values of the intermediate and output interlayer synapse transmission efficiencies are determined, and furthermore, after learning is completed, each of the intermediate layer neuron units will be in the on-output state. The ratio between the output and the off output is determined, and the generalization ability is determined based on the ratio. As a result, the generalization ability of the three-layer neural network can be quickly and relatively easily evaluated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る神経回路網の構成方法の第1の例
により構成される三層神経回路網を示す接続構成図であ
る。
FIG. 1 is a connection configuration diagram illustrating a three-layer neural network configured by a first example of a method of configuring a neural network according to the present invention.

【図2】本発明に係る神経回路網の構成方法の第1の例
に従って三層神経回路網を構成する過程の説明に供され
る概念図である。
FIG. 2 is a conceptual diagram explaining a process of configuring a three-layer neural network according to a first example of a neural network configuring method according to the present invention.

【図3】本発明に係る神経回路網の構成方法の第1の例
に従って三層神経回路網を構成する過程の説明に供され
る概念図である。
FIG. 3 is a conceptual diagram for explaining a process of configuring a three-layer neural network according to a first example of a neural network configuring method according to the present invention.

【図4】本発明に係る神経回路網の構成方法の第1の例
に従って三層神経回路網を構成する過程の説明に供され
る図である。
FIG. 4 is a diagram for explaining a process of configuring a three-layer neural network according to a first example of a neural network configuring method according to the present invention.

【図5】本発明に係る神経回路網の構成方法の第1の例
に従って三層神経回路網を構成する過程の説明に供され
る図である。
FIG. 5 is a diagram for explaining a process of configuring a three-layer neural network according to a first example of a method of configuring a neural network according to the present invention.

【図6】本発明に係る神経回路網の構成方法の第1の例
に従って構成された三層神経回路網の説明に供される図
である。
FIG. 6 is a diagram provided for describing a three-layer neural network configured according to a first example of a method of configuring a neural network according to the present invention.

【図7】本発明に係る神経回路網の構成方法の第1の例
に従って構成された三層神経回路網の説明に供される図
である。
FIG. 7 is a diagram provided for explanation of a three-layer neural network configured according to a first example of a method of configuring a neural network according to the present invention.

【図8】本発明に係る神経回路網の構成方法の第1の例
に従って構成された三層神経回路網の説明に供される図
である。
FIG. 8 is a diagram provided for describing a three-layer neural network configured according to a first example of a method of configuring a neural network according to the present invention.

【図9】本発明に係る神経回路網の構成方法の第1の例
に従って構成された三層神経回路網の説明に供される図
である。
FIG. 9 is a diagram provided for explanation of a three-layer neural network configured according to a first example of a method of configuring a neural network according to the present invention.

【図10】本発明に係る神経回路網の構成方法の第2の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 10 is a diagram for explaining a process of configuring a three-layer neural network according to a second example of the method of configuring a neural network according to the present invention.

【図11】本発明に係る神経回路網の構成方法の第2の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 11 is a diagram for explaining a process of configuring a three-layer neural network according to a second example of the neural network configuration method according to the present invention.

【図12】本発明に係る神経回路網の構成方法の第2の
例に従って構成された三層神経回路網の説明に供される
図である。
FIG. 12 is a diagram provided for describing a three-layer neural network configured according to a second example of the method of configuring a neural network according to the present invention.

【図13】本発明に係る神経回路網の構成方法の第2の
例に従って構成された三層神経回路網の説明に供される
図である。
FIG. 13 is a diagram provided for explanation of a three-layer neural network configured according to a second example of the method for configuring a neural network according to the present invention.

【図14】本発明に係る神経回路網の構成方法の第3の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 14 is a diagram provided to explain a process of configuring a three-layer neural network according to a third example of the method of configuring a neural network according to the present invention.

【図15】本発明に係る神経回路網の構成方法の第3の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 15 is a diagram for explaining a process of configuring a three-layer neural network according to a third example of the method of configuring a neural network according to the present invention.

【図16】本発明に係る神経回路網の構成方法の第3の
例に従って構成された三層神経回路網の説明に供される
図である。
FIG. 16 is a diagram provided for describing a three-layer neural network configured according to a third example of the method of configuring a neural network according to the present invention.

【図17】本発明に係る神経回路網の構成方法の第3の
例に従って構成された三層神経回路網の説明に供される
図である。
FIG. 17 is a diagram provided for describing a three-layer neural network configured according to a third example of the method of configuring a neural network according to the present invention.

【図18】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 18 is a diagram provided to explain a process of configuring a three-layer neural network according to a fourth example of the method of configuring a neural network according to the present invention.

【図19】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる概念図である。
FIG. 19 is a conceptual diagram explaining a process of configuring a three-layer neural network according to a fourth example of a neural network configuring method according to the present invention.

【図20】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 20 is a diagram provided to explain a process of configuring a three-layer neural network according to a fourth example of the method of configuring a neural network according to the present invention.

【図21】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 21 is a diagram for explaining a process of configuring a three-layer neural network according to a fourth example of a neural network configuring method according to the present invention.

【図22】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 22 is a diagram provided for describing a process of configuring a three-layer neural network according to a fourth example of a method of configuring a neural network according to the present invention.

【図23】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 23 is a diagram provided to explain a process of configuring a three-layer neural network according to a fourth example of a method of configuring a neural network according to the present invention.

【図24】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 24 is a diagram provided to explain a process of configuring a three-layer neural network according to a fourth example of a method of configuring a neural network according to the present invention.

【図25】本発明に係る神経回路網の構成方法の第4の
例に従って三層神経回路網を構成する過程の説明に供さ
れる図である。
FIG. 25 is a diagram for explaining a process of configuring a three-layer neural network according to a fourth example of the method of configuring a neural network according to the present invention.

【図26】本発明に係る神経回路網の構成方法の第4の
例により構成される三層神経回路網を示す接続構成図で
ある。
FIG. 26 is a connection configuration diagram showing a three-layer neural network configured by a fourth example of the method for configuring a neural network according to the present invention.

【図27】本発明に係る神経回路網の構成方法の第4の
例に従って構成された三層神経回路網の説明に供される
概念図である。
FIG. 27 is a conceptual diagram serving to illustrate a three-layer neural network configured according to a fourth example of a method for configuring a neural network according to the present invention.

【図28】本発明に係る神経回路網の構成方法の第4の
例に従って構成された三層神経回路網の説明に供される
図である。
FIG. 28 is a diagram provided for explanation of a three-layer neural network configured according to a fourth example of the method for configuring a neural network according to the present invention.

【符号の説明】[Explanation of symbols]

SA1〜SA3,SA62〜SA64 入力層ニュー
ロンユニット SBa1〜SBa3,SBa62〜SBa64 入力
層ニューロンユニット SBz1〜SBz3,SBz62〜SBz64 入力
層ニューロンユニット SB1〜SB3,SB62〜SB64 入力層ニュー
ロンユニット AA1〜AA5 中間層ニューロンユニット AB1〜AB3,AB24〜AB26 中間層ニュー
ロンユニット RA1,RA2,RA15,RA16 出力層ニュー
ロンユニット RBa1,RBa2,RBa15,RBa16 出力
層ニューロンユニット RBz1,RBz2,RBz15,RBz16 出力
層ニューロンユニット RAB,RB2,RB16,RB16 出力層ニュー
ロンユニット
SA1 to SA3, SA62 to SA64 Input layer neuron unit SBa1 to SBa3, SBa62 to SBa64 Input layer neuron unit SBz1 to SBz3, SBz62 to SBz64 Input layer neuron unit SB1 to SB3, SB62 to SB64 Input layer neuron unit AA1 to AA5 Middle layer neuron Units AB1 to AB3, AB24 to AB26 Intermediate layer neuron units RA1, RA2, RA15, RA16 Output layer neuron units RBa1, RBa2, RBa15, RBa16 Output layer neuron units RBz1, RBz2, RBz15, RBz16 Output layer neuron units RAB, RB2, RB16 , RB16 output layer neuron unit

フロントページの続き (56)参考文献 特開 平3−201159(JP,A) 二木徹,「識別問題におけるバックプ ロパゲーションアルゴリズムの初期値決 定法」,電気学会論文誌C,日本,社団 法人電気学会・発行,1990年3月20日, Vol.110,No.3,pp.119− 125,特許庁CSDB文献番号:CSN T199900303002 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁) WPI/L(DIALOG) INSPEC(DIALOG)Continuation of the front page (56) References JP-A-3-201159 (JP, A) Toru Niki, "Method of Determining Initial Value of Backpropagation Algorithm in Identification Problem", IEICE Transactions C, Japan, Japan Corporation Published by The Institute of Electrical Engineers of Japan, March 20, 1990, Vol. 110, no. 3, pp. 119-125, JPO CSDB Document No .: CSN T199900303002 (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 JST file (JOIS) CSDB (Japanese patent Agency) WPI / L (DIALOG) INSPEC (DIALOG)

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数個の入力層ニューロンユニット,該入
力層ニューロンユニットの夫々に結合された1個もしく
は複数個の中間層ニューロンユニット、及び、該中間層
ニューロンユニットに結合された複数個もしくは1個の
出力層ニューロンユニットを、夫々についての入出力関
数f(x) が不等式:0<f(x) ≦1を成立させるものと
して配し、 上記入力層ニューロンユニットの夫々とそれに結合され
た上記中間層ニューロンユニットとの間のシナプス伝達
効率の初期値を、上記入力層ニューロンユニットに対す
る入力が全て予め設定された最低レベルであるとき、上
記中間層ニューロンユニットの出力を予め設定された最
低レベルとなすべく設定するとともに、 上記1個の中間層ニューロンユニットもしくは上記複数
個の中間層ニューロンユニットの夫々とそれに結合され
た上記出力層ニューロンユニットとの間のシナプス伝達
効率の初期値を、上記1個の中間層ニューロンユニット
もしくは上記複数個の中間層ニューロンユニットの夫々
の出力が予め設定された最低レベルであるとき、上記出
力層ニューロンユニットの出力を予め設定された最高レ
ベルとなすべく設定したもとで、 バックプロパゲーションの手法による学習を行って、上
記入力層ニューロンユニットの夫々とそれに結合された
上記中間層ニューロンユニットとの間のシナプス伝達効
率の値、及び、上記1個の中間層ニューロンユニットも
しくは上記複数個の中間層ニューロンユニットの夫々と
それに結合された上記出力層ニューロンユニットとの間
のシナプス伝達効率の値を決定することを特徴とする神
経回路網の構成方法。
A plurality of input layer neuron units, one or more intermediate layer neuron units connected to each of the input layer neuron units, and a plurality of one or more neuron units connected to the intermediate layer neuron unit The output layer neuron units are arranged such that the input / output function f (x) for each of them satisfies the inequality: 0 <f (x) ≦ 1, and each of the input layer neuron units is connected to the input layer neuron unit. The initial value of the synaptic transmission efficiency between the hidden layer neuron unit and the output of the hidden layer neuron unit is set to a predetermined minimum level when all the inputs to the input layer neuron unit are at the preset minimum level. And the intermediate layer neuron unit or the plurality of intermediate layer neuron units. The initial value of the synaptic transmission efficiency between each of the knits and the output layer neuron unit connected thereto is set in advance by the output of each of the one intermediate layer neuron unit or the plurality of intermediate layer neuron units. When the output level is at the lowest level, the output layer neuron unit is set to be at the preset highest level, and learning by the back propagation method is performed, and each of the input layer neuron units and the The value of the synaptic transmission efficiency between the coupled intermediate layer neuron unit and the intermediate layer neuron unit or the plurality of intermediate layer neuron units and the output layer neuron unit coupled thereto; Neural network for determining the value of synaptic transmission efficiency during Configuration method.
【請求項2】各々が入力層ニューロンユニットの夫々に
結合された複数個の中間層ニューロンユニットを配すと
ともに、各々が上記複数個の中間層ニューロンユニット
の夫々に結合された複数個の出力層ニューロンユニット
を配することを特徴とする請求項1記載の神経回路網の
構成方法。
2. A plurality of intermediate layer neuron units each coupled to each of the input layer neuron units, and a plurality of output layers each coupled to each of the plurality of intermediate layer neuron units. 2. The method according to claim 1, further comprising disposing a neuron unit.
【請求項3】複数個の入力層ニューロンユニット,該入
力層ニューロンユニットの夫々に結合された1個の中間
層ニューロンユニット、及び、該中間層ニューロンユニ
ットに結合された複数個の出力層ニューロンユニット
を、夫々についての入出力関数f(x) が不等式:0<f
(x) ≦1を成立させるものとして有する単位三層神経回
路網を、複数の認識カテゴリに夫々対応させて複数個用
意し、 該単位三層神経回路網の各々について、上記入力層ニュ
ーロンユニットの夫々とそれに結合された上記中間層ニ
ューロンユニットとの間のシナプス伝達効率の初期値
を、上記入力層ニューロンユニットに対する入力が全て
予め設定された最低レベルであるとき、上記中間層ニュ
ーロンユニットの出力を予め設定された最低レベルとな
すべく設定するとともに、上記中間層ニューロンユニッ
トとそれに結合された上記出力層ニューロンユニットと
の間のシナプス伝達効率の初期値を、上記中間層ニュー
ロンユニットの出力が予め設定された最低レベルである
とき、上記出力層ニューロンユニットの出力を予め設定
された最高レベルとなすべく設定したもとで、対応する
認識カテゴリに関しての学習をバックプロパゲーション
の手法により行って、上記入力層ニューロンユニットの
夫々とそれに結合された上記中間層ニューロンユニット
との間のシナプス伝達効率の値、及び、上記中間層ニュ
ーロンユニットとそれに結合された上記出力層ニューロ
ンユニットとの間のシナプス伝達効率の値を決定し、 上記学習が行われた複数の単位三層神経回路網につい
て、夫々における複数個の入力層ニューロンユニットの
共通化及び夫々における複数個の出力層ニューロンユニ
ットの共通化を行って1個の三層神経回路網を得ること
を特徴とする神経回路網の構成方法。
3. A plurality of input layer neuron units, one hidden layer neuron unit connected to each of the input layer neuron units, and a plurality of output layer neuron units connected to the hidden layer neuron unit. And the input / output function f (x) for each is inequality: 0 <f
(x) A plurality of unit three-layer neural networks having a condition that satisfies ≦ 1 are prepared in correspondence with a plurality of recognition categories, respectively, and for each of the unit three-layer neural networks, The initial value of the synaptic transmission efficiency between each of them and the above-mentioned hidden neuron unit is set to the output of the hidden neuron unit when all the inputs to the above-mentioned input neuron unit are at a preset minimum level. The output of the intermediate layer neuron unit sets an initial value of the synaptic transmission efficiency between the intermediate layer neuron unit and the output layer neuron unit coupled thereto, in addition to setting the level to be a predetermined minimum level. When the output level is the lowest level, the output of the output layer neuron unit is set to the preset highest level. Under the setting, the learning of the corresponding recognition category is performed by the back propagation method, and the synaptic transmission between each of the input layer neuron units and the intermediate layer neuron unit connected thereto is performed. Determining the value of the efficiency and the value of the synaptic transmission efficiency between the intermediate layer neuron unit and the output layer neuron unit coupled thereto, for a plurality of unit three-layer neural networks on which the learning has been performed, A method for constructing a neural network, characterized in that a plurality of input layer neuron units in each of them are shared and a plurality of output layer neuron units in each of them are shared to obtain one three-layer neural network.
【請求項4】複数個の入力層ニューロンユニット,該入
力層ニューロンユニットの夫々に結合された、複数の認
識カテゴリに夫々対応する複数個の中間層ニューロンユ
ニット、及び、該中間層ニューロンユニットの夫々に結
合された複数個の出力層ニューロンユニットを有し、該
入力層ニューロンユニット,中間層ニューロンユニット
及び出力層ニューロンユニットの夫々についての入出力
関数f(x) が不等式:0<f(x) ≦1を成立させるもの
とされた三層神経回路網について、 上記入力層ニューロンユニットの夫々とそれに結合され
た上記中間層ニューロンユニットとの間のシナプス伝達
効率の初期値を、上記入力層ニューロンユニットに対す
る入力が全て予め設定された最低レベルであるとき、上
記中間層ニューロンユニットの出力を予め設定された最
低レベルとなすべく設定するとともに、上記中間層ニュ
ーロンユニットとそれに結合された上記出力層ニューロ
ンユニットとの間のシナプス伝達効率の初期値を、上記
中間層ニューロンユニットの出力が予め設定された最低
レベルであるとき、上記出力層ニューロンユニットの出
力を予め設定された最高レベルとなすべく設定したもと
で、 上記複数の認識カテゴリの夫々に関しての学習を、該複
数の認識カテゴリの夫々に対応する1個の中間層ニュー
ロンユニットに関わるシナプス伝達効率のみを学習対象
としてバックプロパゲーションの手法によって行うこと
により、上記入力層ニューロンユニットの夫々とそれに
結合された上記中間層ニューロンユニットとの間のシナ
プス伝達効率の値、及び、上記中間層ニューロンユニッ
トの夫々とそれに結合された上記出力層ニューロンユニ
ットとの間のシナプス伝達効率の値を決定することを特
徴とする神経回路網の学習方法。
4. A plurality of input-layer neuron units, a plurality of intermediate-layer neuron units respectively connected to a plurality of recognition categories, respectively connected to each of the input-layer neuron units, and each of the intermediate-layer neuron units. And the input / output function f (x) for each of the input layer neuron unit, the intermediate layer neuron unit and the output layer neuron unit is inequality: 0 <f (x) For a three-layer neural network that satisfies ≦ 1, the initial value of the synaptic transmission efficiency between each of the input-layer neuron units and the intermediate-layer neuron unit coupled thereto is defined as: When all inputs to are at the preset minimum level, the output of the above hidden neuron unit is predicted. The initial value of the synaptic transmission efficiency between the intermediate layer neuron unit and the output layer neuron unit connected thereto is set in advance to set the lowest level, and the output of the intermediate layer neuron unit is preset. When the output level is the lowest level, the learning of each of the plurality of recognition categories is performed for each of the plurality of recognition categories under the condition that the output of the output layer neuron unit is set to be the highest level set in advance. By performing only the synaptic transmission efficiency relating to one corresponding intermediate layer neuron unit as a learning target by the back propagation method, the communication between each of the input layer neuron units and the intermediate layer neuron unit coupled thereto is performed. The value of the synaptic transmission efficiency, Learning neural network, characterized in that to determine the value of synaptic transmission efficiency between the bets each and coupled the output layer neuron units to it.
【請求項5】複数個の入力層ニューロンユニット,該入
力層ニューロンユニットの夫々に結合された、複数の認
識カテゴリに夫々対応する複数個の中間層ニューロンユ
ニット、及び、該中間層ニューロンユニットの夫々に結
合された複数個の出力層ニューロンユニットを有し、該
入力層ニューロンユニット,中間層ニューロンユニット
及び出力層ニューロンユニットの夫々についての入出力
関数f(x) が不等式:0<f(x) ≦1を成立させるもの
とされた三層神経回路網について、 上記入力層ニューロンユニットの夫々とそれに結合され
た上記中間層ニューロンユニットとの間のシナプス伝達
効率の初期値を、上記入力層ニューロンユニットに対す
る入力が全て予め設定された最低レベルであるとき、上
記中間層ニューロンユニットの出力を予め設定された最
低レベルとなすべく設定するとともに、上記中間層ニュ
ーロンユニットとそれに結合された上記出力層ニューロ
ンユニットとの間のシナプス伝達効率の初期値を、上記
中間層ニューロンユニットの出力が予め設定された最低
レベルであるとき、上記出力層ニューロンユニットの出
力を予め設定された最高レベルとなすべく設定したもと
で、 上記複数の認識カテゴリの夫々に関しての学習を、該複
数の認識カテゴリの夫々に対応する1個の中間層ニュー
ロンユニットに関わるシナプス伝達効率のみを学習対象
としてバックプロパゲーションの手法によって行うこと
により、上記入力層ニューロンユニットの夫々とそれに
結合された上記中間層ニューロンユニットとの間のシナ
プス伝達効率の値、及び、上記中間層ニューロンユニッ
トの夫々とそれに結合された上記出力層ニューロンユニ
ットとの間のシナプス伝達効率の値を決定し、 上記学習成立後における上記中間層ニューロンユニット
の夫々がオン出力状態をとることになる入力層ニューロ
ンユニットにおけるオン出力とオフ出力との比率を求
め、 求められた比率に基づいて上記三層神経回路網について
の汎化能力を判定することを特徴とする神経回路網の汎
化能力評価方法。
5. A plurality of input-layer neuron units, a plurality of intermediate-layer neuron units respectively connected to a plurality of recognition categories, each of which is connected to each of the input-layer neuron units, and each of the intermediate-layer neuron units. And the input / output function f (x) for each of the input layer neuron unit, the intermediate layer neuron unit and the output layer neuron unit is inequality: 0 <f (x) For a three-layer neural network that satisfies ≦ 1, the initial value of the synaptic transmission efficiency between each of the input-layer neuron units and the intermediate-layer neuron unit coupled thereto is defined as: When all inputs to are at the preset minimum level, the output of the above hidden neuron unit is predicted. The initial value of the synaptic transmission efficiency between the intermediate layer neuron unit and the output layer neuron unit connected thereto is set in advance to set the lowest level, and the output of the intermediate layer neuron unit is preset. When the output level is the lowest level, the learning of each of the plurality of recognition categories is performed for each of the plurality of recognition categories under the condition that the output of the output layer neuron unit is set to be the highest level set in advance. By performing only the synaptic transmission efficiency relating to one corresponding intermediate layer neuron unit as a learning target by the back propagation method, the communication between each of the input layer neuron units and the intermediate layer neuron unit coupled thereto is performed. The value of the synaptic transmission efficiency, And determining the value of the synaptic transmission efficiency between each of the input layer neurons and the output layer neuron unit connected to the input layer neuron. A generalization capability evaluation method for a neural network, comprising: determining a ratio between an ON output and an OFF output in a unit; and determining a generalization capability of the three-layer neural network based on the determined ratio.
【請求項6】学習成立後における中間層ニューロンユニ
ットの夫々がオン出力状態をとることになる入力層ニュ
ーロンユニットにおけるオン出力とオフ出力との比率
を、上記入力層ニューロンユニットの夫々とそれに結合
された上記中間層ニューロンユニットとの間のシナプス
伝達効率のうちの正の値をとるものの平均値及び負の値
をとるものの平均値とを用いて算出することを特徴とす
る請求項5記載の神経回路網の汎化能力評価方法。
6. The ratio between the on output and the off output of the input layer neuron unit, in which each of the intermediate layer neuron units takes the on output state after learning is established, is connected to each of the input layer neuron units. 6. The neural network according to claim 5, wherein the average value of the synaptic transmission efficiencies with the intermediate layer neuron unit is calculated using an average value of those having a positive value and an average value of those having a negative value. A method for evaluating the generalization ability of a network.
JP05408093A 1993-03-15 1993-03-15 Neural network construction method, learning method, and generalization ability evaluation method Expired - Fee Related JP3304476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05408093A JP3304476B2 (en) 1993-03-15 1993-03-15 Neural network construction method, learning method, and generalization ability evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05408093A JP3304476B2 (en) 1993-03-15 1993-03-15 Neural network construction method, learning method, and generalization ability evaluation method

Publications (2)

Publication Number Publication Date
JPH06266689A JPH06266689A (en) 1994-09-22
JP3304476B2 true JP3304476B2 (en) 2002-07-22

Family

ID=12960640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05408093A Expired - Fee Related JP3304476B2 (en) 1993-03-15 1993-03-15 Neural network construction method, learning method, and generalization ability evaluation method

Country Status (1)

Country Link
JP (1) JP3304476B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611892B (en) * 2020-05-14 2024-03-19 龙立强人工智能科技(苏州)有限公司 Comprehensive intelligent deep learning method using neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
二木徹,「識別問題におけるバックプロパゲーションアルゴリズムの初期値決定法」,電気学会論文誌C,日本,社団法人電気学会・発行,1990年3月20日,Vol.110,No.3,pp.119−125,特許庁CSDB文献番号:CSNT199900303002

Also Published As

Publication number Publication date
JPH06266689A (en) 1994-09-22

Similar Documents

Publication Publication Date Title
US11922293B2 (en) Computing device, a system and a method for parallel processing of data streams
US8275727B2 (en) Hardware analog-digital neural networks
US4979126A (en) Neural network with non-linear transformations
Klyachko et al. Connectivity optimization and the positioning of cortical areas
US20090187736A1 (en) Computing Device, a System and a Method for Parallel Processing of Data Streams
Lehtokangas et al. Initializing weights of a multilayer perceptron network by using the orthogonal least squares algorithm
Montana Neural network weight selection using genetic algorithms
WO2000016212A1 (en) Method and apparatus for neural networking using semantic attractor architecture
CN112085615A (en) Method and device for training graph neural network
CN114419878B (en) Method, electronic device and storage medium for predicting urban road network global traffic state
Kim et al. Robust design of multilayer feedforward neural networks: an experimental approach
CN114065307A (en) Hardware Trojan horse detection method and system based on bipartite graph convolutional neural network
JP3304476B2 (en) Neural network construction method, learning method, and generalization ability evaluation method
Khorashadizade et al. An intelligent feature selection method using binary teaching-learning based optimization algorithm and ANN
CN111797979A (en) Vibration transmission system based on LSTM model
CN116304940A (en) Analog circuit fault diagnosis method based on long-short-term memory neural network
Sarevska et al. Alternative signal detection for neural network-based smart antenna
Mangal et al. Analysis of pattern classification for the multidimensional parity-bit-checking problem with hybrid evolutionary feed-forward neural network
Yao et al. Getting most out of evolutionary approaches
Parbhane et al. ANN modeling of DNA sequences: new strategies using DNA shape code
JP3287738B2 (en) Relational function search device
Wilkowski et al. Application of artificial neural networks for real estate valuation
Franco et al. On a generalization complexity measure for Boolean functions
Wong et al. Combining the performance strengths of the logistic regression and neural network models: a medical outcomes approach
Abbas et al. An adaptive evolutionary algorithm for Volterra system identification

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees