JP2900427B2 - Neural net - Google Patents

Neural net

Info

Publication number
JP2900427B2
JP2900427B2 JP1241444A JP24144489A JP2900427B2 JP 2900427 B2 JP2900427 B2 JP 2900427B2 JP 1241444 A JP1241444 A JP 1241444A JP 24144489 A JP24144489 A JP 24144489A JP 2900427 B2 JP2900427 B2 JP 2900427B2
Authority
JP
Japan
Prior art keywords
output
input
layer
signal
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1241444A
Other languages
Japanese (ja)
Other versions
JPH03102563A (en
Inventor
光雄 石井
能一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1241444A priority Critical patent/JP2900427B2/en
Publication of JPH03102563A publication Critical patent/JPH03102563A/en
Application granted granted Critical
Publication of JP2900427B2 publication Critical patent/JP2900427B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 〔概要〕 パターン認識等を処理するための、ニューラルネット
の構成に関し、 ニューラルネットを所要状態に設定するための所要の
重みを計算によって求めることにより、多次元入力信号
空間の所要領域のカテゴライズを効率よく実行できるよ
うにしたニューラルネットを目的とし、 1又は複数のセルを有し、各該セルは、n次元入力信
号空間の所要の各島領域に対応して設けられて、入力層
と、中間層と、出力層とを有し、該入力層はn個の入力
端子を有し、該各入力端子は各入力信号に対応し、該中
間層は2n個の中間ノードを有し、各2個ごとの該中間ノ
ードが該各入力端子ごとに接続し、該各中間ノードは、
該接続する入力端子からの入力信号に各設定された重み
を乗じた値と各設定されたバイアスとを、所定の関数の
入力として、該関数値を出力し、該出力層は所要数の出
力ノードを有し、該各出力ノードがすべての該中間ノー
ドと接続し、該各出力ノードは、該接続する各中間ノー
ドの出力に各設定された重みを乗じた値と各設定された
バイアスとを、所定の関数の入力として、該関数値を出
力信号として出力し、各該セルは、当該セルに対応する
該島領域について、所要の該出力信号を出力するよう
に、該各重みと該各バイアスが設定され、すべての該セ
ルの出力信号は、所定の和信号を生成するように結合さ
れて、該和信号が、すべての該セルの対応する該島領域
を結合した領域内の入力信号に対する所要の出力値にな
るように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Overview] Regarding a configuration of a neural network for processing pattern recognition and the like, a multidimensional input signal space is obtained by calculating required weights for setting a neural network to a required state. The purpose of the present invention is to provide a neural network capable of efficiently performing the categorization of a required area having one or a plurality of cells, each of which is provided corresponding to each required island area in an n-dimensional input signal space. An input layer, an intermediate layer, and an output layer, the input layer having n input terminals, each of the input terminals corresponding to each input signal, and the intermediate layer having 2n intermediate layers. A node, wherein every two intermediate nodes are connected to each of the input terminals, each intermediate node comprising:
A value obtained by multiplying an input signal from the input terminal to be connected by each set weight and each set bias are input to a predetermined function, the function value is output, and the output layer outputs a required number of outputs. Each output node connects to all of the intermediate nodes, and each of the output nodes has a value obtained by multiplying the output of each of the connected intermediate nodes by each of the set weights and each of the set biases. As an input of a predetermined function, and outputs the function value as an output signal, and each cell outputs the required output signal for the island area corresponding to the cell, so that each of the weights and the Each bias is set, and the output signals of all the cells are combined to produce a predetermined sum signal such that the sum signal is the input signal in the area that combines the corresponding island areas of all the cells. It is configured to have a required output value for the signal.

〔産業上の利用分野〕[Industrial applications]

本発明は、パターン認識等を処理するための、ニュー
ラルネットの構成に関する。
The present invention relates to a configuration of a neural network for processing pattern recognition and the like.

〔従来の技術〕[Conventional technology]

公知のようにニューラルネットは、第5図に説明的に
示すように、例えば4入力、即ち4次元入力信号空間、
のニューラルネットの場合に、入力層、中間層、出力層
からなり、前の層の全ノードの出力を、各ノード入力ご
とに定められるある重みを乗じて次の層の全ノードに出
力し、それら入力の合計を入力とする所定の関数の値を
当ノードの出力とするように構成する。中間層は2層以
上の場合もあり、出力層のノードは必要な出力の種類数
により、2以上になってもよい。
As is well known, a neural network has, for example, four inputs, that is, a four-dimensional input signal space, as illustrated in FIG.
In the case of the neural network, the input layer, the intermediate layer, and the output layer, the output of all nodes of the previous layer is output to all nodes of the next layer by multiplying a certain weight determined for each node input, The value of a predetermined function that receives the sum of those inputs as an input is configured as the output of the node. The intermediate layer may have two or more layers, and the number of nodes in the output layer may be two or more depending on the number of required output types.

この関数には例えば、xを前記の入力合計値、eを自
然対数の底として、f(x)=1/(1+e-x)で表され
るシグモイド関数が用いられる。なお、図の入力層の第
4ノード及び中間層の第Iノードは何れも定数1.0を出
力するノードで、この出力に他のノードと同様に重みを
乗じたバイアスを次の層の1入力として、各ノード入力
に必要なバイアスを与える。
For this function, for example, a sigmoid function represented by f (x) = 1 / (1 + e− x ) is used, where x is the input sum and e is the base of natural logarithm. The fourth node in the input layer and the I-th node in the intermediate layer are nodes that output a constant of 1.0. A bias obtained by multiplying this output by a weight in the same manner as the other nodes is used as one input of the next layer. , And apply the necessary bias to each node input.

ニューラルネットによって画像等のパターン認識を行
う場合には、例えば文字の像から抽出した特徴量の信号
をニューラルネットの入力層の入力端子に入力して、出
力層の出力端子にその認識結果を得るようにする。
When performing pattern recognition of an image or the like by a neural network, for example, a signal of a feature amount extracted from a character image is input to an input terminal of an input layer of the neural network, and the recognition result is obtained at an output terminal of an output layer. To do.

文字等の画像パターンの認識の場合に入力する特徴量
としては、公知のように例えば文字画像を構成する線の
傾きに関する量が使用される。即ち第6図(a)に例示
するように、例えば適当な長さと幅のスリット22a等を
移動して文字画像25を走査し、スリットの枠内に入る文
字の黒線が占める面積の割合を、例えば全部白のとき
0、全部黒の時1.0とする値で出力する検出器を設け
る。
As a feature amount to be input in the case of recognizing an image pattern such as a character, for example, an amount related to the inclination of a line constituting the character image is used as is known. That is, as illustrated in FIG. 6 (a), for example, the character image 25 is scanned by moving the slit 22a or the like having an appropriate length and width, and the ratio of the area occupied by the black line of the character entering the slit frame is determined. For example, there is provided a detector which outputs a value of 0 when the color is all white and 1.0 when the color is all black.

ある基準線に対して傾きを例えば0°(縦線)、−45
°(右上がり斜線)、+45°(左上がり斜線)、及び90
°(横線)としたスリット22a〜22dによって走査し、検
出した各出力の最大値を採ることにより、4要素の文字
の特徴量が得られる。
For example, the inclination with respect to a certain reference line is 0 ° (vertical line), −45
° (upward diagonal), + 45 ° (upward diagonal), and 90
The scanning is performed by the slits 22a to 22d defined by ° (horizontal line), and the maximum value of each detected output is taken, thereby obtaining the characteristic amount of the four-element character.

この特徴量の各要素は、各スリットに近い傾きを持つ
線の、傾きの近さとその方向に延びている長さとを併せ
示す量が最も大きい線についての量を示す。更に詳細な
識別を要する場合には、例えば第6図(b)のようにパ
ターンの領域を4分割して、各領域について前記の特徴
量を求めて、合計16要素の特徴量として詳細化できる。
Each element of the feature amount indicates an amount of a line having a slope close to each slit and having the largest amount indicating both the closeness of the slope and the length extending in the direction. When further detailed identification is required, for example, as shown in FIG. 6 (b), the pattern area can be divided into four parts, and the above-described feature amount can be obtained for each area, and can be refined as a total of 16 element feature amounts. .

このような特徴量を表す0〜1.0の範囲の実数値の組
を、ニューラルネットの入力層の各ノードに入力し、例
えば「A」のパターンの特徴量を入力した場合に、Aと
認識したことを表す出力として例えば1.0、その他の場
合に0を出力するように学習させる。
A set of real values in the range of 0 to 1.0 representing such a feature amount is input to each node of the input layer of the neural network, and for example, when a feature amount of the pattern “A” is input, it is recognized as A. For example, learning is performed so as to output 1.0 as an output indicating that, and to output 0 in other cases.

ニューラルネットの学習は公知のように、特徴量等の
入力信号と、その入力からの所望の出力信号を示す教師
信号とをニューラルネットに入力することにより、各ノ
ード間の前記の重みを、例えばバックプロパゲーション
法等の所定のアルゴリズムにより、実際の出力信号と教
師信号との差に基いて変更し、この動作を反復して両信
号間の差を漸次減少させ、所定値以内の差に収束するこ
とによって、例えば「A」文字というカテゴリの中の1
パターンについての学習ができる。
As is known, neural network learning is performed by inputting an input signal such as a feature value or the like and a teacher signal indicating a desired output signal from the input to the neural network. By a predetermined algorithm such as the back propagation method, the change is made based on the difference between the actual output signal and the teacher signal, and this operation is repeated to gradually reduce the difference between the two signals and converge to a difference within a predetermined value. By doing so, for example, one of the categories "A"
Learn about patterns.

しかし、ある文字を認識させたい場合には、標準的な
パターンと共に、そのパターンから所要の範囲まで歪ん
だ多数のパターンについても、各々の特徴量を順次入力
して、認識出力を得るように学習させる必要があり、従
って認識率を高めるためには、認識すべきカテゴリの多
種の歪パターンについて、前記の特徴量を収集して学習
させる必要がある。この入力の所要数を減少することの
できる学習処理方法は、先に本出願人が出願した特願平
01-46927「ニューラルネット学習処理方法」に述べられ
ている。
However, when it is desired to recognize a certain character, learning is performed so as to obtain a recognition output by sequentially inputting the feature amounts of a large number of patterns distorted from the pattern to a required range together with the standard pattern. Therefore, in order to increase the recognition rate, it is necessary to collect and learn the above feature amounts for various types of distortion patterns of the category to be recognized. A learning processing method that can reduce the required number of inputs is described in Japanese Patent Application No.
01-46927 "Neural network learning processing method".

この方法によれば、入力信号空間上の或る点に対応す
る標準信号の入力について出力を1.0とする学習と、各
標準信号の周辺にとる入力信号について出力を0とする
学習とを行うと、ニューラルネットが関数値を内挿及び
外挿できる学習特性により、その周辺に囲まれる島状の
小空間内の全入力に対して、標準信号における出力1.0
から周辺における0へ緩やかに減少する出力値が内挿さ
れ、島領域の外側の出力は0が外挿される。第4図は1
次元空間を例として、入力信号xの標準信号値を0.8と
し、0.7〜0.9の区間を島とした場合について、xと出力
信号yとの関係を概念的に説明する図である。従って、
適当な間隔に設定する所要数の標準信号によって構成す
る島によって必要な部分空間を埋めることにより、部分
空間を点で埋める必要が無く、学習処理の量を減少する
ことができる。
According to this method, learning to set the output to 1.0 for an input of a standard signal corresponding to a certain point on the input signal space and learning to set the output to 0 for an input signal around each standard signal are performed. Because of the learning characteristic that the neural network can interpolate and extrapolate the function value, the output of the standard signal is 1.0 for all the inputs in the small island space surrounded by the surroundings.
The output value that gradually decreases from 0 to 0 in the periphery is interpolated, and 0 is extrapolated for the output outside the island area. Fig. 4 shows 1
FIG. 7 is a diagram conceptually illustrating a relationship between x and an output signal y in a case where a standard signal value of an input signal x is 0.8 and a section from 0.7 to 0.9 is an island, taking a dimension space as an example. Therefore,
By filling the required partial space with islands formed by the required number of standard signals set at appropriate intervals, it is not necessary to fill the partial space with points, and the amount of learning processing can be reduced.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかし、前記のように特徴量を詳細化する等のため
に、入力する特徴量の要素数を増加すると、ニューラル
ネットの各層のノード数が増加し、それに伴って各ノー
ドの規模が増大し、又中間層の層数も増やすことが必要
な場合もある。それと共に学習処理の収束時間が急速に
増大し、又、初期条件その他によって学習が収束しない
ケースも増加することが知られている。
However, as described above, when the number of elements of the input feature amount is increased in order to refine the feature amount, the number of nodes in each layer of the neural network increases, and the size of each node increases accordingly. In some cases, it is necessary to increase the number of intermediate layers. At the same time, it is known that the convergence time of the learning process rapidly increases, and the number of cases where the learning does not converge due to initial conditions or the like also increases.

又、前記のような従来のニューラルネットでは、一旦
学習が終わった後に、学習するデータを追加しようとす
ると、一般に以前のデータを含むすべての学習を再びや
り直さなければならない。
In addition, in the above-described conventional neural network, if data to be learned is to be added after the learning is once completed, generally, all learning including the previous data must be performed again.

本発明は、ニューラルネットを所要状態に設定するた
めの所要の重みを計算によって求めることにより、多次
元入力信号空間の所要領域のカテゴライズを効率よく実
行できるようにしたニューラルネットを目的とする。
It is an object of the present invention to provide a neural network capable of efficiently categorizing a required region of a multidimensional input signal space by calculating a required weight for setting the neural network to a required state.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は、本発明の構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of the present invention.

図はニューラルネットの構成を示し、1又は複数のセ
ル10を有し、各セル10は、n次元入力信号空間の所要の
各島領域に対応して設けられて、入力層11と、中間層12
と、出力層13とを有し、入力層11はn個の入力端子14を
有し、各入力端子14は各入力信号8に対応し、中間層12
は2n個の中間ノード15を有し、各2個ごとの中間ノード
15が各入力端子14ごとに接続し、各中間ノード15は、該
接続する入力端子14からの入力信号に各設定された重み
を乗じた値と各設定されたバイアスとを、所定の関数の
入力として、該関数値を出力し、出力層13は所要数の出
力ノード16を有し、各出力ノード16がすべての中間ノー
ド15と接続し、各出力ノード16は、該接続する各中間ノ
ード15の出力に各設定された重みを乗じた値と各設定さ
れたバイアスとを、所定の関数の入力として、該関数値
を出力信号9として出力し、各セル10は、当該セル10に
対応する該島領域について、所要の出力信号9を出力す
るように、該各重みと該各バイアスが設定され、すべて
のセル10の出力信号9は、所定の和信号を生成するよう
に結合部17で結合されて、該和信号が、すべての該セル
の対応する該島領域を結合した領域内の入力信号に対す
る所要の出力値になるように構成する。
FIG. 1 shows a configuration of a neural network, which has one or a plurality of cells 10, each cell 10 being provided corresponding to each required island region of an n-dimensional input signal space, an input layer 11 and an intermediate layer. 12
And an output layer 13. The input layer 11 has n input terminals 14. Each input terminal 14 corresponds to each input signal 8, and the intermediate layer 12
Has 2n intermediate nodes 15, each two intermediate nodes
15 is connected to each input terminal 14, and each intermediate node 15 calculates a value obtained by multiplying the input signal from the input terminal 14 to be connected by each set weight and each set bias by a predetermined function. Outputting the function value as an input, the output layer 13 has a required number of output nodes 16, each output node 16 is connected to all intermediate nodes 15, and each output node 16 is connected to each intermediate node A value obtained by multiplying the output of 15 by each set weight and each set bias are input to a predetermined function, the function value is output as an output signal 9, and each cell 10 corresponds to the cell 10. The weights and the biases are set so as to output a required output signal 9 for the island region, and the output signals 9 of all the cells 10 are combined by the combining unit 17 so as to generate a predetermined sum signal. And the sum signal combines the corresponding island regions of all the cells. It is configured so as to have a required output value with respect to an input signal within the region.

〔作用〕[Action]

以上のように構成されるニューラルネットにより、各
セル10を入力信号空間の所要の1個の島領域に対応させ
た場合に、その島領域を定義する入力信号の組に対し
て、例えば中心部の入力に対して1.0に近く、周辺部の
入力に対して0に近くなるようにするための各重み及び
バイアスの値を、後述のように計算することができる。
従って所要の1又は複数の島領域の各々に対してセル10
を設け、その出力を結合部17で結合して加算することに
より、所要の部分空間の入力信号に対応するニューラル
ネットを構成することができる。
When each cell 10 is made to correspond to a required one island region in the input signal space by the neural network configured as described above, for example, a center portion is defined with respect to a set of input signals defining the island region. The values of each weight and bias can be calculated to be close to 1.0 for the input of, and to be close to 0 for the peripheral input, as described below.
Thus, for each of the required one or more island regions, cell 10
Are provided, and the outputs thereof are combined by the combining unit 17 and added, whereby a neural network corresponding to the input signal of the required subspace can be configured.

〔実施例〕〔Example〕

第2図は本発明の原理を説明する図であり、第2図
(a)に示すように1次元空間にx=aを中心とする島
領域を設け、yで示すような出力を得るニューラルネッ
トを考えると、例えばa=0.8、両端を0.7及び0.9とし
た第4図と同様の結果は、第2図(b)に例示する重み
付けをしたニューラルネットによって実現できる。な
お、図において各ノード間を結ぶ線に付した値がそれぞ
れの重みであり、1.0と書かれたノードは前記の説明の
とおり、バイアスを発生するためのノードであり、中間
ノード及び出力ノードの関数はシグモイド関数とする。
FIG. 2 is a diagram for explaining the principle of the present invention. As shown in FIG. 2 (a), a one-dimensional space is provided with an island region centered at x = a, and a neural output is obtained as indicated by y. Considering the net, for example, a result similar to that of FIG. 4 where a = 0.8 and both ends of 0.7 and 0.9 can be realized by a weighted neural network exemplified in FIG. 2 (b). In the figure, the values attached to the lines connecting the nodes are the respective weights, and the node written as 1.0 is a node for generating a bias as described above, and is a node for the intermediate node and the output node. The function is a sigmoid function.

従って、中間ノードの出力をz1、z2としたとき、図の
ニューラルネットでは、 z1=1/(1+exp(−80x+60)) z2=1/(1+exp(80x−68)) y=1/(1+exp(−8z1−8z2+12)) となり、この式にxの値を代入してみれば、このニュー
ラルネットが所要の条件を満足することを確かめること
ができる。
Therefore, when the outputs of the intermediate nodes are z 1 and z 2 , in the illustrated neural network, z 1 = 1 / (1 + exp (−80x + 60)) z 2 = 1 / (1 + exp (80x−68)) y = 1 / (1 + exp (−8z 1 −8z 2 +12)). By substituting the value of x into this equation, it can be confirmed that this neural network satisfies the required condition.

次に2次元入力信号空間の場合を考え、島領域の形状
を第2図(c)のように、点(a1,a2)を中心とし座標
軸に並行な辺の長方形とすると、入力を1軸ごと独立に
考えて、それぞれ1次元のネットを適用し、両者を出力
層で結合することにより(d)に示す構成のニューラル
ネットで実現できることが分かる。
Next, considering the case of a two-dimensional input signal space, assuming that the shape of the island region is a rectangle having sides parallel to the coordinate axes with the point (a 1 , a 2 ) as the center as shown in FIG. It can be seen that a neural network having the configuration shown in (d) can be realized by independently considering each axis, applying a one-dimensional net to each of them, and connecting both at the output layer.

このような島領域を第2図(e)のように複数設ける
場合には、(f)に示すように、それぞれ1個の島領域
を担当する(d)のようなネットワークの出力の和を得
るように結合すればよい。
When a plurality of such island regions are provided as shown in FIG. 2E, as shown in FIG. 2F, the sum of the outputs of the network shown in FIG. What is necessary is to combine so that it may obtain.

以上の構成は、一般にn次元入力信号空間の場合に拡
張でき、その空間に面が座標軸に垂直なn次元超立方体
の島領域を設けるとすれば、第2図(b)の1次元ネッ
トをn組並べて出力層で結合したニュ−ラルネット、即
ちn入力で2n個の中間ノードを持ち、各入力は何れか2
個の中間ノードと接続し、各中間ノードは1入力のみと
接続した構成のニューラルネットによって得られ、その
ようなニューラルネットのセルを必要な島領域の個数だ
け作って加算結合することにより、必要な島領域からな
る部分空間をカバーすることができる。
The above configuration can be generally extended to an n-dimensional input signal space. If the space is provided with an n-dimensional hypercube island region whose plane is perpendicular to the coordinate axes, the one-dimensional net shown in FIG. A neural network in which n sets are arranged and connected at the output layer, that is, n inputs have 2n intermediate nodes, and each input is any 2
Connected to the intermediate nodes, and each intermediate node is obtained by a neural network connected to only one input, and the cells of such a neural network are formed by the required number of island regions and added and connected. It is possible to cover a partial space composed of an island region.

このような構成にすると、ニューラルネット内の必要
な重み及びバイアスを、以下に述べるようにして比較的
容易に計算することができる。
With such a configuration, the necessary weights and biases in the neural network can be calculated relatively easily as described below.

第3図は4次元入力信号空間の場合のセルの構成を示
し、wiは重み、θはバイアス、uiは中間ノードの出力
を示す。このニューラルネットのセルで、入力信号
(x1,x2,x3,x4)が任意の或る値(a1,a2,a3,a4)のと
き、出力ノードの出力が1に近い最大値となり、入力信
号がその点から離れると、出力は次第に小さくなって、
ある周辺まで離れるとできるだけ0に近くなるようにす
る。
FIG. 3 shows the configuration of a cell in the case of a four-dimensional input signal space, where w i is a weight, θ i is a bias, and u i is an output of an intermediate node. In this neural network cell, when the input signal (x 1 , x 2 , x 3 , x 4 ) is an arbitrary value (a 1 , a 2 , a 3 , a 4 ), the output of the output node is 1 , And as the input signal moves away from that point, the output gradually decreases,
As far as a certain periphery, it should be as close to 0 as possible.

このための入出力条件を、入力(a1,a2,a3,a4)のと
き出力が0.99で、a1〜a4の何れか1つがΔだけ離れた点
で出力が0.01になることとし、そのために必要な重みの
組は無数にあるが、その1組を次のように導くことがで
きる。
The input and output conditions for this are as follows: when the input is (a 1 , a 2 , a 3 , a 4 ), the output is 0.99, and when any one of a 1 to a 4 is apart by Δ, the output is 0.01 In this case, there are an infinite number of sets of weights necessary for this, and one set can be derived as follows.

まずxiが接続する中間ノードの出力u2i-1が、例えば
入力aiで0.9、ai−Δ/2で0.5、ai−Δで0.1に、u2iがai
で0.9、ai+Δ/2で0.5、ai+Δで0.1になるように、中
間ノードの重みとバイアスを求めるために、シグモイド
関数の入力の値となる1次式 y2i-1=k(xi−(ai−Δ/2)) を考えると、y2i-1はxiがai−Δ/2では0であるから、y
2i-1を入力とするシグモイド関数の値は0.5となり、ai
−Δ及びaiでそれぞれ−kΔ/2及びkΔ/2となり、符号
のみ異なるので、この値を代入した関数値が一方で0.1
になれば、他方で1−0.1=0.9になることは明らかであ
る。
First, the output u 2i-1 of the intermediate node to which x i is connected is, for example, 0.9 at input a i , 0.5 at a i −Δ / 2, 0.1 at a i −Δ, and u 2i is a i
In 0.9, a i + Δ / 2 0.5, so that 0.1 in a i + delta, in order to determine the weights and biases of the intermediate node, the value of the input of the sigmoid function linear equation y 2i-1 = k ( x i − (a i −Δ / 2)), y 2i-1 is y 0 because x i is 0 at a i −Δ / 2
The value of the sigmoid function with 2i-1 as input is 0.5, and a i
−Δ and a i are −kΔ / 2 and kΔ / 2, respectively, and only the sign is different.
, On the other hand, it is clear that 1-0.1 = 0.9.

そこで1/(1+exp(−y2i-1))=0.1となるy2i-1
もとめて、y2i-1=−kΔ/2=−2.2から、k=4.4/Δを
得る。従って中間ノード2i−1の入力の重みは、前記1
次式を書き換えて、第3図と照合して、 y2i-1=kxi−k(ai−Δ/2)) =w2i-1xi+θ2i−1 から、w2i-1=k、θ2i−1=−k(ai−Δ/2))とし
て求まる。
Therefore, k = 4.4 / Δ is obtained from y 2i−1 = −kΔ / 2 = −2.2 by obtaining y 2i−1 that satisfies 1 / (1 + exp (−y 2i−1 )) = 0.1. Therefore, the weight of the input of the intermediate node 2i-1 is 1
Rewrite the following equation, against the FIG. 3, y 2i-1 = kx i -k (a i -Δ / 2)) = w 2i-1 from x i + θ 2i-1, w 2i-1 = k, θ 2i−1 = −k (a i −Δ / 2)).

中間ノード2iについても、同様に1次式 y2i=−k(xi−(ai+Δ/2)) を考えることにより、k=4.4/Δを得る。Similarly, for the intermediate node 2i, k = 4.4 / Δ is obtained by considering the linear expression y 2i = −k (x i − (a i + Δ / 2)).

例えば、(a1,a2,a3,a4)=(0.5,0.8,0.2,0.3)と
し、Δ=0.1とすると、 y1=4.4/0.1(x1-(0.5-0.1/2))=44x1-19.8 y2=-4.4/0.1(x1-(0.5+0.1/2))=-44x1+24.2 y3=4.4/0.1(x2-(0.8-0.1/2))=44x2-33.0 y4=-4.4/0.1(x2-(0.8+0.1/2))=-44x2+37.4 y5=4.4/0.1(x3-(0.2-0.1/2))=44x3-6.6 y6=-4.4/0.1(x3-(0.2+0.1/2))=-44x3+11.0 y7=4.4/0.1(x4-(0.3-0.1/2))=44x4-11.0 y8=-4.4/0.1(x4-(0.3+0.1/2))=-44x4+15.4 となって、中間層の重み及びバイアスがすべて決定す
る。
For example, if (a 1 , a 2 , a 3 , a 4 ) = (0.5,0.8,0.2,0.3) and Δ = 0.1, then y 1 = 4.4 / 0.1 (x 1- (0.5-0.1 / 2) ) = 44x 1 -19.8 y 2 = -4.4 / 0.1 (x 1- (0.5 + 0.1 / 2)) =-44x 1 +24.2 y 3 = 4.4 / 0.1 (x 2- (0.8-0.1 / 2)) = 44x 2 -33.0 y 4 = -4.4 / 0.1 (x 2- (0.8 + 0.1 / 2)) =-44x 2 +37.4 y 5 = 4.4 / 0.1 (x 3- (0.2-0.1 / 2)) = 44x 3 -6.6 y 6 = -4.4 / 0.1 ( x 3 - (0.2 + 0.1 / 2)) = - 44x 3 +11.0 y 7 = 4.4 / 0.1 (x 4 - (0.3-0.1 / 2)) = 44x 4 -11.0 y 8 = -4.4 / 0.1 (x 4 - (0.3 + 0.1 / 2)) = - becomes 44x 4 +15.4, weights and bias of the intermediate layer is determined all.

次に、出力層の重みとバイアスを求めるが、前の結果
から、中心点(0.5,0.8,0.2,0.3)では、 y1=y2=y3=y4=y5=y6=y7=y8=2.2 であり、又何れかの軸方向に0.1ずれた点、例えば(0.
6,0.8,0.2,0.3)では、 y1=6.6,y2=-2.2,y3=y4=y5=y6=y7=y8=2.2 というように、ずれた要素に関連する値が6.6及び−2.2
となって、他の6個は2.2となる。
Next, the weight and bias of the output layer are obtained. From the previous results, at the center point (0.5, 0.8, 0.2, 0.3), y 1 = y 2 = y 3 = y 4 = y 5 = y 6 = y 7 = y 8 = 2.2 and a point shifted by 0.1 in either axis direction, for example (0.
6,0.8,0.2,0.3) are related to displaced elements, such as y 1 = 6.6, y 2 = -2.2, y 3 = y 4 = y 5 = y 6 = y 7 = y 8 = 2.2 Values of 6.6 and -2.2
And the other six are 2.2.

即ち中間層の出力は、以上のような点のずれについて
の変化に対称性があることから、出力層の重みw9〜w16
をすべて同じ値wとし、又、出力ノードのシグモイド関
数の値を0.99及び0.01にするための入力値がそれぞれ4.
6及び−4.6であることから、次の式。
That is, since the output of the intermediate layer has a symmetrical change in the above point shift, the weights w 9 to w 16 of the output layer
Are the same value w, and the input values for setting the value of the sigmoid function of the output node to 0.99 and 0.01 are 4.
6 and −4.6, the following equation.

(1/(1+exp(−2.2)))×8w+θ=0.9×8w+θ
=4.6 (1/(1+exp(−2.2))×6+(1/(1+exp(−6.
6))+(1/(1+exp(2.2)))w+θ=(0.9×6
+0.999+0.1)w+θ=−4.6 を満足する値として、重みw及びバイアスθが求ま
り、w=13.1、θ=−89.8を得る。第3図には以上の
結果が記載されている。
(1 / (1 + exp (-2.2))) × 8w + θ 9 = 0.9 × 8w + θ
9 = 4.6 (1 / (1 + exp (−2.2)) × 6 + (1 / (1 + exp (−6.
6)) + (1 / (1 + exp (2.2))) w + θ 9 = (0.9 × 6
+ 0.999 + 0.1) w + θ 9 = −4.6 As a value satisfying, the weight w and the bias θ 9 are obtained, and w = 13.1 and θ 9 = −89.8 are obtained. FIG. 3 shows the above results.

なお、これらの値は中間層の出力(前記例では0.1及
び0.9とした)を別の値にする等によって異なる値で、
同じニューラルネットの入出力条件を満足することがで
きる。
Note that these values are different values by changing the output of the intermediate layer (0.1 and 0.9 in the above example) to different values, etc.
The input and output conditions of the same neural network can be satisfied.

以上のように重みとバイアスを計算によって求めるこ
とは、4次元入力信号空間の場合に限らず任意の次元の
空間で同様にできることは明らかであり、従って所要の
入力信号空間において、入出力条件が定まれば、反復処
理による学習を実行するとなく、1つの島領域に対応す
るように、セルを必要な状態に設定することができ、こ
のようにして設定した所要数のセルの出力を加算して和
を得ることにより、必要な部分空間に対する入出力条件
を満たすニューラルネットを構成することができる。
As described above, it is apparent that the calculation of the weight and the bias can be similarly performed not only in the case of the four-dimensional input signal space but also in a space of an arbitrary dimension. Then, the cells can be set in a necessary state so as to correspond to one island area without performing learning by iterative processing, and the outputs of the required number of cells set in this way are added. Thus, a neural network that satisfies input / output conditions for a necessary subspace can be constructed.

このニューラルネットを使用して、例えば前記のよう
な文字画像の特徴量を入力として、特定の1文字種につ
いて“1"を出力するように設定すれば、1文字を認識す
るニューラルネットができ、同様のニューラルネットを
必要な文字種ごとに設ければ、比較的容易に文字認識装
置を構成することができる。
By using this neural network and setting, for example, the above-described character image feature amount as input and outputting “1” for a specific character type, a neural network that recognizes one character can be created. By providing the neural network for each required character type, a character recognition device can be configured relatively easily.

〔発明の効果〕〔The invention's effect〕

以上の説明から明らかなように本発明によれば、パタ
ーン認識等を処理するための、ニューラルネットの構成
において、ニューラルネットを所要状態に設定するため
の所要の重みとバイアスを計算によって求めることによ
り、多次元入力信号空間の所要領域のカテゴライズを効
率よく実行できるので、ニューラルネットの利用が容易
になるという著しい工業的効果がある。
As is apparent from the above description, according to the present invention, in a configuration of a neural network for processing pattern recognition and the like, a required weight and a bias for setting the neural network to a required state are obtained by calculation. Since a required area of the multidimensional input signal space can be efficiently categorized, there is a remarkable industrial effect that the use of the neural network is facilitated.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の構成を示すブロック図、 第2図はニューラルネットの説明図、 第3図は重み計算の説明図、 第4図は島領域の説明図、 第5図は従来の構成例を示す図、 第6図は特徴量の説明図 である。 図において、 8は入力信号、9は出力信号、10はセル、11は入力層、
12は中間層、13は出力層、14は入力端子、15は中間ノー
ド、16は出力ノード、17は結合部、22a〜22dはスリッ
ト、25は文字画像を示す。
FIG. 1 is a block diagram showing the configuration of the present invention, FIG. 2 is an explanatory diagram of a neural network, FIG. 3 is an explanatory diagram of weight calculation, FIG. 4 is an explanatory diagram of an island region, and FIG. FIG. 6 is a diagram showing an example, and FIG. 6 is an explanatory diagram of a feature amount. In the figure, 8 is an input signal, 9 is an output signal, 10 is a cell, 11 is an input layer,
12 is an intermediate layer, 13 is an output layer, 14 is an input terminal, 15 is an intermediate node, 16 is an output node, 17 is a coupling section, 22a to 22d are slits, and 25 is a character image.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 G01T 1/40 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continued on the front page (58) Field surveyed (Int.Cl. 6 , DB name) G06F 15/18 G01T 1/40 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】1又は複数のセル(10)を有し、 各該セル(10)は、n次元入力信号空間の所要の各島領
域に対応して設けられて、入力層(11)と、中間層(1
2)と、出力層(13)とを有し、 該入力層(11)はn個の入力端子(14)を有し、該各入
力端子は各入力信号(8)に対応し、 該中間層(12)は2n個の中間ノード(15)を有し、各2
個ごとの該中間ノードが該各入力端子(11)ごとに接続
し、 該各中間ノード(15)は、該接続する入力端子(11)か
らの入力信号に各設定された重みを乗じた値と各設定さ
れたバイアスとを、所定の関数の入力として、該関数値
を出力し、 該出力層(13)は所要数の出力ノード(16)を有し、該
各出力ノードがすべての該中間ノード(15)と接続し、 該各出力ノード(16)は、該接続する各中間ノード(1
5)の出力に各設定された重みを乗じた値と各設定され
たバイアスとを、所定の関数の入力として、該関数値を
出力信号(9)として出力し、 各該セル(10)は、当該セルに対応する該島領域につい
て、所要の該出力信号(9)を出力するように、該各重
みと該各バイアスが設定され、 すべての該セルの出力信号(9)は、所定の和信号を生
成するように結合されて(17)、該和信号が、すべての
該セルの対応する該島領域を結合した領域内の入力信号
に対する所要の出力値になるように構成されていること
を特徴とするニューラルネット。
1. An apparatus comprising one or a plurality of cells (10), each cell (10) being provided corresponding to each required island region of an n-dimensional input signal space, and having an input layer (11) and an input layer (11). , Middle layer (1
2) and an output layer (13), wherein the input layer (11) has n input terminals (14), each input terminal corresponding to each input signal (8), Layer (12) has 2n intermediate nodes (15), each 2
Each of the intermediate nodes is connected to each of the input terminals (11), and each of the intermediate nodes (15) is a value obtained by multiplying an input signal from the connected input terminal (11) by a set weight. And the set biases are input to a predetermined function to output the function value. The output layer (13) has a required number of output nodes (16), and each of the output nodes is Each output node (16) is connected to an intermediate node (15), and each of the connected intermediate nodes (1
A value obtained by multiplying the output of 5) by each set weight and each set bias are input as a predetermined function, and the function value is output as an output signal (9). Each of the cells (10) The weights and the biases are set so as to output the required output signal (9) for the island region corresponding to the cell, and the output signals (9) of all the cells are set to a predetermined value. Combined to generate a sum signal (17), the sum signal being configured to be a desired output value for an input signal in a region combining the corresponding island regions of all the cells. A neural net characterized by the following.
JP1241444A 1989-09-18 1989-09-18 Neural net Expired - Fee Related JP2900427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1241444A JP2900427B2 (en) 1989-09-18 1989-09-18 Neural net

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1241444A JP2900427B2 (en) 1989-09-18 1989-09-18 Neural net

Publications (2)

Publication Number Publication Date
JPH03102563A JPH03102563A (en) 1991-04-26
JP2900427B2 true JP2900427B2 (en) 1999-06-02

Family

ID=17074400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1241444A Expired - Fee Related JP2900427B2 (en) 1989-09-18 1989-09-18 Neural net

Country Status (1)

Country Link
JP (1) JP2900427B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8583577B2 (en) * 2011-05-25 2013-11-12 Qualcomm Incorporated Method and apparatus for unsupervised training of input synapses of primary visual cortex simple cells and other neural circuits

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
坂井利之編「情報科学講座 E.19.1パターン認識の理論」、共立出版株式会社、p.44−p.48(1967)

Also Published As

Publication number Publication date
JPH03102563A (en) 1991-04-26

Similar Documents

Publication Publication Date Title
US5067164A (en) Hierarchical constrained automatic learning neural network for character recognition
US5048100A (en) Self organizing neural network method and system for general classification of patterns
JP3329806B2 (en) Neural network construction device
JPH056463A (en) Calculation network
US20200279166A1 (en) Information processing device
US5793932A (en) Image recognition device and an image recognition method
Gama et al. Convolutional neural networks via node-varying graph filters
EP0586210A2 (en) Optical character recognition
JP2900427B2 (en) Neural net
US11868900B1 (en) Systems and methods for training predictive models that ignore missing features
Ritter et al. Recursion and feedback in image algebra
US5737444A (en) Binary digital image feature extracting process
JP3303253B2 (en) Pattern matching method and apparatus
US20230281431A1 (en) Computer implemented method for processing structured data
JP3337504B2 (en) neural network
Van Tonder et al. Shape encoding: a biologically inspired method of transforming boundary images into ensembles of shape-related features
JPS6275884A (en) Describing method for document pattern
Chen et al. Neural networks and texture classification
JP3060922B2 (en) Feature generator
JPH02242392A (en) Pattern recognition processing system
Lai et al. Design ratio-memory cellular neural network (RMCNN) in CMOS circuit used in association-memory applications for 0.25 mm silicon technology
JP3247811B2 (en) Pattern matching device
Ram Automatic Equation Solver-A Technology Enhancement For Instructional Automation
Hammer A NP-hardness Result for a Sigmoidal 3-node Neural Network
JPH05197812A (en) Graphic shape learning recognition system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees