JPH02242392A - Pattern recognition processing system - Google Patents

Pattern recognition processing system

Info

Publication number
JPH02242392A
JPH02242392A JP1062810A JP6281089A JPH02242392A JP H02242392 A JPH02242392 A JP H02242392A JP 1062810 A JP1062810 A JP 1062810A JP 6281089 A JP6281089 A JP 6281089A JP H02242392 A JPH02242392 A JP H02242392A
Authority
JP
Japan
Prior art keywords
signal
output
input
cells
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1062810A
Other languages
Japanese (ja)
Inventor
Mitsuo Ishii
石井 光雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1062810A priority Critical patent/JPH02242392A/en
Publication of JPH02242392A publication Critical patent/JPH02242392A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce the learning cost by using specifically learning neural cells as the input stage and using neural cells, which learn the combination of first outputs of a prescribed number of cells in the preceding stage as the standard signal, as the intermediate stage and judging the truth at the time when second outputs are larger than a prescribed value. CONSTITUTION:Neural cells 3 are allowed to learn the signal indicating the feature quantity of each divided area of a picture pattern as the standard signal, and cells 3 are so connected that signals indicating feature quantities are inputted, thereby constituting an input stage 1. Neural cells 4 are allowed to learn the required combination of first outputs of a prescribed number of cells 3 in the hierarchy of the preceding stage as the standard signal, and cells 4 are so connected that first outputs are inputted, thereby constituting an intermediate stage 2a.... The logical value is judged to be the truth when second outputs of cells 3 and 4 are larger than the prescribed value, and the picture pattern is discriminated when AND of second outputs of all cells 3 and 4 are the truth in AND circuits 5a, 5b.

Description

【発明の詳細な説明】 〔概 要〕 ニューラルネットで構成するパターン認識システムに関
し、 比較的少量の学習コストで、且つ経済的な構成で高い認
識率を得られるパターン認識処理方式を目的とし、 多次元入力信号空間の所要の空間領域に設定する1以上
の点に対応する各標準信号を入力信号として、第1出力
を該標準信号ごとに定める値、第2出力の値を1.0゛
とする各教師信号による学習と、各該標準信号から所定
距離に位置する2以上の各点に対応する信号を各入力信
号として第2出力の値をOとする教師信号による学習と
を行った、ニューラルネットのセルからなる入力段及び
所要段数の中間段を、最終段の該セルが1個になるよう
に階層状に接続して所要の画像パターンのカテゴリごと
に設け、該画像パターンを分割した各領域ごとの所要の
特徴量を示す信号を該標準信号として学習させた該セル
を、該特@量を示す信号を入力するように接続して該入
力段とし、前段の該階層の所定個数の該セルの第1出力
の所要の組合わせを該標準信号として学習させた該セル
を、該第1出力を入力するように接続して該中間段とし
、該第2出力が所定闇値より大きい場合を論理値の真と
して、すべての該セルの該第2出力の論理積が真の場合
に該カテゴリの画像パターンとして識別するように構成
する。
[Detailed Description of the Invention] [Summary] Regarding a pattern recognition system configured with a neural network, the present invention aims at a pattern recognition processing method that can obtain a high recognition rate with a relatively small learning cost and an economical configuration. Each standard signal corresponding to one or more points set in a required spatial region of the dimensional input signal space is used as an input signal, the first output is a value determined for each standard signal, and the value of the second output is 1.0゛. Learning was performed using each teacher signal, and learning was performed using a teacher signal in which the second output value was O, with each input signal being a signal corresponding to two or more points located at a predetermined distance from each standard signal. The input stage and the required number of intermediate stages consisting of neural net cells are connected in a hierarchical manner so that the final stage has one cell, and is provided for each category of the required image pattern, and the image pattern is divided. The cell, which has been trained with the signal indicating the required feature quantity for each area as the standard signal, is connected to input the signal indicating the special quantity as the input stage, and the predetermined number of cells in the previous layer are The cell which has learned the required combination of the first outputs of the cell as the standard signal is connected to the intermediate stage so that the first output is input, and the second output is lower than the predetermined darkness value. If it is larger, the logical value is considered to be true, and if the AND of the second outputs of all the cells is true, it is configured to be identified as an image pattern of the category.

〔産業上の利用分野] 本発明は、入力信号に対し教師信号で指定する所要の出
力信号を得るようにする学習機能を内蔵したニューラル
ネットによって、パターン認識を行うためのパターン認
識処理方式に関する。
[Industrial Application Field] The present invention relates to a pattern recognition processing method for performing pattern recognition using a neural network having a built-in learning function that allows a required output signal specified by a teacher signal to be obtained from an input signal.

〔従来の技術〕[Conventional technology]

公知のようにニューラルネットは、第5図に説明的に示
すように、例えば入力層、所要数の中間層、出力層から
なり、前の層の全ノードの出力がある重みを乗じて次の
層の全ソードに入力するようにされ、それらを合計した
ものの所定の関数を当ノードの入力とするように構成す
る。一般に重みは各ノード対ごとに異なる。
As is well known, a neural network consists of, for example, an input layer, a required number of intermediate layers, and an output layer, as shown in FIG. It is configured so that input is made to all the swords of the layer, and a predetermined function of the sum of these is input to the current node. Generally, the weights are different for each pair of nodes.

ニューラルネットによって画像等のパターンの認識を行
わせる場合には、例えば文字から抽出した特徴量の信号
をニューラルネット2の入力層につながる入力端子に入
力して、出力端子にその認識結果を得る。
When a neural network is used to recognize a pattern such as an image, a signal of a feature amount extracted from a character, for example, is input to an input terminal connected to the input layer of the neural network 2, and the recognition result is obtained at an output terminal.

そのために、各入力信号は例えば文字を走査して検出し
た所定の特徴量を表す0〜1の範囲の実数値として、こ
の値をニューラルネットの入力層の各ノードに入力し、
例えば「A」のパターンと認識した場合には出力として
例えば1.0、その他の場合に0を出力するように学習
させる。
To this end, each input signal is, for example, a real value in the range of 0 to 1 representing a predetermined feature detected by scanning a character, and this value is input to each node of the input layer of the neural network.
For example, when the pattern "A" is recognized, the output is 1.0, and in other cases, 0 is output.

文字等の画像パターンの認識の場合に入力する特徴量と
しては、公知のように例えば文字のパターンを構成する
線の傾きに関する量が使用される。即ち第6図(a)に
例示するように、例えば適当な長さと幅のスリット42
a等を移動して文字45を走査し、スリットの枠内に入
る文字の黒線が占める面積の割合を、例えば全部臼のと
きO1全部黒の時1.0とする値で出力する検出器を設
ける。
As the feature quantity input in the case of recognizing an image pattern such as a character, for example, a quantity related to the inclination of a line forming a character pattern is used, as is known in the art. That is, as illustrated in FIG. 6(a), for example, a slit 42 of an appropriate length and width is formed.
A detector that scans the character 45 by moving the a, etc., and outputs the ratio of the area occupied by the black line of the character that falls within the slit frame as a value such as O1 when all are mills and 1.0 when all are black. will be established.

ある基準線に対して傾きを例えば0° (縦線)、−4
5° (右上がり斜線) 、+45° (左上がり斜線
)、及び90”  (横線)としたスリット42a 〜
42dによって検出した、各出力の最大値を採ることに
より、それらの線に近い傾きを持つ線の、傾きの近さと
その方向に延びている長さとを併せ示す量が最も大きい
線についての量からなる、4要素の文字の特徴量が得ら
れる。
For example, set the slope to 0° (vertical line), -4
Slits 42a with angles of 5° (slanted line upward to the right), +45° (slanted line upward to the left), and 90" (horizontal line)
By taking the maximum value of each output detected by 42d, we can calculate the amount for the line that has the largest amount of both the proximity of the slope and the length extending in that direction among the lines with slopes close to those lines. The four-element character feature amount is obtained.

更に詳細な識別を要する場合には、例えば第6図(b)
のようにパターンの領域を4分割して、各領域について
前記のような特徴量を求め、前記例の場合とすれば16
要素の特徴量とし、或いは更に各領域を4分割して例え
ば64要素の特徴量とするというように詳細化できる。
If more detailed identification is required, for example, Fig. 6(b)
Divide the area of the pattern into four parts as shown in the figure below, and find the feature amount as described above for each area. In the case of the above example, 16
It can be made into a feature amount of an element, or further divided into four to make a feature amount of, for example, 64 elements.

学習は公知のように、特徴量等の入力信号と、その入力
からの所望の出力信号を示す教師信号とをニューラルネ
ットに入力することにより、各ノード間の前記の重みを
、所定のアルゴリズムにより、実際の出力信号と教師信
号との差に基いて変更する動作を反復して両信号間の差
を漸次減少させ、所定値以内の差に収束することによっ
て、例えば「A」文字というカテゴリの中の1パターン
についての学習ができる。
As is well known, learning is performed by inputting an input signal such as a feature value and a teacher signal indicating a desired output signal from the input into a neural network, and then calculating the weights between each node using a predetermined algorithm. , by repeating the operation of changing based on the difference between the actual output signal and the teacher signal, the difference between the two signals gradually decreases, and the difference converges to within a predetermined value. You can learn about one of the patterns.

しかし、ある文字を認識させたい場合には、標準的なパ
ターンと共に、そのパターンから所要の範囲まで歪んだ
多数のパターンについても、各々の特徴量を順次入力し
て、認識出力を得るように学習させる必要があり、従っ
て認識率を高めるためには、認識すべきカテゴリの多種
の歪パターンについて、前記の特徴量を収集して学習さ
せる必要がある。この人力を減少することのできる学習
処理方法は、本出願人が平成元年2月28日に出願した
特許願「ニューラルネット学習処理方法」に述べられて
いる。
However, when you want to recognize a certain character, you need to learn to obtain recognition output by sequentially inputting the features of each of the standard patterns as well as a number of patterns that are distorted to the required range from that pattern. Therefore, in order to increase the recognition rate, it is necessary to collect and learn the feature amounts for various distortion patterns of the categories to be recognized. A learning processing method capable of reducing this human labor is described in a patent application entitled "Neural Network Learning Processing Method" filed by the applicant on February 28, 1989.

この方法によれば、入力信号空間上の所要の部分空間内
に、適当な間隔で定める各標準信号の入力について出力
を1.0とする学習と、各標準信号の周辺に設ける数組
の入力信号について出力を0とする学習とを行うと、ニ
ューラルネットが関数値を内挿及び外挿できる学習特性
により、その周辺に囲まれる島状の小空間内の全入力に
対して標準信号における出力1.0から周辺における0
へ緩やかに減少する出力値が内挿され、島の外側の出力
はOが外挿される。従って、このような島で部分空間を
埋めることにより、部分空間を点で埋める必要が無く、
学習のために必要なデータ及び学習処理の量を減少する
ことができる。
According to this method, learning is performed in which the output is set to 1.0 for each standard signal input determined at appropriate intervals in a required subspace on the input signal space, and several sets of inputs are provided around each standard signal. When learning is performed with the output set to 0 for a signal, due to the learning characteristics of the neural network that can interpolate and extrapolate function values, the output in the standard signal for all inputs in the small island-shaped space surrounded by the neural network. 1.0 to 0 around
An output value that gradually decreases to is interpolated, and an output value outside the island is extrapolated to O. Therefore, by filling the subspace with such islands, there is no need to fill the subspace with points,
The amount of data and learning processing required for learning can be reduced.

〔発明が解決しようとする課題] しかし、前記のように特徴量を詳細化して、入力する特
徴量の要素数を増加すると、ニューラルネットの各層の
ノード数が増加し、それに伴って各ノードの規模が増大
し、一般に中間層の層数も増やすことが必要にになり、
それと共に学習処理の収束時間が急速に増大し、又、初
期条件その他によって学習が収束しないケースも増加す
るという問題が生じる。
[Problem to be solved by the invention] However, when the feature values are detailed as described above and the number of input feature value elements is increased, the number of nodes in each layer of the neural network increases, and accordingly, the number of nodes in each node increases. As scale increases, it is generally necessary to increase the number of middle classes;
At the same time, the convergence time of learning processing increases rapidly, and the number of cases in which learning does not converge due to initial conditions and other factors also increases.

そこで、例えば特徴量をパターンの部分領域ごとの少数
の要素の組に分割し、単純に各組ごとに独立のニューラ
ルネットで認識して、その結果の論理積を全体の結果と
するというような方法を採ると、部分領域間の関連が無
視されて、誤認識を生じ易いという問題がある。
Therefore, for example, it is possible to divide the feature values into a small number of sets of elements for each subregion of the pattern, simply recognize each set using an independent neural network, and use the logical product of the results as the overall result. If this method is adopted, there is a problem in that the relationship between partial areas is ignored, and erroneous recognition is likely to occur.

本発明は、比較的少量の学習コストで、且つ経済的な構
成で高い認識率を得られるパターン認識処理方式を目的
とする。
An object of the present invention is to provide a pattern recognition processing method that can obtain a high recognition rate with a relatively small learning cost and an economical configuration.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は、本発明の構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of the present invention.

図はパターン認識処理方式の構成を示し、多次元入力信
号空間の所要の空間領域に設定する1以上の点に対応す
る各標準信号を入力信号として、第1出力を該標準信号
ごとに定める値、第2出力の値を1.0とする各教師信
号による学習と、各該標準信号から所定距離に位置する
2以上の各点に対応する信号を各入力信号として第2出
力の値を0とする教師信号による学習とを行った、ニュ
ーラルネットのセル(以下においてニューラルセルとい
う)からなる入力段1及び所要段数の中間段2a、2b
、−・を、最終段の該セルが1個になるように階層状に
接続して所要の画像パターンのカテゴリごとに設け、該
画像パターンを分割した各領域ごとの所要の特徴量を示
す信号を該標準信号として学習させたニューラルセル3
を、該特徴量を示す信号を入力するように接続して入力
段1とし、前段の該階層の所定個数の該セルの第1出力
の所要の組合わせを該標準信号として学習させたニュー
ラルセル4を、該第1出力を入力するように接続して中
間段2a、2b、−・とし、該第2出力が所定閾値より
大きい場合を論理値の真として、論理積回路5a、5b
、−によって、すべてのニューラルセル3.4の該第2
出力の論理積が真の場合に該カテゴリの画像パターンと
して識別するように構成する。
The figure shows the configuration of a pattern recognition processing method, in which each standard signal corresponding to one or more points set in a required spatial region of a multidimensional input signal space is used as an input signal, and the first output is a value determined for each standard signal. , learning using each teacher signal with the value of the second output as 1.0, and learning with the value of the second output as 0 with each input signal being a signal corresponding to each point of two or more located at a predetermined distance from each standard signal. An input stage 1 consisting of neural network cells (hereinafter referred to as neural cells) and a required number of intermediate stages 2a and 2b that perform learning using a teacher signal as follows.
, -. are connected in a hierarchical manner so that the cell in the final stage becomes one, and is provided for each category of the required image pattern, and a signal indicating the required feature amount for each region into which the image pattern is divided. Neural cell 3 that has been trained to use as the standard signal
is connected to input a signal indicating the feature amount as input stage 1, and a neural cell is trained to use a required combination of first outputs of a predetermined number of cells in the previous layer as the standard signal. 4 are connected to input the first output to form intermediate stages 2a, 2b, -.
,- for all neural cells 3.4.
The configuration is such that when the logical AND of the outputs is true, it is identified as an image pattern of the category.

〔作 用〕[For production]

この処理方式により、個々のニューラルセル3及び4は
比較的小規模のニューラルネットでよいので、学習処理
が容易にでき、且つ同じ構成のニューラルセルを接続し
て、任意の特徴量要素数に対応するシステムを構成でき
るので経済性に優れている。
With this processing method, the individual neural cells 3 and 4 only need to be relatively small-scale neural networks, making learning processing easy, and neural cells with the same configuration can be connected to support any number of feature elements. It is highly economical because it allows you to configure a system that

〔実施例〕〔Example〕

第2図は本発明の実施例を示すブロック図である。本例
の場合に、画像パターンを4個の領域に分割し、各領域
について前記のような4方向の線に関する4要素の特微
量を採取して入力段の各ニューラルセル10に入力する
。各ニューラルセル10は2個の出力ID及びCFを持
ち、4個のニューラルセル10の10出力を次の段のニ
ューラルセル11の入力に接続する。
FIG. 2 is a block diagram showing an embodiment of the present invention. In the case of this example, the image pattern is divided into four regions, and for each region, four elemental feature quantities related to lines in the four directions as described above are collected and input to each neural cell 10 of the input stage. Each neural cell 10 has two outputs ID and CF, and the 10 outputs of the four neural cells 10 are connected to the input of the neural cell 11 in the next stage.

ニューラルセル11はニューラルセル10と同じ構成で
、出力ID及びCFがあるが、CF比出力み使用して、
これを入力段の4個のCF比出力共に論理積回路12に
入力し、論理積回路12は入力の信号値が所定値(例え
ば0.8)より大きければ論理値1とし、それ以下なら
論理値Oとして5人力の論理積を出力するように回路を
構成し、画像パターンの所定のカテゴリ (例えば特定
の文字)であると認識した場合にこの出力を1とするよ
うにして、 以上の構成の回路ブロック13を必要な各
カテゴリ (例えばアルファベットの各文字)ごとに設
ける。
Neural cell 11 has the same configuration as neural cell 10, and has output ID and CF, but uses only CF ratio output,
This is inputted to the AND circuit 12 together with the four CF ratio outputs of the input stage, and the AND circuit 12 sets the logic value to 1 if the input signal value is greater than a predetermined value (for example, 0.8), and if it is less than that, the logic The circuit is configured to output the logical product of 5 human forces as the value O, and this output is set to 1 when it is recognized as a predetermined category of the image pattern (for example, a specific character). A circuit block 13 is provided for each necessary category (for example, each letter of the alphabet).

このために各ニューラルセル10は4人力2出力の第3
図(a)に示すような概念的構成を有し、これによって
第3図(b)に示す演算を実行するように構成する。
For this purpose, each neural cell 10 has a 3rd output of 4 human power and 2 outputs.
It has a conceptual configuration as shown in FIG. 3(a), and is configured to execute the calculation shown in FIG. 3(b).

即ち、4人力をX(0) 〜X(3)として、これとX
(4)=1を入力として、入力層と中間層の各ノード対
ごとに設定された一1°〜lA11−1で示す、1組の
各5個の重みを設け、各組の重みと入力との5個の積を
加算した結果について所定の関数計算を行って中間層の
各ノードの出力Z(0)〜Z(1−1)を得、次ニZ(
0) 〜Z(I−1)とZ(I)=1を入力として、2
mの重みW2’ 、W2’を使って前記と同様の計算に
より出力ID及びcpを得るようにする。こ\で中間層
のノード数は実験的に求め、又重みu1°〜411−1
及び−2°、−21は別途後述のように学習して、所要
の値が設定されている。
In other words, let the power of four people be X(0) to X(3), and
(4) With =1 as input, a set of 5 weights each set as 11° to 1A11-1 is set for each node pair of the input layer and the intermediate layer, and the weight of each set and the input A predetermined function calculation is performed on the result of adding the five products of
0) ~Z(I-1) and Z(I)=1 as input, 2
The output ID and cp are obtained by the same calculation as above using the weights W2' and W2' of m. Here, the number of nodes in the middle layer is experimentally determined, and the weight u1° ~ 411-1
, -2°, and -21 are separately learned as described later, and the required values are set.

入力段の各ニューラルセル10の学習は、画像パターン
として例えば標準的な字形のパターン及び典型的ないく
つかの歪んだ字形のパターンについて前記のように採取
した、各担当する領域ごと4要素の特徴量信号を標準信
号として、各標準信号を入力信号として、ID出力を標
準信号ごとに定める値、CF比出力1.0とし、ID出
力を所定の値とする各教師信号を与えて学習し、次に各
標準信号を例えば少量の一定値(例えば0.05)だけ
増加及び減少した値を周辺信号として、周辺信号を入力
してCF比出力Oとするように学習する。10出力の値
は、0〜1.0の範囲で各標準信号を識別できるように
、標準信号ごとに異なる値にする。
The learning of each neural cell 10 in the input stage is based on four element features for each area in charge, which are collected as described above for image patterns such as a standard glyph pattern and some typical distorted glyph patterns. Learning is performed by giving each teacher signal in which the quantity signal is a standard signal, each standard signal is an input signal, the ID output is a value determined for each standard signal, the CF ratio output is 1.0, and the ID output is a predetermined value, Next, each standard signal is learned to be increased or decreased by a small fixed value (for example, 0.05) as a peripheral signal, and the peripheral signal is input to obtain a CF ratio output O. The value of the 10 outputs is set to be a different value for each standard signal so that each standard signal can be identified in the range of 0 to 1.0.

以上の学習の結果、ニューラルネットの学習特性により
、第4図に2次元の場合にして概念的に示すように、C
F比出力黒点18で示す標準信号から円周19で示す周
辺信号の場合に向かって、1.0から緩やかにOまで減
少する出力となり、従っである闇値以上を論理値1とす
れば、円周19内の前記の品玉の信号(その範囲内のす
べての歪み字形に対応する信号)が入力されたことを識
別できる状態になる。又、ID出力については、図に破
線で示すように標準信号の黒点をそれぞれ1つづつ含む
ように分割された各領域内の入力信号に対して、括弧内
に例示するような指定値が出力となる。
As a result of the above learning, due to the learning characteristics of the neural network, C
From the standard signal indicated by the black dot 18 to the peripheral signal indicated by the circumference 19, the output gradually decreases from 1.0 to O. Therefore, if the value above a certain dark value is taken as a logical value 1, then A state is reached in which it can be identified that the signal of the above-mentioned ball within the circumference 19 (signal corresponding to all the distorted character shapes within that range) has been input. Regarding ID output, specified values as shown in parentheses are output for input signals in each area divided so that each area contains one black dot of the standard signal as shown by the broken line in the figure. becomes.

従って以上から、CF比出力闇値以上のとき、IF比出
力値によってその入力がある特定の歪みパターンの信号
であることを識別できることになる。
Therefore, from the above, when the CF ratio output value is equal to or higher than the dark value, it can be determined from the IF ratio output value that the input is a signal of a certain specific distortion pattern.

ニューラルセル11の学習は、入力段の4個のニューラ
ルセル10で各同一パターンの4領域の標準信号のID
出力値として指定した4値を各標準信号の4要素として
、ニューラルセル10の場合と同様の学習を行わせる。
Learning of the neural cell 11 is carried out by using the four neural cells 10 in the input stage to learn the IDs of standard signals in four areas of the same pattern.
The same learning as in the case of the neural cell 10 is performed using the four values designated as output values as the four elements of each standard signal.

なお、本例のニューラルセル11のように、最終段の場
合にはID出力を使用しないので、その学習は不要だが
、特(r!i、量の要素数が多くて、入力段のニューラ
ルセルが多く、従って中間段が2階層以上になる場合の
最終段以外のニューラルセルにおいては、ID出力につ
いての学習も必要であり、その場合の出力値は、前記と
同様に各標準信号を識別できるように定める。
Note that, like the neural cell 11 in this example, the ID output is not used in the case of the final stage, so learning is unnecessary, but especially when the number of elements of the input stage is large, Therefore, in neural cells other than the final stage when the intermediate stage has two or more layers, it is also necessary to learn about ID output, and the output value in that case can identify each standard signal in the same way as above. It is determined as follows.

このように学習することにより、ニューラルセル11は
、入力段のニューラルセル10からの10出力が、特定
のパターンの場合の出力かそれに近い場合に、CF比出
力論理値1に相当する出力をする。
By learning in this way, the neural cell 11 outputs an output corresponding to a CF ratio output logic value of 1 when the 10 outputs from the neural cell 10 in the input stage are the outputs for a specific pattern or close to it. .

即ち、例えば4個のパターンの特微量に基づく学習によ
って、入力段の各ニューラルセル10にそれぞれ前記の
ようにして4個の島を学習させたとすると、認識の場合
に入力信号によって各二二一うルセル10の10及びC
F出力が共に所定の肯定値となる場合が4’=256通
りあり得るが、中間段のニューラルセル11がその内か
ら前記パターンに対応する4個の組合わせを選別するよ
うに機能する。
That is, for example, if each neural cell 10 in the input stage is made to learn four islands as described above by learning based on the feature quantities of four patterns, in the case of recognition, each 221 Urcell 10-10 and C
There can be 4'=256 cases in which both the F outputs have a predetermined positive value, and the intermediate stage neural cell 11 functions to select four combinations corresponding to the pattern from among them.

前記のように10出力は入力信号が島の中に無い場合で
も指定値になるので、CF出力によって確認する必要が
ある、そのために論理積回路12によって前ニューラル
セル10及び11のCF出力を一括して論理積をとり、
すべてのCF出力が1の場合のみ出力を論理値1とし、
当該パターンであることを認識したことを示す。
As mentioned above, the 10 output is the specified value even if the input signal is not in the island, so it is necessary to confirm it with the CF output.For this purpose, the CF outputs of the previous neural cells 10 and 11 are combined by the AND circuit 12. and take the logical product,
The output is set to logical value 1 only when all CF outputs are 1,
Indicates that the pattern has been recognized.

〔発明の効果〕〔Effect of the invention〕

以上の説明から明らかなように本発明によれば、ニュー
ラルネットで構成するパターン認識システムにおいて、
比較的少量の学習コストで、且つ経済的な構成で高い認
識率を得られるシステムを構成することができるという
著しい工業的効果がある。
As is clear from the above description, according to the present invention, in a pattern recognition system configured with a neural network,
This has a significant industrial effect in that it is possible to construct a system that can obtain a high recognition rate with a relatively small learning cost and an economical configuration.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の構成を示すブロック図、第2図は本発
明の実施例を示すブロック図、第3図はニューラルセル
の構成例を示す図、第4図は学習結果の説明図、 第5図はニューラルネットの説明図、 第6図は特徴量の説明図 である。 図において、 1は入力段、     2a、2bは中間段、3.4.
10.11はニューラルセル、5a、 5b、 12は
論理積回路、 13は回路ブロック 58z凶 本発明の構成を示すブロック図 第1図 X (k) Z(i) YO) 学習結果の説明図 第 図 ニューラルセルの構成例を示す図 ニューラルネットの説明図 (a) Φ) 特徴量の説明図 第 図
FIG. 1 is a block diagram showing the configuration of the present invention, FIG. 2 is a block diagram showing an embodiment of the present invention, FIG. 3 is a diagram showing an example of the configuration of a neural cell, and FIG. 4 is an explanatory diagram of learning results. Fig. 5 is an explanatory diagram of the neural network, and Fig. 6 is an explanatory diagram of feature quantities. In the figure, 1 is an input stage, 2a and 2b are intermediate stages, 3.4.
10. 11 is a neural cell, 5a, 5b, 12 is an AND circuit, and 13 is a circuit block 58z. Block diagram showing the configuration of the present invention. Diagram showing an example of the configuration of a neural cell Diagram explanatory diagram of a neural network (a) Φ) Diagram explanatory diagram of feature quantities Fig.

Claims (1)

【特許請求の範囲】 多次元入力信号空間の所要の空間領域に設定する1以上
の点に対応する各標準信号を入力信号として、第1出力
を該標準信号ごとに定める値、第2出力の値を1.0と
する各教師信号による学習と、各該標準信号から所定距
離に位置する2以上の各点に対応する信号を各入力信号
として第2出力の値を0とする教師信号による学習とを
行った、ニューラルネットのセル(3、4)からなる入
力段(1)及び所要段数の中間段(2a、2b)を、最
終段の該セルが1個になるように階層状に接続して所要
の画像パターンのカテゴリごとに設け、 該画像パターンを分割した各領域ごとの所要の特徴量を
示す信号を該標準信号として学習させた該セル(3)を
、該特徴量を示す信号を入力するように接続して該入力
段(1)とし、 前段の該階層の所定個数の該セル(3、4)の第1出力
の所要の組合わせを該標準信号として学習させた該セル
(4)を、該第1出力を入力するように接続して該中間
段(2a、2b)とし、 該第2出力が所定閾値より大きい場合を論理値の真とし
て、すべての該セルの該第2出力の論理積が真の場合に
該カテゴリの画像パターンとして識別する(5a、5b
)ように構成されていることを特徴とするパターン認識
処理方式。
[Claims] Using each standard signal corresponding to one or more points set in a required spatial region of a multidimensional input signal space as an input signal, the first output is a value determined for each standard signal, and the second output is a value determined for each standard signal. Learning using each teacher signal with a value of 1.0, and using a teacher signal with a second output value of 0 using each input signal as a signal corresponding to each point of 2 or more located at a predetermined distance from each standard signal. The input stage (1) consisting of cells (3, 4) of the neural network that underwent learning and the required number of intermediate stages (2a, 2b) are arranged in a hierarchical manner so that the final stage has one cell. The cell (3), which is connected and provided for each category of the required image pattern, and which has been trained as the standard signal with a signal indicating the required feature amount for each region into which the image pattern is divided, is used to indicate the feature amount. The input stage (1) is connected to input a signal, and the required combination of the first outputs of a predetermined number of cells (3, 4) in the previous layer is learned as the standard signal. A cell (4) is connected to input the first output to form the intermediate stage (2a, 2b), and when the second output is larger than a predetermined threshold value, the logical value is true, and all of the cells are connected. If the logical product of the second output is true, it is identified as an image pattern of the category (5a, 5b
) A pattern recognition processing method characterized by being configured as follows.
JP1062810A 1989-03-15 1989-03-15 Pattern recognition processing system Pending JPH02242392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1062810A JPH02242392A (en) 1989-03-15 1989-03-15 Pattern recognition processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1062810A JPH02242392A (en) 1989-03-15 1989-03-15 Pattern recognition processing system

Publications (1)

Publication Number Publication Date
JPH02242392A true JPH02242392A (en) 1990-09-26

Family

ID=13211068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1062810A Pending JPH02242392A (en) 1989-03-15 1989-03-15 Pattern recognition processing system

Country Status (1)

Country Link
JP (1) JPH02242392A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335291A (en) * 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US5638491A (en) * 1992-06-19 1997-06-10 United Parcel Service Of America, Inc. Method and apparatus for hierarchical input classification using a neural network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335291A (en) * 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US5638491A (en) * 1992-06-19 1997-06-10 United Parcel Service Of America, Inc. Method and apparatus for hierarchical input classification using a neural network
US5664067A (en) * 1992-06-19 1997-09-02 United Parcel Service Of America, Inc. Method and apparatus for training a neural network

Similar Documents

Publication Publication Date Title
Fukushima Neocognitron for handwritten digit recognition
US4630308A (en) Character reader
JPH0737087A (en) Picture processor
US4641355A (en) Pattern recognition apparatus
US5317675A (en) Neural network pattern recognition learning method
JPH0749927A (en) Pattern recognizing method
EP0450522A2 (en) A learning method for a data processing system
US4628533A (en) Pattern recognition apparatus
CN110891172B (en) Dead pixel detection and correction device
JPH02242392A (en) Pattern recognition processing system
CN112418070A (en) Attitude estimation method based on decoupling ladder network
KR100238572B1 (en) Method for determining attributes using neural network and fuzzy logic
JPH06111038A (en) Neural network and operating method thereof
Hollingworth et al. Simulation of evolvable hardware to solve low level image processing tasks
US20230244949A1 (en) Methods and systems to train neural networks
Nakano et al. A learning machine that evolves
Fincher et al. Multi-sensor data fusion using neural networks
JP2900427B2 (en) Neural net
CN113822041B (en) Deep neural network natural scene text detection method suitable for dense text
JP2542107B2 (en) Neural network circuit
JPH0367381A (en) Character recognition device
JPH07271907A (en) Binarizing device for analog image
Shimada et al. A simple learning of binary neural networks with virtual teacher signals
JPH04222064A (en) Method for inspecting appearance
JP3136595B2 (en) Area separation method