JPH07160830A - Character recognizing device using neuro network - Google Patents

Character recognizing device using neuro network

Info

Publication number
JPH07160830A
JPH07160830A JP5304407A JP30440793A JPH07160830A JP H07160830 A JPH07160830 A JP H07160830A JP 5304407 A JP5304407 A JP 5304407A JP 30440793 A JP30440793 A JP 30440793A JP H07160830 A JPH07160830 A JP H07160830A
Authority
JP
Japan
Prior art keywords
small area
layer
network
character
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5304407A
Other languages
Japanese (ja)
Inventor
Shigeru Owada
茂 大和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Original Assignee
Hitachi Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP5304407A priority Critical patent/JPH07160830A/en
Publication of JPH07160830A publication Critical patent/JPH07160830A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To provide a character recognizing device using a neuro network for which recognition accuracy is improved. CONSTITUTION:A small area neuro network 100 to be the coupled shape neuro network for every small area of a character image is composed. By performing a learning by using a normal correlation value in this network 100, a network system 100 is constructed. The intermediate layer 11 of the constructed network system 100 is defined as an input layer, an integrated neuro network 101 to be the coupled shape is constituted by an original intermediate layer (second intermediate layer) and an original output layer (second output layer) 14 and a learning is performed by utilizing also the input layer 10 of the already constructed network 100. An actual character recognition is performed in the network composed of the input layer 10, the intermediate layer 11, the second intermediate layer 13 and the second output layer 14 of the network 100.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューロネットワーク
を使用して文字(図形や記号を含む)認識を行う文字認
識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device for recognizing characters (including figures and symbols) using a neuro network.

【0002】[0002]

【従来の技術】従来のニューロネットワークを使っての
文字認識装置を図2に示す。このニューロネットワーク
は全結合形と呼ばれているものであり、入力層1と中間
層2と出力層3との3層より成り、ある種のユニットは
その隣の層の各ユニット全てと1本の重み係数で接続さ
れている。そして事前に教師データを用いての学習を行
ってニューロネットワーク系を構築しておき、認識時に
は、正規化した文字画像(認識対象文字のこと)を入力
して出力層3から認識結果を得るようにしたものであ
る。中間層2を一段とした例であるが、2段以上の例も
ある。
2. Description of the Related Art A conventional character recognition apparatus using a neuro network is shown in FIG. This neuro-network is called a fully connected type, and consists of three layers, an input layer 1, an intermediate layer 2 and an output layer 3, and a certain type of unit has one unit with each unit of the adjacent layer. Are connected with the weighting factor of. Then, learning is performed in advance using teacher data to build a neuronetwork system, and at the time of recognition, a normalized character image (character to be recognized) is input and a recognition result is obtained from the output layer 3. It is the one. This is an example in which the intermediate layer 2 has one stage, but there are also examples in which there are two or more stages.

【0003】尚、図2で出力層3の「0、1、2、…
…、9」とは、数字0、1、2、……、9の各々の認識
時に‘1’を出力する認識数字対応の出力位置を示す。
例えば数字‘2’を認識した時には出力層3の出力位置
2が‘1’を出力し、他の出力位置0、1、3、……、
9はすべて‘0’を出力する。
In FIG. 2, "0, 1, 2, ...
"... 9" indicates an output position corresponding to a recognized numeral that outputs "1" when each of the numerals 0, 1, 2, ..., 9 is recognized.
For example, when the number “2” is recognized, the output position 2 of the output layer 3 outputs “1”, and the other output positions 0, 1, 3, ...
All 9s output "0".

【0004】全結合形でのニューロネットワーク学習方
法は以下の通りである。 (1)、学習用文字画像を準備する。各文字画像には、
教師データ(正解値:反応させる出力層のユニット番
号)を予め設定しておく。ニューラルネットワークの認
識精度は、この準備した学習用文字画像に依存する所が
大きく、間違った教師データの設定や人間でも判断不可
能な文字画像等は、学習させてはいけない。 (2)、ネットワーク中の各ユニット間の重み係数及び
各ユニットが保持しているオフセット値を乱数にて初期
化する。 (3)、学習用文字画像1つを選択する。文字画像の選
択は、乱数を用い各文字種均等に行う。
The fully connected neural network learning method is as follows. (1) Prepare a learning character image. For each character image,
Teacher data (correct answer: unit number of output layer to be reacted) is set in advance. The recognition accuracy of the neural network largely depends on the prepared character image for learning, and incorrect character data settings or character images that cannot be judged by humans should not be learned. (2) Initialize the weighting factor between each unit in the network and the offset value held by each unit with a random number. (3) Select one learning character image. Character images are selected evenly for each character type using random numbers.

【0005】(4)、選択した文字画像をニューラルネ
ットワークの入力層に入力し、各重み係数及びオフセッ
ト値を用いて、中間層から出力層へと順次算出する。 (5)、前記(4)で出力された出力層の値と、予め用
意した教師データとの誤差を算出し、その誤差を小さく
するように、各層の重み係数及びオフセット値を変更す
る。この学習方法は一般にバックプロパゲーションと呼
ばれるものである。 (6)、前記(3)〜(5)を、適当な回数繰り返す。
(4) The selected character image is input to the input layer of the neural network and sequentially calculated from the intermediate layer to the output layer using each weighting coefficient and offset value. (5) An error between the value of the output layer output in (4) and the teacher data prepared in advance is calculated, and the weighting coefficient and offset value of each layer are changed so as to reduce the error. This learning method is generally called back propagation. (6), (3) to (5) are repeated an appropriate number of times.

【0006】かくして、全結合形のニューロネットワー
ク系が構築された。次いでこの構築したネットワーク系
で以下の方法により文字認識を行う。
Thus, a fully connected neuronetwork system was constructed. Next, character recognition is performed by the following method in this constructed network system.

【0007】全結合形での文字認識方法は以下の通りで
ある。以下に1文字の文字画像の、本ネットワークによ
る認識手順を示す。 (1)、切り出された文字画像に対しサイズ正規化処理
及び輝度正規化処理を行う。ここで、サイズ正規化とは
本ネットワークの入力層の大きさに一致するように文字
画像サイズを変更すること、輝度正規化処理とは、規定
の輝度値で定まる範囲に輝度値が全て収まるように、輝
度値を変更すること(範囲とは例えば輝度値0と255
の間)である。
The character recognition method in the fully combined form is as follows. The procedure for recognizing a character image of one character by this network is shown below. (1) A size normalization process and a brightness normalization process are performed on the clipped character image. Here, the size normalization is to change the character image size so as to match the size of the input layer of this network, and the brightness normalization processing is to ensure that all the brightness values are within the range defined by the specified brightness value. To change the brightness value (a range is, for example, brightness values 0 and 255.
Between).

【0008】(2)、前記(1)の文字画像データを、
本ネットワークの入力層に入力し、重み係数及びオフセ
ット値を用いて中間層・出力層と順次の値を算出する。 (3)、本ネットワークの出力層の値より、認識結果を
求めそれを出力する。
(2) The character image data of (1) above is
It is input to the input layer of this network, and the weighting coefficient and the offset value are used to calculate the values sequentially with the intermediate layer and the output layer. (3) Obtain the recognition result from the value of the output layer of this network and output it.

【0009】[0009]

【発明が解決しようとする課題】全結合形ニューロネッ
トワークは、文字全体の形状を認識対象とし、文字の小
領域単位の学習や認識は行っていない。そのため、認識
精度が向上しにくいとの問題を持つ。
In the fully connected neuro-network, the shape of the entire character is the object of recognition, and learning or recognition in small area units of the character is not performed. Therefore, there is a problem that it is difficult to improve the recognition accuracy.

【0010】本発明の目的は、文字の全体形状のみなら
ず文字の小領域単位の形状についても学習を行い、認識
を行うようにしたニューロを使った文字認識装置を提供
するものである。
It is an object of the present invention to provide a character recognition device using a neuro so that not only the entire shape of a character but also the shape of a character in a small area unit is learned and recognized.

【0011】[0011]

【課題を解決するための手段】本発明は、文字パターン
を構成する各小領域単位に形成された、少なくとも入力
層、中間層、出力層を持つ、小領域ニューラルネットワ
ーク群と;各小領域ニューラルネットワーク群の全入力
層を文字パターン全体のための入力層とし、この入力層
につながる上記全中間層を文字パターン全体のための第
1の中間層とし、この第1の中間層につながる第2の中
間層を有し、この第2の中間層につながる出力層を有す
る統合ネットワークと;より成るニューロを用いた文字
認識装置。
According to the present invention, there is provided a small area neural network group having at least an input layer, an intermediate layer, and an output layer, formed in each small area unit forming a character pattern; All the input layers of the network group are input layers for the entire character pattern, and all the intermediate layers connected to this input layer are the first intermediate layers for the entire character pattern, and the second intermediate layer connected to this first intermediate layer. A character recognition device using a neuron having an intermediate layer of, and an integrated network having an output layer connected to the second intermediate layer;

【0012】更に本発明は、上記ニューロを用いた文字
認識装置において、小領域ニューラルネットワーク群で
教師データをもとに学習を行って第1のニューロネット
ワーク系を構築し、統合ネットワークにおいてはこの構
築後の全入力層より成る入力層、全中間層より成る第1
の中間層、及び未構築の第2の中間層、出力層を用いて
教師データをもとにして学習を行って第2のニューロネ
ットワーク系を構築し、この構築後の第2のニューロネ
ットワーク系により文字パターンの認識を行わせるよう
にしたニューロを用いた文字認識装置を開示する。
Further, in the present invention, in the character recognizing device using the neuro, the first neuro network system is constructed by performing learning on the basis of the teacher data by the small area neural network group, and the first neuro network system is constructed in the integrated network. Input layer consisting of all subsequent input layers, first consisting of all intermediate layers
To construct a second neural network system by performing learning based on the teacher data using the hidden layer, the unconstructed second intermediate layer, and the output layer, and the second neural network system after the construction. Discloses a character recognition device using a neuro adapted to recognize a character pattern.

【0013】更に本発明は、小領域ニューラルネットワ
ーク群での小領域毎の教師データは、各小領域毎の出力
層に対応した正規化相関値とした。
Further, according to the present invention, the teacher data for each small area in the small area neural network group is a normalized correlation value corresponding to the output layer for each small area.

【0014】更に本発明は、学習用文字画像と各基準文
字画像との間で各々各小領域毎に相関値を求め、この小
領域毎に、相関値の大小の順に正規化しこの正規化して
得た正規化相関値を小領域ニューラルネットワーク群で
の小領域毎の教師データとする。
Further, according to the present invention, a correlation value is obtained for each small area between the learning character image and each reference character image, and the correlation value is normalized for each small area in the order of magnitude of the correlation value. The obtained normalized correlation value is used as teacher data for each small area in the small area neural network group.

【0015】[0015]

【作用】本発明によれば、小領域ネットワークの一部を
統合ネットワークの一部に組み込むことで、小領域ネッ
トワークによる学習効果を統合ネットワークに利用で
き、統合ネットワークでは、小領域ネットワークによる
学習結果を持つその一部の組み込みを利用して文字全体
の形状の学習を行い、文字認識を行う。
According to the present invention, by incorporating a part of the small area network into a part of the integrated network, the learning effect of the small area network can be utilized in the integrated network. Characters are recognized by learning the shape of the entire character by using the built-in part of it.

【0016】更に、小領域ネットワークでの教師データ
に、出力層対応の正規化相関値を使うことで、小領域で
の種々の文字対応値への学習が可能となり、文字全体形
状の認識精度が向上する。
Furthermore, by using the normalized correlation value corresponding to the output layer for the teacher data in the small area network, it becomes possible to learn various character corresponding values in the small area, and the recognition accuracy of the entire character shape is improved. improves.

【0017】[0017]

【実施例】図1は本発明の文字認識装置の実施例図であ
る。この文字認識装置は、小領域ネットワーク100
と、統合ネットワーク101とより成る。小領域ネット
ワーク100は、入力層10と、この入力層10を小領
域に区分した場合における各区分対応の中間層11
(1)、11(2)、……と、各中間層11(1)、1
1(2)、……対応の出力層12(1)、12(2)、
……と、より成る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a diagram showing an embodiment of a character recognition device of the present invention. This character recognition device is used for a small area network 100.
And an integrated network 101. The small area network 100 includes an input layer 10 and an intermediate layer 11 corresponding to each division when the input layer 10 is divided into small areas.
(1), 11 (2), ... And each intermediate layer 11 (1), 1
1 (2), ... Corresponding output layers 12 (1), 12 (2),
...... and consists of.

【0018】統合ネットワーク101は、小領域ネット
ワーク100の中間層11(1)、11(2)、……を
入力層とし、この入力層につながる中間層13、出力層
14を持つネットワークである。
The integrated network 101 is a network having the intermediate layers 11 (1), 11 (2), ... Of the small area network 100 as input layers, and having an intermediate layer 13 and an output layer 14 connected to the input layers.

【0019】このネットワーク100、101によれ
ば、学習はネットワーク100による学習と、ネットワ
ーク101による学習とに分かれ、先ずネットワーク1
00で学習を行い小領域ネットワーク系を構築する。
According to the networks 100 and 101, learning is divided into learning by the network 100 and learning by the network 101.
Learning is performed at 00 to build a small area network system.

【0020】次に、この構築した小領域ネットワーク系
100のもとで、統合ネットワーク101の学習を行
い、統合ネットワーク系を構築する。ここで、構築と
は、そのネットワークにおける各層間の重み係数が決定
されて入力層から出力層に至るニューロ系路が作られた
ことを意味する。尚、統合ネットワーク101での学習
に際して、構築した小領域ネットワーク系100で一部
である入力層10及び中間層11(1)、11(2)、
……をそのまま入力層として利用している。中間層11
(1)、11(2)、……の各々は、中間層13への入
力層としている。
Next, the integrated network 101 is learned under the constructed small area network system 100 to construct the integrated network system. Here, the construction means that a weighting coefficient between layers in the network is determined and a neuro system path from the input layer to the output layer is created. When learning in the integrated network 101, the input layer 10 and the intermediate layers 11 (1), 11 (2), which are part of the constructed small area network system 100,
... is used as is as the input layer. Middle layer 11
Each of (1), 11 (2), ... Is used as an input layer to the intermediate layer 13.

【0021】学習して構築したネットワークを利用して
文字認識を行うが、この場合は、入力層10と、中間層
11(1)、11(2)、……と、中間層13と、出力
層14とより成るネットワーク系で文字認識を行う。即
ち、正規化文字画像を入力層10へ入力し、中間層11
(1)、11(2)、……、中間層13、出力層14を
経て認識結果を得る。
Character recognition is performed using a network constructed by learning. In this case, the input layer 10, the intermediate layers 11 (1), 11 (2), ..., The intermediate layer 13, and the output are provided. Character recognition is performed in a network system including the layer 14. That is, the normalized character image is input to the input layer 10 and the intermediate layer 11
(1), 11 (2), ..., The recognition result is obtained through the intermediate layer 13 and the output layer 14.

【0022】このように、上記実施例によれば、本ネッ
トワークは、下記2つの3層の階層型ネットワークを接
続し、全体として4層の階層型ネットワークとなる。 ・小領域ネットワーク……小領域単位の小さい3層の階
層型ネットワークであり、小領域数分存在する。 ・統合ネットワーク………前記小領域ネットワークの各
中間層を、入力層とした3層の階層型ネットワーク。 小領域ネットワークは、学習のみ3層構造となり、認識
時には中間層までしか使用しない。
As described above, according to the above-described embodiment, the present network connects the following two three-layer hierarchical networks, and becomes a four-layer hierarchical network as a whole. -Small area network: A three-layer hierarchical network with small small area units, and there are as many small areas as there are small areas. -Integrated network: A three-layer hierarchical network with each middle layer of the small area network as an input layer. The small area network has a three-layer structure only for learning, and uses only the middle layer at the time of recognition.

【0023】次に、小領域について説明する。文字の大
きさが最大で8×12マトリックスサイズの例で説明す
る。このサイズは本来任意であることは当然である。各
小領域のサイズは同一とし、8×12のマトリックスサ
イズ(ピクセル)に対して、15個の小領域を配置す
る。
Next, the small area will be described. An example in which the maximum character size is 8 × 12 matrix size will be described. Naturally, this size is arbitrary in nature. The size of each small area is the same, and 15 small areas are arranged for a matrix size (pixels) of 8 × 12.

【0024】この配置例を図3に示す。各小領域のサイ
ズ4×4ピクセルサイズとし、図3(イ)〜(ニ)の1
5個の区分化を行う。図3を通じて図形中に示してある
数字0〜95がピクセル位置を示し、図3(イ)が8×
12ピクセルを4×4ピクセルで規則的に6区分化した
例、図3(ロ)が図3(イ)の6区分化例の中で左右の
中心境界部分を補間するための3区分化例、図3(イ)
の6区分化例の中で左右各々の中心境界部分を補間する
ための4区分化例、図3(ニ)が図3(ロ)の中心境界
部分を補間するための2区分化例を示す。
An example of this arrangement is shown in FIG. The size of each small region is set to 4 × 4 pixel size, and 1 in FIG.
5 divisions are performed. Numbers 0 to 95 shown in the figure through FIG. 3 indicate pixel positions, and FIG.
An example in which 12 pixels are regularly divided into 6 by 4 × 4 pixels, and in FIG. 3B, an example of 3 divisions for interpolating the left and right central boundary parts in the example of 6 divisions in FIG. , Fig. 3 (a)
4 shows an example of 4 segmentation for interpolating the left and right central boundary portions, and FIG. 3D shows an example of 2 segmentation for interpolating the central boundary portion of FIG. 3B. .

【0025】ここで、入力層10にとって15個の小領
域に区分化とは、この15個の小領域単位に各々独立に
信号出力を行うとの意味であり、中間層11にとって
は、15個の小領域対応の中間層11(1)、11
(2)、……、11(15)を持つことであり、出力層
12にとっては、15個の中間層11(1)、11
(2)、……、11(15)対応に15個の出力層12
(1)、12(2)、……、12(15)を持つことで
ある。
Here, partitioning into 15 small areas for the input layer 10 means that signals are independently output in units of these 15 small areas, and for the intermediate layer 11, 15 areas are output. Of the intermediate layers 11 (1), 11
(2), ..., 11 (15), and for the output layer 12, fifteen intermediate layers 11 (1), 11
(2), ..., 11 15 output layers 12 corresponding to (15)
(1), 12 (2), ..., 12 (15).

【0026】以上の本実施例によるネットワークでの学
習方法を以下に説明する。全体の学習手順は図4に示
し、小領域ネットワーク100での学習手順を図6、統
合ネットワーク100での学習手順を図8に示す。
The learning method in the network according to the above embodiment will be described below. The overall learning procedure is shown in FIG. 4, the learning procedure in the small area network 100 is shown in FIG. 6, and the learning procedure in the integrated network 100 is shown in FIG.

【0027】(1)、小領域ネットワーク100での学
習。 小領域ネットワークは、1つの文字画像を入力すると、
各15個の小領域ネットワークを全て学習する。以下に
は、1つのネットワークの学習手順を示す。 、学習用文字画像を準備し、その各文字画像に教師デ
ータを設定する。教師データは、通常の場合図4に示す
ように、その文字画像に対して反応させる出力層の番号
を用意するが、本小領域ネットワークにおける教師デー
タは、以下に示すような各出力層へ対応した正規化層間
値を用いる。教師データ算出方法を、以下に示す。 ・用意した学習用文字画像中より、各出力層に対応する
基準文字画像を決定する。基準文字画像とは、欠けやつ
ぶれ、ゴミなどのない、正常に印字された文字画像を云
う。 ・用意した学習用文字画像と前記各基準文字画像(これ
を正規化相関の辞書とする)で、本ネットワークが着目
している小領域における正規化相関値を算出する。 ・本正規化相関値を教師データとする。
(1) Learning in the small area network 100. The small area network, when inputting one character image,
All 15 small area networks are learned. The learning procedure for one network is shown below. , Prepare character images for learning, and set teacher data for each character image. For the teacher data, as shown in FIG. 4, usually, the number of the output layer to react with the character image is prepared, but the teacher data in this small area network corresponds to each output layer as shown below. The normalized interlayer value is used. The method of calculating teacher data is shown below. -A reference character image corresponding to each output layer is determined from the prepared learning character images. The reference character image refers to a character image that is normally printed without any chipping, crushing, dust, or the like. -Using the prepared learning character image and each of the reference character images (this is the dictionary of normalized correlation), the normalized correlation value in the small area of interest to the network is calculated. -This normalized correlation value is used as teacher data.

【0028】、ネットワーク中の各ユニット間の重み
係数及び各ユニットが保持しているオフセット値を乱数
にて初期化する。 、学習用文字画像1つを選択する。文字画像の選択
は、乱数を用い各文字種均等に行う。 、選択した文字画像をニューラルネットワークの入力
層に入力し、各重み係数及びオフセット値を用いて、中
間層から出力層へと順次算出する。 、前記で出力された出力層の値と、予め用意した教
師データとの誤差を算出し、その誤差を小さくするよう
に、各層の重み係数及びオフセット値を変更する。 、前記〜を、適当な回数繰り返す。
First, the weighting factor between each unit in the network and the offset value held by each unit are initialized by random numbers. , One learning character image is selected. Character images are selected evenly for each character type using random numbers. Then, the selected character image is input to the input layer of the neural network, and sequentially calculated from the intermediate layer to the output layer using each weighting coefficient and offset value. The error between the output layer value output above and the teacher data prepared in advance is calculated, and the weighting coefficient and offset value of each layer are changed so as to reduce the error. , And the above are repeated an appropriate number of times.

【0029】(2)、統合ネットワーク101での学
習。 統合ネットワークは、前記小領域ネットワークの学習を
充分行った後に、以下の手順に従って行う。 、学習用文字画像を準備し、その各文字画像に教師デ
ータを設定する。ここでの教師データは、通常の場合の
その文字画像に対して反応させる出力層の番号とする。 、ネットワーク中の各ユニット間の重み係数及び各ユ
ニットが保持しているオフセット値を乱数にて初期化す
る。 、学習用文字画像1つを選択し、前記学習済みの小領
域ネットワークを用いて、その中間層までの値を算出す
る。文字学習の選択は、乱数を用い各文字種均等に行
う。 、前記で求めた各小領域ネットワークの中間層の値
を、本統合ネットワークの入力層に入力し、各重み係数
及びオフセット値を用いて、中間層から出力層へと順次
算出する。 、前記で出力された出力層の値と、予め用意した教
師データとの誤差を算出し、その誤差を小さくするよう
に、各層の重み係数及びオフセット値を変更する。 、前記〜を、適当な回数繰り返す。
(2) Learning in the integrated network 101. The integrated network is subjected to the following procedure after sufficiently learning the small area network. , Prepare character images for learning, and set teacher data for each character image. The teacher data here is the number of the output layer to be reacted with the character image in the normal case. , A weighting factor between each unit in the network and an offset value held by each unit are initialized by random numbers. , One of the learning character images is selected, and the values up to the intermediate layer are calculated using the learned small area network. Character learning is selected evenly for each character type using random numbers. The value of the intermediate layer of each small area network obtained above is input to the input layer of the present integrated network, and is sequentially calculated from the intermediate layer to the output layer using each weighting factor and offset value. The error between the output layer value output above and the teacher data prepared in advance is calculated, and the weighting coefficient and offset value of each layer are changed so as to reduce the error. , And the above are repeated an appropriate number of times.

【0030】(3)、本実施例での認識方法について。 この認識手順を図10に示す。本ネットワークは、小領
域ネットワークの中間層まで算出したのち、それらを統
合ネットワークの入力層に入力して、その出力層まで算
出することにより行われる。以下に1文字の文字画像
の、本ネットワークによる認識手順を示す。 、切り出された文字画像に対し前記サイズ正規化処理
及び輝度正規化処理を行う。 、前記の文字画像データの各小領域データを、各小
領域ネットワークの入力層に入力し、重み係数及びオフ
セット値を用いて各中間層の値を算出する。 、前記各小領域ネットワークの中間層の値を、統合ネ
ットワークの入力層へ入力し、重み係数及びオフセット
値を用いて中間層・出力層と順次の値を算出する。 、統合ネットワークの出力層の値より、認識結果を求
めそれを出力する。
(3) Regarding the recognition method in this embodiment. This recognition procedure is shown in FIG. This network is performed by calculating up to the middle layer of the small area network, inputting them to the input layer of the integrated network, and calculating up to its output layer. The procedure for recognizing a character image of one character by this network is shown below. The size normalization processing and the brightness normalization processing are performed on the cut out character image. The small area data of the character image data is input to the input layer of each small area network, and the value of each intermediate layer is calculated using the weighting factor and the offset value. The value of the intermediate layer of each of the small area networks is input to the input layer of the integrated network, and the values of the intermediate layer and the output layer are sequentially calculated using the weighting factor and the offset value. , The recognition result is obtained from the value of the output layer of the integrated network and is output.

【0031】次に、小領域ネットワークで使った正規化
相関値について述べる。図7に示すような4×4のサイ
ズの2つの画像A、Bを与えて、この2つの画像A、B
の相関値を求めるものとする。ここで、画像Aとは、学
習用文字画像での任意の小領域の4×4のサイズの画
像、画像Bとは基準文字画像での任意の領域の4×4サ
イズの画像である。この画像AとBとの相関値をrとす
ると、次式によって求まる。
Next, the normalized correlation value used in the small area network will be described. Given two images A and B of 4 × 4 size as shown in FIG. 7, these two images A and B
The correlation value of is to be obtained. Here, the image A is a 4 × 4 size image of an arbitrary small area in the learning character image, and the image B is a 4 × 4 size image of an arbitrary area in the reference character image. If the correlation value between the images A and B is r, it can be obtained by the following equation.

【0032】[0032]

【数1】 本式によればrは常に[Equation 1] According to this formula, r is always

【数2】 となる。ここで r=1とは、パーフェクト・マッチ r=−1とは、パーフェクト・ミスマッチ を表す。パーフェクト・マッチとは、AとBとが全ての
画素において一致することであり、パーフェクト・ミス
マッチとはAとBとが全ての画素において不一致である
ことを意味する。パーフェクト・マッチは数学的に表現
すれば、
[Equation 2] Becomes Here, r = 1 represents a perfect match, and r = −1 represents a perfect mismatch. A perfect match means that A and B match in all pixels, and a perfect mismatch means that A and B do not match in all pixels. The perfect match can be expressed mathematically,

【数3】 を満たすα、βが存在することを意味する(α>0)。[Equation 3] It means that there are α and β that satisfy (α> 0).

【0033】以上の正規化相関値を教師データとする例
を図8に示す。図8において、図の左側に示す如き数字
‘0’の右上部の1/4円弧の学習データの例とする。
これに対して、種々の形状の‘0’を基準画像として、
その小領域(右上部側にあるもの)相互間で、相関値を
(数1)に従って求める。そしてその中の最大の相関値
(0.63と0.97と0.87との中の最大値)を代
表相関値とする。この例では、代表値は0.97であ
る。
FIG. 8 shows an example in which the above normalized correlation values are used as teacher data. In FIG. 8, it is assumed that the learning data of the upper right quarter of the numeral “0” as shown on the left side of the figure is learning data.
On the other hand, by using '0' of various shapes as a reference image,
A correlation value is obtained between the small areas (those on the upper right side) according to (Equation 1). Then, the maximum correlation value among them (the maximum value among 0.63, 0.97, and 0.87) is set as the representative correlation value. In this example, the typical value is 0.97.

【0034】同様に、数字‘1’についての種々の基準
画像の該当小領域についての相関値を求め、その最大値
を代表相関値とする。図では、−0.42となる。以
下、数字2、3、……、9について各々代表相関値を求
める。図では数字2、3、……、8は省略し、数字9で
の代表相関値0.89の例を示してある。次に、この数
字0〜9で算出した代表相関値を0〜1に正規化する。
図では、0.97→1、−0.42→0.00、0.8
9→0.64に正規化した例を示してある。この正規化
した代表相関値が正規化相関値である。これを小領域ネ
ットワークでの教師データとして使う。
Similarly, the correlation value for the corresponding small area of various reference images for the numeral "1" is obtained, and the maximum value thereof is used as the representative correlation value. In the figure, it is -0.42. Hereinafter, representative correlation values for the numbers 2, 3, ... In the figure, numerals 2, 3, ..., 8 are omitted, and an example of the representative correlation value 0.89 in numeral 9 is shown. Next, the representative correlation value calculated by the numbers 0 to 9 is normalized to 0 to 1.
In the figure, 0.97 → 1, -0.42 → 0.00, 0.8
An example normalized to 9 → 0.64 is shown. This normalized representative correlation value is the normalized correlation value. This is used as teacher data in the small area network.

【0035】つまり、本教師データ作成方法によれば、
例えば文字の左上部が図8の如く1/4円弧の形状とな
っていれば、その教師データは、文字‘0’、‘2’、
‘3’、‘6’、‘8’、‘9’の該当個所が高い値を
示し、文字‘1’、‘4’、‘5’、‘7’の該当個所
は低い値を示すものとなる。
That is, according to this teacher data creating method,
For example, if the upper left part of the character has a 1/4 circular arc shape as shown in FIG. 8, the teacher data is the characters "0", "2",
Corresponding places of '3', '6', '8', '9' show high values, and corresponding places of letters '1', '4', '5', '7' show low values. Become.

【0036】このように、限られた小さい領域の特徴を
用いて学習を行うことにより、その小領域ネットワーク
の中間層に特徴量(ニューロは、学習により、その中間
層に特徴を自動的に抽出すると、一般的にいわれてい
る)を取り出すことが可能となる。
As described above, by performing learning using the features of the limited small area, the feature amount is automatically extracted in the middle layer of the small area network (the neuron automatically extracts the feature in the middle layer by learning). Then, it is possible to take out (which is generally said).

【0037】更にこのことを説明する。ニューロは似た
ようなパターンAとBがあった場合に、それらを別の出
力層に出力させるような教師データで学習すると、ネッ
トワークが混乱し、収束しない場合がある。小領域ネッ
トワークの場合、上記のように文字の左上部が1/4円
弧のような形状をしている文字は、いくつもあり、これ
を通常の教師データで学習すると、前記のような状況に
おちいり、精度が向上しない。そこで、各形状にあわせ
て教師データを作成するため、正規化相関値を用いて教
師データを作成している。実際のテストでは、欠けやつ
ぶれの多い文字に対しては、明らかに全結合ニューロよ
り、本発明のニューロの方が精度が高くなった。全結合
形は、文字全体での特徴のみにより読み取りを行うが、
本発明のネットワークは、文字の各部分の特徴をとら
え、それらを総合的に判断して読み取りを行うようにな
る。このことから、前記テスト結果のような結果が得ら
れたと考えている。
This will be further described. If there are similar patterns A and B in the neuro, if learning is performed with teacher data for outputting them to another output layer, the network may be confused and may not converge. In the case of a small area network, there are many characters in which the upper left part of the character has a shape like a 1/4 circular arc as described above, and if this is learned with normal teacher data, the situation as described above will occur. The accuracy is not improved. Therefore, in order to create the teacher data according to each shape, the teacher data is created using the normalized correlation value. In actual tests, the neuron of the present invention was clearly more accurate than the fully connected neuron for characters with a lot of missing or crushed characters. The fully-combined form reads only the features of the whole character,
The network of the present invention captures the characteristics of each part of the character and comprehensively judges them for reading. From this, it is considered that the result like the test result was obtained.

【0038】次に小領域の配置及びサイズについて説明
する。本ネットワークの小領域ネットワークの配置の仕
方は、認識対象の文字の識別が可能となる配置及びサイ
ズとする必要がある。小領域の数は、少なければそれだ
け高速に認識可能とはなるが様々な文字への対応(汎用
性)を考えれば、以下の様な、文字パターン全体をま網
羅した配置とすることが望ましい。
Next, the arrangement and size of the small areas will be described. The arrangement of the small area network of this network must be such that the character to be recognized can be identified. The smaller the number of small areas, the faster the recognition becomes possible. However, considering the correspondence to various characters (general versatility), it is desirable to arrange the entire character pattern as follows.

【0039】又、小領域のサイズも、極力文字を構成す
る最小となる形状(直線とか円弧とかの形状である)の
特徴が含まれるようなサイズとすることが望ましい。
Further, it is desirable that the size of the small region should be such that the feature of the smallest shape (a shape such as a straight line or a circular arc) that constitutes a character is included as much as possible.

【0040】尚、文字として数字の例を示したが、それ
以外に、英文字、日本文字、記号、図形等の認識にも適
用できる。
Although an example of a numeral is shown as a character, other than that, the invention can be applied to recognition of English characters, Japanese characters, symbols, figures and the like.

【0041】[0041]

【発明の効果】本発明によれば、小領域ネットワークに
より小領域毎の学習を行い、この学習結果を利用した統
合ネットワークにより更に学習を行い、その学習結果を
利用して文字認識を行う。これにより、認識精度の高い
文字読み取りが可能となった。
According to the present invention, learning for each small area is performed by the small area network, further learning is performed by the integrated network using the learning result, and character recognition is performed by using the learning result. This made it possible to read characters with high recognition accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のニューラルネットワークによる文字認
識装置の実施例図である。
FIG. 1 is a diagram showing an embodiment of a character recognition device using a neural network of the present invention.

【図2】従来のニューラルネットワークによる文字認識
装置の構成図である。
FIG. 2 is a block diagram of a character recognition device using a conventional neural network.

【図3】本発明の小領域配置例を示す図である。FIG. 3 is a diagram showing an example of small area arrangement according to the present invention.

【図4】通常の教師データを示す例図である。FIG. 4 is an example diagram showing normal teacher data.

【図5】本発明のニューラルネットワークによる文字認
識装置での学習手順を示す図である。
FIG. 5 is a diagram showing a learning procedure in a character recognition device using a neural network of the present invention.

【図6】本発明の小領域ニューラルネットワークでの学
習手順を示す図である。
FIG. 6 is a diagram showing a learning procedure in the small area neural network of the present invention.

【図7】本発明の相関値を求めるための図形を示す図で
ある。
FIG. 7 is a diagram showing a figure for obtaining a correlation value according to the present invention.

【図8】本発明の正規化相関値を求めるための説明図で
ある。
FIG. 8 is an explanatory diagram for obtaining a normalized correlation value according to the present invention.

【図9】本発明の統合ネットワークでの学習手順を示す
図である。
FIG. 9 is a diagram showing a learning procedure in the integrated network of the present invention.

【図10】本発明での文字認識装置での認識手順を示す
図である。
FIG. 10 is a diagram showing a recognition procedure in the character recognition device according to the present invention.

【符号の説明】[Explanation of symbols]

10 入力層 11(1)、11(2)、…… 中間層 12(1) 出力層 13 中間層 10 Input layer 11 (1), 11 (2), ... Intermediate layer 12 (1) Output layer 13 Intermediate layer

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 文字パターンを構成する各小領域単位に
形成された、少なくとも入力層、中間層、出力層を持
つ、小領域ニューラルネットワーク群と;各小領域ニュ
ーラルネットワーク群の全入力層を文字パターン全体の
ための入力層とし、この入力層につながる上記全中間層
を文字パターン全体のための第1の中間層とし、この第
1の中間層につながる第2の中間層を有し、この第2の
中間層につながる出力層を有する統合ネットワークと;
より成るニューロを用いた文字認識装置。
1. A small area neural network group having at least an input layer, an intermediate layer, and an output layer formed in each small area unit forming a character pattern; and a character string for all input layers of each small area neural network group. An input layer for the entire pattern, the whole intermediate layer connected to the input layer being a first intermediate layer for the entire character pattern, and a second intermediate layer connected to the first intermediate layer, An integrated network having an output layer leading to a second intermediate layer;
Character recognition device using a new neuron.
【請求項2】 請求項1記載のニューロを用いた文字認
識装置において、小領域ニューラルネットワーク群で教
師データをもとに学習を行って第1のニューロネットワ
ーク系を構築し、統合ネットワークにおいてはこの構築
後の全入力層より成る入力層、全中間層より成る第1の
中間層、及び未構築の第2の中間層、出力層を用いて教
師データをもとにして学習を行って第2のニューロネッ
トワーク系を構築し、この構築後の第2のニューロネッ
トワーク系により文字パターンの認識を行わせるように
したニューロを用いた文字認識装置。
2. The neuro-based character recognition device according to claim 1, wherein learning is performed by a small area neural network group based on teacher data to construct a first neuro network system, and in the integrated network, The input layer consisting of all input layers after construction, the first intermediate layer consisting of all intermediate layers, the unconstructed second intermediate layer, and the output layer are used to perform learning based on the teaching data A character recognition device using a neuro that constructs a neuro network system of and a character pattern is recognized by the second neuro network system after the construction.
【請求項3】 小領域ニューラルネットワーク群での小
領域毎の教師データは、各小領域毎の出力層に対応した
正規化相関値とした請求項2記載のニューロを用いた文
字認識装置。
3. The character recognition device using a neuron according to claim 2, wherein the teacher data for each small area in the small area neural network group is a normalized correlation value corresponding to an output layer for each small area.
【請求項4】 学習用文字画像と各基準文字画像との間
で各々各小領域毎に相関値を求め、この小領域毎に、相
関値の大小の順に正規化しこの正規化して得た正規化相
関値を小領域ニューラルネットワーク群での小領域毎の
教師データとする請求項3記載のニューロを用いた文字
認識装置。
4. A correlation value is obtained for each small area between the learning character image and each reference character image, and the correlation value is normalized for each small area in the order of magnitude of the correlation value. The character recognition device using a neuron according to claim 3, wherein the generalized correlation value is teacher data for each small area in the small area neural network group.
JP5304407A 1993-12-03 1993-12-03 Character recognizing device using neuro network Pending JPH07160830A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5304407A JPH07160830A (en) 1993-12-03 1993-12-03 Character recognizing device using neuro network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5304407A JPH07160830A (en) 1993-12-03 1993-12-03 Character recognizing device using neuro network

Publications (1)

Publication Number Publication Date
JPH07160830A true JPH07160830A (en) 1995-06-23

Family

ID=17932641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5304407A Pending JPH07160830A (en) 1993-12-03 1993-12-03 Character recognizing device using neuro network

Country Status (1)

Country Link
JP (1) JPH07160830A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091522A (en) * 2015-11-04 2017-05-25 三星電子株式会社Samsung Electronics Co.,Ltd. Authentication method, authentication apparatus, and learning method
WO2020084720A1 (en) * 2018-10-24 2020-04-30 富士通フロンテック株式会社 Banknote inspection device, banknote inspection method, and banknote inspection program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091522A (en) * 2015-11-04 2017-05-25 三星電子株式会社Samsung Electronics Co.,Ltd. Authentication method, authentication apparatus, and learning method
WO2020084720A1 (en) * 2018-10-24 2020-04-30 富士通フロンテック株式会社 Banknote inspection device, banknote inspection method, and banknote inspection program
JPWO2020084720A1 (en) * 2018-10-24 2021-04-30 富士通フロンテック株式会社 Banknote inspection device, banknote inspection method and banknote inspection program
US11423728B2 (en) 2018-10-24 2022-08-23 Fujitsu Frontech Limited Banknote inspection device, banknote inspection method, and banknote inspection program product
CN112840383B (en) * 2018-10-24 2024-03-08 富士通先端科技株式会社 Banknote checking device, banknote checking method, and banknote checking program

Similar Documents

Publication Publication Date Title
CN111242841B (en) Image background style migration method based on semantic segmentation and deep learning
CN110929697A (en) Neural network target identification method and system based on residual error structure
CN111126256A (en) Hyperspectral image classification method based on self-adaptive space-spectrum multi-scale network
CN107273870A (en) The pedestrian position detection method of integrating context information under a kind of monitoring scene
CN110992238A (en) Digital image tampering blind detection method based on dual-channel network
CN105701493B (en) The method and system of image zooming-out and prospect estimation based on stratum's figure
US20210065367A1 (en) Automatic abnormal cell recognition method based on image splicing
CN108268890A (en) A kind of hyperspectral image classification method
CN103295019B (en) A kind of Chinese fragment self-adaptive recovery method based on probability-statistics
CN109766918A (en) Conspicuousness object detecting method based on the fusion of multi-level contextual information
CN114331946A (en) Image data processing method, device and medium
Ebrahimpour et al. Recognition of Persian handwritten digits using Characterization Loci and Mixture of Experts
EP0709800A2 (en) Method for designing classification trees
JPH07160830A (en) Character recognizing device using neuro network
CN110111252A (en) Single image super-resolution method based on projection matrix
CN114708591A (en) Document image Chinese character detection method based on single character connection
CN114202731A (en) Multi-state knob switch identification method
EP0435099A2 (en) A method of selecting characteristics data for a data processing system
CN109886105B (en) Price tag identification method, system and storage medium based on multi-task learning
JP4031189B2 (en) Document recognition apparatus and document recognition method
CN112419208A (en) Construction drawing review-based vector drawing compiling method and system
JPS5819941A (en) Information input device
CN112967292A (en) Automatic cutout and scoring method and system for E-commerce products
Reddy et al. A question-answering framework for plots using deep learning
JPH0247788B2 (en)