JPH07271916A - Learning pattern generating device and character recognizing device using the same - Google Patents

Learning pattern generating device and character recognizing device using the same

Info

Publication number
JPH07271916A
JPH07271916A JP6085520A JP8552094A JPH07271916A JP H07271916 A JPH07271916 A JP H07271916A JP 6085520 A JP6085520 A JP 6085520A JP 8552094 A JP8552094 A JP 8552094A JP H07271916 A JPH07271916 A JP H07271916A
Authority
JP
Japan
Prior art keywords
input
pattern
learning
character
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6085520A
Other languages
Japanese (ja)
Inventor
Hisashi Chiba
久 千葉
Hitoshi Kubota
整 久保田
Katsuichi Ono
勝一 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP6085520A priority Critical patent/JPH07271916A/en
Publication of JPH07271916A publication Critical patent/JPH07271916A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To enable even an unskilled operator to automatically select an appropriate learning pattern in a short time. CONSTITUTION:A learning pattern generating device 10 is provided with a recognizing object pattern storage means 12 which stores all recognizing object patterns Pr1-Prn, a similarity degree calculator means 14 which calculates the similarity degrees R1-Rn between the patterns Pr1-Prn and an input pattern Pea that can not be recognized or an input pattern Peb that is wrong recognized, and a learning pattern selector means 16 which decides whether the patterns Pea and Peb should be used as the learning patterns Ps based on the degrees R1-Rn calculated by the means 14.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クを用いて文字等を認識する場合の学習パターン生成装
置及びこれを用いた文字認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning pattern generating device for recognizing characters and the like using a neural network and a character recognizing device using the learning pattern generating device.

【0002】[0002]

【従来の技術】ニューラルネットワークを用いて文字等
を認識する場合、予めニューラルネットワークに認識対
象文字を学習させておく。学習とは、例えば認識対象文
字「C」をニューラルネットワークに入力したときに、
ニューラルネットワークから「C」が出力されるよう
に、ニューラルネットワークを構成する各ユニット間の
結合荷重等のパラメータを決定することである。また、
学習に用いられる文字等のパターンを「学習パターン」
といい、この学習パターンの集合を「学習データ」とい
う。学習パターンの例を図8に示す。学習パターンに
は、認識対象文字である学習パターン80、認識対象文
字にノイズが加わった学習パターン81,82,83、
認識対象文字が変形した学習パターン84,85,86
等がある。
2. Description of the Related Art When a character or the like is recognized by using a neural network, the neural network is made to learn the recognition target character in advance. Learning means, for example, when the recognition target character “C” is input to the neural network,
This is to determine parameters such as the connection weight between the units forming the neural network so that “C” is output from the neural network. Also,
Patterns such as letters used for learning are "learning patterns"
This set of learning patterns is called "learning data". An example of the learning pattern is shown in FIG. The learning pattern includes a learning pattern 80 that is a recognition target character, learning patterns 81, 82, 83 in which noise is added to the recognition target character,
Learning patterns 84, 85, 86 in which the recognition target characters are deformed
Etc.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来技
術では、次のような問題があった。
However, the conventional technique has the following problems.

【0004】 認識率を高めるために学習パターン8
1,…,86を増やすと、学習が収束しなくなって、最
適なパラメータを決定できなくなる。
Learning pattern 8 in order to increase the recognition rate
When 1, ..., 86 are increased, learning does not converge, and it becomes impossible to determine optimum parameters.

【0005】 認識対象文字に特定のノイズが加わっ
た学習パターン87,88を学習すると、学習パターン
87,88に類似した認識対象文字89,90,91と
混同を生じて認識率が低下する。すなわち、認識対象文
字89,90,91の「G」,「O」,「D」を認識対
象文字「C」と誤って認識してしまう可能性が生じる。
When learning patterns 87, 88 in which specific noise is added to the recognition target characters are learned, confusion occurs with recognition target characters 89, 90, 91 similar to the learning patterns 87, 88, and the recognition rate decreases. That is, there is a possibility that the recognition target characters 89, 90, 91 “G”, “O”, and “D” may be erroneously recognized as the recognition target character “C”.

【0006】 上記の問題を避けるためには、操
作者が学習すべきパターンを選択する必要がある。すな
わち、学習の収束の妨げとなる不要なパターンを除外す
ると共に、認識率の低下を招くパターンも除外する。こ
れにより、好ましいパターンのみをニューラルネットワ
ークに学習させる。この学習すべきパターンを的確に判
断するには熟練を要すると共に多くの時間及び試行錯誤
が必要であるので、操作がたいへん面倒であった。
In order to avoid the above problem, the operator needs to select a pattern to be learned. That is, unnecessary patterns that hinder the convergence of learning are excluded, and patterns that reduce the recognition rate are also excluded. This causes the neural network to learn only the preferable pattern. The operation is very troublesome because it requires a lot of time and trial and error to judge the pattern to be learned accurately.

【0007】[0007]

【発明の目的】そこで、本発明の主な目的は、熟練した
操作者によらなくても適切な学習パターンを自動的かつ
短時間に選択できる学習パターン生成装置及びこれを用
いた文字認識装置を提供することにある。
SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a learning pattern generation device and a character recognition device using the learning pattern generation device, which can select an appropriate learning pattern automatically and in a short time without a skilled operator. To provide.

【0008】[0008]

【課題を解決するための手段】本発明に係る学習パター
ン生成装置及びこれを用いた文字認識装置は、上記目的
を達成するためになされたものであり、次の構成を有す
る。
The learning pattern generation device and the character recognition device using the same according to the present invention are made in order to achieve the above object, and have the following configurations.

【0009】本発明に係る学習パターン生成装置は、全
ての認識対象パターンを記憶している認識対象パターン
記憶手段と、前記全ての認識対象パターンのそれぞれと
認識できなかった又は誤って認識した入力パターンとの
類似度を計算する類似度計算手段と、この類似度計算手
段によって計算された前記類似度に基づき前記入力パタ
ーンを学習パターンにするか否かを判断する学習パター
ン選択手段とを備えたものである。
The learning pattern generation apparatus according to the present invention includes a recognition target pattern storage unit that stores all recognition target patterns, and an input pattern that cannot be recognized or is erroneously recognized as each of all the recognition target patterns. And a learning pattern selecting means for judging whether or not the input pattern should be a learning pattern based on the similarity calculated by the similarity calculating means. Is.

【0010】本発明に係る文字認識装置は、入力文字を
含む画像データを入力する画像入力部と、この画像入力
部で入力された画像データを記憶する画像記憶部と、こ
の画像記憶部に記憶されている画像データから前記入力
文字に関する入力データを作成する入力データ作成部
と、この入力データ作成部で作成された入力データに対
してニューラルネットワーク処理を行うニューラルネッ
トワーク処理部と、このニューラルネットワーク処理部
の処理結果に基づいて前記入力文字に対応する認識対象
文字を出力する文字出力部とを備えたものを改良したも
のである。
A character recognition apparatus according to the present invention includes an image input section for inputting image data including an input character, an image storage section for storing image data input by the image input section, and an image storage section for storing the image data. An input data creating section for creating input data relating to the input character from the image data being displayed, a neural network processing section for performing a neural network processing on the input data created by the input data creating section, and the neural network processing And a character output unit that outputs a recognition target character corresponding to the input character based on the processing result of the unit.

【0011】すなわち、前記ニューラルネットワーク処
理部が、本発明に係る学習パターン生成装置によって得
られた学習パターンによって学習したニューラルネット
ワークを有することを特徴とするものである。
That is, the neural network processing unit has a neural network learned by the learning pattern obtained by the learning pattern generating apparatus according to the present invention.

【0012】ここでいう「画素」とは、最小分解能とし
ての画素から、これらの画素を複数個集めて一単位とし
たものまでを含む。
The term "pixel" as used herein includes a pixel having a minimum resolution, and a plurality of these pixels collected as one unit.

【0013】[0013]

【作用】本発明に係る学習パターン生成装置の作用は、
次のとおりである。認識対象パターン記憶手段には、全
ての認識対象パターンが記憶されている。類似度計算手
段は、全ての認識対象パターンのそれぞれと認識できな
かった入力パターンとの類似度、又は全ての認識対象パ
ターンのそれぞれと誤って認識した入力パターンとの類
似度を計算する。学習パターン選択手段は、類似度計算
手段によって計算された類似度に基づき、入力パターン
を学習パターンにするか否かを判断する。例えば、類似
度が大きい場合には入力パターンを学習パターンにし、
類似度が小さい場合には入力パターンを学習パターンに
しない。
The operation of the learning pattern generation device according to the present invention is as follows.
It is as follows. All the recognition target patterns are stored in the recognition target pattern storage means. The similarity calculation means calculates the similarity between each of the recognition target patterns and the input pattern that cannot be recognized, or the similarity between each of the recognition target patterns and the input pattern that is erroneously recognized. The learning pattern selecting means determines whether or not the input pattern is a learning pattern based on the similarity calculated by the similarity calculating means. For example, when the degree of similarity is large, the input pattern is the learning pattern,
When the degree of similarity is small, the input pattern is not the learning pattern.

【0014】本発明に係る文字認識装置の作用は、次の
とおりである。入力文字を含む画像データは、画像入力
部から入力され、画像記憶部で記憶される。入力データ
作成部では、画像記憶部に記憶されている画像データか
ら入力文字に関する入力データが作成される。入力デー
タはニューラルネットワーク処理部で処理され、この処
理結果に基づいて文字出力部から入力文字に対応する認
識対象文字が出力される。ニューラルネットワーク処理
部のニューラルネットワークは、請求項1記載の学習パ
ターン生成装置によって得られた学習パターンを学習し
たものである。この学習パターンは、適切なものである
と共に自動的かつ短時間に選択されたものである。
The operation of the character recognition device according to the present invention is as follows. The image data including the input character is input from the image input unit and stored in the image storage unit. The input data creation unit creates input data regarding the input character from the image data stored in the image storage unit. The input data is processed by the neural network processing unit, and the recognition target character corresponding to the input character is output from the character output unit based on the processing result. The neural network of the neural network processing unit learns the learning pattern obtained by the learning pattern generating device according to the first aspect. This learning pattern is appropriate and automatically selected in a short time.

【0015】[0015]

【発明の実施例】図1は、本発明に係る学習パターン生
成装置の一実施例を示すブロック図である。以下、この
図に基づき説明する。
1 is a block diagram showing an embodiment of a learning pattern generating apparatus according to the present invention. Hereinafter, description will be given based on this figure.

【0016】学習パターン生成装置10は、全ての認識
対象パターンPr1〜Prnを記憶している認識対象パ
ターン記憶手段12と、全ての認識対象パターンPr1
〜Prnのそれぞれと認識できなかった入力パターンP
ea又は誤って認識した入力パターンPebとの類似度
R1〜Rnを計算する類似度計算手段14と、類似度計
算手段14によって計算された類似度R1〜Rnに基づ
き入力パターンPea,Pebを学習パターンPsにす
るか否かを判断する学習パターン選択手段16とを備え
ている。類似度計算手段12及び学習パターン選択手段
16は、例えばコンピュータ及びこれを動作させるプロ
グラムによって実現できる。認識対象パターン記憶手段
14は、ROM,RAM又は磁気記録装置等によって実
現できる。認識対象パターンPr1〜Prnとしては、
文字パターン,音声パターン,血液の凝集パターン等、
どのようなものでもよい。
The learning pattern generation device 10 includes a recognition target pattern storage unit 12 that stores all recognition target patterns Pr1 to Prn, and all recognition target patterns Pr1.
Input pattern P that could not be recognized as each of ~ Prn
ea or the similarity calculation means 14 for calculating the similarity R1 to Rn with the input pattern Peb that is erroneously recognized, and the input patterns Pea and Peb are learning patterns based on the similarity R1 to Rn calculated by the similarity calculation means 14. The learning pattern selecting means 16 for determining whether or not to set Ps is provided. The similarity calculation unit 12 and the learning pattern selection unit 16 can be realized by, for example, a computer and a program that operates the computer. The recognition target pattern storage means 14 can be realized by a ROM, a RAM, a magnetic recording device, or the like. As the recognition target patterns Pr1 to Prn,
Character patterns, voice patterns, blood agglutination patterns, etc.
It can be anything.

【0017】類似度計算手段12には、認識できなかっ
た入力パターンPea及び誤って認識した入力パターン
Pebを記憶している外部記憶装置18が接続されてい
る。学習パターン選択手段16には、学習パターンPs
によって学習するニューラルネットワーク処理装置20
が接続されている。また、入力パターンPea,Peb
には、出力すべき認識対象パターンPoを示す情報が付
加されている。
The similarity calculation means 12 is connected to an external storage device 18 which stores an unrecognized input pattern Pea and an erroneously recognized input pattern Peb. The learning pattern selection means 16 includes a learning pattern Ps.
Neural network processing device 20 for learning by
Are connected. In addition, input patterns Pea and Peb
Is added with information indicating the recognition target pattern Po to be output.

【0018】図2は、学習パターン生成装置10の動作
を示すフローチャートであり、認識できなかった入力パ
ターンPeaについて学習パターンPsを生成する場合
を示している。以下、図1及び図2に基づき説明する。
FIG. 2 is a flow chart showing the operation of the learning pattern generation device 10, showing a case where the learning pattern Ps is generated for the unrecognized input pattern Pea. Hereinafter, description will be given with reference to FIGS. 1 and 2.

【0019】予め、認識できなかった入力パターンPe
aと、入力パターンPeaに付加されている出力すべき
認識対象パターンPoの情報とを、外部記憶装置18等
から入力しておく。また、認識対象パターンPr1〜P
rnには、出力すべき認識対象パターンPoが当然のこ
とながら含まれている。
The input pattern Pe which could not be recognized in advance
a and the information of the recognition target pattern Po to be output, which is added to the input pattern Pea, are input from the external storage device 18 or the like. Further, the recognition target patterns Pr1 to P
The recognition target pattern Po to be output is naturally included in rn.

【0020】まず、初期値m=1を設定して(ステップ
101)、入力パターンPeaと認識対象パターンPr
1とを重ね合わせる(ステップ102)。例えば、入力
パターンPeaを「E+ノイズ」とし、認識対象パター
ンPr1を「E」とすると、図3に示すようになる。図
3中央の「重ね合わせ後」において、一致部分面積(画
素数)R1aを網掛けで示し、不一致部分面積(画素
数)R1bを斜線で示す。すなわち、入力パターンPe
aと認識対象パターンPr1との同じ座標の画素におい
て、どららも「1」であればその画素は一致しているも
のとし、どちらか一方のみが「1」であればその画素は
一致していないものとする。このとき、類似度R1は、
認識対象パターンPr1の全面積(画素数)をR1cと
すれば、R1=R1a/R1cで与えられる(ステップ
103)。したがって、類似度R1は、「0.0 」から
「1.0 」までの間に分布し、一致部分面積R1aが小さ
いほど(類似していないほど)「0.0 」に近づく。ただ
し、R1b/R1cがある定められたしきい値よりも大
きくなる場合は、R1=0.0 として、学習パターン選択
の対象から外す。R1b/R1cが大きいほど、入力パ
ターンPeaと認識対象パターンPr1とは類似しない
からである。続いて、類似度R1としきい値Trとの大
小比較を行い、その結果を記憶しておく(ステップ10
4)。しきい値Trは、実験的に求められたものであ
る。次に、m=m+1とし(ステップ105)、m>n
になるまでステップ102〜105を繰り返す(ステッ
プ106)。
First, an initial value m = 1 is set (step 101), and the input pattern Pea and the recognition target pattern Pr are set.
1 and 1 are overlapped (step 102). For example, when the input pattern Pea is "E + noise" and the recognition target pattern Pr1 is "E", the result is as shown in FIG. In the center of FIG. 3 after “overlapping”, the matching part area (number of pixels) R1a is shaded and the non-matching part area (number of pixels) R1b is shaded. That is, the input pattern Pe
In the pixel having the same coordinates as a and the recognition target pattern Pr1, if both are “1”, it means that the pixel is matched, and if only one of them is “1”, the pixel is matched. Make it not exist. At this time, the similarity R1 is
If the total area (number of pixels) of the recognition target pattern Pr1 is R1c, it is given by R1 = R1a / R1c (step 103). Therefore, the degree of similarity R1 is distributed between "0.0" and "1.0", and the smaller the matching part area R1a (the less similar the areas are), the closer the value is to "0.0". However, when R1b / R1c becomes larger than a predetermined threshold value, R1 = 0.0 is set and the learning pattern is not selected. This is because the input pattern Pea is less similar to the recognition target pattern Pr1 as R1b / R1c is larger. Subsequently, the similarity R1 and the threshold value Tr are compared in magnitude, and the result is stored (step 10).
4). The threshold value Tr is experimentally obtained. Next, m = m + 1 is set (step 105), and m> n
Steps 102 to 105 are repeated until (step 106).

【0021】類似度R1〜Rnの計算が終了すると、ス
テップ104で得られた,類似度Rmとしきい値Trと
の大小比較の結果から、Rm>Trとなるものがただ一
つあるか否かを判断する(ステップ107)。Rm>T
rとなるものがただ一つあれば、そのRmに対応する認
識対象パターンPrmが出力すべき認識対象パターンP
oに一致するか否かを判断する(ステップ108)。認
識対象パターンPrmが認識対象パターンPoに一致す
れば、入力パターンPeaを学習パターンPsとする
(ステップ109)。Rm>Trとなるものがただ一つ
ではない場合は、入力パターンPeaを学習パターンP
sとしない。このような入力パターンPeaは、他の認
識対象パターンにも類似するからである。すなわち、こ
のような入力パターンPeaを学習パターンPsとすれ
ば、出力すべき認識対象パターンPoと他の認識対象パ
ターンとの間で混同を生じるからである。また、認識対
象パターンPrmが出力すべき認識対象パターンPoに
一致しない場合も、入力パターンPeaを学習パターン
Psとしない。このような入力パターンPeaは、出力
すべき認識対象パターンPoに最も類似するものではな
いからである。
When the calculation of the similarities R1 to Rn is completed, whether or not there is only one that satisfies Rm> Tr from the result of the comparison of the similarity Rm and the threshold Tr obtained in step 104. Is determined (step 107). Rm> T
If there is only one r, the recognition target pattern Prm corresponding to that Rm should be output.
It is determined whether or not it matches o (step 108). If the recognition target pattern Prm matches the recognition target pattern Po, the input pattern Pea is set as the learning pattern Ps (step 109). If there is not only one Rm> Tr, the input pattern Pea is set to the learning pattern P.
Not s. This is because such an input pattern Pea is similar to other recognition target patterns. That is, when such an input pattern Pea is used as the learning pattern Ps, confusion occurs between the recognition target pattern Po to be output and another recognition target pattern. Even when the recognition target pattern Prm does not match the recognition target pattern Po to be output, the input pattern Pea is not set as the learning pattern Ps. This is because such an input pattern Pea is not the most similar to the recognition target pattern Po to be output.

【0022】図4は、学習パターン生成装置10の動作
を示すフローチャートであり、誤って認識した入力パタ
ーンPebについて学習パターンPsを生成する場合を
示している。以下、図1及び図4に基づき説明する。
FIG. 4 is a flow chart showing the operation of the learning pattern generation device 10 and shows the case where the learning pattern Ps is generated for the input pattern Peb that is erroneously recognized. Hereinafter, description will be given with reference to FIGS. 1 and 4.

【0023】予め、誤って認識した入力パターンPeb
と、入力パターンPebに付加されている出力すべき認
識対象パターンPoの情報とを、外部記憶装置18等か
ら入力しておく。また、認識対象パターンPr1〜Pr
nには、出力すべき認識対象パターンPoと誤って認識
した認識対象パターンPeとが当然のことながら含まれ
ている。
The input pattern Peb which is erroneously recognized in advance
And the information of the recognition target pattern Po to be output, which is added to the input pattern Peb, are input from the external storage device 18 or the like. Further, the recognition target patterns Pr1 to Pr
Naturally, the recognition target pattern Po to be output and the recognition target pattern Pe which is erroneously recognized are included in n.

【0024】まず、初期値m=1を設定して(ステップ
201)、入力パターンPebと認識対象パターンPr
1とを重ね合わせる(ステップ202)。以下、ステッ
プ203からステップ206までは、入力パターンがP
eb,しきい値がTeである点を除き、図2のステップ
103からステップ106と同様であるので、説明を省
略する。
First, the initial value m = 1 is set (step 201), and the input pattern Peb and the recognition target pattern Pr are set.
1 and 1 are overlapped (step 202). Hereinafter, from step 203 to step 206, the input pattern is P
Except that eb and the threshold value are Te, the steps are the same as steps 103 to 106 in FIG.

【0025】類似度R1〜Rnの計算が終了すると、認
識対象パターンPoにおける類似度Roが認識対象パタ
ーンPeにおける類似度Reよりも大きいか否かを判断
する(ステップ207)。Ro>Reであれば、ステッ
プ204で得られた類似度Rmとしきい値Teとの大小
比較の結果から、Ro>TeかつRe<Teであるか否
かを判断する(ステップ208)。Ro>TeかつRe
<Teであれば入力パターンPebを学習パターンPs
とする(ステップ209)。一方、Ro≦Reである場
合は、入力パターンPebを学習パターンPsとしな
い。このような入力パターンPebは、出力すべき認識
対象パターンPoに最も類似するものではないからであ
る。また、Ro>ReであってもRo≦Teである場合
は、入力パターンPebを学習パターンPsとしない。
このような入力パターンPebは、出力すべき認識対象
パターンPoと類似する度合いが小さいからである。さ
らに、Ro>ReであってもRe≧Teである場合も、
入力パターンPebを学習パターンPsとしない。この
ような入力パターンPebは、誤って出力した認識対象
パターンPeにも類似するからである。すなわち、この
ような入力パターンPebを学習パターンPsとすれ
ば、出力すべき認識対象パターンPoと誤って出力した
認識対象パターンPeとの間で混同を生じるからであ
る。
When the calculation of the similarities R1 to Rn is completed, it is determined whether the similarity Ro in the recognition target pattern Po is larger than the similarity Re in the recognition target pattern Pe (step 207). If Ro> Re, it is determined whether Ro> Te and Re <Te based on the result of the comparison between the similarity Rm obtained in step 204 and the threshold value Te (step 208). Ro> Te and Re
If Te, the input pattern Peb is the learning pattern Ps.
(Step 209). On the other hand, when Ro ≦ Re, the input pattern Peb is not set as the learning pattern Ps. This is because such an input pattern Peb is not the most similar to the recognition target pattern Po to be output. Further, even if Ro> Re, if Ro ≦ Te, the input pattern Peb is not set as the learning pattern Ps.
This is because such an input pattern Peb is less similar to the recognition target pattern Po to be output. Furthermore, even if Ro> Re or Re ≧ Te,
The input pattern Peb is not the learning pattern Ps. This is because such an input pattern Peb is similar to the erroneously output recognition target pattern Pe. That is, if such an input pattern Peb is used as the learning pattern Ps, confusion occurs between the recognition target pattern Po that should be output and the recognition target pattern Pe that was erroneously output.

【0026】なお、本実施例における類似度R1〜Rn
の計算方法は、言うまでもなく一例に過ぎない。例え
ば、類似度R1=(R1a−R1b)/R1cとして求
めてもよい。
Incidentally, the similarities R1 to Rn in this embodiment.
Needless to say, the calculation method of is only an example. For example, the degree of similarity R1 may be calculated as R1 = (R1a−R1b) / R1c.

【0027】図5は、本発明に係る文字認識装置の一実
施例を示すブロック図である。以下、この図に基づき説
明する。
FIG. 5 is a block diagram showing an embodiment of the character recognition device according to the present invention. Hereinafter, description will be given based on this figure.

【0028】文字認識装置30は、入力文字aを含む画
像データbを入力する画像入力部32と、画像入力部3
2で入力された画像データbを記憶する画像記憶部34
と、画像記憶部34に記憶されている画像データbから
入力文字aに関する入力データcを作成する入力データ
作成部36と、入力データ作成部36で作成された入力
データcに対してニューラルネットワーク処理を行うニ
ューラルネットワーク処理部38と、ニューラルネット
ワーク処理部38の処理結果に基づいて入力文字aに対
応する認識対象文字dを出力する文字出力部40とを備
えたものである。
The character recognition device 30 includes an image input section 32 for inputting image data b including an input character a and an image input section 3.
The image storage unit 34 that stores the image data b input in 2
An input data creation unit 36 that creates input data c related to the input character a from the image data b stored in the image storage unit 34; and a neural network processing for the input data c created by the input data creation unit 36. The neural network processing unit 38 for performing the above, and the character output unit 40 for outputting the recognition target character d corresponding to the input character a based on the processing result of the neural network processing unit 38.

【0029】ニューラルネットワーク処理部38は、図
1の学習パターン生成装置10によって得られた学習パ
ターンPsによって学習したニューラルネットワーク4
6(図6)を有している。
The neural network processing unit 38 uses the learning pattern Ps obtained by the learning pattern generation device 10 of FIG. 1 to learn the neural network 4.
6 (FIG. 6).

【0030】画像入力部32は、例えばイメージスキャ
ナ,CCDカメラ等から構成され、デジタル画像を得る
ものである。画像記憶部34は、フロッピィーディス
ク,ハードディスク等の外部記憶装置又はRAM等から
構成されている。
The image input section 32 is composed of, for example, an image scanner, a CCD camera, etc., and obtains a digital image. The image storage unit 34 is composed of an external storage device such as a floppy disk or a hard disk, a RAM, or the like.

【0031】文字出力部40は、ニューラルネットワー
ク処理部38から出力された認識対象文字dを表示する
CRT又はプリンタ等から構成されている。
The character output unit 40 is composed of a CRT or a printer that displays the recognition target character d output from the neural network processing unit 38.

【0032】入力データ作成部36及びニューラルネッ
トワーク処理部38は、例えばコンピュータ及びこれを
動作させるプログラムによって実現できる。この場合、
このコンピュータで、画像入力部32,文字出力部40
等を制御するように構成してもよい。また、ニューラル
ネットワーク処理部38は、ニューロチップによっても
実現できる。
The input data creating section 36 and the neural network processing section 38 can be realized by, for example, a computer and a program for operating the computer. in this case,
In this computer, the image input unit 32 and the character output unit 40
Etc. may be configured to be controlled. The neural network processing unit 38 can also be realized by a neurochip.

【0033】ニューラルネットワーク処理部38は、図
6に示されるようなニューラルネットワーク46を有し
ている。ニューラルネットワーク46は、入力データ作
成部36で作成された入力データcが入力される入力層
46aと、中間層46bと、出力層46cとから構成さ
れている。各層はユニット(図6において「○」で示
す。)と呼ばれる構成要素から成り立っており、各ユニ
ットが結合することによりニューラルネットワーク46
が構成されている。
The neural network processing unit 38 has a neural network 46 as shown in FIG. The neural network 46 includes an input layer 46a to which the input data c created by the input data creating unit 36 is input, an intermediate layer 46b, and an output layer 46c. Each layer is composed of constituent elements called units (indicated by “◯” in FIG. 6), and the neural network 46 is formed by connecting the units.
Is configured.

【0034】入力層46aの各ユニットは、中間層46
bのそれぞれのユニットとすべて結合している。そし
て、入力層46aのユニット数は、入力データcの画素
数に対応した個数であり、任意に設定可能である。ま
た、中間層46bの各ユニットは、出力層46cのそれ
ぞれのユニットとすべて結合している。中間層46bの
層数及びユニット数は、任意に設定可能である。出力層
46cは、少なくとも認識対象文字の数だけ用意されて
いる。本実施例では図6に示されるようにn個のユニッ
トを具備している。例えば、アルファベットを認識対象
文字とする場合は、n=26個となる。
Each unit of the input layer 46a is equivalent to the intermediate layer 46.
It is all associated with each unit of b. The number of units of the input layer 46a is the number corresponding to the number of pixels of the input data c and can be set arbitrarily. Further, each unit of the intermediate layer 46b is combined with each unit of the output layer 46c. The number of layers and the number of units of the intermediate layer 46b can be set arbitrarily. The output layers 46c are prepared in at least the number of recognition target characters. In this embodiment, n units are provided as shown in FIG. For example, when the alphabet is the recognition target character, n = 26.

【0035】このような構成において、入力層46aに
入力される入力データcと出力層46cからの出力すな
わち認識対象文字dとの関係を得るために、各ユニット
間の結合強度等を予め学習によって決定しておく。すな
わち、ある入力データcを入力層46aに入力したと
き、その入力データcがアルファベットの「A」であれ
ば、出力層46cのユニット46c1から「1」を出力さ
せ、アルファベットの「B」であれば、出力層46cの
ユニット46c2から「1」を出力させるように学習させ
る。以下、同様に「C」から「Z」まで学習させる。学
習データには、アルファベットの「A」から「Z」まで
のパターンの他に、学習パターン生成装置10によって
得られた学習パターンPsも含まれている。
In such a configuration, in order to obtain the relationship between the input data c input to the input layer 46a and the output from the output layer 46c, that is, the recognition target character d, the coupling strength between the units is preliminarily learned. Make a decision. That is, when a certain input data c is input to the input layer 46a, if the input data c is the alphabet "A", the unit 46 c1 of the output layer 46c outputs "1" and the alphabet "B" is output. If there is, the unit 46 c2 of the output layer 46 c is learned to output “1”. Hereinafter, similarly, learning is performed from “C” to “Z”. The learning data includes a learning pattern Ps obtained by the learning pattern generation device 10 in addition to the patterns from the alphabet “A” to “Z”.

【0036】このような学習済みのニューラルネットワ
ーク46を使用すれば、ある未知の入力データcが与え
られたとき、ユニット46c1,46c2,…,46cnから
の出力値O1 〜On により認識対象文字dが得られる。
ニューラルネットワーク46は、学習パターンPsも学
習しているため、入力パターン(本実施例における「入
力文字」)にノイズが混入している場合でも、正しいパ
ターン認識が可能である。
[0036] The use of such a trained neural network 46, when there unknown input data c is given, the unit 46 c1, 46 c2, ..., the output value O 1 ~ O n from 46 cn The recognition target character d is obtained.
Since the neural network 46 has also learned the learning pattern Ps, correct pattern recognition is possible even when noise is mixed in the input pattern (“input character” in this embodiment).

【0037】文字出力部40では、ニューラルネットワ
ーク処理部38の処理結果に基づいて認識対象文字を出
力する。ユニット46c1の出力値をO1 ,ユニット46
c2の出力値をO2 ,…,ユニット46c26 の出力値をO
26とする。あるユニット46Cmの出力値が最大Om.MAX
である場合、Om.MAX がしきい値Tよりも大きければ、
文字出力部40はOm に対応する認識対象文字を出力す
る。すべての出力値O1 〜O26がしきい値Tよりも小さ
ければ、文字出力部40は「認識できない」と出力す
る。
The character output unit 40 outputs the recognition target character based on the processing result of the neural network processing unit 38. The output value of the unit 46 c1 is O 1 , the unit 46
The output value of c2 is O 2 , ..., The output value of the unit 46 c26 is O 2 .
26 . Output value of a certain unit 46 Cm is maximum O m.MAX
, If O m.MAX is greater than the threshold T, then
The character output unit 40 outputs the recognition target character corresponding to O m . If all the output values O 1 to O 26 are smaller than the threshold value T, the character output unit 40 outputs "unrecognizable".

【0038】図7は、文字認識装置30の動作を示すフ
ローチャートである。以下、図5,図6及び図7に基づ
き説明する。
FIG. 7 is a flowchart showing the operation of the character recognition device 30. Hereinafter, description will be given with reference to FIGS. 5, 6 and 7.

【0039】まず、入力文字aを含む画像データbを画
像入力部32から入力する(ステップ301)。続い
て、画像データbを画像記憶部34に記憶する(ステッ
プ302)。入力データ作成部36は、画像記憶部34
に記憶されている画像データbに二値化,切り出し等の
前処理を施して、入力文字aに関する入力データcを作
成する(ステップ303)。入力データcは、画素ごと
の濃度値「0」又は「1」の集合である。ニューラルネ
ットワーク処理部38は、入力データcを処理して出力
値O1 〜On を得る(ステップ304)。文字出力部4
0は、出力値O1〜On に基づいて、入力文字aに対応
する認識対象文字dを出力する(ステップ305)。
First, the image data b including the input character a is input from the image input section 32 (step 301). Then, the image data b is stored in the image storage unit 34 (step 302). The input data creation unit 36 includes an image storage unit 34.
Preprocessing such as binarization and clipping is performed on the image data b stored in (1) to create input data c related to the input character a (step 303). The input data c is a set of density values “0” or “1” for each pixel. Neural network processing unit 38 processes the input data c to obtain an output value O 1 ~ O n (step 304). Character output unit 4
0, based on the output value O 1 ~ O n, and outputs a recognition object character d corresponding to the input character a (step 305).

【0040】ところで、文字認識装置30は、必ずしも
入力文字aに正確に対応する認識対象文字dを出力でき
るわけではない。すなわち、認識できなかった入力パタ
ーンPea又は誤って認識した入力パターンPebが存
在する。この場合、操作者は、入力パターンPea,P
ebに、出力すべき認識対象パターンPoを示す情報を
付加するだけでよい。すなわち、この情報が付加された
入力パターンPea,Pebは、ニューラルネットワー
ク処理部38から画像記憶部34に記憶される。そし
て、多数の入力パターンPea,Pebの中から、学習
パターン生成装置10によって学習パターンPsが前述
したように選択される。続いて、学習パターンPsは、
ニューラルネットワーク処理部38のニューラルネット
ワーク46で学習される。このように、文字認識装置3
0は、熟練した操作者によらなくても適切な学習パター
ンPsを自動的かつ短時間に選択できるので、認識率が
高くかつ操作性がよい。
By the way, the character recognition device 30 cannot necessarily output the recognition target character d that exactly corresponds to the input character a. That is, there is an input pattern Pea that could not be recognized or an input pattern Peb that was erroneously recognized. In this case, the operator must input the input patterns Pea, P
It is only necessary to add information indicating the recognition target pattern Po to be output to eb. That is, the input patterns Pea and Peb to which this information is added are stored in the image storage unit 34 from the neural network processing unit 38. Then, the learning pattern Ps is selected by the learning pattern generation device 10 from the large number of input patterns Pea and Peb as described above. Then, the learning pattern Ps is
The learning is performed by the neural network 46 of the neural network processing unit 38. In this way, the character recognition device 3
With 0, an appropriate learning pattern Ps can be selected automatically and in a short time without a skilled operator, so that the recognition rate is high and the operability is good.

【0041】[0041]

【発明の効果】本発明に係る学習パターン生成装置によ
れば、全ての認識対象パターンのそれぞれと認識できな
かった又は誤って認識した入力パターンとの類似度に基
づき、その入力パターンを学習パターンとするか否かを
判断することにより、従来操作者が経験的に選択してい
た適切な学習パターンを、自動的かつ短時間に選択でき
る。
According to the learning pattern generation device of the present invention, the input pattern is regarded as the learning pattern based on the similarity with the input pattern that cannot be recognized or is erroneously recognized as all the recognition target patterns. By determining whether or not to do so, it is possible to automatically and quickly select an appropriate learning pattern that was conventionally selected by the operator empirically.

【0042】本発明に係る文字認識装置によれば、本発
明に係る学習パターン生成装置を用いることにより、適
切な学習パターンを自動的かつ短時間で選択することが
できるので、認識率及び操作性を向上できる。
According to the character recognition device of the present invention, by using the learning pattern generation device of the present invention, an appropriate learning pattern can be selected automatically and in a short time. Can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る学習パターン生成装置の一実施例
を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a learning pattern generation device according to the present invention.

【図2】本発明に係る学習パターン生成装置の一実施例
の動作を示すフローチャートである。
FIG. 2 is a flowchart showing the operation of an embodiment of the learning pattern generation device according to the present invention.

【図3】図1の実施例における類似度計算手段の動作を
示す概念図である。
FIG. 3 is a conceptual diagram showing the operation of the similarity calculation means in the embodiment of FIG.

【図4】本発明に係る学習パターン生成装置の一実施例
の動作を示すフローチャートである。
FIG. 4 is a flowchart showing the operation of an embodiment of a learning pattern generation device according to the present invention.

【図5】本発明に係る文字認識装置の一実施例を示すブ
ロック図である。
FIG. 5 is a block diagram showing an embodiment of a character recognition device according to the present invention.

【図6】図5の実施例におけるニューラルネットワーク
処理部のニューラルネットワークを示す概念図である。
6 is a conceptual diagram showing a neural network of a neural network processing unit in the embodiment of FIG.

【図7】本発明に係る文字認識装置の一実施例の動作を
示すフローチャートである。
FIG. 7 is a flowchart showing the operation of an embodiment of the character recognition device according to the present invention.

【図8】従来の学習パターンの例を示す平面図である。FIG. 8 is a plan view showing an example of a conventional learning pattern.

【符号の説明】[Explanation of symbols]

10 学習パターン生成装置 12 認識対象パターン記憶手段 14 類似度計算手段 16 学習パターン選択手段 Pr1〜Prn 認識対象パターン Pea 認識できなかった入力パターン Peb 誤って認識した入力パターン R1〜Rn 類似度 Ps 学習パターン 30 文字認識装置 32 画像入力部 34 画像記憶部 36 入力データ作成部 38 ニューラルネットワーク処理部 40 文字出力部 a 入力文字 b 画像データ c 入力データ d 認識対象文字 10 Learning Pattern Generation Device 12 Recognition Target Pattern Storage Means 14 Similarity Calculating Means 16 Learning Pattern Selecting Means Pr1 to Prn Recognition Target Patterns Pea Unrecognized Input Patterns Peb Accidentally Recognized Input Patterns R1 to Rn Similarity Ps Learning Patterns 30 Character recognition device 32 Image input unit 34 Image storage unit 36 Input data creation unit 38 Neural network processing unit 40 Character output unit a Input character b Image data c Input data d Recognition target character

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 全ての認識対象パターンを記憶している
認識対象パターン記憶手段と、前記全ての認識対象パタ
ーンのそれぞれと認識できなかった又は誤って認識した
入力パターンとの類似度を計算する類似度計算手段と、
この類似度計算手段によって計算された前記類似度に基
づき前記入力パターンを学習パターンにするか否かを判
断する学習パターン選択手段とを備えたことを特徴とす
る学習パターン生成装置。
1. A similarity for calculating a similarity between a recognition target pattern storage unit that stores all recognition target patterns and an input pattern that cannot be recognized or is erroneously recognized as each of all the recognition target patterns. Degree calculation means,
A learning pattern generation device, comprising: a learning pattern selection unit that determines whether or not the input pattern is a learning pattern based on the similarity calculated by the similarity calculation unit.
【請求項2】 入力文字を含む画像データを入力する画
像入力部と、この画像入力部で入力された画像データを
記憶する画像記憶部と、この画像記憶部に記憶されてい
る画像データから前記入力文字に関する入力データを作
成する入力データ作成部と、この入力データ作成部で作
成された入力データに対してニューラルネットワーク処
理を行うニューラルネットワーク処理部と、このニュー
ラルネットワーク処理部の処理結果に基づいて前記入力
文字に対応する認識対象文字を出力する文字出力部とを
備えた文字認識装置において、 前記ニューラルネットワーク処理部は、請求項1記載の
学習パターン生成装置によって得られた学習パターンに
よって学習したニューラルネットワークを有することを
特徴とする文字認識装置。
2. An image input section for inputting image data including input characters, an image storage section for storing the image data input by the image input section, and the image data stored in the image storage section, Based on the input data creation unit that creates input data regarding the input characters, the neural network processing unit that performs neural network processing on the input data created by this input data creation unit, and the processing result of this neural network processing unit A character recognizing device including a character output unit that outputs a recognition target character corresponding to the input character, wherein the neural network processing unit is a neural trained by the learning pattern obtained by the learning pattern generating device according to claim 1. A character recognition device having a network.
JP6085520A 1994-03-31 1994-03-31 Learning pattern generating device and character recognizing device using the same Withdrawn JPH07271916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6085520A JPH07271916A (en) 1994-03-31 1994-03-31 Learning pattern generating device and character recognizing device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6085520A JPH07271916A (en) 1994-03-31 1994-03-31 Learning pattern generating device and character recognizing device using the same

Publications (1)

Publication Number Publication Date
JPH07271916A true JPH07271916A (en) 1995-10-20

Family

ID=13861190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6085520A Withdrawn JPH07271916A (en) 1994-03-31 1994-03-31 Learning pattern generating device and character recognizing device using the same

Country Status (1)

Country Link
JP (1) JPH07271916A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013509664A (en) * 2009-11-02 2013-03-14 ビーデージービー・エンタープライズ・ソフトウェア・エスエーアールエル System and method for improving the accuracy of optical character recognition (OCR)
JP2014002497A (en) * 2012-06-18 2014-01-09 Shindengen Electric Mfg Co Ltd Sealed symbol inspection device and method for electronic apparatus
US9141691B2 (en) 2001-08-27 2015-09-22 Alexander GOERKE Method for automatically indexing documents
US9159584B2 (en) 2000-08-18 2015-10-13 Gannady Lapir Methods and systems of retrieving documents
US9158833B2 (en) 2009-11-02 2015-10-13 Harry Urbschat System and method for obtaining document information
US9213756B2 (en) 2009-11-02 2015-12-15 Harry Urbschat System and method of using dynamic variance networks
JPWO2021038708A1 (en) * 2019-08-27 2021-03-04

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9159584B2 (en) 2000-08-18 2015-10-13 Gannady Lapir Methods and systems of retrieving documents
US9141691B2 (en) 2001-08-27 2015-09-22 Alexander GOERKE Method for automatically indexing documents
JP2013509664A (en) * 2009-11-02 2013-03-14 ビーデージービー・エンタープライズ・ソフトウェア・エスエーアールエル System and method for improving the accuracy of optical character recognition (OCR)
US9152883B2 (en) 2009-11-02 2015-10-06 Harry Urbschat System and method for increasing the accuracy of optical character recognition (OCR)
US9158833B2 (en) 2009-11-02 2015-10-13 Harry Urbschat System and method for obtaining document information
US9213756B2 (en) 2009-11-02 2015-12-15 Harry Urbschat System and method of using dynamic variance networks
JP2014002497A (en) * 2012-06-18 2014-01-09 Shindengen Electric Mfg Co Ltd Sealed symbol inspection device and method for electronic apparatus
JPWO2021038708A1 (en) * 2019-08-27 2021-03-04
WO2021038708A1 (en) * 2019-08-27 2021-03-04 遼太 日並 Cartoon machine translation device, cartoon parallel translation database generation device, cartoon machine translation method, and program

Similar Documents

Publication Publication Date Title
CN111046152B (en) Automatic FAQ question-answer pair construction method and device, computer equipment and storage medium
CN108416377B (en) Information extraction method and device in histogram
JP3088171B2 (en) Self-organizing pattern classification system and classification method
US4672678A (en) Pattern recognition apparatus
JPH0773329A (en) Method and device for processing image
JP2008537198A (en) Intelligent import of information from a foreign application user interface using artificial intelligence
EP1887514B1 (en) Signal processing device
EP1363235A1 (en) Signal processing device
JP3039954B2 (en) Character recognition method and apparatus
US11887219B2 (en) Systems and methods for training an image colorization model
EP0549505A2 (en) Method of and apparatus for optical character recognition based on geometric and color attribute hypothesis testing
JPH07271916A (en) Learning pattern generating device and character recognizing device using the same
US6789070B1 (en) Automatic feature selection system for data containing missing values
JPH05282456A (en) Pattern recognition device
JP2020140346A (en) Image processing apparatus and program
Koza Simultaneous discovery of detectors and a way of using the detectors via genetic programming
CN111727108B (en) Method, device and system for controlling robot and storage medium
JP3058489B2 (en) String extraction method
JPH1063773A (en) Recognition result editing method, pattern recognition system, and information recording medium
JP4614582B2 (en) Partial template generator
KR102574458B1 (en) Device and method for electronic document management reflecting correction information based on artificial intelligence
KR102574459B1 (en) Device and method for electronic document management based on artificial intelligence having automatic notification function
JPH10187649A (en) Neural network
WO2022190301A1 (en) Learning device, learning method, and computer-readable medium
US20240054769A1 (en) Model generation apparatus, model generation method, and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010605