JPH06139410A - Template matching type character recognition system using neural network - Google Patents

Template matching type character recognition system using neural network

Info

Publication number
JPH06139410A
JPH06139410A JP4285904A JP28590492A JPH06139410A JP H06139410 A JPH06139410 A JP H06139410A JP 4285904 A JP4285904 A JP 4285904A JP 28590492 A JP28590492 A JP 28590492A JP H06139410 A JPH06139410 A JP H06139410A
Authority
JP
Japan
Prior art keywords
template
vector
neural network
feature
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4285904A
Other languages
Japanese (ja)
Inventor
Nobuo Watabe
信雄 渡部
Hiroyuki Okada
浩之 岡田
Akira Kawamura
旭 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4285904A priority Critical patent/JPH06139410A/en
Publication of JPH06139410A publication Critical patent/JPH06139410A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To ensure a high recognition ratio by means of a feature value conversion neuro even though the learning of this conversion neuro is not complete by learning at a high speed the conversion neuro that converts a feature value vector into a standard one. CONSTITUTION:In a character recognition mode, a feature value vector 1 extracted from a read character pattern is converted into a standard feature value vector 3 where the feature of each category is reflected by a feature value conversion neuro 2. The template matching is carried out between the vector 3 and a template 4 and the characters are recognized. In a learning mode, a template 4 is produced from a feature vector 1' and the neuro 2 is learnt by using the data that converts the template 4 into the same one as a teacher signal. If the correct recognizing result cannot be obtained despite the learning of the neuro 2, the neuro 2 is learnt again by means of the relevant feature value vector.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はテンプレート・マッチン
グ及びニューラル・ネットワークを応用した文字認識方
式に関し、特に本発明はニューラル・ネットワークを高
速で学習させることができ、たとえ学習が終わらなくて
も、高い認識率を得ることができるニューラル・ネット
ワークによるテンプレート・マッチング型文字認識方式
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition method applying template matching and a neural network, and in particular, the present invention can train a neural network at high speed, and even if learning is not completed, it is high. The present invention relates to a template matching type character recognition method by a neural network capable of obtaining a recognition rate.

【0002】[0002]

【従来の技術】図7は本発明の前提となるニューラル・
ネットワーク(以下、ニューロと略記する)によるテン
プレート・マッチング型文字認識装置のブロック図であ
る。同図において、101は認識の対象となる手書き文
字を読み取るスキャナ、102はスキャナにより読み込
まれたビット・マップ・データを正規化する正規化手
段、103は正規化されたビット・マップ・データより
特徴量ベクトルを抽出する特徴抽出手段、104は特徴
量ベクトルを変換する特徴量変換ニューロ、105はカ
テゴリごとの特徴ベクトルであるテンプレートを格納し
たテンプレート格納手段、106は特徴量変換ニューロ
104により変換された特徴量ベクトルとテンプレート
格納手段105に格納されたテンプレートを照合し、認
識結果を出力する照合手段である。
2. Description of the Related Art FIG. 7 shows a neural network which is a premise of the present invention.
It is a block diagram of a template matching type character recognition device by a network (hereinafter abbreviated as neuro). In the figure, 101 is a scanner for reading handwritten characters to be recognized, 102 is a normalizing means for normalizing the bit map data read by the scanner, and 103 is a feature of the normalized bit map data. A feature extraction means for extracting a quantity vector, 104 a feature quantity conversion neuro for converting a feature quantity vector, 105 a template storage means for storing a template that is a feature vector for each category, and 106 a feature quantity conversion neuro 104 It is a collation unit that collates the feature amount vector with the template stored in the template storage unit 105 and outputs the recognition result.

【0003】図8(a)は図7における特徴量変換ニュ
ーロ104の構成の一例を示す図であり、同図(b)は
特徴量変換ニューロ104の要素ニューロンの構成を示
す図である。図8(a)において、111は入力層、1
12は中間層、113は出力層であり、中間層112お
よび出力層113の各ニューロは同図(b)に示すよう
に、入力信号x1,x2,…xn のそれぞれに荷重w1,w2,
…を掛けて加算する加算部115aと加算部115aの
出力yを変換する関数部115bより構成されている。
FIG. 8 (a) is a diagram showing an example of the configuration of the feature amount conversion neuro 104 in FIG. 7, and FIG. 8 (b) is a diagram showing the configuration of the element neurons of the feature amount conversion neuro 104. In FIG. 8A, 111 is an input layer, 1
Reference numeral 12 is an intermediate layer, 113 is an output layer, and each neuron of the intermediate layer 112 and the output layer 113 has weights w1, w2, respectively for input signals x1, x2, ... Xn, as shown in FIG.
It is composed of an adding unit 115a for multiplying by and adding and a function unit 115b for converting the output y of the adding unit 115a.

【0004】特徴量変換ニューロ104の入力層101
の各ニューロに、同図(a)に示すような特徴量ベクト
ルが入力されると、特徴量ベクトルは入力層111を介
して中間層112に入力され、図8(b)に示すよう
に、加算部115aにおいて荷重w1,w2,…を掛けて加
算され、さらに関数部115bにおいて、例えば関数z
=1/(1+e-y)により変換される。
Input layer 101 of feature quantity conversion neuro 104
When a feature amount vector as shown in FIG. 8A is input to each neuron of FIG. 8, the feature amount vector is input to the intermediate layer 112 via the input layer 111, and as shown in FIG. In the addition unit 115a, the loads w1, w2, ... Are multiplied and added, and in the function unit 115b, for example, the function z
= 1 / (1 + e- y ).

【0005】中間層112の出力は、出力層113の各
ニューロに与えられ、出力層113は、中間層112と
同様に、中間層112の出力に荷重を掛けて加算後、関
数部において変換し、同図(a)に示すように、変換さ
れた特徴量ベクトルが得られる。次に図7に示したテン
プレート・マッチング型文字認識装置による文字認識に
ついて説明する。
The output of the intermediate layer 112 is given to each neuron of the output layer 113, and the output layer 113, like the intermediate layer 112, applies a weight to the output of the intermediate layer 112, adds the outputs, and then converts them in the function part. , A converted feature vector is obtained as shown in FIG. Next, the character recognition by the template matching type character recognition device shown in FIG. 7 will be described.

【0006】図7において、スキャナ101は手書き文
字を読み取り、同図に示すようなビット・マップ・デー
タを出力する。正規化手段102はスキャナ101によ
り読み取られたビット・マップ・データを所定の大きさ
に正規化し、正規化されたビット・マップ・データを特
徴量抽出手段103に与える。図9は特徴量ベクトルの
一例を示す図であり、特徴量抽出手段103は、例え
ば、同図に示す正規化されたビット・マップ・データの
縦方向、横方向のそれぞれのドット数を数え(さらに、
斜め方向のビット数等を数えてもよい)、それらのドッ
ト数をその最大値で割り、得られた全ての数値を並べて
特徴量ベクトルとする。
In FIG. 7, a scanner 101 reads a handwritten character and outputs bit map data as shown in the figure. The normalizing means 102 normalizes the bit map data read by the scanner 101 to a predetermined size, and supplies the normalized bit map data to the feature amount extracting means 103. FIG. 9 is a diagram showing an example of the feature amount vector, and the feature amount extraction means 103 counts the number of dots in each of the vertical direction and the horizontal direction of the normalized bit map data shown in FIG. further,
The number of bits in the diagonal direction may be counted), the number of dots is divided by the maximum value, and all the obtained numerical values are arranged to form a feature quantity vector.

【0007】特徴抽出手段103により抽出された特徴
量ベクトルは、特徴量変換ニューロ104に与えられ変
換される。特徴量変換ニューロ104は、予め、スキャ
ナ101により読み取られたある文字の特徴量ベクトル
を入力したとき、その文字の属するカテゴリの標準(平
均)ベクトルを出力するように学習させてあり、特徴抽
出手段103により抽出された特徴量ベクトルは、特徴
量変換ニューロ104において、その文字が属するカテ
ゴリの標準(平均)の特徴量ベクトルに変換される。
The feature amount vector extracted by the feature extracting means 103 is given to the feature amount converting neuro 104 and converted. The feature amount conversion neuro 104 is trained to output a standard (average) vector of a category to which a character belongs, when a feature amount vector of a certain character read by the scanner 101 is input in advance. The feature amount vector extracted by 103 is converted into a standard (average) feature amount vector of the category to which the character belongs in the feature amount conversion neuro 104.

【0008】その文字が属するカテゴリの標準(平均)
の特徴量ベクトルに変換された特徴量変換ニューロ10
4の出力は照合手段106に与えられ、テンプレート格
納手段105に格納されたテンプレートと照合され、認
識結果が出力される。図10は図7に示した特徴量変換
ニューロ104を学習させる場合のブロック図を示す図
である。
Standard (average) of the category to which the character belongs
Feature conversion neuro 10 converted into the feature vector
The output of No. 4 is given to the collating means 106, collated with the template stored in the template storing means 105, and the recognition result is output. FIG. 10 is a diagram showing a block diagram in the case of learning the feature quantity conversion neuro 104 shown in FIG.

【0009】同図において、図7の特徴量変換ニューロ
104を学習させる場合には、まず、乱数を特徴量変換
ニューロ104の入力層111(図8参照)と中間層1
12を結ぶ結合および中間層112と出力層113を結
ぶ結合に与え、初期化する。ついで、各カテゴリに属す
る種々の文字より学習に使える特徴量ベクトル131を
抽出し、その特徴量ベクトル131の平均値等を用いる
ことにより、各カテゴリに対応した一つもしくは複数の
テンプレート132を作成する。
In the figure, when learning the feature amount transforming neuro 104 of FIG. 7, first, the random number is input to the input layer 111 (see FIG. 8) and the intermediate layer 1 of the feature amount transforming neuro 104.
It is given to the connection connecting 12 and the connection connecting the intermediate layer 112 and the output layer 113, and initialized. Next, a feature vector 131 that can be used for learning is extracted from various characters belonging to each category, and one or a plurality of templates 132 corresponding to each category are created by using the average value of the feature vector 131. .

【0010】次に、上記学習に使える特徴量ベクトル1
31と作成されたテンプレート132をそれぞれ特徴量
変換ニューロ104の入力層111(図8参照)と出力
層113(図8参照)に与え、例えば、バックプロパゲ
ーション・アルゴリズム等により特徴量変換ニューロ1
04を学習させる。以上のように特徴量変換ニューロ1
04を学習させることにより、特徴量変換ニューロ10
4はある文字の特徴量ベクトルを入力したとき、その文
字の属するカテゴリの標準(平均)特徴量ベクトルを出
力するようになる。
Next, the feature vector 1 that can be used for the above learning
31 and the created template 132 are given to the input layer 111 (see FIG. 8) and the output layer 113 (see FIG. 8) of the feature amount transforming neuro 104, respectively, and the feature amount transforming neuro 1 is subjected to back propagation algorithm or the like, for example.
Train 04. As described above, the feature amount conversion neuro 1
By learning 04, the feature transformation neuro 10
When the feature amount vector 4 of a character is input, 4 outputs the standard (average) feature amount vector of the category to which the character belongs.

【0011】[0011]

【発明が解決しようとする課題】ところで、図10に示
す学習方法においては、学習に使える特徴量ベクトルの
全てのデータを用いて特徴量変換ニューロを学習させる
必要があり、時間がかかる。また、全てのデータに関す
る学習が同時に行われるため、全体としての学習が終わ
らないと、正しい変換が行われず、認識率が低くなると
いう問題があった。
By the way, in the learning method shown in FIG. 10, it is necessary to learn the feature quantity conversion neuro by using all the data of the feature quantity vector that can be used for learning, which is time-consuming. In addition, since learning for all data is performed at the same time, correct learning cannot be performed unless the learning as a whole is completed, resulting in a low recognition rate.

【0012】本発明は上記した従来技術の問題点を解決
するためになされたものであって、特徴量ベクトルを変
換する特徴量変換ニューロを高速に学習させることがで
き、たとえ学習が終わらなくても、その特徴量変換ニュ
ーロを使用して高い認識率をうることができるニューラ
ル・ネットワークによるテンプレート・マッチング型文
字認識方式を提供することを目的とする。
The present invention has been made in order to solve the above-mentioned problems of the prior art. It is possible to quickly learn a feature quantity conversion neuro that transforms a feature quantity vector, and even if learning does not end. Another object of the present invention is to provide a template matching type character recognition method by a neural network that can obtain a high recognition rate by using the feature amount conversion neuro.

【0013】[0013]

【課題を解決するための手段】図1、図2は本発明の原
理ブロック図である。上記課題を解決するため、本発明
の請求項1の発明は、図1(a)に示すように、読み取
った文字パターンから抽出された特徴量ベクトル1を特
徴量変換ニューロ2により各カテゴリの特徴を反映した
標準特徴量ベクトル3に変換し、特徴量変換ニューロ2
により変換された標準特徴量ベクトル3と、一つもしく
は複数のテンプレート4とのテンプレート・マッチング
5を行うことにより文字を認識するテンプレート・マッ
チング型文字認識方式において、図1(b)に示すよう
に、学習に使える特徴量ベクトル1’からテンプレート
4を作成し、作成されたテンプレート4を同じテンプレ
ートに変換するデータを教師信号として上記特徴量変換
ニューロ2に与えて学習させることにより、読み取った
文字パターンから抽出された特徴量ベクトル1を各カテ
ゴリの特徴を反映した標準特徴量ベクトル3に変換する
ようにしたものである。
1 and 2 are block diagrams of the principle of the present invention. In order to solve the above-mentioned problems, the invention of claim 1 of the present invention, as shown in FIG. 1A, uses a feature quantity conversion neuro 2 to transform a feature quantity vector 1 extracted from a read character pattern into a feature of each category. Is converted into the standard feature vector 3 and the feature conversion neuro 2
In the template matching type character recognition method for recognizing a character by performing template matching 5 between the standard feature amount vector 3 converted by the above and one or a plurality of templates 4, as shown in FIG. , A template 4 is created from a feature vector 1 ′ that can be used for learning, and data for converting the created template 4 into the same template is given as a teacher signal to the feature conversion neuro 2 for learning, thereby reading the read character pattern. The feature amount vector 1 extracted from is converted into the standard feature amount vector 3 reflecting the features of each category.

【0014】本発明の請求項2の発明は、請求項1の発
明において、予め与えられたテンプレートを同じテンプ
レートに変換するデータを教師信号として特徴量変換ニ
ューロ2を学習させたのち、図2(a)に示すように、
他の特徴量ベクトル1’を特徴量変換ニューロ2で変換
した際、その変換された特徴量ベクトル3がテンプレー
ト・マッチング5により正しいカテゴリに分類されなか
った場合に、他の特徴量ベクトルに対応した正しいカテ
ゴリのテンプレート4の中から、特徴量変換ニューロに
よる上記他の特徴量ベクトルの変換結果に最も近いテン
プレートを選択して再学習データ6を生成し、上記他の
特徴量ベクトル1’を特徴量変換ニューロ2の入力信号
とし、また、上記他の特徴量ベクトルの変換結果に最も
近いテンプレートを出力信号として、図2(b)に示す
ように、特徴量変換ニューロ2を再学習させるようにし
たものである。
According to a second aspect of the present invention, in the first aspect of the invention, the feature quantity conversion neuron 2 is trained by using the data for converting a given template into the same template as a teacher signal, and then, FIG. As shown in a)
When another feature amount vector 1 ′ is transformed by the feature amount transforming neuro 2 and the transformed feature amount vector 3 is not classified into the correct category by the template matching 5, it corresponds to another feature amount vector. From the templates 4 in the correct category, the template closest to the conversion result of the other feature amount vector by the feature amount conversion neuro is selected to generate re-learning data 6, and the other feature amount vector 1 ′ is used as the feature amount. As shown in FIG. 2B, the feature transformation neuro 2 is relearned by using the input signal of the transformed neuro 2 and the template closest to the transformation result of the other feature amount vector as the output signal. It is a thing.

【0015】本発明の請求項3の発明は、請求項1の発
明において、予め与えられたテンプレートを同じテンプ
レートに変換するデータを教師信号として特徴量変換ニ
ューロを学習させたのち、図2(c)に示すように、テ
ンプレートの特徴量ベクトル4を上記学習済の特徴量変
換ニューロにより変換してテンプレート4’を作成し、
変換されたテンプレート4’をテンプレート・マッチン
グを行うためのテンプレートとして利用するようにした
ものである。
According to a third aspect of the present invention, in the first aspect of the invention, the feature amount conversion neuron is learned by using the data for converting a given template into the same template as a teacher signal, and then, FIG. ), The feature amount vector 4 of the template is transformed by the learned feature amount transforming neuron to create a template 4 ′,
The converted template 4'is used as a template for performing template matching.

【0016】本発明の請求項4の発明は、請求項2の発
明において、他の特徴量ベクトルを特徴量変換ニューロ
の入力信号とし、また、上記他の特徴量ベクトルの変換
結果に最も近いテンプレートを出力信号として特徴量変
換ニューロを再学習させたのち、図2(c)に示すよう
に、テンプレートの特徴量ベクトル4を上記再学習済の
特徴量変換ニューロ2により変換してテンプレート4’
を作成し、変換されたテンプレート4’をテンプレート
・マッチングを行うためのテンプレートとして利用する
ようにしたものである。
According to a fourth aspect of the present invention, in the second aspect of the present invention, another feature amount vector is used as an input signal of the feature amount conversion neuron, and the template closest to the conversion result of the other feature amount vector is used. 2 is used as an output signal to relearn the feature amount transformation neuro, and then the feature amount vector 4 of the template is transformed by the relearned feature amount transformation neuro 2 as shown in FIG.
And the converted template 4'is used as a template for performing template matching.

【0017】[0017]

【作用】本発明の請求項1の発明においては、テンプレ
ート4のみを特徴量変換ニューロ2の学習データとして
いるので、特徴量変換ニューロ2はテンプレート4に対
して恒等写像となるが、その他のデータに対しても若干
の引き込みが起こり、特徴量変換ニューロ2の出力とし
てテンプレートに近いものを得ることができる。
In the first aspect of the present invention, since only the template 4 is used as the learning data of the feature transformation neuro 2, the feature transformation neuro 2 becomes an identity map with respect to the template 4, but other The data is also slightly pulled in, and an output close to the template can be obtained as the output of the feature amount conversion neuro 2.

【0018】殆どの実際のデータは対応するテンプレー
トに近いものであるため、上記のように学習した特徴量
変換ニューロで変換を行うと、正しいテンプレート側に
引き込みがおこり、上記のように学習した特徴量変換ニ
ューロを通さない場合に較べテンプレート・マッチング
における認識率を高めることができる。また、テンプレ
ートのみを教師データとして学習を行うため、従来例の
ように、特徴量ベクトルの全てのデータを用いて特徴量
変換ニューロを学習させる必要がない。
Since most of the actual data is close to the corresponding template, when the transformation with the feature transformation neuro learned as described above is performed, pull-in occurs on the correct template side, and the features learned as described above. The recognition rate in the template matching can be increased as compared with the case where the quantity conversion neuron is not passed. Further, since the learning is performed using only the template as the teacher data, it is not necessary to learn the feature quantity conversion neuro using all the data of the feature quantity vector as in the conventional example.

【0019】本発明の請求項2の発明においては、請求
項1の発明において、特徴量ベクトル1’を特徴量変換
ニューロ2で変換した際、その変換された特徴量ベクト
ル3がテンプレート・マッチング5により正しいカテゴ
リに分類されなかった場合に、正しいカテゴリのテンプ
レート4の中から、特徴量変換ニューロによる上記特徴
量ベクトルの変換結果に最も近いテンプレートを選択し
て再学習データ6を生成し、特徴量変換ニューロ2を再
学習させるようにしたので、テンプレートから離れた特
徴量ベクトルについても正しい特徴量ベクトルに変換す
ることができ、また、どのテンプレートを用いて特徴量
変換ニューロを学習させるかを容易に決定することがで
きる。なお、殆どの実際のデータは対応するテンプレー
トに近いものであるため、再学習すべき特徴ベクトルは
少なく、再学習のための負担も少ない。
In the invention of claim 2 of the present invention, in the invention of claim 1, when the feature quantity vector 1'is transformed by the feature quantity transforming neuro 2, the transformed feature quantity vector 3 is the template matching 5 If not classified into the correct category by, the template closest to the conversion result of the above-mentioned feature amount vector by the feature amount conversion neuro is selected from the templates 4 of the correct category to generate the re-learning data 6, and the feature amount Since the transformed neuro 2 is re-learned, the feature vector distant from the template can be transformed into the correct feature vector, and which template is used to easily learn the feature transformed neuro is easy. You can decide. Since most of the actual data is close to the corresponding template, the number of feature vectors to be relearned is small and the burden of relearning is small.

【0020】本発明の請求項3および請求項4の発明に
おいては、テンプレートの特徴量ベクトル4を学習済も
しくは再学習済の特徴量変換ニューロにより変換してテ
ンプレート4’を作成し、変換されたテンプレート4’
をテンプレート・マッチングを行うためのテンプレート
として利用するようにしたので、学習が終わっていない
特徴量変換ニューロであっても、文字の認識に用いるこ
とができる。
In the third and fourth aspects of the present invention, the template feature quantity vector 4 is transformed by the learned or re-learned feature quantity transforming neuron to create the template 4 ', which is transformed. Template 4 '
Since is used as a template for performing template matching, even a feature quantity conversion neuro that has not been learned can be used for character recognition.

【0021】[0021]

【実施例】図3は本発明の第1の実施例を示すフローチ
ャートであり、本実施例は、図1(b)に示したよう
に、テンプレートのみを学習データとして特徴量変換ニ
ューロを学習させる実施例を示したものである。図3に
より、本発明の第1の実施例について説明する。
FIG. 3 is a flow chart showing a first embodiment of the present invention. In this embodiment, as shown in FIG. 1 (b), a feature quantity conversion neuron is learned using only a template as learning data. It shows an example. A first embodiment of the present invention will be described with reference to FIG.

【0022】ステップS1において、文字データを正規
化し、特徴量ベクトルに変換する操作を、入力した文字
データの数だけ繰り返す。ステップS2において、ステ
ップS1において得た特徴量ベクトルから1または複数
のテンプレートを作成し、これを入力した文字の種類だ
け繰り返す。ステップS3において、ステップS2にお
いて作成したテンプレートを入力パターンおよび出力パ
ターンとする学習パターンを一つ作り、この作業をテン
プレート毎に繰り返す。
In step S1, the operation of normalizing the character data and converting it into a feature amount vector is repeated for the number of input character data. In step S2, one or more templates are created from the feature amount vector obtained in step S1, and this is repeated for the type of the input character. In step S3, one learning pattern in which the template created in step S2 is used as an input pattern and an output pattern is created, and this operation is repeated for each template.

【0023】ステップS4において、特徴ベクトルの次
元数と同じ数の入力ユニットおよび出力ユニットを持つ
特徴量変換ニューロを構成し、ステップS5において、
すべての学習パターンを特徴量変換ニューロに学習させ
る。本実施例においては、テンプレートのみを学習デー
タとして特徴量変換ニューロを学習させているので、前
記したように、テンプレートに近い特徴量ベクトルにつ
いては若干の引き込みがおこり、テンプレートに近い出
力を得ることができる。また、殆どの実際のデータは対
応するテンプレートに近いため、本実施例の手法で特徴
量変換ニューロを学習させることにより、殆どのデータ
を正しいテンプレートに変換することができる。
In step S4, a feature quantity conversion neuro having the same number of input units and output units as the dimension number of the feature vector is constructed, and in step S5,
The feature transformation neuron is made to learn all learning patterns. In the present embodiment, since the feature amount conversion neuron is learned by using only the template as the learning data, as described above, the feature amount vector close to the template may be slightly pulled in and an output close to the template may be obtained. it can. Also, since most of the actual data is close to the corresponding template, most of the data can be converted into the correct template by learning the feature quantity conversion neuron by the method of this embodiment.

【0024】上記第1の実施例においては、上記のよう
に、テンプレートに近い特徴量ベクトルについては正し
いテンプレートに変換することができるが、テンプレー
トから離れた特徴量ベクトルについては、正しいテンプ
レートに変換することができない。次に示す第2の実施
例は上記した第1の実施例により学習した特徴量変換ニ
ューロでは正しい認識結果を得ることができない特徴量
ベクトルについて、ニューラルネット・ワークを再学習
させる手法を示すものである。
In the first embodiment, as described above, the feature quantity vector close to the template can be converted into the correct template, but the feature quantity vector far from the template can be converted into the correct template. I can't. The second embodiment shown below shows a method for re-learning a neural network for a feature quantity vector for which a correct recognition result cannot be obtained by the feature quantity transforming neuron learned by the first embodiment. is there.

【0025】図4は本発明の第2の実施例を示すフロー
チャートであり、本実施例は図2(a),(b)に示し
たように、再学習データを生成し、再学習データを用い
て特徴量変換ニューロを学習させる実施例を示したもの
である。図4により、本発明の第2の実施例について説
明する。ステップS11において、図3に示した第1の
実施例の手法により特徴量変換ニューロを学習させる。
ついで、ステップS12において、特徴量ベクトルを学
習済の特徴量変換ニューロで変換する。
FIG. 4 is a flow chart showing a second embodiment of the present invention. In this embodiment, as shown in FIGS. 2 (a) and 2 (b), re-learning data is generated and re-learning data is stored. An example is shown in which a feature amount conversion neuro is learned by using it. A second embodiment of the present invention will be described with reference to FIG. In step S11, the feature quantity conversion neuro is learned by the method of the first embodiment shown in FIG.
Next, in step S12, the feature amount vector is transformed by the learned feature amount transforming neuro.

【0026】ステップS13において、ステップS12
において変換した特徴量ベクトルを第1の実施例に示し
た手法で作成したテンプレートと比較し、正しく認識さ
れなかった場合には、ステップS15において、正しい
カテゴリのテンプレートの中で、変換後の特徴量ベクト
ルに一番近いものを一つ選ぶ。ついで、ステップS16
において、変換前の特徴量ベクトルを入力データとし、
ステップS15において選んだテンプレートを出力デー
タとして学習パターンを作る。
In step S13, step S12
The feature quantity vector converted in step S15 is compared with the template created by the method shown in the first embodiment, and if it is not recognized correctly, in step S15, the converted feature quantity in the template of the correct category. Choose the one that is closest to the vector. Then, step S16
In, in the input data is the feature vector before conversion,
A learning pattern is created using the template selected in step S15 as output data.

【0027】そして、ステップS13において比較した
結果、正しく認識されなかった特徴量ベクトルについて
ステップS15,ステップS16による処理を行い、学
習パターンを作る。上記のようにして、正しく認識され
なかった特徴量ベクトルについて、学習パターンを作
り、ステップS17において、作成された学習パターン
を用いて特徴量変換ニューロを学習させる。
Then, as a result of the comparison in step S13, the feature amount vector that is not correctly recognized is processed in steps S15 and S16 to create a learning pattern. As described above, a learning pattern is created for a feature quantity vector that has not been correctly recognized, and in step S17, a feature quantity conversion neuron is learned using the created learning pattern.

【0028】以上のように、本実施例においては、第1
の実施例により学習した特徴量変換ニューロでは正しく
認識できなかった特徴量ベクトルについて学習パターン
を作成し特徴量変換ニューロを再学習させることによ
り、上記特徴量ベクトルについても正しい認識結果を得
ることができ、また、どのテンプレートを用いて特徴量
変換ニューロを学習させるかを容易に決定することがで
きる。
As described above, in this embodiment, the first
By creating a learning pattern for a feature amount vector that could not be correctly recognized by the feature amount transforming neuron learned by the embodiment and re-learning the feature amount transforming neuron, a correct recognition result can be obtained for the feature amount vector. Further, it is possible to easily determine which template is used to train the feature amount transformation neuro.

【0029】図5は本発明の第3の実施例を示すフロー
チャートであり、本実施例は第1の実施例において特徴
量変換ニューロの学習が終了しなかった場合に対処する
ための実施例を示すものであり、前記した図2(c)に
対応する。図5において、ステップS21において、第
1の実施例に示した手法により特徴量変換ニューロを学
習させたのち、ステップS22において、各テンプレー
トの特徴量を特徴量変換ニューロで変換する。ついで、
ステップS23において、変換した特徴量を新しいテン
プレートとする。
FIG. 5 is a flow chart showing a third embodiment of the present invention. This embodiment is an embodiment for coping with the case where the learning of the feature amount conversion neuron is not completed in the first embodiment. This is shown and corresponds to FIG. 2C described above. In FIG. 5, in step S21, the feature quantity conversion neuro is learned by the method shown in the first embodiment, and then in step S22, the feature quantity of each template is converted by the feature quantity conversion neuro. Then,
In step S23, the converted feature amount is used as a new template.

【0030】そして、テンプレートの数だけ上記処理を
繰り返し、ステップS24において、古いテンプレート
を捨て、ステップS23で得た新しいテンプレートを採
用する。図6は本発明の第4の実施例を示すフローチャ
ートであり、本実施例は第2の実施例において特徴量変
換ニューロを再学習させたのち、まだ、テンプレートの
学習が終了しなかった場合に対処するための実施例を示
すものであり、第3の実施例と同様、前記した図2
(c)に対応する。
Then, the above processing is repeated for the number of templates, the old template is discarded in step S24, and the new template obtained in step S23 is adopted. FIG. 6 is a flow chart showing a fourth embodiment of the present invention. In the present embodiment, when the learning of the template is not yet finished after re-learning the feature transformation neuro in the second embodiment. FIG. 2 shows an embodiment for dealing with the problem, and like FIG.
Corresponds to (c).

【0031】図6において、ステップS31において、
第2の実施例に示した手法により特徴量変換ニューロを
再学習させたのち、ステップS32において、各テンプ
レートの特徴量を特徴量変換ニューロで変換する。つい
で、ステップS33において、変換した特徴量を新しい
テンプレートとする。そして、テンプレートの数だけ上
記処理を繰り返し、ステップS34において、古いテン
プレートを捨て、ステップS23で得た新しいテンプレ
ートを採用する。
In FIG. 6, in step S31,
After re-learning the feature amount conversion neuro by the method shown in the second embodiment, the feature amount of each template is converted by the feature amount conversion neuro in step S32. Then, in step S33, the converted feature amount is used as a new template. Then, the above processing is repeated for the number of templates, the old template is discarded in step S34, and the new template obtained in step S23 is adopted.

【0032】第1および第2の実施例においては、特徴
量変換ニューロの学習が終了しなかった場合、学習の終
了していないテンプレート自体も正しいテンプレートに
変換することができないが、上記した第3,第4の実施
例のように、テンプレートを特徴量変換ニューロで変換
させてテンプレートを作成し、作成されたテンプレート
を用いてテンプレート・マッチングを行うことにより、
例え学習が終了していない特徴量変換ニューロでも、文
字認識に用いることができる。
In the first and second embodiments, when the learning of the feature amount conversion neuron is not completed, the template itself which has not been learned cannot be converted into the correct template, but the above-mentioned third embodiment is used. , Like the fourth embodiment, the template is created by converting the template with the feature transformation neuro, and template matching is performed using the created template.
Even a feature amount conversion neuro whose learning has not been completed can be used for character recognition.

【0033】[0033]

【発明の効果】以上説明したことから明らかなように、
本発明においては、テンプレートのみを特徴量変換ニュ
ーロの学習データとしているので、特徴量ベクトルの全
てのデータを用いて特徴量変換ニューロを学習させる必
要がなく、特徴量変換ニューロを高速に学習させること
ができる。また、上記のようにして学習させた特徴量変
換ニューロを用いて文字認識をおこなったとき、正しく
認識されなかった特徴量ベクトルと、ニューラルネット
ワークにより変換された上記特徴量ベクトルに最も近い
テンプレートとを再学習データとすることにより、再学
習データを容易に作成することができる。
As is apparent from the above description,
In the present invention, since only the template is used as the learning data of the feature amount conversion neuro, it is not necessary to learn the feature amount conversion neuro by using all the data of the feature amount vector, and the feature amount conversion neuron can be learned at high speed. You can Further, when character recognition is performed using the feature amount conversion neuron learned as described above, a feature amount vector that was not correctly recognized and a template closest to the feature amount vector converted by the neural network are set. By using the re-learning data, the re-learning data can be easily created.

【0034】さらに、テンプレートを特徴量変換ニュー
ロにより変換し、変換されたテンプレートを用いてテン
プレート・マッチングを行うことにより、例え学習が終
了していないニューラルネットワークを用いても高い認
識率を得ることができる。
Further, by converting the template by the feature quantity conversion neuro and performing template matching using the converted template, a high recognition rate can be obtained even if a neural network in which learning has not been completed is used. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】本発明の原理ブロック図(続き)である。FIG. 2 is a block diagram (continuation) of the principle of the present invention.

【図3】本発明の第1の実施例のフローチャートであ
る。
FIG. 3 is a flowchart of the first embodiment of the present invention.

【図4】本発明の第2の実施例のフローチャートであ
る。
FIG. 4 is a flow chart of a second embodiment of the present invention.

【図5】本発明の第3の実施例のフローチャートであ
る。
FIG. 5 is a flow chart of a third embodiment of the present invention.

【図6】本発明の第4の実施例のフローチャートであ
る。
FIG. 6 is a flow chart of a fourth embodiment of the present invention.

【図7】本発明の前提となる文字認識装置のブロック図
である。
FIG. 7 is a block diagram of a character recognition device which is a premise of the present invention.

【図8】特徴量変換ニューロの構成の一例を示す図であ
る。
FIG. 8 is a diagram showing an example of a configuration of a feature amount conversion neuro.

【図9】特徴量ベクトルの一例を示す図である。FIG. 9 is a diagram showing an example of a feature amount vector.

【図10】特徴量変換ニューロの従来における学習方法
を示す図である。
FIG. 10 is a diagram showing a conventional learning method for a feature amount transforming neuro.

【符号の説明】[Explanation of symbols]

2,104 特徴量変換ニューロ 4,4’,132 テンプレート 101 スキャナ 102 正規化手段 103 特徴抽出手段 105 テンプレート格納手段 106 照合手段 111 入力層 112 中間層 113 出力層 115 要素ニューロン 2,104 Feature transformation neuro 4,4 ', 132 Template 101 Scanner 102 Normalizing means 103 Feature extracting means 105 Template storing means 106 Collating means 111 Input layer 112 Intermediate layer 113 Output layer 115 Elemental neuron

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 読み取った文字パターンから抽出された
特徴量ベクトルをニューラル・ネットワークにより各カ
テゴリの特徴を反映した標準特徴量ベクトルに変換し、 ニューラル・ネットワークにより変換された標準特徴量
ベクトルと、テンプレートとのテンプレート・マッチン
グを行うことにより文字を認識するテンプレート・マッ
チング型文字認識方式において、 予め与えられたテンプレートを同じテンプレートに変換
するデータを教師信号として上記ニューラル・ネットワ
ークに与えて学習させることにより、 読み取った文字パターンから抽出された特徴量ベクトル
を各カテゴリの特徴を反映した標準特徴量ベクトルに変
換することを特徴とするニューラル・ネットワークによ
るテンプレート・マッチング型文字認識方式。
1. A feature vector extracted from a read character pattern is converted by a neural network into a standard feature vector reflecting the characteristics of each category, and a standard feature vector converted by the neural network and a template. In the template matching type character recognition method for recognizing a character by performing template matching with, by applying data for converting a given template to the same template as a teacher signal to the neural network and learning, A template matching type character recognition method by a neural network, which is characterized by converting a feature amount vector extracted from a read character pattern into a standard feature amount vector reflecting features of each category.
【請求項2】 予め与えられたテンプレートを同じテン
プレートに変換するデータを教師信号としてニューラル
・ネットワークを学習させたのち、 他の特徴量ベクトルをニューラル・ネットワークで変換
した際、その変換された特徴量ベクトルがテンプレート
・マッチングにより正しいカテゴリに分類されなかった
場合に、 上記他の特徴量ベクトルに対応した正しいカテゴリのテ
ンプレートの中から、ニューラル・ネットワークによる
上記他の特徴量ベクトルの変換結果に最も近いテンプレ
ートを選択することにより再学習データを生成し、 上記他の特徴量ベクトルをニューラル・ネットワークの
入力信号とし、また、他の特徴量ベクトルの変換結果に
最も近いテンプレートを出力信号としてニューラル・ネ
ットワークを再学習させることを特徴とする請求項1の
ニューラル・ネットワークによるテンプレート・マッチ
ング型文字認識方式。
2. When a neural network is trained by using data for converting a given template into the same template as a teacher signal and another feature amount vector is converted by the neural network, the converted feature amount If the vector is not classified into the correct category by template matching, the template closest to the conversion result of the other feature amount vector by the neural network from the templates of the correct category corresponding to the other feature amount vector. Retraining data is generated by selecting, and the other feature vector is used as the input signal of the neural network, and the template closest to the conversion result of the other feature vector is used as the output signal to regenerate the neural network. To learn The template matching type character recognition method by the neural network according to claim 1.
【請求項3】 予め与えられたテンプレートを同じテン
プレートに変換するデータを教師信号としてニューラル
・ネットワークを学習させたのち、 テンプレートの特徴量ベクトルを上記学習済のニューラ
ル・ネットワークにより変換し、変換されたテンプレー
トをテンプレート・マッチングを行うためのテンプレー
トとして利用することを特徴とする請求項1のニューラ
ル・ネットワークによるテンプレート・マッチング型文
字認識方式。
3. A neural network is trained by using, as teacher signals, data for converting a given template into the same template, and the feature vector of the template is converted by the learned neural network and converted. The template matching type character recognition method by a neural network according to claim 1, wherein the template is used as a template for performing template matching.
【請求項4】 他の特徴量ベクトルをニューラル・ネッ
トワークの入力信号とし、また、上記他の特徴量ベクト
ルの変換結果に最も近いテンプレートを出力信号として
ニューラル・ネットワークを再学習させたのち、 テンプレートの特徴量ベクトルを上記再学習済のニュー
ラル・ネットワークにより変換し、変換されたテンプレ
ートをテンプレート・マッチングを行うためのテンプレ
ートとして利用することを特徴とする請求項2のニュー
ラル・ネットワークによるテンプレート・マッチング型
文字認識方式。
4. The neural network is relearned using another feature amount vector as an input signal of the neural network, and a template closest to the conversion result of the other feature amount vector is used as an output signal. The template matching type character by a neural network according to claim 2, wherein the feature quantity vector is converted by the re-learned neural network and the converted template is used as a template for performing template matching. Recognition method.
JP4285904A 1992-10-23 1992-10-23 Template matching type character recognition system using neural network Withdrawn JPH06139410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4285904A JPH06139410A (en) 1992-10-23 1992-10-23 Template matching type character recognition system using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4285904A JPH06139410A (en) 1992-10-23 1992-10-23 Template matching type character recognition system using neural network

Publications (1)

Publication Number Publication Date
JPH06139410A true JPH06139410A (en) 1994-05-20

Family

ID=17697526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4285904A Withdrawn JPH06139410A (en) 1992-10-23 1992-10-23 Template matching type character recognition system using neural network

Country Status (1)

Country Link
JP (1) JPH06139410A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179285A (en) * 2005-12-27 2007-07-12 Kyushu Institute Of Technology Image recognition device, image recognition method and program
JP2017157138A (en) * 2016-03-04 2017-09-07 キヤノン株式会社 Image recognition device, image recognition method and program
JP2018022473A (en) * 2016-07-21 2018-02-08 パナソニックIpマネジメント株式会社 Learning device, identification device, learning identification system, and program
JP2020527260A (en) * 2018-06-15 2020-09-03 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド Text detection analysis methods, devices and devices

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179285A (en) * 2005-12-27 2007-07-12 Kyushu Institute Of Technology Image recognition device, image recognition method and program
JP4691659B2 (en) * 2005-12-27 2011-06-01 国立大学法人九州工業大学 Image recognition apparatus, image recognition method, and program
JP2017157138A (en) * 2016-03-04 2017-09-07 キヤノン株式会社 Image recognition device, image recognition method and program
JP2018022473A (en) * 2016-07-21 2018-02-08 パナソニックIpマネジメント株式会社 Learning device, identification device, learning identification system, and program
JP2020527260A (en) * 2018-06-15 2020-09-03 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド Text detection analysis methods, devices and devices

Similar Documents

Publication Publication Date Title
Rivard et al. Multi-feature extraction and selection in writer-independent off-line signature verification
CN112599117B (en) Model training method, model training device, voice recognition method, voice recognition device, electronic equipment and storage medium
Chumuang et al. Intelligent handwriting Thai Signature Recognition System based on artificial neuron network
Bouchain Character recognition using convolutional neural networks
Mshir et al. Signature recognition using machine learning
Nitzan et al. The significance of independent decisions in uncertain dichotomous choice situations
JPH08227408A (en) Neural network
Chen et al. A convolutional neural network with dynamic correlation pooling
Hnoohom et al. Thai handwritten verification system on documents for the investigation
US5708727A (en) Neuroprocessing service
JPH06139410A (en) Template matching type character recognition system using neural network
Howell Face unit radial basis function networks
JPH05225163A (en) Neural network system and learning method for neural network
JP3222699B2 (en) Pattern recognition device
McCormack et al. Neural network signature verification using Haar wavelet and Fourier transforms
JP7230324B2 (en) Neural network learning method, computer program and computer device
Mu et al. Training algorithms for robust face recognition using a template-matching approach
JP3810469B2 (en) Pattern recognition method
Gilewski et al. Education Aspects: Handwriting Recognition-Neural Networks-Fuzzy Logic
JP3303253B2 (en) Pattern matching method and apparatus
Kussul et al. Improved method of handwritten digit recognition
JPH0233687A (en) Neural network learning method for recognizing multi-font character
CN112435673B (en) Model training method and electronic terminal
Coetzer et al. Dynamic fusion of human and machine decisions for efficient cost-sensitive biometric authentication
Coetzer et al. Optimal human-machine collaboration for enhanced cost-sensitive biometric authentication

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000104