JPH07152863A - Character recognizing device - Google Patents
Character recognizing deviceInfo
- Publication number
- JPH07152863A JPH07152863A JP5326336A JP32633693A JPH07152863A JP H07152863 A JPH07152863 A JP H07152863A JP 5326336 A JP5326336 A JP 5326336A JP 32633693 A JP32633693 A JP 32633693A JP H07152863 A JPH07152863 A JP H07152863A
- Authority
- JP
- Japan
- Prior art keywords
- character
- unit
- contour line
- recognition
- character pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Character Input (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、文字認識装置に係り、
特に、手書き文字を認識対象とする文字認識装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device,
In particular, the present invention relates to a character recognition device that recognizes handwritten characters.
【0002】[0002]
【従来の技術】従来、例えば紙などの媒体に印字または
手書きされた文字に光を当て、反射する光の濃度をデジ
タル化して生じる画像データと、予め登録されている文
字のサンプルデータとを照合することによって、媒体に
印字または手書きされた文字の文字コードを出力する文
字認識装置は、一般にはOCRとして知られている。2. Description of the Related Art Conventionally, image data generated by shining light on a character printed or handwritten on a medium such as paper and digitizing the density of the reflected light is compared with sample data of a character registered in advance. A character recognition device that outputs a character code of a character printed or handwritten on a medium by doing so is generally known as an OCR.
【0003】認識の対象となる文字は、プリンタで印字
され、または電算写植機等を用いて印刷された活字文字
と、何らかの筆記具で書かれた手書き文字とに分類され
る。活字文字は、形状の変化が少なく、文字線の有無や
方向が安定しているのが特徴であり、他方、手書き文字
は、文字線の相対関係や方向が比較的安定しているのが
特徴である。Characters to be recognized are classified into printed characters printed by a printer or printed using a computer typesetting machine and handwritten characters written with some writing instrument. Printed characters are characterized by little change in shape and stable presence / absence and direction of character lines, while handwritten characters are characterized by relatively stable relative relationship and direction of character lines. Is.
【0004】しかし、文字線の方向だけでは類似した文
字の区別ができないため、認識対象によって異なる特徴
の照合が必要であり、従来から、活字英数字用、手書き
英数字用または活字漢字用と、認識対象別の文字認識手
法が提案されている。However, since it is not possible to distinguish similar characters only by the direction of the character lines, it is necessary to collate different characteristics depending on the recognition target. Conventionally, for type alphanumeric characters, handwritten alphanumeric characters or type kanji characters, Character recognition methods for each recognition target have been proposed.
【0005】手書き数字を認識対象とする文字認識を例
として説明すると、図10に示すように、文字認識装置
50は、認識対象が含まれた画像を撮像すると共にこの
撮像した画像データ52aを記憶部52に格納する画像
入力部51と、当該画像データ52aから文字パターン
データ54cを抽出する切出し部53と、当該文字パタ
ーンデータ54cの画像の特徴を抽出して認識部70に
出力する特徴抽出部60と、この特徴抽出部60の出力
及び予め記憶部52に登録された文字サンプルデータ5
6Aとに基づいて文字コード57eの識別を行う認識部
20とを備えている。As an example of character recognition using handwritten numbers as a recognition target, as shown in FIG. 10, the character recognition device 50 captures an image including the recognition target and stores the captured image data 52a. The image input unit 51 stored in the unit 52, the cutout unit 53 that extracts the character pattern data 54c from the image data 52a, and the feature extraction unit that extracts the features of the image of the character pattern data 54c and outputs them to the recognition unit 70. 60 and the output of the feature extraction unit 60 and the character sample data 5 registered in the storage unit 52 in advance.
6A and the recognition unit 20 that identifies the character code 57e.
【0006】画像入力部51は、例えばイメージスキャ
ナ,CCDカメラ等から構成され、媒体に印刷または手
書きされた文字を含む部分の画像を光電変換しアナログ
値として出力するものである。画像入力部51には図示
しない例えばA/D変換器等が併設され、光電変換によ
って生じたアナログ値をデジタル値に変換して画像デー
タ52aとして記憶部の所定の領域に保存する。The image input unit 51 is composed of, for example, an image scanner, a CCD camera, etc., and photoelectrically converts an image of a portion including characters printed or handwritten on a medium and outputs it as an analog value. The image input unit 51 is provided with, for example, an A / D converter (not shown), and converts an analog value generated by photoelectric conversion into a digital value and saves it as image data 52a in a predetermined area of the storage unit.
【0007】記憶部52は、半導体メモリや、磁気若し
くは光を用いてデジタル値を記憶/再生する。記録部5
2には、画像入力部51が読み取った画像データ52a
を記憶しておく領域と、文字サンプル56A,B,
C...を記憶しておく領域及び各部のワーク領域とが
割り当てられていて、図示しない中央処理部に制御され
ている。The storage unit 52 stores / reproduces a digital value by using a semiconductor memory, magnetism or light. Recording unit 5
2 includes image data 52a read by the image input unit 51.
Area for storing, and character samples 56A, B,
C. . . Is allocated to a storage area for storing and a work area for each unit, and is controlled by a central processing unit (not shown).
【0008】切り出し部53は、例えば、画像データの
各画素を垂直方向及び水平方向に加算して黒部分の射影
をとり、射影ヒストグラムを作成する。この射影ヒスト
グラムのあるしきい値以上の部分を文字が存在している
領域として切り出すことで、文字パターンデータを作成
していた。このような文字切り出し部は、例えば、特開
平1−114992号公報に記載されている。The clipping unit 53 adds each pixel of the image data in the vertical direction and the horizontal direction to obtain the projection of the black portion and creates a projection histogram. Character pattern data is created by cutting out a portion of the projection histogram that is equal to or greater than a certain threshold as an area in which characters are present. Such a character cutout portion is described in, for example, Japanese Patent Application Laid-Open No. 1-114992.
【0009】また、切り出し部53には図示しない文字
パターンデータ編集部54が併設されていて、この文字
パターンデータ編集部54は、特徴抽出部60の要求に
応じて文字パターンデータ54aを編集する。そのた
め、特徴抽出部60の構成及び動作に応じて、文字パタ
ーンデータ編集部54の構成及び動作も異なるものとな
っている。ここでは、例えば、切り出し部53が生成し
た文字パターンデータ54cに対して、簡単なフィルタ
処理によるノイズの除去を行ない、また、特徴抽出部6
0の要請に応じて、文字パターンデータ54aの外接を
一定の大きさに正規化すると共に、この正規化によって
生じる鋸歯状ノイズを3x3の平均値フィルタによって
平滑化するようになっていた。The cutout section 53 is also provided with a character pattern data editing section 54 (not shown). The character pattern data editing section 54 edits the character pattern data 54a in response to a request from the feature extracting section 60. Therefore, the configuration and operation of the character pattern data editing unit 54 are different depending on the configuration and operation of the feature extraction unit 60. Here, for example, noise is removed from the character pattern data 54c generated by the cutout unit 53 by a simple filtering process, and the feature extraction unit 6
In response to the request of 0, the circumscribing of the character pattern data 54a is normalized to a fixed size, and the sawtooth noise generated by this normalization is smoothed by a 3 × 3 average value filter.
【0010】文字認識技術では、全ての文字をサンプル
データとして登録しておくことができないため、また、
サンプルデータの量の増加に応じて一般に処理時間が多
く必要と成るため、代表的な文字サンプル56Aのみと
比較することで処理の実現及び高速化を図っている。In the character recognition technology, it is not possible to register all characters as sample data.
Since it generally requires a long processing time as the amount of sample data increases, the processing is realized and speeded up by comparing only the typical character sample 56A.
【0011】近年では、文字サンプル56A及び文字パ
ターンデータの何らかの特徴を求め、この特徴の有無や
その程度を比較することで文字の認識を行なうようにな
っていた。この文字パターンデータから抽出する特徴値
には種々のものが提案されている。例えば、2次元座標
上の文字パターンデータに、座標上等間隔に標本点を置
き、この標本点での文字パターンの濃度値を、特徴値と
して比較する手法である。In recent years, a character has been recognized by obtaining some characteristic of the character sample 56A and character pattern data and comparing the presence or absence of this characteristic and its degree. Various types of feature values have been proposed to be extracted from this character pattern data. For example, it is a method in which sample points are placed on the character pattern data on the two-dimensional coordinates at equal intervals on the coordinates, and the density values of the character patterns at the sample points are compared as characteristic values.
【0012】認識部20は、特徴抽出部10が文字パタ
ーンデータ54cから抽出した前述のような特徴と、文
字サンプルデータの特徴とを比較し、特徴の同一及び類
似を判定して当該文字パターンデータ54cの文字コー
ドを認識して出力する。具体的には、統計的手法に基づ
いて特徴値の分布によって文字サンプルの文字コードを
判定する手法や、ニューラルネットワークを用いる手法
が提案されていた。The recognizing unit 20 compares the above-mentioned features extracted by the feature extracting unit 10 from the character pattern data 54c with the features of the character sample data, determines whether the features are the same or similar, and determines the character pattern data. The character code 54c is recognized and output. Specifically, a method of determining the character code of a character sample based on the distribution of feature values based on a statistical method and a method of using a neural network have been proposed.
【0013】また、特徴抽出部60について、「加重方
向指数ヒストグラム」を特徴値として文字認識を行なう
従来例を図11を参照して説明する。この従来例では、
特徴抽出部60が、文字パターンデータ54cから文字
の輪郭線を抽出する。文字パターンデータ編集部54
が、文字パターンデータ54cを2値データしているた
め、画素の1−onと0−offに基づいて、文字部分
の輪郭線60Aを8連結で追跡する。ここでは、輪郭線
を左回り、ホール部を右回りに追跡している。A conventional example of the feature extraction unit 60 in which character recognition is performed using a "weighted direction index histogram" as a feature value will be described with reference to FIG. In this conventional example,
The feature extraction unit 60 extracts the contour line of the character from the character pattern data 54c. Character pattern data editing unit 54
However, since the character pattern data 54c is binary data, the contour line 60A of the character portion is traced in eight connections based on 1-on and 0-off of the pixel. Here, the contour line is tracked counterclockwise and the hole is tracked clockwise.
【0014】さらに、特徴抽出部60は、各輪郭線60
Aの方向を45度おきの4方向に量子化する。ここで
は、左下方向と右上方向を同一に扱っている。輪郭線が
閉曲線であって、開始点が任意であるため8方向では特
徴抽出の妨げになるからである。次に、文字パターンデ
ータを7x7の計49個の小領域61に分割する。それ
ぞれの小領域内61で、この小領域61に含まれる輪郭
線60Aの上の画素62の各方向毎にヒストグラムを求
める。このように、4方向に量子化された各輪郭線の方
向ヒストグラムが、一つの文字パターンデータ54cに
ついて、49個の小領域61で生成されたため、196
次元(49個の小領域x4方向)の方向指数ヒストグラ
ムを得ることができる。Further, the feature extraction unit 60 is configured to detect each contour line 60.
The direction of A is quantized into four directions at intervals of 45 degrees. Here, the lower left direction and the upper right direction are treated the same. This is because the contour line is a closed curve and the starting point is arbitrary, which hinders feature extraction in eight directions. Next, the character pattern data is divided into a total of 49 small areas 61 of 7 × 7. Within each small area 61, a histogram is obtained for each direction of the pixel 62 on the contour 60A included in this small area 61. In this way, since the direction histogram of each contour line quantized in four directions is generated in 49 small regions 61 for one character pattern data 54c, 196
A direction index histogram of a dimension (49 small areas x 4 directions) can be obtained.
【0015】次に、この方向指数ヒストグラムに、重な
りのある2次元ガウスフィルタ(5x5)を掛けて、6
4次元(縦4x横4の小領域x4方向)に次元圧縮す
る。この次元圧縮した加重方向指数ヒストグラムを、特
徴値として認識部70に出力する。Next, this direction index histogram is multiplied by a two-dimensional Gaussian filter (5 × 5) with overlap to obtain 6
Dimension compression is performed in four dimensions (4 vertical x 4 horizontal small regions x 4 directions). The dimension-compressed weighted direction index histogram is output to the recognition unit 70 as a feature value.
【0016】この「加重方向指数ヒストグラム」を用い
た従来例において、認識部70は、文字コード57eの
判定に疑似ベイズ識別関数を用いる。疑似ベイズ識別関
数は、次式の通りである。ここで、Mは標本平均値,λ
i,φiはそれぞれ標本共分散行列の固有値,固有ベクト
ルであり,h2は定数である。また、kは主要固有ベク
トルの数ある。In the conventional example using the "weighted direction exponential histogram", the recognition unit 70 uses a pseudo Bayes discrimination function for the determination of the character code 57e. The pseudo Bayes discriminant function is as follows. Where M is the sample mean value, λ
i and φi are the eigenvalues and eigenvectors of the sample covariance matrix, and h2 is a constant. Further, k is the number of main eigenvectors.
【0017】[0017]
【数1】 [Equation 1]
【0018】この「加重方向指数ヒストグラム」を用い
た従来例の詳細は、「統計的手法による手書き数字認
識」(「手書き文字認識技術の過去・現在・未来」シン
ポジウム講演論文集1993年4月2日)に公開されて
いる。The details of the conventional example using this "weighted direction index histogram" are described in "Handwritten digit recognition by statistical method"("Past, present, and future of handwriting character recognition technology" symposium, April 2, 1993). Sun).
【0019】また、認識部20について、ニューラルネ
ットワークを用いた従来例を説明する。ニューラルネッ
トワーク処理は、学習用のサンプルデータに応じて自己
組織化することで、情報処理を実現する。このニューラ
ルネットワークに基づく情報処理は、ノイマン型に基づ
く情報処理のように処理手順を詳細に定めておく必要が
無く、学習用のサンプルデータによって予め自己組織化
させたニューラルネットワークに、整理されたデータを
入力することで情報処理を行なう。サンプルデータから
自己組織化によって学習するため、ニューラルネットワ
ーク処理はパターンを認識して分類する様な情報処理に
向いており、音声認識技術や、音声合成技術と共に、画
像データの情報処理に用いられてきた。特に、文字認識
にニューラルネットワーク処理を用いる手法は種々のも
のが提案されており、手書き文字を対象とした文字認識
装置も従来から研究されている。A conventional example using a neural network for the recognition unit 20 will be described. The neural network processing realizes information processing by self-organizing according to the sample data for learning. The information processing based on this neural network does not need to define the processing procedure in detail like the information processing based on the Neumann type, and the organized data is arranged in the neural network that is self-organized in advance by the sample data for learning. Information processing is performed by inputting. Since learning is performed from sample data by self-organization, neural network processing is suitable for information processing such as pattern recognition and classification, and has been used for information processing of image data together with speech recognition technology and speech synthesis technology. It was In particular, various techniques have been proposed for using neural network processing for character recognition, and character recognition devices for handwritten characters have also been studied.
【0020】[0020]
【発明が解決しようとする課題】しかしながら、「加重
方向指数ヒストグラム」を用いた従来例では、文字の輪
郭線の方向成分が4方向であり、正対する方向の区別が
ないので、特徴がでにくく、認識率が一定値以上向上し
ない、という不都合があった。また、文字の構造、スト
ロークに基づいた特徴値ではないため、文字の変形が十
分に吸収されず、やはり認識率が一定値以上向上しな
い、という不都合があった。However, in the conventional example using the "weighted direction index histogram", since the directional components of the outline of the character are four directions, and there is no distinction between the facing directions, the characteristics are difficult to obtain. However, there is an inconvenience that the recognition rate does not improve more than a certain value. Further, since the characteristic value is not based on the structure and stroke of the character, the deformation of the character is not sufficiently absorbed, and the recognition rate is not improved beyond a certain value.
【0021】さらに、ニューラルネットワーク処理を用
いた文字認識装置の従来例にあっても、例えば、3層ニ
ューラルネットを用いて前述した濃度値を特徴値とする
文字認識では、中間層の数を増やしても、画像データの
解像度を詳細にしても、一定の認識率に達するとそれ以
上向上しないことが知られている。これは、学習できな
かったデータが文字パターンデータに含まれていること
を示しており、手書き文字の構造の多様さに対応した文
字認識装置は、認識部にニューラルネットを用いるだけ
では提供されず、また、ニューラルネットワークの効果
を最大限に引き出す特徴値の抽出手法が提供されない、
という不都合があった。Further, even in the conventional example of the character recognition device using the neural network processing, for example, in the character recognition using the above-mentioned density value as the characteristic value using the three-layer neural network, the number of intermediate layers is increased. However, it is known that even if the resolution of the image data is detailed, it does not further improve when a certain recognition rate is reached. This indicates that the data that could not be learned is included in the character pattern data, and a character recognition device that supports a variety of handwritten character structures cannot be provided simply by using a neural network for the recognition unit. , Also, the feature value extraction method that maximizes the effect of the neural network is not provided,
There was an inconvenience.
【0022】[0022]
【発明の目的】本発明は、係る従来例の有する不都合を
改善し、特に、形状が多様な手書き文字を認識対象とし
ても、認識率を向上させ、また、認識対象が多種の構造
であっても、高い認識率を維持することのできる文字認
識装置を提供することを、その目的とする。It is an object of the present invention to improve the inconvenience of the conventional example, and particularly to improve the recognition rate even when handwriting characters having various shapes are recognized, and the recognition objects have various structures. Also, an object thereof is to provide a character recognition device that can maintain a high recognition rate.
【0023】[0023]
【課題を解決するための手段】請求項1又は2項記載の
本発明は、認識対象が含まれた画像を撮像すると共にこ
の撮像した画像データを記憶部に格納する画像入力部
と、当該画像データから文字パターンデータを抽出する
切出し部と、当該文字パターンデータの画像の特徴を抽
出して認識部に出力する特徴抽出部と、この特徴抽出部
の出力及び予め記憶部に登録された文字サンプルデータ
とに基づいて文字コードの識別を行う認識部とを備えた
文字認識装置である。According to the present invention as set forth in claim 1 or 2, an image input section for picking up an image including a recognition target and storing the picked-up image data in a storage section; A cutout unit that extracts character pattern data from the data, a feature extraction unit that extracts the features of the image of the character pattern data and outputs it to the recognition unit, and an output of this feature extraction unit and a character sample registered in advance in the storage unit. The character recognition device includes a recognition unit that identifies a character code based on data.
【0024】この文字認識装置において、特徴抽出部
が、文字パターンデータの輪郭線を抽出する輪郭線抽出
手段と、当該抽出した輪郭線の特徴に基づいて所定の基
準により当該輪郭線を線セグメントに分割する輪郭線分
割手段と、輪郭線抽出手段が抽出した輪郭線の数と輪郭
線分割手段が線セグメントに分割した分割点の数とによ
って文字パターンデータをグループ分けする文字パター
ン分類手段とを備えている。In this character recognition device, the feature extraction unit extracts the contour line of the character pattern data from the contour line extraction means, and based on the feature of the extracted contour line, the contour line is formed into a line segment by a predetermined reference. And a character pattern classifying unit for grouping the character pattern data according to the number of contour lines extracted by the contour line extracting unit and the number of division points divided into line segments by the contour line dividing unit. ing.
【0025】しかも、認識部が、文字パターン分類手段
によって分類されたグループの数と等しい数の文字コー
ド判定手段を備えている。Moreover, the recognition section is provided with the same number of character code judging means as the number of groups classified by the character pattern classifying means.
【0026】さらに、輪郭線分割手段が、輪郭線を線セ
グメントに分割する所定の基準の一例として、輪郭線の
外周を最短で結ぶ線と当該輪郭線の接点を分割点とした
最外点リスト機能を有している、等の構成を採ってい
る。これによって前述した目的を達成しようとするもの
である。Further, as an example of a predetermined criterion for the contour line dividing means to divide the contour line into line segments, the outermost point list in which a line connecting the outer circumference of the contour line at the shortest and a contact point of the contour line is a dividing point It has a configuration such as having functions. This aims to achieve the above-mentioned object.
【0027】請求項3項記載の本発明では、認識対象が
含まれた画像を撮像すると共にこの撮像した画像データ
を記憶部に格納する画像入力部と、当該画像データから
文字パターンデータを抽出する切出し部と、当該文字パ
ターンデータの画像の特徴を抽出して認識部に出力する
特徴抽出部と、この特徴抽出部の出力及び予め記憶部に
登録された文字サンプルデータとに基づいて文字コード
の識別を行う認識部とを備えた文字認識装置である。According to the third aspect of the present invention, an image including a recognition target is picked up, an image input section for storing the picked-up image data in a storage section, and character pattern data is extracted from the image data. A cutout unit, a feature extraction unit that extracts the features of the image of the character pattern data and outputs the feature to the recognition unit, and a character code based on the output of the feature extraction unit and the character sample data registered in the storage unit in advance. The character recognition device includes a recognition unit that performs identification.
【0028】この文字認識装置において、特徴抽出部
が、文字パターンデータの輪郭線を追跡して画素毎の方
向成分を所得すると共に当該輪郭線を閉曲線として抽出
する輪郭線抽出手段と、当該輪郭線の外周を最短で結ぶ
線と当該輪郭線との接点を分割点として当該輪郭線を線
セグメントに分割する輪郭線分割手段と、輪郭線抽出手
段が抽出した輪郭線の数と輪郭線分割手段が所得した分
割点の数とによって文字パターンデータをグループ分け
する文字パターン分類手段とを備えている。In this character recognition device, the feature extraction unit traces the contour line of the character pattern data to obtain the directional component for each pixel, and the contour line extraction means for extracting the contour line as a closed curve, and the contour line. A contour line dividing unit that divides the contour line into line segments with a contact point between the line connecting the outer periphery of the contour and the contour line as a dividing point, the number of contour lines extracted by the contour line extraction unit, and the contour line dividing unit. And a character pattern classifying unit for classifying the character pattern data into groups according to the number of division points obtained.
【0029】しかも、認識部が、文字パターン分類手段
によって分類されたグループの数と等しい数のニューラ
ルネットワーク処理手段を備えると共に、グループ別に
線セグメントの画素毎の方向成分の出現度数を当該線セ
グメント毎にニューラルネットワークに出力するニュー
ラルネット用入力データ作成機能を備えた、等の構成を
採っている。これによって前述した目的を達成しようと
するものである。Moreover, the recognition unit is provided with the same number of neural network processing units as the number of groups classified by the character pattern classifying unit, and the appearance frequency of the direction component for each pixel of the line segment is grouped by group. In addition, it is equipped with a function for creating input data for a neural network that outputs to a neural network. This aims to achieve the above-mentioned object.
【0030】[0030]
【作用】画像入力部が、文字パターンを複数含んだ画像
データ媒体から読み込んでを記憶部に格納すると、切出
し部が、当該画像データを読み出して一文字を単位とし
て画像データから文字パターンデータを切り出す。When the image input unit reads from the image data medium containing a plurality of character patterns and stores it in the storage unit, the cutout unit reads out the image data and cuts out the character pattern data from the image data in units of one character.
【0031】一文字ずつに分離された文字パターンを含
む文字パターンデータが出力されると、文字パターンデ
ータ編集部は、特徴抽出部が要求する前処理を行う。前
処理は、ここでは、ノイズの除去等である。When the character pattern data including the character pattern separated for each character is output, the character pattern data editing unit performs the preprocessing required by the feature extracting unit. The pre-processing here is noise removal or the like.
【0032】次に、輪郭線抽出手段は、前処理の行われ
た文字パターンデータから文字パターンの輪郭線を抽出
する。さらに、輪郭線分割手段は、この輪郭線から分割
点を抽出して、輪郭線を線セグメントに分割する。ま
た、文字パターン分類手段は、処理した文字パターンの
輪郭線の数及び分割点の数に基づいて文字パターンが所
属する文字パターングループを判定する。Next, the contour line extracting means extracts the contour line of the character pattern from the preprocessed character pattern data. Further, the contour line dividing means extracts a division point from the contour line and divides the contour line into line segments. Further, the character pattern classification means determines the character pattern group to which the character pattern belongs based on the number of contour lines and the number of division points of the processed character pattern.
【0033】このグループの判定に応じて、認識部は、
文字パターングループ別に文字コードの判定を行う。さ
らに、判定した文字コードを認識結果として出力する。According to the determination of this group, the recognition unit
The character code is determined for each character pattern group. Further, the determined character code is output as a recognition result.
【0034】[0034]
【実施例】次に本発明について図面を参照して説明す
る。The present invention will be described below with reference to the drawings.
【0035】図1は、本発明による文字データ格納装置
の機能構成を示すブロック図である。従来と同一の各部
及び同一の性質を持つ各データについては同一の符号を
付与すると共に説明を準用する。文字認識装置1は、認
識対象が含まれた画像を撮像すると共にこの撮像した画
像データ52aを記憶部52に格納する画像入力部51
と、当該画像データ52aから文字パターンデータ54
cを抽出する切出し部53と、当該文字パターンデータ
54cの画像の特徴を抽出して認識部20に出力する特
徴抽出部10と、この特徴抽出部10の出力及び予め記
憶部52に登録された文字サンプルデータ6Aとに基づ
いて文字コード57eの識別を行う認識部20とを備え
ている。FIG. 1 is a block diagram showing the functional arrangement of a character data storage device according to the present invention. The same reference numerals are given to the respective parts and the data having the same properties as in the conventional case, and the description is applied correspondingly. The character recognition device 1 captures an image including a recognition target, and stores the captured image data 52 a in the storage unit 52.
And the character pattern data 54 from the image data 52a.
The extraction unit 53 that extracts c, the feature extraction unit 10 that extracts the features of the image of the character pattern data 54c and outputs the features to the recognition unit 20, the output of the feature extraction unit 10, and the registration in the storage unit 52 in advance. The recognition unit 20 is provided for identifying the character code 57e based on the character sample data 6A.
【0036】この文字認識装置1において、特徴抽出部
10は、文字パターンデータ54cの輪郭線11A,1
1B,…を抽出する輪郭線抽出手段11と、当該抽出し
た輪郭線11A,11B,…の特徴に基づいて所定の基
準により当該輪郭線11A,11B,…を線セグメント
12A,12B,…に分割する輪郭線分割手段12と、
輪郭線抽出手段11が抽出した輪郭線11A,11B,
…の数11kと輪郭線分割手段11が線セグメント12
A,12B,…に分割した分割点12jの数12mとに
よって文字パターンデータ54をグループ13A,13
B…に分割する文字パターン分類手段13とを備えてい
る。In the character recognition device 1, the feature extraction unit 10 uses the contour lines 11A, 1 of the character pattern data 54c.
1B, ..., and the contour lines 11A, 11B, ... Are divided into line segments 12A, 12B ,. Contour dividing means 12 for
The contour lines 11A and 11B extracted by the contour line extraction means 11
The number 11k of ... And the contour line dividing means 11 is the line segment 12
The character pattern data 54 is divided into groups 13A, 13A by the number 12m of the division points 12j divided into A, 12B ,.
And a character pattern classification means 13 for dividing into B ...
【0037】しかも、認識部20が、文字パターン分類
手段13によって分類されたグループ13A,13B,
…の数と等しい数の文字コード判定手段21A,21
B,…を備えている。Moreover, the recognition unit 20 causes the character pattern classification means 13 to classify the groups 13A, 13B,
The number of character code determination means 21A, 21 equal to the number of ...
B, ... are provided.
【0038】これを詳細に説明する。特徴抽出部10
は、各手段を動作させることで、文字パターンデータの
輪郭線11Aを取り出すと共に、この輪郭線11Aを線
セグメントに分割する。分割の手法には種々有り、例え
ば、後述する「最外点リスト法」や、また、左上から4
5度の線を右下に移動させていったときに、輪郭線11
Aとの接点及び接していた点の数が増減したときの当該
増加した又は減少した接点を分割点として輪郭線11A
を線セグメント12A,12B,12Cに分割してもよ
い。この分割は、文字の構造によって分割点の数が異な
るような基準であれば、本実施例に採用される。This will be described in detail. Feature extraction unit 10
By operating each means, the contour line 11A of the character pattern data is extracted and the contour line 11A is divided into line segments. There are various methods of division, for example, the “outermost point list method” described later, or 4 from the upper left.
When moving the line of 5 degrees to the lower right, the contour line 11
Contour line 11A with the contact point with A and the contact point increased or decreased when the number of contact points increases or decreases as a dividing point
May be divided into line segments 12A, 12B, 12C. This division is adopted in the present embodiment as long as the number of division points differs depending on the character structure.
【0039】「最外点リスト法」は、輪郭線を分割する
基準の1つである。これを図2及び図3を参照して説明
する。図2は輪郭線を線セグメントに分割する所定の基
準の一例を示す概念説明図である。ちょうど、輪郭線1
1Aに輪ゴムをかけた時に、輪郭線11Aと輪ゴムとが
接する部分を凸、離れる部分を凹とし、各凹凸の境目を
最外点(分割点12j)とする。輪郭線を分割点12j
で分割し、線セグメント12A,12B,12C,12
Dとする。The "outermost point list method" is one of the criteria for dividing the contour line. This will be described with reference to FIGS. FIG. 2 is a conceptual explanatory view showing an example of a predetermined standard for dividing the contour line into line segments. Just contour line 1
When a rubber band is applied to 1A, a portion where the contour line 11A and the rubber band contact each other is convex, and a portion where the contour line 11A and the rubber rubber are apart is concave, and a boundary between the irregularities is an outermost point (division point 12j). Divide the contour line into 12 j
Divided by line segments 12A, 12B, 12C, 12
Let be D.
【0040】輪郭線の線セグメントへの分割は、具体的
には、図3に示すように、まず、最外点(分割点12
j)の候補となる、輪郭線11A上の点を求める。この
候補点は、文字パターンを内付する正16角形を縮小さ
せたときに、輪郭線11Aと正16角形の各辺が最初に
接する点である。正16角形は、輪ゴムの代わりであ
る。輪郭線11Aの開始点から順に、候補点2点を通る
直線を引く。Specifically, as shown in FIG. 3, the contour line is divided into line segments by first dividing the outermost point (dividing point 12
A point on the contour line 11A, which is a candidate of j), is obtained. This candidate point is a point at which the contour line 11A and each side of the regular hexagon first come into contact when the regular hexagon having the character pattern is reduced. A regular hexagon is an alternative to rubber bands. A straight line passing through the two candidate points is drawn in order from the start point of the contour line 11A.
【0041】輪郭線11Aは左回りで求められているの
で、直線を境に、輪郭線11Aの凹凸側は一意に決る。
次に、候補点2点間の輪郭線11A上の各点から直線ま
での距離を求める。距離が1以上である凹側の点が、候
補点2点間の輪郭線11A全体の1/4以上あれば、そ
の候補点2点を最外点とし、2点間の輪郭線11Aを線
セグメント12Aとする。なければ、凸の線セグメント
とする。凸の線セグメント12Aが連続していれば、一
つの線セグメント12Aとする。Since the contour line 11A is calculated counterclockwise, the uneven side of the contour line 11A is uniquely determined with the straight line as the boundary.
Next, the distance from each point on the contour line 11A between the two candidate points to the straight line is obtained. If the point on the concave side where the distance is 1 or more is 1/4 or more of the entire contour line 11A between the two candidate points, the two candidate points are the outermost points and the contour line 11A between the two points is a line. Let it be segment 12A. If not, it is a convex line segment. If the convex line segment 12A is continuous, it is set as one line segment 12A.
【0042】文字パターン分類手段13が、文字パター
ンデータ54cを輪郭線の数11k及び分割点の数12
mとでグループ13A,13B,…と分類する。輪郭線
数11kは、文字パターンの穴部の有無に対応し、分割
数12mは、文字の構造の特徴に対応する。前述した輪
郭線の線セグメントへの分割の手法は、このように、文
字の構造特徴を抽出する手法であればどのような分割手
法でも良い。しかしながら、この分割点の決定手法によ
って文字認識の認識率が上下するため、本実施例では、
最も望ましい認識率を得ることができた「最外点リスト
法」を採用している。The character pattern classification unit 13 converts the character pattern data 54c into the number of contour lines 11k and the number of division points 12
m is classified into groups 13A, 13B, .... The number of contour lines 11k corresponds to the presence / absence of holes in the character pattern, and the number of divisions 12m corresponds to the characteristics of the character structure. As described above, the method of dividing the contour line into line segments may be any method as long as it is a method of extracting the structural feature of the character. However, since the recognition rate of character recognition increases or decreases depending on the method of determining the division points, in the present embodiment,
The "outermost point list method" that can obtain the most desirable recognition rate is adopted.
【0043】また、文字パターン分類手段13が輪郭線
の数11k及び分割点の数12mとでグループ13A,
13B,…と分類するため、図4に示すように、同一の
文字コード57eであっても、異なるグループに属する
場合もある。「2」の手書き文字である輪郭線11A
は、輪郭線1本で分割点が4個の文字パターングループ
13Aに属し、同じく輪郭線11Bは輪郭線1本で分割
点が6個のグループ13bに属する。認識部20は、こ
のグループ13A,13B,…別に文字コード57eの
判定を行う。そのため、同一の文字であって構成が大幅
に異なる手書き文字は、その構造に応じて文字サンプル
データ6A,6Bと照合される。Further, the character pattern classification means 13 determines the groups 13A and 11k by the number of contour lines 11k and the number of division points 12m.
In order to classify 13B, ..., As shown in FIG. 4, even the same character code 57e may belong to different groups. Contour line 11A that is a handwritten character of "2"
Indicates a character pattern group 13A having one contour line and four division points. Similarly, the contour line 11B belongs to a group 13b having one contour line and six division points. The recognition unit 20 determines the character code 57e for each of the groups 13A, 13B, .... Therefore, handwritten characters that are the same but have significantly different configurations are collated with the character sample data 6A and 6B according to the structure.
【0044】認識部20は、文字パターングループ13
A,13B,…の数と等しい数の文字コード判定手段2
1A,21B,…を備えいる。また照合の対象となる文
字サンプルデータ6A,6B,…は、特徴抽出部10を
経由して予め作成されていて、記憶部52の所定の領域
に格納されている。文字サンプルデータ6A,6B,…
は、文字パターングループ13A,13B,…に対応し
て、グループ化されている。文字コード判定手段21
A,21B,…も種々の種法が有り、従来例同様、「疑
似ベイズ識別関数」を用いても良い。この場合、線セグ
メントの方向指数を基礎とした特徴抽出をして、この特
徴値を照合する。また、後述のように、文字コードの判
定にニューラルネットワークを用いてもよい。The recognition unit 20 uses the character pattern group 13
The number of character code determination means 2 equal to the number of A, 13B, ...
It is equipped with 1A, 21B, .... The character sample data 6A, 6B, ... To be collated is created in advance via the feature extraction unit 10 and stored in a predetermined area of the storage unit 52. Character sample data 6A, 6B, ...
Are grouped in correspondence with the character pattern groups 13A, 13B, .... Character code determination means 21
There are various seed methods for A, 21B, ... And the "pseudo Bayes discriminant function" may be used as in the conventional example. In this case, feature extraction is performed based on the direction index of the line segment, and this feature value is collated. Further, as described later, a neural network may be used to determine the character code.
【0045】次に、文字認識装置1の処理フローを、図
5を参照して説明すると共に、各種データの性質を図6
を参照して説明する。Next, the processing flow of the character recognition device 1 will be described with reference to FIG. 5, and the properties of various data will be described with reference to FIG.
Will be described with reference to.
【0046】画像入力部51が、文字パターン13nを
複数含んだ画像データ52a媒体から読み込んでを記憶
部52に格納すると(ステップS1)、切出し部53
が、当該画像データ52aを読み出して一文字を単位と
して画像データ52から文字パターンデータ53cを切
り出す(ステップS2)。When the image input unit 51 reads the image data 52a containing a plurality of character patterns 13n from the medium and stores it in the storage unit 52 (step S1), the cutout unit 53 is formed.
However, the image data 52a is read and the character pattern data 53c is cut out from the image data 52 in units of one character (step S2).
【0047】一文字を単位に分離された文字パターン1
3nを含む文字パターンデータ53cが出力されると、
文字パターンデータ編集部54は、特徴抽出部10が要
求する前処理を行う(ステップS3)。前処理は、ここ
では、ノイズの除去などである。Character pattern 1 separated for each character
When the character pattern data 53c including 3n is output,
The character pattern data editing unit 54 performs the preprocessing requested by the feature extraction unit 10 (step S3). The pre-processing here is noise removal or the like.
【0048】次に、輪郭線抽出手段11は、前処理の行
われた文字パターンデータ53cから文字パターン13
nの輪郭線11Aを抽出する(ステップS4)。さら
に、輪郭線分割手段12は、この輪郭線11Aから分割
点12jを抽出して、輪郭線11Aを線セグメント12
A,12B,12c,…に分割する。また、文字パター
ン分類手段13は、処理した文字パターン13nの輪郭
線の数11k及び分割点の数12mに基づいて文字パタ
ーンが所属する文字パターングループ13Aを判定する
(ステップS6)。Next, the contour line extracting means 11 extracts the character pattern 13 from the preprocessed character pattern data 53c.
The n contour lines 11A are extracted (step S4). Further, the contour line dividing means 12 extracts the dividing points 12j from the contour line 11A to convert the contour line 11A into line segments 12a.
It is divided into A, 12B, 12c, .... Further, the character pattern classification unit 13 determines the character pattern group 13A to which the character pattern belongs based on the number 11k of contour lines and the number 12m of division points of the processed character pattern 13n (step S6).
【0049】このグループの判定に応じて、認識部20
は、文字パターングループ13A,13B,13c,…
別に文字コードの判定を行う(ステップS7)。さら
に、当該判定した文字コードを認識結果として出力する
(ステップS8)。According to the determination of this group, the recognition unit 20
Is a character pattern group 13A, 13B, 13c, ...
The character code is determined separately (step S7). Further, the determined character code is output as a recognition result (step S8).
【0050】請求項1及び2記載の発明に対応する上述
した第一実施例は、輪郭線分割手段12及び文字コード
判定手段21A,21B…の具体例によっては限定され
ない。重要なのは、輪郭線を、所定の基準によって線セ
グメントに分割し、この輪郭線の数及び線セグメントの
数とによって文字パターンデータのグループ分けを行う
点であると共に、認識部20が、文字パターンのグルー
プ毎に、別々のサンプルデータを用いて文字コードの判
定を行うことである。この線セグメントを単位に特徴抽
出を行うことと、文字の構造に応じたグループ分けをし
た後に、それぞれのグループで照合を行うことで、従来
の文字認識装置の手法を採用したまま、文字の形状及び
構造が多様である手書き文字認識の認識率を向上させる
ことができ、また、高い認識率を一定に維持することが
できる。The above-described first embodiment corresponding to the first and second aspects of the present invention is not limited by the concrete examples of the contour dividing means 12 and the character code judging means 21A, 21B. What is important is that the contour line is divided into line segments according to a predetermined standard, and the character pattern data is grouped according to the number of contour lines and the number of line segments. This is to determine the character code by using different sample data for each group. By performing feature extraction in units of this line segment, grouping according to the structure of the character, and then performing collation in each group, the shape of the character can be maintained while adopting the conventional character recognition method. Further, the recognition rate of handwritten character recognition having various structures can be improved, and a high recognition rate can be maintained constant.
【0051】また、特徴抽出部が、線セグメントを単位
に特徴値を抽出するため、従来例のように4方向ではな
く、8方向の方向成分に基づいて文字認識を行うことが
できる。そのため、文字のストローク及び曲率を高精度
で特徴値とすることができ、認識率が大幅に向上する。Further, since the feature extraction unit extracts the feature value in units of line segments, it is possible to perform character recognition based on directional components in eight directions instead of the four directions as in the conventional example. Therefore, the stroke and curvature of the character can be used as the feature value with high accuracy, and the recognition rate is significantly improved.
【0052】第二実施例を図7乃至図9に基づいて説明
する。A second embodiment will be described with reference to FIGS. 7 to 9.
【0053】第二実施例では、認識部20における文字
コードの判定にニューラルネットワークを用いている。
また、特徴抽出部10は、このニューラルネットワーク
がもたらす効果を最大限に引き出すように構成されてい
る。他の各部の構成及び動作は従来例及び第一実施例と
ほぼ同様である。In the second embodiment, a neural network is used to determine the character code in the recognition section 20.
The feature extraction unit 10 is also configured to maximize the effect of this neural network. The configurations and operations of the other parts are almost the same as those of the conventional example and the first embodiment.
【0054】第二実施例において特徴抽出部10は、文
字パターンデータ54cの輪郭線11Aを追跡して画素
毎の方向成分を所得すると共に当該輪郭線11Aを閉曲
線として抽出する輪郭線抽出手段11と、当該輪郭線1
1A,11B,…の外周を最短で結ぶ線と当該輪郭線1
1A,11B,…との接点を分割点12jとして当該輪
郭線11Aを線セグメント12A,12B,…に分割す
る輪郭線分割手段12と、輪郭線抽出手段11が抽出し
た輪郭線の数11kと輪郭線分割手段12が所得した分
割点の数12mとによって文字パターンデータ54cを
グループ分けする文字パターン分類手段13とを備えて
いる。In the second embodiment, the feature extraction unit 10 traces the contour line 11A of the character pattern data 54c to obtain the directional component for each pixel, and the contour line extraction means 11 for extracting the contour line 11A as a closed curve. , The contour line 1
A line connecting the outer circumferences of 1A, 11B, ...
The contour line dividing unit 12 that divides the contour line 11A into line segments 12A, 12B, ... Using the contact points with 1A, 11B, ... As the dividing points 12j, the number of contour lines 11k extracted by the contour line extracting unit 11, and the contour line The character dividing means 12 is provided with a character pattern classifying means 13 that divides the character pattern data 54c into groups according to the number of dividing points 12m obtained by the line dividing means 12.
【0055】しかも、認識部20が、文字パターン分類
手段13によって分類されたグループの数と等しい数の
ニューラルネットワーク処理手段22Aを備えると共
に、グループ別に線セグメントの画素毎の方向成分の出
現度数を当該線セグメント毎にニューラルネットワーク
処理手段22Aに出力するニューラルネット用入力デー
タ作成機能23を備えている。Moreover, the recognition unit 20 is provided with the same number of neural network processing units 22A as the number of groups classified by the character pattern classifying unit 13, and the frequency of appearance of the direction component for each pixel of the line segment is classified by group. A neural network input data creation function 23 for outputting to the neural network processing means 22A for each line segment is provided.
【0056】これを詳細に説明する。第二実施例では、
線セグメント12Aの方向成分の出現度数(ヒストグラ
ム)を文字コード判定に用いる特徴値として採用してい
る。輪郭線抽出手段12は、例えば、文字パターンデー
タ54cの左上の画素から水平方向にスキャンしてい
き、画素のオン・オフの配列を生成して、この配列から
輪郭線の座標をリストアップする。この輪郭線の座標か
ら、図8にに示すように、輪郭線の方向成分を求める。
ここでは、外側境界の輪郭線を左回りで追跡したため、
方向成分は図8(B)に示すように、分割点から左回り
に8方向で生成される。図8(A)に示すように、輪郭
線が左下に接続されるのであればその方向成分は「2」
であり、下方向に接続されていればその方向成分は
「3」である。また、閉曲線はその曲線の最も上部の画
素で、同一の高さの画素が複数有るときは最も左側の画
素を開始点として方向成分が採られる。This will be described in detail. In the second embodiment,
The appearance frequency (histogram) of the direction component of the line segment 12A is adopted as a feature value used for character code determination. For example, the contour line extraction unit 12 scans horizontally from the upper left pixel of the character pattern data 54c to generate an ON / OFF array of pixels, and lists the coordinates of the contour line from this array. From the coordinates of the contour line, the direction component of the contour line is obtained as shown in FIG.
Here, since we traced the outline of the outer boundary counterclockwise,
Direction components are generated in eight directions counterclockwise from the division point, as shown in FIG. As shown in FIG. 8A, if the contour line is connected to the lower left, the direction component is "2".
, And the direction component is “3” if connected downward. The closed curve is the uppermost pixel of the curve, and when there are a plurality of pixels of the same height, the direction component is taken with the leftmost pixel as the starting point.
【0057】輪郭線分割手段12は、第一実施例と同様
の手法で輪郭線を線セグメントに分割する。線セグメン
ト12Aに分割したのち、この輪郭線分割手段12は輪
郭線11Aに附随していた方向成分のデータから、例え
ば、図8(B)に示した線セグメント12Aであれば、
この線セグメント12Aの方向成分の出現度数(ヒスト
グラム)を算出する。これを図8(C)に示した。この
例では、左下方向へ輪郭線が進行する画素(方向成分
「2」)が3回出現し、下方向へ輪郭線が進行する画素
(方向成分「3」)が2回出現している。The contour line dividing means 12 divides the contour line into line segments by the same method as in the first embodiment. After the line segment 12A is divided, the contour line dividing unit 12 determines from the data of the direction component attached to the contour line 11A that the line segment 12A shown in FIG.
The appearance frequency (histogram) of the direction component of this line segment 12A is calculated. This is shown in FIG. 8 (C). In this example, a pixel whose contour line advances downward leftward (direction component "2") appears three times, and a pixel whose contour line advances downward (direction component "3") appears twice.
【0058】第一実施例と同様、文字パターンデータ分
割手段13が、輪郭線数11kと、分割点数12m(線
セグメント数)とでグループ分けをする。この処理によ
り、同一の文字でも異なる特徴のパターン別に分類する
ことができる。類似する構造の文字パターンを前提に文
字コードの判定を行うため、正解の候補となる字種を絞
った上で文字認識を行うことができる。端的な例として
は、輪郭線2本分割点1個のグループは字種0ひとつと
なる。(穴部が一つ潰れた「8」とは分割点が異なる)Similar to the first embodiment, the character pattern data dividing means 13 divides the group into the number of contour lines 11k and the number of division points 12m (the number of line segments). By this processing, even the same character can be classified according to patterns having different characteristics. Since the character code is determined based on the character patterns having similar structures, it is possible to perform character recognition after narrowing down the character types that are candidates for correct answers. As a straightforward example, a group of two contour lines and one division point has one character type 0. (Division points are different from "8", which has one hole collapsed)
【0059】認識部20は、図8に示すように、文字パ
ターングループの分離に応じて、各グループごとのニュ
ーラルネットワークを用いて文字を識別する。各線セグ
メント毎の方向成分表(方向成分のヒストグラム)を、
0.0から1.0まで正規化した値がニューラルネット
ワーク処理手段への入力データである。方向成分は8次
元であるので、線セグメント数(分割点数)*8が入力
次元となる。As shown in FIG. 8, the recognizing unit 20 identifies a character according to the separation of character pattern groups by using a neural network for each group. The direction component table (direction component histogram) for each line segment
The value normalized from 0.0 to 1.0 is the input data to the neural network processing means. Since the direction component has 8 dimensions, the number of line segments (the number of division points) * 8 is the input dimension.
【0060】また、切出し部にニューラルネットワーク
処理を用いた場合、ニューロは並列処理であるため、文
字切出し機能を単位とするニューラルネットワークに対
し、文字認識機能を単位とする本実施例からフィードバ
ックするように構成してもよい。例えば、平仮名など1
ストロークで書かれない文字が有る場合(例えば
「い」)切出しを失敗する可能性が有る。しかし、
「い」の右側の点は、文字認識も失敗する可能性が高
い。この場合、本実施例にかかるニューラルネットワー
クから切出し部のニューラルネットワークへ、切出しが
失敗ではないかというフィードバックを行うように構成
してもよい。Further, when the neural network processing is used for the cutout section, since the neuron is parallel processing, the neural network having the character cutout function as a unit is fed back from this embodiment having the character recognition function as a unit. You may comprise. For example, Hiragana 1
If there is a character that cannot be written with a stroke (for example, "i"), the cutout may fail. But,
The point to the right of "i" is likely to fail in character recognition. In this case, the neural network according to the present embodiment may be configured to provide feedback to the neural network of the clipping unit as to whether the clipping has failed.
【0061】上述したように、第二実施例によると、並
列処理であるため処理速度が高速であり、また、文字サ
ンプルデータから自己組織化によって学習するため、文
字認識に係る詳細な手順を(プログラムを)作成する必
要もなく、さらに、パターン認識に関する情報処理では
高い精度を誇る、ニューラルネットワークによる情報処
理がもたらす効果を最大限に引き出し、これを享受する
ため、認識率を向上させると共にこの高い認識率を一定
に維持することができる。As described above, according to the second embodiment, the parallel processing has a high processing speed, and since the learning is performed from the character sample data by self-organization, the detailed procedure concerning the character recognition will be described. There is no need to write a program), and the information processing by pattern recognition, which boasts high accuracy in information processing related to pattern recognition, brings out the maximum effect of information processing by a neural network and enjoys it. The recognition rate can be kept constant.
【0062】また、ペン入力コンピュータで行われる文
字認識に、この文字認識装置を採用してもよい。Further, this character recognition device may be adopted for character recognition performed by the pen input computer.
【0063】[0063]
【発明の効果】本発明は以上のように構成され機能する
ので、これによると、輪郭線分割手段が、文字パターン
の輪郭線を分割するため、認識部が、線セグメントを1
単位とした特徴値で文字コードの照合をすることがで
き、このため、形状が多様な文字パターンが認識対象で
あっても、文字の輪郭方向や曲率に基づいた照合を行う
ことができる。そのため、文字コードの照合の性能が大
幅に向上し、認識率を飛躍的に向上させることができ
る。また、文字パターン分類手段が、文字パターンの輪
郭線の数及び分割点の数とで文字パターンをグループ分
けするため、認識部が、この文字パターンのグループ毎
に文字コードの判定をすることが可能となり、このた
め、認識対象の文字の構造が多種であっても、文字の形
状によって分類した後に、個別のグループで照合するこ
とで、認識率を飛躍的に向上させると共にこの高い認識
率を一定に維持することができる従来にない極めて優れ
た文字認識装置を提供することができる。Since the present invention is constructed and functions as described above, according to this, since the contour line dividing means divides the contour line of the character pattern, the recognition unit divides the line segment into one.
The character code can be collated with the characteristic value as a unit, and therefore, even if the character pattern having various shapes is the recognition target, the collation can be performed based on the contour direction and curvature of the character. Therefore, the performance of collating character codes is significantly improved, and the recognition rate can be dramatically improved. Further, the character pattern classifying unit divides the character patterns into groups according to the number of contour lines of the character pattern and the number of division points, so that the recognition unit can determine the character code for each group of the character patterns. Therefore, even if there are various types of character structures to be recognized, it is possible to dramatically improve the recognition rate by classifying them according to the shape of the character and then collating them in individual groups. It is possible to provide an extremely excellent character recognition device that can be maintained at the above level.
【図1】本発明の一実施例の構成を示す機能ブロック図
である。FIG. 1 is a functional block diagram showing the configuration of an embodiment of the present invention.
【図2】特徴抽出部における輪郭線の分割の一例の動作
概念を示す説明図である。FIG. 2 is an explanatory diagram showing an operation concept of an example of dividing a contour line in a feature extraction unit.
【図3】輪郭線分割手段の図2に示した動作の具体的な
処理例を示す説明図である。FIG. 3 is an explanatory diagram showing a specific processing example of the operation shown in FIG. 2 of the contour line dividing means.
【図4】同一文字のコードであるが異なるグループに属
する文字パターンデータの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of character pattern data having the same character code but belonging to different groups.
【図5】第一実施例の動作を示す流れ図である。FIG. 5 is a flowchart showing the operation of the first embodiment.
【図6】データの性質を示す説明図である。FIG. 6 is an explanatory diagram showing the nature of data.
【図7】第二実施例の構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a second embodiment.
【図8】線セグメントの方向成分を示す説明図で、
(A)は方向成分の符号化を示し、(B)は輪郭線の方
向成分を示し、(C)は方向成分の出現度数を示す説明
図である。FIG. 8 is an explanatory diagram showing direction components of a line segment,
(A) shows the encoding of the direction component, (B) shows the direction component of the contour line, and (C) is an explanatory diagram showing the appearance frequency of the direction component.
【図9】第二実施例における認識部の構成の一部を示す
説明図である。FIG. 9 is an explanatory diagram showing a part of the configuration of a recognition unit in the second embodiment.
【図10】従来例の構成を示す機能ブロック図である。FIG. 10 is a functional block diagram showing a configuration of a conventional example.
【図11】従来例における特徴抽出部の動作を示す説明
図である。FIG. 11 is an explanatory diagram showing an operation of a feature extraction unit in a conventional example.
10 特徴抽出部 11 輪郭線抽出手段 11A 輪郭線 11k 輪郭線の数 12 輪郭線分割手段 12A 線セグメント 12j 分割点 12m 分割点の数 13 文字パターン分類手段 13C 文字パターンデータのグループ 20 認識部 21A 判定手段 22A ニューラルネットワーク処理手段 23 ニューラルネット用入力データ作成機能 51 画像入力部 52 画像記憶部 52a 画像データ 53 切出し部 54c 文字パターンデータ 56d 文字サンプル 57e 文字コード 10 Feature Extraction Unit 11 Contour Line Extraction Means 11A Contour Lines 11k Number of Contour Lines 12 Contour Line Division Means 12A Line Segments 12j Division Points 12m Number of Division Points 13 Character Pattern Classification Means 13C Group of Character Pattern Data 20 Recognition Units 21A Judgment Means 22A Neural network processing means 23 Neural network input data creation function 51 Image input section 52 Image storage section 52a Image data 53 Cutout section 54c Character pattern data 56d Character sample 57e Character code
Claims (3)
にこの撮像した画像データを記憶部に格納する画像入力
部と、当該画像データから文字パターンデータを抽出す
る切出し部と、当該文字パターンデータの画像の特徴を
抽出して認識部に出力する特徴抽出部と、この特徴抽出
部の出力及び予め前記記憶部に登録された文字サンプル
データとに基づいて文字コードの識別を行う認識部とを
備えた文字認識装置において、 前記特徴抽出部が、文字パターンデータの輪郭線を抽出
する輪郭線抽出手段と、当該抽出した輪郭線の特徴に基
づいて所定の基準により当該輪郭線を線セグメントに分
割する輪郭線分割手段と、前記輪郭線抽出手段が抽出し
た輪郭線の数と前記輪郭線分割手段が線セグメントに分
割した分割点の数とによって文字パターンデータをグル
ープ分けする文字パターン分類手段とを備え、 前記認識部が、前記文字パターン分類手段によって分類
されたグループの数と等しい数の文字コード判定手段を
備えたことを特徴とする文字認識装置。1. An image input unit that captures an image including a recognition target and stores the captured image data in a storage unit, a cutout unit that extracts character pattern data from the image data, and the character pattern data. A feature extraction unit that extracts the features of the image and outputs it to the recognition unit, and a recognition unit that identifies the character code based on the output of the feature extraction unit and the character sample data registered in the storage unit in advance. In the character recognition device provided, the feature extraction unit divides the contour line into line segments according to a predetermined criterion based on the feature of the extracted contour line and a contour line extraction unit that extracts the contour line of the character pattern data. A character pattern according to the contour dividing means, the number of contours extracted by the contour extracting means, and the number of division points divided into line segments by the contour dividing means. Character recognition means for grouping the data into groups, wherein the recognition section comprises a number of character code determination means equal to the number of groups classified by the character pattern classification means. .
周を最短で結ぶ線と当該輪郭線の接点を分割点とした最
外点リスト機能を有することを特徴とした請求項1記載
の文字認識装置。2. The outermost point list function according to claim 1, wherein the contour line dividing means has a function of listing the outermost points of a line connecting the outer circumference of the contour line in the shortest and a contact point of the contour line as a division point. Character recognizer.
にこの撮像した画像データを記憶部に格納する画像入力
部と、当該画像データから文字パターンデータを抽出す
る切出し部と、当該文字パターンデータの画像の特徴を
抽出して認識部に出力する特徴抽出部と、この特徴抽出
部の出力及び予め前記記憶部に登録された文字サンプル
データとに基づいて文字コードの識別を行う認識部とを
備えた文字認識装置において、 前記特徴抽出部が、文字パターンデータの輪郭線を追跡
して画素毎の方向成分を所得すると共に当該輪郭線を閉
曲線として抽出する輪郭線抽出手段と、当該輪郭線の外
周を最短で結ぶ線と当該輪郭線との接点を分割点として
当該輪郭線を線セグメントに分割する輪郭線分割手段
と、前記輪郭線抽出手段が抽出した輪郭線の数と前記輪
郭線分割手段が所得した分割点の数とによって文字パタ
ーンデータをグループ分けする文字パターン分類手段と
を備え、 前記認識部が、前記文字パターン分類手段によって分類
されたグループの数と等しい数のニューラルネットワー
ク処理手段を備えると共に、前記グループ別に線セグメ
ントの画素毎の方向成分の出現度数を当該線セグメント
毎に前記ニューラルネットワークに出力するニューラル
ネット用入力データ作成機能を備えたことを特徴とする
文字認識装置。3. An image input unit that captures an image including a recognition target and stores the captured image data in a storage unit, a cutout unit that extracts character pattern data from the image data, and the character pattern data. A feature extraction unit that extracts the features of the image and outputs it to the recognition unit, and a recognition unit that identifies the character code based on the output of the feature extraction unit and the character sample data registered in the storage unit in advance. In the character recognition device, the feature extraction unit traces the contour line of the character pattern data, obtains the directional component for each pixel, and extracts the contour line as a closed curve; A contour line dividing unit that divides the contour line into line segments with a contact point between the line connecting the outer circumferences at the shortest and the contour line as a dividing point, and a contour line extracted by the contour line extraction unit. And a character pattern classifying unit that classifies the character pattern data into groups according to the number of division points obtained by the contour dividing unit, and the recognition unit has a number equal to the number of groups classified by the character pattern classifying unit. And the neural network input data creation function for outputting the appearance frequency of the direction component for each pixel of the line segment for each group to the neural network. Character recognizer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5326336A JPH07152863A (en) | 1993-11-30 | 1993-11-30 | Character recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5326336A JPH07152863A (en) | 1993-11-30 | 1993-11-30 | Character recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07152863A true JPH07152863A (en) | 1995-06-16 |
Family
ID=18186643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5326336A Withdrawn JPH07152863A (en) | 1993-11-30 | 1993-11-30 | Character recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07152863A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022151387A (en) * | 2021-03-27 | 2022-10-07 | 知行 宍戸 | Method for generating music information from musical score image and computing device thereof and program |
-
1993
- 1993-11-30 JP JP5326336A patent/JPH07152863A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022151387A (en) * | 2021-03-27 | 2022-10-07 | 知行 宍戸 | Method for generating music information from musical score image and computing device thereof and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kashyap et al. | Automatic number plate recognition | |
Kim et al. | An architecture for handwritten text recognition systems | |
Kumar et al. | A detailed review of feature extraction in image processing systems | |
Konidaris et al. | Keyword-guided word spotting in historical printed documents using synthetic data and user feedback | |
US5475768A (en) | High accuracy optical character recognition using neural networks with centroid dithering | |
Anagnostopoulos et al. | License plate recognition from still images and video sequences: A survey | |
Blumenstein et al. | A modified direction feature for cursive character recognition | |
Lehal et al. | Feature extraction and classification for OCR of Gurmukhi script | |
CN111444907A (en) | Character recognition method, device, equipment and storage medium | |
Ntzios et al. | An old greek handwritten OCR system based on an efficient segmentation-free approach | |
Kumar et al. | Offline Text-independent writer Identification based on word level data | |
Angadi et al. | Euclidean distance based offline signature recognition system using global and local wavelet features | |
Ali et al. | Different handwritten character recognition methods: a review | |
Bania et al. | Handwritten assamese character recognition using texture and diagonal orientation features with artificial neural network | |
Jayanthi et al. | A review on recognizing offline Tamil manuscript character | |
Jia et al. | Grayscale-projection based optimal character segmentation for camera-captured faint text recognition | |
JPH07152863A (en) | Character recognizing device | |
Sajedi et al. | Persian handwritten number recognition using adapted framing feature and support vector machines | |
Lee et al. | Combining macro and micro features for writer identification | |
Saidi et al. | Recognition of offline handwritten Arabic words using a few structural features | |
Phuong et al. | An efficient model for isolated Vietnamese handwritten recognition | |
Huque et al. | Comparative Study of KNN, SVM and SR Classifiers in Recognizing Arabic Handwritten Characters Employing Feature Fusion | |
Mahar et al. | Comparative study of feature extraction methods with K-NN for off-line signature verification | |
Basil et al. | Comparative analysis of MSER and DTW for offline signature recognition | |
Patil et al. | Online handwritten Sanskrit character recognition using support vector classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20010130 |