JPH07109612B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JPH07109612B2
JPH07109612B2 JP60140426A JP14042685A JPH07109612B2 JP H07109612 B2 JPH07109612 B2 JP H07109612B2 JP 60140426 A JP60140426 A JP 60140426A JP 14042685 A JP14042685 A JP 14042685A JP H07109612 B2 JPH07109612 B2 JP H07109612B2
Authority
JP
Japan
Prior art keywords
pattern
character
original
circuit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP60140426A
Other languages
Japanese (ja)
Other versions
JPS622382A (en
Inventor
健一 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP60140426A priority Critical patent/JPH07109612B2/en
Publication of JPS622382A publication Critical patent/JPS622382A/en
Publication of JPH07109612B2 publication Critical patent/JPH07109612B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、パターンデータから特徴を抽出するための画
像処理方法に関するものである。
The present invention relates to an image processing method for extracting features from pattern data.

[開示の概要] 本明細書及び図面は、図形パターンから所定方向のスト
ロークを抽出する画像処理方法、特にパターンの特徴抽
出装置において、原図形パターンを前記所定方向から所
定の角度ずれた方向に平行移動して得た図形パターンと
原図形パターンの画素同士とに所定の論理演算をして得
た二次元パターンを原図形パターンの前記所定方向のス
トロークとする事により、少ない処理手順と、小さい装
置規模で、原図形の文字線巾変動や文字の位置変動の影
響を減少せしめて、パターンの特徴を抽出する技術を開
示する。
[Summary of Disclosure] The present specification and the drawings show an image processing method for extracting strokes in a predetermined direction from a graphic pattern, and particularly in a pattern feature extraction apparatus, an original graphic pattern is parallel to a direction deviated from the predetermined direction by a predetermined angle. By using a two-dimensional pattern obtained by performing a predetermined logical operation between the figure pattern obtained by moving and the pixels of the original figure pattern as the stroke of the original figure pattern in the predetermined direction, a small processing procedure and a small device Disclosed is a technique for reducing the influence of character line width variation and character position variation of an original figure on a scale, and extracting a feature of a pattern.

[従来の技術] 従来、活字等の定形文字を読み取り認識する例えば光学
的文字認識装置等において、識別判定処理を行う場合、
入力図形と、辞書メモリ中に格納された標準文字図形と
を重ね合わせ、その重なり度が最大となる標準文字を認
識結果として出力するという、いわゆるテンプレートマ
ツチング法が広く採用されている。しかし、テンプレー
トマツチング法は当然ながら入力図形パターンと辞書図
形パターンとの正確な位置合わせが必要であり、文字線
巾が変動すると、図形の重なり度が大きく影響を受ける
ために、入力図形を得るための原図形の2値化を慎重に
行う必要があった。又、二次元図形同士のマッチングを
行う故に、辞書パターンは2次元パターンとしてもつ必
要があり、そのため辞書メモリ容量が増大する等の欠点
が存在する。
[Prior Art] Conventionally, when performing identification determination processing in, for example, an optical character recognition device by reading and recognizing fixed characters such as printed characters,
A so-called template matching method has been widely adopted in which an input figure and a standard character figure stored in a dictionary memory are superposed and a standard character having the maximum degree of overlap is output as a recognition result. However, the template matching method naturally requires accurate alignment between the input figure pattern and the dictionary figure pattern, and if the character line width changes, the degree of overlapping of figures is greatly affected, so the input figure is obtained. Therefore, it was necessary to carefully binarize the original figure. Further, since the two-dimensional figures are matched with each other, it is necessary to have the dictionary pattern as a two-dimensional pattern, which causes a drawback that the dictionary memory capacity increases.

上記欠点を補うため、辞書パターンを単なる2値のテン
プレートではなく、黒画素領域と白画素領域の間に、
白、黒どちらでもよいという遷移領域を設け、3値テン
プレートとする方法がとられる場合があるが、辞書メモ
リ容量は更に増大し不適当である。
In order to make up for the above-mentioned drawback, the dictionary pattern is not just a binary template, but between the black pixel area and the white pixel area,
There is a case where a transition region that allows either white or black is provided and a three-valued template is used, but the dictionary memory capacity is further increased, which is inappropriate.

また、入力文字の線巾変動の影響を減少させ図形の構造
的特徴も取り入れるために、与えられた図形パターンよ
り特定方向のストロークを抽出し、それら抽出されたス
トロークの相互関係等を用いて該図形の特徴量を求める
事が必要となる。その場合に、例えば文字認識装置を例
にとれば、一般に次のようなストローク抽出方式が広く
採用されている。それは文字図形の輪郭を追跡し検出さ
れた輪郭点系列について、その曲率、傾き等から所定ス
トロークを検出し抽出する方式、或いは、前記文字図形
を第2図(a),(b)に示すような3×3の微分フイ
ルタを用いて走査することにより、特定の傾きを持つ輪
郭成分を検知し抽出する方式等である。
Further, in order to reduce the influence of the line width variation of the input characters and to incorporate the structural features of the figure, the strokes in a specific direction are extracted from the given figure pattern, and the mutual relationship between the extracted strokes is used to extract the strokes. It is necessary to find the feature quantity of the figure. In that case, for example, in the case of a character recognition device, the following stroke extraction method is generally widely used. It is a method of tracing a contour of a character figure to detect and extract a predetermined stroke from the curvature, inclination and the like of the detected contour point series, or the character figure as shown in FIGS. 2 (a) and 2 (b). In this method, a contour component having a specific inclination is detected and extracted by scanning with a 3 × 3 differential filter.

しかし前者の方式においては、文字図形パターンが大き
くなり、又は複雑化すると輪郭追跡の処理量が増大し、
また検出された輪郭点系列に対し、更に傾き、長さ、接
続関係を求める処理を行つて、初めてストロークが検出
されるといつた欠点が存在する。また、後者の方式にお
いては、フイルタ走査に手間がかかり、しかも画像サイ
ズが増大すると処理時間が飛躍的に増加するといつた欠
点がある。
However, in the former method, when the character / graphic pattern becomes large or becomes complicated, the processing amount of contour tracking increases,
Further, there is a drawback when the stroke is detected for the first time by further performing processing for obtaining the inclination, the length, and the connection relationship on the detected contour point series. Further, the latter method has a drawback that it takes a lot of time to scan the filter, and the processing time increases dramatically as the image size increases.

[発明が解決しようとする問題点] 上述した従来例の問題点は、結局図形の特徴の抽出を入
力図形の変動等があっても如何に効率よく行うかという
問題に帰結できる。そこで、本発明の目的は、少ない処
理手順と、小さい装置規模で文字線巾変動や文字の位置
変動を影響を減少せしめるような画像処理方法を提供す
ることにある。
[Problems to be Solved by the Invention] The above-mentioned problems of the conventional example can be attributed to the problem of how to efficiently extract the characteristics of the graphic even if the input graphic varies. Therefore, an object of the present invention is to provide an image processing method capable of reducing the influence of character line width variation and character position variation with a small processing procedure and a small device scale.

[問題点を解決するための手段] 上記課題を達成するための本発明の画像処理方法の構成
は、 原図形パターンを所定の方向にずらした図形パターンを
作成し、 前記原図形パターンと前記ずらした図形パターンとを論
理演算してパターン情報を生成し、 前記パターン情報の黒画素をカウントして得た黒画素の
数を、前記所定の方向における前記原図形パターンの特
徴を表す特徴データとし、 上記特徴データの導出を複数の方向について行ない、 前記複数の方向の各々について得られたところの、特徴
データとその方向を表す方向情報とを用いて前記原図形
パターンを認識することを特徴とする。
[Means for Solving Problems] The configuration of the image processing method of the present invention for achieving the above-mentioned object is to create a figure pattern by shifting an original figure pattern in a predetermined direction, and to shift the original figure pattern and the shift. Pattern information is generated by logically operating the figure pattern, and the number of black pixels obtained by counting the black pixels of the pattern information is set as characteristic data representing the characteristic of the original figure pattern in the predetermined direction, The feature data is derived in a plurality of directions, and the original figure pattern is recognized using the feature data obtained in each of the plurality of directions and direction information representing the direction. .

[作用] 上記構成の画像処理方法においては、原図形パターンと
これをずらした図形パターンとを論理演算して得たパタ
ーン情報中の黒画素の数を特徴データとする。また、特
徴データの抽出を複数の方向について行なう。
[Operation] In the image processing method of the above configuration, the number of black pixels in the pattern information obtained by logically operating the original figure pattern and the figure pattern obtained by shifting the original figure pattern is used as the characteristic data. Further, the characteristic data is extracted in a plurality of directions.

[実施例] 以下、添付図面に従つて本発明の実施例を更に詳細に説
明する。
Embodiments Embodiments of the present invention will be described in more detail below with reference to the accompanying drawings.

本発明をパターンの特徴抽出装置に適用すれば、それは
例えば第1図のようになる。第1図に示す実施例のパタ
ーンの特徴抽出装置は、原図形パターン100を抽出すべ
きストローク方向から所定の角度だけずれた方向にパタ
ーン平行移動する平行移動手段101と、画素同士の所定
の論理演算を行う論理演算手段102とからなる。
When the present invention is applied to a pattern feature extraction apparatus, it becomes as shown in FIG. 1, for example. The pattern feature extracting apparatus of the embodiment shown in FIG. 1 comprises a parallel moving means 101 for moving the original figure pattern 100 in a direction parallel to the stroke direction to be extracted by a predetermined angle, and a predetermined logic between pixels. It is composed of a logical operation means 102 for performing an operation.

かかる第1図の構成において、パターン平行移動手段10
1によって得られたパターン103と原図形パターン100と
の画素同士に所定の論理演算、例えば排他論理和演算を
行うと、抽出すべきストローク情報が得られる。
In the structure shown in FIG. 1, the pattern parallel moving means 10
Stroke information to be extracted is obtained by performing a predetermined logical operation, for example, exclusive OR operation, on the pixels of the pattern 103 obtained by 1 and the original figure pattern 100.

第3図は本発明を文字認識装置に適用した場合の構成例
である。原画像である帳票1上に印字された文字画像は
適当な光源で照明され、レンズ2により光電変換器3上
に結像される。光電変換器3から出力されるアナログデ
ータは4のA/D変換器でデジタル信号に変換され、更に
5の2値化回路で2値信号となり、6の文字切り出し回
路に入力される。文字切り出し回路6では帳票上の1文
字分に対応する部分画像を切り出し、正規化回路7へ該
部分画像を出力する。正規化回路7ではこの1文字画像
が基準の大きさとなるよう拡大又は縮小した画像を8の
特徴抽出回路へ送るが、帳票上の文字の大きさが予め一
種類に統一されている場合は、正規化回路7は必要では
ない。特徴抽出回路8は入力された文字画像から後述す
るような特徴量を抽出し、文字認識部12にて文字認識を
行う。文字認識部12は、例えば9の相違度算出回路で辞
書メモリ10中の辞書パターンとの相違度計算を行い、11
の識別回路により相違度が最小となるような辞書パター
ンを検出して、それを認識結果として出力する。
FIG. 3 shows an example of the configuration when the present invention is applied to a character recognition device. The character image printed on the form 1, which is the original image, is illuminated by an appropriate light source, and is imaged on the photoelectric converter 3 by the lens 2. The analog data output from the photoelectric converter 3 is converted into a digital signal by the A / D converter 4 and converted into a binary signal by the binarizing circuit 5 and input to the character extracting circuit 6. The character cutout circuit 6 cuts out a partial image corresponding to one character on the form and outputs the partial image to the normalization circuit 7. The normalization circuit 7 sends an image obtained by enlarging or reducing this one-character image to a reference size to the feature extraction circuit 8; however, when the character size on the form is unified in advance to one type, The normalization circuit 7 is not necessary. The feature extraction circuit 8 extracts a feature amount, which will be described later, from the input character image, and the character recognition unit 12 performs character recognition. The character recognition unit 12 calculates the degree of difference with the dictionary pattern in the dictionary memory 10 by using the degree-of-difference calculation circuit 9 for example, and
The identification circuit detects the dictionary pattern that minimizes the difference and outputs it as the recognition result.

次に、本実施例の主眼である文字図形の特徴抽出から判
別判定までの処理手順を詳細に説明する。この特徴抽出
から識別判別迄は第3図においては特徴抽出回路8〜識
別回路11に対応する。まず、特徴抽出回路8は次のよう
な手段を用いた文字ストローク抽出を行う。
Next, the processing procedure from the feature extraction of the character graphic, which is the main focus of the present embodiment, to the determination of the determination will be described in detail. The process from the feature extraction to the discrimination determination corresponds to the feature extraction circuit 8 to the discrimination circuit 11 in FIG. First, the feature extraction circuit 8 performs character stroke extraction using the following means.

第4図〜第9図(a)〜(b)は、入力文字図形22を特
徴抽出回路8に入力して、特徴抽出の手順に従い、処理
を行つた結果を順を追つて示したものである。第4図22
の入力パターンは文字枠21のような、例えば8ビツト×
12ビツトの大きさに入るように正規化回路7により正規
化されているものとする。尚、第4図では第2図の帳票
1の数字“1"を表しており、斜線部は黒画素(ビツトの
値=1)、空白部は白画素(ビツトの値=0)である。
以下、特徴抽出の処理手順を図に従つて順を追つて説明
する。
FIGS. 4 to 9 (a) and (b) show the results obtained by inputting the input character graphic 22 to the feature extraction circuit 8 and performing the process according to the feature extraction step by step. is there. Fig. 4-22
The input pattern is like a character box 21, for example 8 bits x
It is assumed that the normalization circuit 7 has normalized so that the size is 12 bits. It should be noted that FIG. 4 shows the number “1” of the form 1 in FIG. 2, the shaded area is a black pixel (bit value = 1), and the blank area is a white pixel (bit value = 0).
The processing procedure of feature extraction will be described below step by step with reference to the drawings.

まず、第4図に示した如く座標x,y軸をとり、パターン
内の各画素をM(x,y)とおく。但し、(x=1,2,…,8,
y=1,2,…,12)である。即ち、 M(x,y)=1(x,y)が黒画素 0(x,y)が白画素 …(1) である。
First, as shown in FIG. 4, the coordinates x and y axes are taken, and each pixel in the pattern is set to M (x, y). However, (x = 1,2, ..., 8,
y = 1,2, ..., 12). That is, M (x, y) = 1 (x, y) is a black pixel 0 (x, y) is a white pixel (1).

第5図(a),(b)は第4図の画素パターンM(x,
y)を夫々左上(−45度)、右上(+45度)方向(第5
図(a),(b)中の矢印方向)に一画素分平行移動さ
せたパターンを表している。
5 (a) and 5 (b) show the pixel pattern M (x,
y) in the upper left (-45 degrees) and upper right (+45 degrees) directions (5th
The pattern is translated by one pixel in the direction of the arrow in FIGS.

第6図(a),(b)は夫々、第5図(a)と第4図、
第5図(b)と第4図のパターンを互いに文字枠が一致
するように重ね合わせ、画素単位で排多的論理和をと
り、その結果を更に右方向に一画素平行移動させたもの
である。即ち、第6図(a),(b)の画素をE1(x,
y)、E2(x,y)と書けば、 E1(x,y) =M(x−1,y)M(x,y−1) E2(x,y) =M(x,y)M(x−1,y+1) …(2) と表せる。ここでは排多的論理和を表す記号である。
第6図(a),(b)のパターン41,42からも分かる通
り、文字パターンの輪郭成分のうち、第6図(a)にお
いては第5図(a)のパターンを得るのに行った−45度
の平行移動の方向に平行な成分は消去され(原パターン
には−45度成分が少ないので)、それに垂直な成分(即
ち+45度成分)は強調されるという結果が得られてい
る。一方、第6図(b)においては、平行移動方向(−
45度)に平行な成分が消去されている。
6 (a) and 6 (b) are respectively FIG. 5 (a) and FIG. 4,
The patterns of FIG. 5 (b) and FIG. 4 are overlapped so that the character frames coincide with each other, an exhaustive OR is taken for each pixel, and the result is further translated in the right direction by one pixel. is there. That is, the pixels of FIGS. 6 (a) and 6 (b) are replaced by E1 (x,
y), E2 (x, y), E1 (x, y) = M (x-1, y) M (x, y-1) E2 (x, y) = M (x, y) M It can be expressed as (x-1, y + 1) (2). Here, it is a symbol that represents exhaustive disjunction.
As can be seen from the patterns 41 and 42 of FIGS. 6A and 6B, the contour component of the character pattern was used to obtain the pattern of FIG. 5A in FIG. 6A. The result is that the component parallel to the direction of the -45 degree translation is eliminated (because the original pattern has less -45 degree component), and the component perpendicular thereto (that is, +45 degree component) is emphasized. . On the other hand, in FIG. 6 (b), the parallel movement direction (-
The component parallel to (45 degrees) is erased.

次に、第6図(a)と(b)とのパターンの文字枠が重
なるように重ね合わせ、画素同士の論理積(AND)をと
ることにより第7図が得られる。このようにして得られ
た第7図のパターン51は原パターン22から斜め方向(±
45度)以外の輪郭線を抽出したものとなつている。
Next, FIG. 7 is obtained by overlapping the character frames of the patterns of FIGS. 6 (a) and 6 (b) so as to overlap each other and taking the logical product (AND) of the pixels. The pattern 51 of FIG. 7 obtained in this way is oblique (±
It is said that contour lines other than (45 degrees) have been extracted.

最後にこの第7図のパターン51と第6図(a)、及び第
7図と第6図(b)とを夫々やはい文字枠が重なるよう
に重ね合わせ、画素単位に排多的論理和をとり、結局第
8図(a),(b)のパターン61,62が得られる。第8
図(a),(b)を夫々F1(x,y),F2(x,y)と書く
と、 F1(x,y)=E1(x,y) (E1(x,y)×E2(x,y)) F2(x,y)=E2(x,y) (E1(x,y)×E2(x,y)) …(3) で表される。ここで記号×は論理積演算を示す。以上の
操作を行うことにより、第8図(a)のF1(x,y),第
8図(b)のF2(x,y)が得られるわけであるが、夫々
に現れている黒画素61,62はF1(x,y)においては、x軸
と+45度の傾きを成すストローク成分、F2(x,y)にお
いてはx軸と−45度の傾きを成すストローク成分に対応
している。
Finally, the pattern 51 of FIG. 7 and FIG. 6 (a), and FIG. 7 and FIG. 6 (b) are overlapped with each other so that the character frames are overlapped with each other. As a result, patterns 61 and 62 shown in FIGS. 8A and 8B are obtained. 8th
When the diagrams (a) and (b) are written as F1 (x, y) and F2 (x, y), respectively, F1 (x, y) = E1 (x, y) (E1 (x, y) x E2 ( x, y)) F2 (x, y) = E2 (x, y) (E1 (x, y) × E2 (x, y)) (3) Here, the symbol x indicates an AND operation. By performing the above operation, F1 (x, y) in FIG. 8 (a) and F2 (x, y) in FIG. 8 (b) can be obtained. 61 and 62 correspond to a stroke component that forms an inclination of +45 degrees with the x-axis in F1 (x, y) and a stroke component that forms an inclination of −45 degrees with the x-axis in F2 (x, y). .

第9図(a),(b)は上記と同様の手法によりy軸に
平行なストローク(71)、及びx軸に平行なストローク
(72)を抽出した結果である。即ち先ず、原パターン22
をx軸に平行に1画素平行移動して、第5図(a)に類
似のパターンを得、同様にy軸に平行に1画素平行移動
して第5図(b)に類似のパターンを得る。こうして得
られた2つのパターンを原パターン22との画素同士の排
他論理和をとり、更に論理積をとる事により第7図類似
のパターンが得られる。今度の第7図類似のパターンは
±45度成分が抽出されている筈である。従って第7図
(a),(b)のパターンを得たのと同様な手法により
排他論理和をとると、第9図(a),(b)に示された
パターン71,72の如き夫々y軸、x軸に平行なストロー
ク成分が得られる。
9 (a) and 9 (b) are the results of extracting the stroke (71) parallel to the y-axis and the stroke (72) parallel to the x-axis by the same method as described above. That is, first, the original pattern 22
Is parallel-moved by one pixel in parallel with the x-axis to obtain a pattern similar to that in FIG. 5 (a), and similarly, parallelly moved by one pixel in parallel with the y-axis to obtain a pattern similar to that in FIG. 5 (b). obtain. A pattern similar to that shown in FIG. 7 is obtained by taking the exclusive OR of the two patterns thus obtained with the pixel of the original pattern 22 and further taking the logical product. The pattern similar to that shown in FIG. 7 should be that the ± 45 ° component is extracted. Therefore, when exclusive OR is performed by the same method as that used to obtain the patterns of FIGS. 7 (a) and 7 (b), patterns 71 and 72 shown in FIGS. 9 (a) and 9 (b) are obtained. A stroke component parallel to the y axis and the x axis is obtained.

以上のように本実施例の特徴抽出回路によれば、2次元
の文字パターンに対し、数回のシフト操作と単純な論理
演算により、x軸の+45度方向、−45度方向、x軸に平
行な方向、y軸に平行な方向の4方向のストローク(即
ち、0度,45度,90度,135度,180度,225度,270度,315度の
8方向のストローク)を、それらが存在する場所に黒画
素の密度という形で抽出することができ、第8図(a)
及び(b)、第9図(a),(b)のパターン61,62,7
1,72の黒画素分布を計数することにより、文字パターン
の特徴量を得ることができる。
As described above, according to the feature extraction circuit of the present embodiment, with respect to the two-dimensional character pattern, the shift operation is performed several times and the simple logical operation is performed so that the +45 degree direction, the −45 degree direction, and the x axis of the x axis are changed. Strokes in four directions in the parallel direction and the direction parallel to the y-axis (that is, strokes in eight directions of 0 degree, 45 degrees, 90 degrees, 135 degrees, 180 degrees, 225 degrees, 270 degrees, 315 degrees). Can be extracted in the form of the density of black pixels in the place where
And (b) and patterns 61, 62, 7 of FIGS. 9 (a), (b).
The feature amount of the character pattern can be obtained by counting 1,72 black pixel distributions.

ストローク抽出画像から文字パターンの特徴量を得る手
段についてその一例を第10図に示す。第10図の例は、第
8図(a)のx軸と45度を成すストロークを抽出したパ
ターン61をy軸方向の度数分布81に変換し、y軸を82,8
3,84の様な3等分領域に分割して、夫々の領域内の度数
の合計値を計数するものである。この計数値は度数分布
が81の場合、82,83,84の各領域に対し、夫々“7",“3",
“1"となる。同様の処理を第8図(b)、第9図
(a),(b)の3画像62,71,72に対しても行うと、各
計数値は第8図(b)で“2",“1",“0"、第9図(a)
で“5",“11",“6"、第9図(b)で“3",“3",“2"と
なる。以上4画像について12個の数値列が得られるの
で、これを順番に並べた12次元ベクトルを入力パターン
の特徴量(以後、入力ベクトルと呼ぶ)とすることがで
きる。
FIG. 10 shows an example of means for obtaining the feature amount of the character pattern from the stroke extraction image. In the example of FIG. 10, the pattern 61 in which strokes forming 45 degrees with the x-axis of FIG. 8 (a) are extracted is converted into a frequency distribution 81 in the y-axis direction, and the y-axis is 82,8.
It is divided into three equal areas such as 3,84 and the total value of the frequencies in each area is counted. If the frequency distribution is 81, this count value is "7", "3", respectively for each area of 82, 83, 84.
It becomes "1". When the same processing is performed on the three images 62, 71, 72 of FIGS. 8 (b), 9 (a), and (b), each count value is "2" in FIG. 8 (b). , "1", "0", Fig. 9 (a)
"5", "11", "6", and "3", "3", "2" in FIG. 9 (b). Since twelve numerical sequences are obtained for the above four images, a 12-dimensional vector in which the numerical sequences are arranged in order can be used as the feature amount of the input pattern (hereinafter referred to as the input vector).

第3図の相違度検出回路9では、上記入力ベクトルを得
たのと同様の手法により、基準となる文字について予め
ストロークをベクトル化して、そのベクトルを辞書メモ
リ10に記憶する。この辞書メモリ10に記憶されたベクト
ル(以後、辞書ベクトルと呼ぶ)との相違度をベクトル
間のユークリツド距離、絶対値距離等周知の方法により
求める。識別回路11では辞書メモリ中に格納された全て
の文字カテゴリーについて上記求められた相違度の中か
ら最小のものを選び出し(最小二乗法)、それに対応す
る辞書カテゴリー名を認識結果として出力する。
In the dissimilarity detection circuit 9 of FIG. 3, the stroke is previously vectorized for the reference character and the vector is stored in the dictionary memory 10 by the same method as that for obtaining the input vector. The degree of difference from the vector stored in the dictionary memory 10 (hereinafter referred to as a dictionary vector) is obtained by a known method such as the Euclidean distance between vectors or the absolute value distance. The discrimination circuit 11 selects the smallest one (least squares method) from the above-obtained dissimilarities for all the character categories stored in the dictionary memory, and outputs the corresponding dictionary category name as the recognition result.

第11図は本発明の特徴抽出回路の構成の一例である。20
1のパターンレジスタには2値化処理、正規化処理後の
一文字分のパターンが入力される。このパターンから20
2のW/Rコントローラで制御しながら、203〜206のパター
ンレジスタ内に所定ビツト数の平行移動を施した画像を
生成する。パターンレジスタを例えばRAM(Random Acce
ss Memory)等で構成すれば、W/Rコントローラ202はア
ドレスカウンタのようなもので構成できる。
FIG. 11 is an example of the configuration of the feature extraction circuit of the present invention. 20
A pattern for one character after binarization processing and normalization processing is input to the 1 pattern register. 20 from this pattern
While controlling it with the W / R controller of No. 2, an image in which a predetermined number of bits are translated is generated in the pattern registers 203 to 206. The pattern register is, for example, RAM (Random Acce
If configured with ss Memory), the W / R controller 202 can be configured with something like an address counter.

これらのパターンレジスタ201,及び203〜206に格納され
たパターンを207の論理演算回路に入力し、(2)〜
(3)式のような所定の論理演算処理を実行した後、20
9〜212のカウンタへ出力する。即ち、論理演算回路207
からの出力は、コントローラ208により制御されるカウ
ンタ209〜212によって特定部分領域内画素数を計数さ
れ、計数値は213のメモリに収納される。即ち、メモリ2
13には前述した12次元ベクトルの各要素が記憶されるこ
ととなる。
The patterns stored in the pattern registers 201 and 203 to 206 are input to the logical operation circuit 207, and (2) to
After performing a predetermined logical operation process such as equation (3),
Output to the counter of 9 to 212. That is, the logical operation circuit 207
The output from the counter is counted by the counters 209 to 212 controlled by the controller 208 for the number of pixels in the specific partial area, and the count value is stored in the memory 213. That is, memory 2
Each element of the 12-dimensional vector described above is stored in 13.

以上述べた如く本発明に係る実施例の特徴を列挙すれ
ば、簡略な装置構成により、効率良く文字パターンのス
トロークを画素分布として抽出できる。又、ストローク
の有無が画素密度で表現されるために、度数を計数する
事によりパターンのベクトル化も容易に行うことができ
る。従って、比較対象となる辞書パターンも二次元パタ
ーンとしてではなくベクトルとして記憶すればよいの
で、記憶に必要な記憶容量が少なくて済む。更に、文字
の輪郭線がストロークとして抽出されるので、文字線巾
の変動、即ち、2値化閾値の変動による認識率の低下を
減少させることができ、文字の構造的特徴も取り入れる
ことができる。また、パターンのベクトル化の際の領域
分割数を大きくせずに充分な認識能力が得られるため、
文字の位置変動による認識率の低下も削減することが可
能となる。
As described above, when the features of the embodiments according to the present invention are enumerated, the strokes of a character pattern can be efficiently extracted as a pixel distribution with a simple device configuration. Further, since the presence or absence of strokes is expressed by the pixel density, it is possible to easily vectorize the pattern by counting the frequency. Therefore, since the dictionary pattern to be compared may be stored as a vector instead of as a two-dimensional pattern, the storage capacity required for storage can be small. Further, since the contour line of the character is extracted as a stroke, it is possible to reduce the variation of the character line width, that is, the reduction of the recognition rate due to the variation of the binarization threshold, and it is possible to incorporate the structural feature of the character. . Also, since sufficient recognition ability can be obtained without increasing the number of region divisions when vectorizing the pattern,
It is also possible to reduce a reduction in recognition rate due to a character position change.

次に、前記実施例の変形例について以下数例述べる。第
12図は特徴抽出回路8の他の例である。第12図を第11図
と比べてみると、第12図ではパターンレジスタ301から
のデータをカウンタ302の制御により平行移動すべくパ
ターンレジスタ301の出力をANDゲートを介してパターン
レジスタ304〜307へ入力する。又、論理演算回路207を
具体的にANDゲート及びEX−OR(排他論理和)ゲートに
より構成しており、更に第11図のカウンタ209〜212を省
略している。
Next, several modified examples of the embodiment will be described below. First
FIG. 12 shows another example of the feature extraction circuit 8. Comparing FIG. 12 with FIG. 11, in FIG. 12, the output of the pattern register 301 is transferred to the pattern registers 304 to 307 via the AND gate in order to move the data from the pattern register 301 in parallel by the control of the counter 302. input. Further, the logical operation circuit 207 is specifically configured by an AND gate and an EX-OR (exclusive OR) gate, and the counters 209 to 212 in FIG. 11 are omitted.

又更に、第11図、12図において、画像の平行移動にはカ
ウンタとパターンレジスタとを用いているが、これらの
変わりに平行移動に必要な画素数分のビットをもつシフ
トレジスタを使ってリアルタイムにデータを転送する等
の方式も可能である。前記特徴抽出回路において、前記
方式では4方向(実質的に8方向)のストローク抽出を
行つたが、場合によつては4方向以下としても充分な認
識率が得られるならば4方向以下でもかまわない。逆
に、4方向以上に増やすために平行移動量をx方向に1
画素、y方向に2画素、またはx方向に2画素、y方向
に1画素とすれば、夫々、30度,60度,120度,150度,210
度,240度,300度,330度というようにストロークの検出方
向を増やす事ができる。又、第10図で示される領域分割
数も3分割に限られるものではなく、認識精度を上げる
のならば分割数を増やしてもよい。
Furthermore, in FIGS. 11 and 12, a counter and a pattern register are used for parallel movement of the image, but instead of these, a shift register having bits for the number of pixels required for parallel movement is used in real time. It is also possible to use a method such as transferring data to. In the feature extraction circuit, strokes are extracted in four directions (substantially eight directions) in the above method, but in some cases, four directions or less may be used as long as a sufficient recognition rate can be obtained even in four directions or less. Absent. On the contrary, the parallel movement amount is set to 1 in the x direction in order to increase it in four or more directions.
If there are 2 pixels in the y direction, or 2 pixels in the x direction and 1 pixel in the y direction, then 30 °, 60 °, 120 °, 150 °, 210
The stroke detection direction can be increased, such as degrees, 240 degrees, 300 degrees, and 330 degrees. Further, the number of divided regions shown in FIG. 10 is not limited to three, and the number of divided regions may be increased if the recognition accuracy is improved.

[発明の効果] 以上説明したように、本発明の画像処理方法は、特徴デ
ータとして、原図形パターンとこれをずらした図形パタ
ーンとを論理演算して得たパターン情報中の黒画素の数
を採用している。このような特徴データを使うことによ
り、謂わば段階的な判断が可能であり、色々なパターン
に対して認識精度が高いものとなる。
EFFECTS OF THE INVENTION As described above, the image processing method of the present invention uses, as the characteristic data, the number of black pixels in the pattern information obtained by logically operating the original figure pattern and the figure pattern obtained by shifting the original figure pattern. It is adopted. By using such feature data, so-called stepwise determination can be performed, and the recognition accuracy for various patterns becomes high.

また、特徴データの抽出を複数の方向について行なうこ
とにより、喩え原図パターンに線幅や位置の変動があっ
てもその変動のパターン認識に対する影響を最小限にし
て、認識精度を向上することができる。
Further, by extracting the characteristic data in a plurality of directions, even if there is a variation in the line width or position of the metaphor original drawing pattern, the influence of the variation on the pattern recognition can be minimized and the recognition accuracy can be improved. .

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明に係る実施例の基本構成図、 第2図(a),(b)に従来例において輪郭線検出に用
いられている3×3の微分フイルタ、 第3図は本発明を文字認識装置に適用した場合における
当該文字認識装置の構成例、 第4図,第5図(a),(b),第6図(a),
(b),第7図,第8図(a),(b)及び第9図
(a),(b)は実施例における特徴抽出のために処理
される画像を順を追つて示した図、 第10図は抽出されたパターンの特徴のベクトル化を説明
する図、 第11図は特徴抽出回路の回路構成の一例を示す図、 第12図は特徴抽出回路の回路構成の変形例を示す図であ
る。 図中 1……帳票(原画像)、2……レンズ、3……光電変換
器、4……A/D変換器、5……2値化回路、6……文字
切り出し回路、7……正規化回路、8……特徴抽出回
路、9……相違度算出回路、10……辞書メモリ、11……
識別回路、12……認識回路、21……文字枠、31,32,41,4
2,51,61,62,71,72……抽出パターン、81……濃度度数、
82〜84……分割領域、201,203〜206……パターンレジス
タ、301,303〜311……パターンレジスタ、202……W/Rコ
ントローラ、207……論理演算回路、208……コントロー
ラ、209〜212……カウンタ、213……メモリ、302……カ
ウンタである。
FIG. 1 is a basic configuration diagram of an embodiment according to the present invention, and FIGS. 2 (a) and 2 (b) are 3 × 3 differential filters used for contour line detection in a conventional example, and FIG. Is applied to a character recognition device, a configuration example of the character recognition device, FIG. 4, FIG. 5 (a), (b), FIG. 6 (a),
(B), FIG. 7, FIG. 8 (a), (b) and FIG. 9 (a), (b) are diagrams showing, in order, images processed for feature extraction in the embodiment. , FIG. 10 is a diagram for explaining the vectorization of the features of the extracted pattern, FIG. 11 is a diagram showing an example of the circuit configuration of the feature extraction circuit, and FIG. 12 is a modification of the circuit configuration of the feature extraction circuit. It is a figure. In the figure 1 …… Form (original image), 2 …… Lens, 3 …… Photoelectric converter, 4 …… A / D converter, 5 …… Binarization circuit, 6 …… Character cutout circuit, 7 …… Normalization circuit, 8 ... Feature extraction circuit, 9 ... Dissimilarity calculation circuit, 10 ... Dictionary memory, 11 ...
Identification circuit, 12 ... Recognition circuit, 21 ... Character frame, 31,32,41,4
2,51,61,62,71,72 …… Extraction pattern, 81 …… Density frequency,
82-84 …… Divided area, 201,203-206 …… Pattern register, 301,303-311 …… Pattern register, 202 …… W / R controller, 207 …… Logic operation circuit, 208 …… Controller, 209–212 …… Counter , 213 ... memory, 302 ... counter.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】原図形パターンを所定の方向にずらした図
形パターンを作成し、 前記原図形パターンと前記ずらした図形パターンとを論
理演算してパターン情報を生成し、 前記パターン情報の黒画素をカウントして得た黒画素の
数を、前記所定の方向における前記原図形パターンの特
徴を表す特徴データとし、 上記特徴データの導出を複数の方向について行ない、 前記複数の方向の各々について得られたところの、特徴
データとその方向を表す方向情報とを用いて前記原図形
パターンを認識することを特徴とする画像処理方法。
1. A graphic pattern is created by shifting an original graphic pattern in a predetermined direction, logical operation is performed on the original graphic pattern and the shifted graphic pattern to generate pattern information, and a black pixel of the pattern information is calculated. The number of black pixels obtained by counting is used as characteristic data representing the characteristic of the original figure pattern in the predetermined direction, the characteristic data is derived in a plurality of directions, and obtained in each of the plurality of directions. An image processing method, characterized in that the original figure pattern is recognized using characteristic data and direction information indicating the direction thereof.
【請求項2】前記特徴データとして用いる黒画素の数の
カウントは前記パターン情報の所定領域内で行なうこと
とし、認識工程においては、前記所定領域を表す領域情
報を含めて前記原図形パターンを認識することを特徴と
する特許請求の範囲第1項に記載の画像処理方法。
2. The counting of the number of black pixels used as the characteristic data is performed within a predetermined area of the pattern information, and in the recognition step, the original figure pattern is recognized including area information representing the predetermined area. The image processing method according to claim 1, wherein
JP60140426A 1985-06-28 1985-06-28 Image processing method Expired - Fee Related JPH07109612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60140426A JPH07109612B2 (en) 1985-06-28 1985-06-28 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60140426A JPH07109612B2 (en) 1985-06-28 1985-06-28 Image processing method

Publications (2)

Publication Number Publication Date
JPS622382A JPS622382A (en) 1987-01-08
JPH07109612B2 true JPH07109612B2 (en) 1995-11-22

Family

ID=15268413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60140426A Expired - Fee Related JPH07109612B2 (en) 1985-06-28 1985-06-28 Image processing method

Country Status (1)

Country Link
JP (1) JPH07109612B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2802183B2 (en) * 1991-05-30 1998-09-24 日立エンジニアリング株式会社 Inspection apparatus using pattern matching and pattern matching method
WO2005112241A1 (en) 2004-05-19 2005-11-24 Sony Corporation Dc adaptor and electronic apparatus using the same
JP6152721B2 (en) * 2013-07-03 2017-06-28 大日本印刷株式会社 Graphic outline display device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62280971A (en) * 1986-05-29 1987-12-05 Fanuc Ltd Picture processing system

Also Published As

Publication number Publication date
JPS622382A (en) 1987-01-08

Similar Documents

Publication Publication Date Title
EP0063454B1 (en) Method for recognizing machine encoded characters
Samra et al. Localization of license plate number using dynamic image processing techniques and genetic algorithms
US4817171A (en) Pattern recognition system
US5048099A (en) Polygon-based method for automatic extraction of selected text in a digitized document
US5033104A (en) Method for detecting character strings
JPH0312750B2 (en)
JPH0772861B2 (en) Program creation device
Tawde et al. An overview of feature extraction techniques in ocr for indian scripts focused on offline handwriting
JPH02306386A (en) Character recognizing device
JPS62254282A (en) Method and apparatus for separating overlapped pattern
JPH07109612B2 (en) Image processing method
US5596657A (en) Method of sorting out candidate characters in character recognition system
Yoda et al. Direction coding method and its application to scene analysis
Jayaraman et al. Interactive line drawing recognition and vectorization with commodity camera
Sandyal et al. Segmentation approach for offline handwritten Kannada scripts
JPS58165178A (en) Character reader
Koponen et al. Recent advancements in machine vision methods for product code recognition: A systematic review [version 1; peer review
Sarkar et al. Classifying foreground pixels in document images
JP2980636B2 (en) Character recognition device
JPS5855551B2 (en) Discrimination feature extraction device
Patel et al. Comprehensive Study on Recognition of offline Handwritten Gujarati Numerals
Man Toward a robust and accurate vision system which recognizes character images
JPH04167193A (en) Character recognizing method
JPH0420221B2 (en)
JPS6254382A (en) Feature extracting system based upon external shape of graphic

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees