JPH1011533A - Character recognizing device - Google Patents

Character recognizing device

Info

Publication number
JPH1011533A
JPH1011533A JP8165708A JP16570896A JPH1011533A JP H1011533 A JPH1011533 A JP H1011533A JP 8165708 A JP8165708 A JP 8165708A JP 16570896 A JP16570896 A JP 16570896A JP H1011533 A JPH1011533 A JP H1011533A
Authority
JP
Japan
Prior art keywords
pattern
inclination
detecting
image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8165708A
Other languages
Japanese (ja)
Inventor
Takumi Takahashi
巧 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic System Solutions Japan Co Ltd
Original Assignee
Matsushita Graphic Communication Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Graphic Communication Systems Inc filed Critical Matsushita Graphic Communication Systems Inc
Priority to JP8165708A priority Critical patent/JPH1011533A/en
Publication of JPH1011533A publication Critical patent/JPH1011533A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect the inclination of the area independent from the size of a partial area of a picture by collating a detected inclination pattern and an angular pattern stored in a storing means so as to calculate the result of collation. SOLUTION: A partial area extracting means 1 divides a picture on a first page into some parts at first. A straight line component candidate extracting means 2 extracts a straight line candidate coordinate point from a partial area picture extracted here. Next a straight line candidate coordinate point pattern is judged by a line segment detecting matrix. The line segment detecting matrix represents the inclination of virtual straight lines respectively combining the group of the straight line candidate coordinate points and an inclination representing the line segment detecting matrix discriminated before is selected. As an erroneous detection is easily generated by only discriminating the pattern of one straight line candidate coordinate point, the generation probability of the pattern of a present straight line candidate coordinate point based on a past detecting result is weighted to improve detecting precision.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、イメージスキャナ
等で読み込まれた文書画像の文字を認識する装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing characters of a document image read by an image scanner or the like.

【0002】[0002]

【従来の技術】現在、文字認識装置においてはスキャナ
で読み込まれた文書画像から文字を1文字ずつ切り出す
技術は必須となっている。その際スキャナで読み込まれ
た文書画像が傾いた場合はその画像の傾き角を検出して
切り出し位置の補正を傾き角に応じて行うことにより高
精度の切り出しが行うことができる。
2. Description of the Related Art At present, in a character recognition apparatus, a technique of cutting out characters one by one from a document image read by a scanner is indispensable. At this time, if the document image read by the scanner is tilted, a highly accurate cutout can be performed by detecting the tilt angle of the image and correcting the cutout position according to the tilt angle.

【0003】近年、この種の文書画像傾き検出装置で
は、傾いた画像を所定の角度で回転処理しながら水平あ
るいは垂直方向へのランレングスを求め、その統計値に
よって2値画像の傾きを求めていた。例えば、水平方向
の白ランレングスが最大になった時の回転角度を画像の
傾き角としている。特開平2−56081にはこのよう
な技術が開示されている。
In recent years, in this type of document image inclination detecting apparatus, a horizontal or vertical run length is obtained while rotating the inclined image at a predetermined angle, and the inclination of the binary image is obtained based on the statistical value. Was. For example, the rotation angle when the horizontal white run length is maximized is defined as the image inclination angle. Japanese Patent Application Laid-Open No. 2-56081 discloses such a technique.

【0004】また、ラベリング等を用いて個々の文字の
連結成分同士を統合して仮の文字列としてその文字列に
対して水平および垂直方向からそれぞれ所定の角度だけ
傾いた直線に接する輪郭点を求め、その点の位置関係か
ら仮の文字列の傾き角を求めることにより画像の傾き角
を求めていた。特開平7−192085にはこのような
技術が開示されている。
In addition, connected components of individual characters are integrated by using labeling or the like, and a contour point in contact with a straight line inclined by a predetermined angle from the horizontal and vertical directions with respect to the character string is formed as a temporary character string. Then, the inclination angle of the image is obtained by obtaining the inclination angle of the provisional character string from the positional relationship between the points. Japanese Patent Application Laid-Open No. 7-192085 discloses such a technique.

【0005】[0005]

【発明が解決しようとする課題】ファクシミリなどロー
ラーによって用紙を入力してスキャナで読み込む装置は
広く用いられているが、この種の装置では読み込ませる
用紙の質、状態あるいは給紙機構上の特性からスキュー
と呼ばれる画像の傾き角が読み込んだ画像において均一
でないという状態が発生する。
A device, such as a facsimile, for inputting paper by a roller and reading it by a scanner is widely used. However, in this type of device, the quality and condition of the paper to be read or the characteristics of a paper feeding mechanism are considered. A state called skew occurs where the tilt angle of the image is not uniform in the read image.

【0006】第1の従来技術の構成では、画像を所定の
角度で回転処理しながら白ランレングスの統計値から画
像全体の傾き角を計算するため計算時間が問題となって
おり、回転を行う領域の大きさが広いほどランレングス
の差違が明確になり検出精度が良くなるという方式であ
るから画像の一部分の傾き角を検出するには不都合であ
った。
In the configuration of the first prior art, since the image is rotated at a predetermined angle and the inclination angle of the entire image is calculated from the statistical value of the white run length, the calculation time is problematic. Since the difference in run length becomes clearer and the detection accuracy improves as the size of the region becomes larger, it is inconvenient to detect the inclination angle of a part of the image.

【0007】第2の従来技術の構成では、ある程度の文
字を含む広い領域では輪郭点が多少ばらついても仮の文
字列を求めることができるが、画像の一部分の領域では
輪郭点の位置が文字の種類によってばらつきを生るた
め、仮の文字列の傾き角を求めることができないことが
問題となっていた。
In the configuration of the second prior art, a tentative character string can be obtained even in a wide area including a certain amount of characters, even if the outline points slightly vary. However, there is a problem that the inclination angle of the provisional character string cannot be obtained because variation occurs depending on the type of the character string.

【0008】本発明は、上述の課題に鑑みて為されたも
ので、画像の一部分領域の大きさに依存せずにその領域
の傾き角の検出が可能で、スキューにも対応できる文字
認識装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and is a character recognition device capable of detecting a tilt angle of a partial area of an image without depending on the size of the area and capable of coping with skew. The purpose is to provide.

【0009】[0009]

【課題を解決するための手段】本発明は、上述の課題を
解決するため、読み取った画像を所定領域に分割し、抽
出する部分領域抽出手段と、前記所定領域の傾きパター
ンを検出する検出手段と、予め複数の角度パターンを格
納する記憶手段と、前記検出手段が検出した傾きパター
ンと前記記憶手段に記憶される角度パターンとを照合す
る照合手段と、この照合手段による照合の結果を算出す
る制御手段という構成を備えたものである。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention divides a read image into a predetermined area and extracts the partial area, and a detection means for detecting an inclination pattern of the predetermined area. Storage means for storing a plurality of angle patterns in advance; matching means for matching the inclination pattern detected by the detection means with the angle pattern stored in the storage means; and calculating the result of matching by the matching means. It is provided with a configuration of control means.

【0010】また、読み取った画像を所定領域に分割
し、抽出する部分領域抽出手段と、前記所定領域の傾き
パターンを検出する検出手段と、予め複数の角度パター
ンを格納する記憶手段と、前記検出手段が検出した傾き
パターンと前記記憶手段に記憶される角度パターンとを
照合する照合手段と、過去における傾きパターンの発生
確率を格納するパターンテーブルと、前記照合手段によ
る照合結果と前記パターンテーブルに格納される発生確
率とに基づいて照合結果を決定する制御手段という構成
を備えたものである。
[0010] Further, a partial area extracting means for dividing the read image into a predetermined area and extracting the same, a detecting means for detecting an inclination pattern of the predetermined area, a storage means for storing a plurality of angle patterns in advance, A matching unit that matches the inclination pattern detected by the unit with the angle pattern stored in the storage unit; a pattern table that stores a past occurrence probability of the inclination pattern; a matching result obtained by the matching unit and stored in the pattern table And a control means for determining a collation result based on the occurrence probability to be performed.

【0011】また、読み取った画像を所定領域に分割
し、抽出する部分領域抽出手段と、この部分領域抽出手
段が抽出した画像を水平方向に所定ビット付加するビッ
ト操作手段と、このビット操作手段により加工された前
記所定領域の傾きパターンを検出する検出手段と、予め
複数の角度パターンを格納する記憶手段と、前記検出手
段が検出した傾きパターンと前記記憶手段に記憶される
角度パターンとを照合する照合手段と、この照合手段に
よる照合の結果を算出する制御手段という構成を備えた
ものである。
Further, a partial area extracting means for dividing the read image into predetermined areas and extracting the same, a bit operating means for adding predetermined bits in the horizontal direction to the image extracted by the partial area extracting means, and a bit operating means Detecting means for detecting the processed inclination pattern of the predetermined area; storage means for storing a plurality of angle patterns in advance; and collating the inclination pattern detected by the detection means with the angle pattern stored in the storage means. It is provided with a configuration of a matching unit and a control unit that calculates a result of the matching by the matching unit.

【0012】また、読み取った画像を所定領域に分割
し、抽出する部分領域抽出手段と、前記所定領域の傾き
パターンを検出する検出手段と、この検出手段で検出し
た傾きパターンをニューラルネットワークにより近似度
を検出するニューラルネットワーク手段という構成を備
えたものである。
Further, a partial area extracting means for dividing the read image into a predetermined area and extracting the same, a detecting means for detecting a tilt pattern of the predetermined area, and a degree of approximation of the tilt pattern detected by the detecting means by a neural network. Is provided as a neural network means for detecting the

【0013】また、所定領域の算出した傾き角に基づい
て画像の傾きを回転することにより補正し、補正後の画
像から文字を1文字毎に切出し、文字認識するという構
成を備えたものである。
In addition, the present invention is provided with a configuration in which the inclination of the image is corrected by rotating the image based on the calculated inclination angle of the predetermined area, characters are cut out one by one from the corrected image, and the characters are recognized. .

【0014】また、傾きパターンが複数の所定領域にま
たがって記載されている学習用データを読み取る読取手
段と、この読取手段が読み取った傾きパターンとこれに
対応する傾き角を示す教師信号を学習する学習手段と、
この学習手段により得た傾きパターンと傾き角とを対応
づけて格納する格納手段という構成を備えたものであ
る。
Further, reading means for reading learning data in which the inclination pattern is described over a plurality of predetermined areas, and learning a teacher signal indicating the inclination pattern read by the reading means and the corresponding inclination angle. Learning means,
A storage means is provided for storing the inclination pattern and the inclination angle obtained by the learning means in association with each other.

【0015】本発明は上述の構成により、部分領域での
画像の傾き角を検出するためにまず直線候補座標点を求
め、次に線分検出マトリクスによってその直線候補座標
点のパターンの判別を行う。その線分検出マトリクスは
それぞれ直線候補座標点群を結ぶ仮想直線の傾き角を代
表したものであり、さきに判別された線分検出マトリク
スの代表する傾き角が選ばれる。1つの直線候補座標点
のパターンの判別だけでは検出誤りが起こりやすいの
で、過去の検出結果に基ずく現在の直線候補座標点のパ
ターンの発生確率を加重することによって検出精度を高
めている。これにより、入力画像にスキューがあっても
正確な傾き補正をすることができ、高精度な文字切り出
しおよび文字認識ができる。
According to the present invention, in order to detect an inclination angle of an image in a partial area, first, a line candidate coordinate point is obtained, and then a pattern of the line candidate coordinate point is determined by a line detection matrix. . Each of the line segment detection matrices represents the inclination angle of a virtual straight line connecting the line candidate coordinate point group, and the representative inclination angle of the previously determined line segment detection matrix is selected. Since a detection error is likely to occur only by discriminating the pattern of one straight line candidate coordinate point, the detection accuracy is increased by weighting the occurrence probability of the current straight line candidate coordinate point pattern based on the past detection result. Thus, even if the input image has a skew, accurate inclination correction can be performed, and highly accurate character cutout and character recognition can be performed.

【0016】また、入力画像における文字列での文字間
が広いときに直線候補座標点の算出を容易にするため画
像の水平あるいは垂直方向へのビットORを行う。これ
により直線候補座標点が文字種に影響されずに安定に算
出できる。
In addition, when the character space in the character string in the input image is wide, the bit OR in the horizontal or vertical direction of the image is performed in order to facilitate the calculation of the line candidate coordinate points. Thus, the straight line candidate coordinate points can be stably calculated without being affected by the character type.

【0017】また、線分検出マトリクスによってその直
線候補座標点のパターンの判別を行う際にニューラルネ
ットを用いることにより処理に必要なメモリ量を節約す
る事ができ、高速な処理が可能となる。また、学習する
際、画像データに複数の領域にまたがって傾きパターン
を形成し、これを一度に読み取るため、学習のための操
作を容易にすることができる。
Further, by using a neural network when discriminating the pattern of the straight line candidate coordinate points by the line segment detection matrix, the amount of memory required for processing can be saved, and high-speed processing can be performed. Further, at the time of learning, an inclination pattern is formed over a plurality of regions in the image data and is read at a time, so that the operation for learning can be facilitated.

【0018】[0018]

【発明の実施の形態】以下、本発明の第1実施例につい
て図面を参照にして説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

【0019】図1は本発明の一実施例による文書画像傾
き検出装置の構成図、図2と図3は図1における直線成
分候補抽出手段の概略説明図で、図4はその詳細説明図
である。
FIG. 1 is a block diagram of a document image inclination detecting apparatus according to an embodiment of the present invention, FIGS. 2 and 3 are schematic explanatory diagrams of a linear component candidate extracting means in FIG. 1, and FIG. 4 is a detailed explanatory diagram thereof. is there.

【0020】まず、図示しない読取手段で原稿を読み取
り、これをメモリに格納する。そして、1ページ分、或
いはある程度の画情報がメモリに格納されると、部分領
域抽出手段1により画像の分割を開始する。部分領域抽
出手段1では最初に図2に示すように1ページの画像2
1をいくつかに分割する。分割された画像22をN×M
部分領域画像と呼ぶ。図3にはこの画像の拡大した図を
示した。
First, an original is read by a reading means (not shown) and stored in a memory. When one page or a certain amount of image information is stored in the memory, the partial area extracting means 1 starts dividing the image. In the partial area extracting means 1, first, as shown in FIG.
Divide 1 into several. N × M divided image 22
It is called a partial area image. FIG. 3 shows an enlarged view of this image.

【0021】ここで抽出されたN×M部分領域画像から
直線成分候補抽出手段2で直線候補座標点を抽出する。
図3には例として検出方向を上方としてある。矢印32
の開始点33から画像上の画素が白から黒へ変化する変
化点34を直線候補座標点として検出される。
From the extracted N × M partial area image, the line component candidate extracting means 2 extracts a line candidate coordinate point.
In FIG. 3, the detection direction is upward as an example. Arrow 32
A change point 34 where a pixel on the image changes from white to black from the start point 33 of the above is detected as a straight line candidate coordinate point.

【0022】この図3の詳細を図4で説明する。図4に
示すようにq00〜qnm(n=N/点間隔、m=M/
点間隔)を直線候補座標点の検出開始点とする。これら
開始点33は周囲の隣接する開始点から一定間隔をもっ
て配置される。この開始点33からあらかじめ決定され
た上下左右いずれかの方向へ画素を走査し、白画素から
黒画素へ変化する点を検出する。この変化点座標を直線
候補座標点として図5に示すようなN’×M’画素領域
へ格納される。すなわち、図4で示されるq00〜qm
nの検出開始点を起点として上方に変化点を検出する。
そして、図5で示されるN’×M’画像領域51(M≧
M’、N≧N’)のサイズに合うようN×M画像領域を
変換する。具体的には、変化開始点の横座標のみ抽出
し、サイズNからサイズN’に合うように変換し、縦座
標はサイズMからサイズM’に合うように座標の変換を
行う。このとき変化点座標もその変換率に応じて、座標
が変換される。そして、手段4において線分検出マトリ
クスとの照合が行われる。ここでは、縦方向、横方向に
座標を変換しているが、横方向のみ座標を変換するよう
にしてもよい。ただし、縦方向に座標を変換するとメモ
リ容量を少なくすることができる。
The details of FIG. 3 will be described with reference to FIG. As shown in FIG. 4, q00 to qnm (n = N / point interval, m = M /
(Point interval) is set as the detection start point of the line candidate coordinate point. These start points 33 are arranged at a fixed interval from neighboring start points. The pixel is scanned in any of the predetermined upper, lower, left, and right directions from the start point 33, and a point at which a white pixel changes to a black pixel is detected. These change point coordinates are stored in a N ′ × M ′ pixel area as shown in FIG. 5 as straight line candidate coordinate points. That is, q00 to qm shown in FIG.
A change point is detected upward starting from the detection start point of n.
Then, an N ′ × M ′ image area 51 (M ≧ M) shown in FIG.
M ′, N ≧ N ′) is converted into an N × M image area. Specifically, only the abscissa of the change start point is extracted and converted from size N to size N ', and the ordinate is converted from size M to size M'. At this time, the coordinates of the change point are also converted according to the conversion rate. Then, the means 4 performs collation with the line segment detection matrix. Here, the coordinates are converted in the vertical and horizontal directions, but the coordinates may be converted only in the horizontal direction. However, converting the coordinates in the vertical direction can reduce the memory capacity.

【0023】次に線分検出マトリクスの照合方法につい
て述べる。図6にはn×m線分検出マトリクスの例を示
す。61が注目点画素、62が直線成分候補点であり、
ここで示していない他のマトリクス群も同様に直線候補
座標点が局所的にどれだけの量の傾きを持つかを調べる
ための代表的な特徴パターンである。これらパターンの
局所的傾き量は注目点画素をcpとしてパターン(a)
=0度、パターン(b)=10度、パターン(c)=2
0度と定義する。
Next, a method of collating the line detection matrix will be described. FIG. 6 shows an example of the n × m line segment detection matrix. 61 is an attention point pixel, 62 is a straight line component candidate point,
Other matrix groups not shown here are also representative feature patterns for checking how much the local candidate coordinate point locally has an inclination. The amount of local inclination of these patterns is calculated using the target point pixel as cp and the pattern (a).
= 0 degree, pattern (b) = 10 degrees, pattern (c) = 2
Defined as 0 degrees.

【0024】図7はこの線分検出マトリクスの参照方法
を図示したものである。51は直線候補座標点の集合を
一定領域内に配置したN’×M’2値パターンでこれは
直線成分候補抽出手段2において作成される。72はn
×m線分検出マトリクスであり、このn×m線分検出マ
トリクス72が直線候補座標点に対して参照を行う領域
で線分検出マトリクスの中心点画素61が、等間隔で並
ぶ参照画素a00、a01、・・・・anmと一致する
ように設定される。
FIG. 7 illustrates a method of referring to the line segment detection matrix. Reference numeral 51 denotes an N ′ × M ′ binary pattern in which a set of straight line candidate coordinate points is arranged in a certain area, and is created by the straight line component candidate extracting means 2. 72 is n
A reference pixel a00 in which the center point pixels 61 of the line detection matrix are arranged at equal intervals in an area where the nxm line detection matrix 72 refers to the line candidate coordinate point. a01,..., anm are set.

【0025】照合はn×m線分検出マトリクス72とこ
の領域と重なっているn×m直線候補座標点のパターン
の距離の比較と、過去にさかのぼってすでに参照画素a
nmにおいて決定された線分検出マトリクスからの発生
確率の2つによって行われる。
The collation is performed by comparing the distance between the n × m line segment detection matrix 72 and the pattern of the n × m line candidate coordinate points overlapping this area, and comparing the reference pixel a
This is performed based on the two occurrence probabilities from the line segment detection matrix determined in nm.

【0026】まず最初にn×m線分検出マトリクス72
とこの領域と重なっているn×m直線候補座標点のパタ
ーンの距離を計算する。この距離に対して発生確率の重
み付けした結果、最小になった線分検出マトリクスを一
致線分検出マトリクスとする。ここで発生確率の算出方
法について述べる。過去k回のすでに決定されている線
分検出マトリクスから次に発生する確率をあらかじめ設
定されている。図8はk=3の例を示したものである。
最初の3つの線分検出マトリクスを決める場合は過去の
決定データが3つ以下であるため発生確率をすべて同じ
にして決定される。Nは傾き角0のマトリクスを示し、
UhおよびLh(h=1、2...H:Hは成分数)は
それぞれ反時計または時計方向回転方向の傾きを持つマ
トリクスを示し、hが大きいほどその角度が大きい線分
検出マトリクスであることを示す。ここではH=kであ
る。
First, an n × m line segment detection matrix 72
Then, the distance of the pattern of the n × m straight line candidate coordinate point overlapping this area is calculated. As a result of weighting the occurrence probability with respect to this distance, the line segment detection matrix that has become the minimum is defined as the coincident line segment detection matrix. Here, a method of calculating the occurrence probability will be described. The probability of the next occurrence from the previously determined line segment detection matrix of k times is preset. FIG. 8 shows an example where k = 3.
When determining the first three line segment detection matrices, since the number of past determination data is three or less, all the occurrence probabilities are determined to be the same. N indicates a matrix having a tilt angle of 0,
Uh and Lh (h = 1, 2,... H: H is the number of components) indicate matrices having inclinations in the counterclockwise or clockwise rotation directions, respectively. Indicates that Here, H = k.

【0027】次に参照中の線分検出マトリクスの決定方
法を述べる。Uh、Lh(h=1、2...k)および
Nの発生確率をP(Uh)、P(Lh)、P(N)とし
現在参照中の領域におけるUh,LhおよびNの距離を
d(Uh)、d(Lh)、d(N)とする。すべての線
分検出マトリクスに対してこの発生確率と距離との積を
計算する。
Next, a method of determining the line segment detection matrix being referred to will be described. The occurrence probabilities of Uh, Lh (h = 1, 2,... K) and N are defined as P (Uh), P (Lh), and P (N), and the distance between Uh, Lh and N in the area currently being referred to is d. (Uh), d (Lh) and d (N). The product of the occurrence probability and the distance is calculated for all the line segment detection matrices.

【0028】dis(s)=d(s)×P(s) た
だし、sはUh、LhまたはN この積dis(s)が最も高い線分検出マトリクスが選
択される。
Dis (s) = d (s) × P (s) where s is Uh, Lh or N. A line segment detection matrix having the highest product dis (s) is selected.

【0029】すべての参照画素で線分検出マトリクスが
決定したらこれらから部分領域の画像の傾き角を以下の
様に計算する。
When the line segment detection matrices are determined for all the reference pixels, the inclination angle of the image of the partial area is calculated from these matrixes as follows.

【0030】参照画素成分(i、j)において検出され
た線分検出マトリクスが局所的傾き量t(度)を持って
いる場合、 lm(i、j)=t ただし、 t : −tw≦t≦tw tw: 最大傾き角許容値 i:N’×M’直線候補座標点パターンにおける水平方
向参照画素成分数 j:N’×M’直線候補座標点パターンにおける垂直方
向参照画素成分数 と定義し、傾き角Toutは Tout=MAX(lm(i、j)) ただし、MAX(k)は最大出現頻度を示したkの要素
で求まる。
When the line segment detection matrix detected in the reference pixel component (i, j) has a local inclination amount t (degree), lm (i, j) = t, where t: -tw ≦ t ≦ tw tw: maximum allowable inclination angle i: number of horizontal reference pixel components in N ′ × M ′ straight line candidate coordinate point pattern j: number of vertical reference pixel components in N ′ × M ′ straight line candidate coordinate point pattern , And the inclination angle Tout is Tout = MAX (lm (i, j)) where MAX (k) is obtained by the element of k indicating the maximum appearance frequency.

【0031】画像の傾き角を用いて画像を回転させるこ
とにより傾きのない画像を得ることができる。この画像
に記述されている文字を一文字毎に切り出す。その後文
字認識を行う。
By rotating the image using the tilt angle of the image, an image without tilt can be obtained. The characters described in this image are cut out character by character. Thereafter, character recognition is performed.

【0032】次に、本発明の第2実施例について図面を
参照にして説明する。図9は、本発明の第2実施例によ
る文書画像傾き検出装置の構成図である。符号は図1の
構成と同一のものは同一の符号をふっている。
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 9 is a block diagram of a document image inclination detecting apparatus according to a second embodiment of the present invention. The same reference numerals as those in FIG. 1 denote the same components.

【0033】まず、部分領域抽出手段1で抽出されたN
×M部分領域画像は直線成分候補抽出手段2の部分領域
ビット操作手段11において画像の変形を受ける。この
指示は部分領域要素間距離抽出手段12から発せられ
る。部分領域要素間距離抽出手段12では部分領域の最
小要素を垂直あるいは水平方向への投影値を用いて抽出
し、それら最小要素間の距離の平均を求めて全体として
文字列における文字間隔がどれほどかを推定する。その
後、図10(a)に示すように先ほどの推定値に応じて
水平方向に開始点aから終点bまで現在参照中のビット
データと直前のビットデータとのビットORを行ってい
く。その結果図10(b)のようになる。これにより最
小要素間の距離がほとんどなくなり線分検出マトリクス
照合手段4での直線候補座標点の抽出を行う際に直線要
素を表すより特徴的な点を抽出することができる。な
お、この場合文字の並びが横方向の場合とする。
First, the N extracted by the partial area extracting means 1
The × M partial area image undergoes image deformation in the partial area bit operating means 11 of the straight line component candidate extracting means 2. This instruction is issued from the partial area element distance extracting means 12. The partial area element distance extracting means 12 extracts the minimum element of the partial area using the projection value in the vertical or horizontal direction, finds the average of the distances between the minimum elements, and finds out how much the character spacing in the character string as a whole is. Is estimated. Thereafter, as shown in FIG. 10A, the bit OR of the currently referred bit data and the immediately preceding bit data are performed in the horizontal direction from the start point a to the end point b in accordance with the estimated value. The result is as shown in FIG. As a result, the distance between the minimum elements almost disappears, and when extracting the line candidate coordinate points by the line segment detection matrix matching means 4, more characteristic points representing the linear elements can be extracted. In this case, it is assumed that the arrangement of characters is horizontal.

【0034】次に直線成分候補抽出手段2で直線候補座
標点を抽出する。図4で示すようにq00〜qnm、
(n=N/点間隔、m=M/点間隔)を直線候補座標点
の検出開始点とする。これら開始点は周囲の隣接する開
始点から一定間隔をもって配置される。この開始点から
あらかじめ決定された上下左右いずれかの方向へ画素を
走査し、白画素から黒画素へ変化する点を検出する。こ
の変化点座標を直線候補座標点とし、直線成分候補記憶
手段3のN’×M’画素領域へ格納される。線分検出マ
トリクス照合手段4において線分検出マトリクスとの照
合が行われる。その後の処理は実施例1と同様である。
Next, the straight line component candidate extracting means 2 extracts straight line candidate coordinate points. As shown in FIG. 4, q00 to qnm,
(N = N / point interval, m = M / point interval) is set as the detection start point of the line candidate coordinate point. These starting points are arranged at a fixed interval from neighboring starting points. Pixels are scanned in any of the predetermined upper, lower, left, and right directions from this start point to detect points where white pixels change to black pixels. These change point coordinates are set as straight line candidate coordinate points and stored in the N ′ × M ′ pixel area of the straight line component candidate storage unit 3. In the line segment detection matrix matching means 4, matching with the line segment detection matrix is performed. Subsequent processing is the same as in the first embodiment.

【0035】次に、本発明の第3実施例について図面を
参照にして説明する。図11は、本発明の第3実施例に
よる文書画像傾き検出装置の構成図、図12は図11に
おけるニューラルネットの学習データ作成の概略説明図
である。
Next, a third embodiment of the present invention will be described with reference to the drawings. FIG. 11 is a configuration diagram of a document image inclination detecting apparatus according to a third embodiment of the present invention, and FIG. 12 is a schematic explanatory diagram of creation of learning data of the neural network in FIG.

【0036】まず、部分領域抽出手段1で抽出されたN
×M部分領域画像から直線成分候補抽出手段2で直線候
補座標点を抽出する。図4で示すようにq00〜qn
m、(n=N/点間隔、m=M/点間隔)を直線候補座
標点の検出開始点とする。これら開始点は周囲の隣接す
る開始点から一定間隔をもって配置される。この開始点
からあらかじめ決定された上下左右いずれかの方向へ画
素を走査し、白画素から黒画素へ変化する点を検出す
る。この変化点座標を直線候補座標点とし、直線成分候
補記憶手段3のN’×M’画素領域へ格納される。ニュ
ーラルネット17手段において線分検出マトリクスとの
照合をが行われる。
First, the N extracted by the partial area extracting means 1
The straight line component candidate extracting means 2 extracts straight line candidate coordinate points from the × M partial area image. As shown in FIG.
Let m, (n = N / point interval, m = M / point interval) be the detection start points of the line candidate coordinate points. These starting points are arranged at a fixed interval from neighboring starting points. Pixels are scanned in any of the predetermined upper, lower, left, and right directions from this start point to detect points where white pixels change to black pixels. These change point coordinates are set as straight line candidate coordinate points and stored in the N ′ × M ′ pixel area of the straight line component candidate storage unit 3. The neural network 17 performs collation with the line detection matrix.

【0037】次にニューラルネット手段17のニューラ
ルネットによる直線候補座標点から線分要素検出方法に
ついて図7、図11、図12を用いて説明する。
Next, a method of detecting a line segment element from a straight line candidate coordinate point by a neural network of the neural network means 17 will be described with reference to FIGS. 7, 11 and 12. FIG.

【0038】図12はニューラルネット学習用データ作
成方法を図示したものである。81は画像データであ
り、直線83はt度回転している。学習データは82で
示されるm×nドット幅領域でありその領域の中心線8
4に沿ってd間隔で移動する。傾き角tを教師信号とし
そのときの学習用画像データ82を供給しながら学習を
行う。このとき、所望の傾き角を出力しない時には、操
作者が所望の傾き角を出力するようそのニューラルネッ
トワーク(演算係数)を変える。そして、以下同じよう
に直線の傾き角tを〓tずつ変化させながら繰り返し学
習を行う。この結果、図12に示すような同一の傾き角
tを持つ多様のパターンの入力に対して出力がt(度)
とする事ができる。ここでは認識を傾きパターンに限定
しているため、図12に示すように画像データ81に複
数の領域にまたがって記入された傾きパターンを読み取
り、順次認識することで、学習のための操作を容易にし
ている。さらに、同じ傾きでも、その位置を変えて学習
しており、さらにその操作を容易にしている。
FIG. 12 illustrates a method for creating neural network learning data. Reference numeral 81 denotes image data, and a straight line 83 is rotated by t degrees. The learning data is an m × n dot width area indicated by 82, and the center line 8 of the area is
4 along d. Learning is performed while supplying the learning image data 82 at that time using the inclination angle t as a teacher signal. At this time, when the desired inclination angle is not output, the operator changes the neural network (operation coefficient) so as to output the desired inclination angle. Then, learning is repeatedly performed in the same manner while changing the inclination angle t of the straight line by Δt. As a result, the output becomes t (degree) with respect to the input of various patterns having the same inclination angle t as shown in FIG.
It can be. Here, since the recognition is limited to the inclination pattern, the operation for learning is facilitated by reading the inclination patterns written over a plurality of areas in the image data 81 and sequentially recognizing them as shown in FIG. I have to. Further, even with the same inclination, learning is performed by changing the position, and the operation is further facilitated.

【0039】この学習用データを作成した後に、このデ
ータを用いて傾きパターンの認識を行う。ニューラルネ
ットにおいては、学習により入力データに対して期待す
る出力データを得られるようにそのネットワーク(係
数)を変えていくことができる。この実施例では入力が
N’×M’画素領域のある領域のパターンであり、それ
に対する期待出力がこのパターンに最も近いパターン、
つまり形状が似ている線分検出マトリクスであればよい
ことになる。
After the learning data is created, the inclination pattern is recognized using the data. In a neural network, the network (coefficient) can be changed so that expected output data can be obtained for input data by learning. In this embodiment, the input is a pattern of a certain area of the N ′ × M ′ pixel area, and the expected output for the pattern is the pattern closest to this pattern.
That is, any line segment detection matrix having a similar shape may be used.

【0040】線分要素検出の場合は図7の領域72をニ
ューラルネットの入力とし、出力は検出した線分検出マ
トリクスの傾き量t(度)である。
In the case of detecting a line segment element, the area 72 in FIG. 7 is input to the neural network, and the output is the detected amount of inclination t (degree) of the detected line segment matrix.

【0041】すべての参照画素で線分検出マトリクスが
決定したらこれらから部分領域の画像の傾き角を計算す
るがこの計算式は以下のようになる。参照画素成分
(i、j)においてニューラルネットによって検出され
た線分検出マトリクスが局所的傾き量t(度)を持って
いる場合、 lm(i、j)=t ただし、 t : −tw≦t≦tw tw: 最大傾き角許容値 i :N’×M’直線候補座標点パターンにおける水平
方向参照画素成分数 j :N’×M’直線候補座標点パターンにおける垂直
方向参照画素成分数 と定義し、傾き角Toutは Tout=MAX(lm(i、j)) ただし、MAX(k)は最大出現頻度を示したkの要素
で求まる。
When the line segment detection matrices are determined for all the reference pixels, the inclination angle of the image of the partial region is calculated from these matrixes. The calculation formula is as follows. When the line segment detection matrix detected by the neural network in the reference pixel component (i, j) has a local inclination amount t (degree), lm (i, j) = t, where t: −tw ≦ t ≦ tw tw: maximum allowable tilt angle value i: number of horizontal reference pixel components in N ′ × M ′ straight line candidate coordinate point pattern j: number of vertical reference pixel components in N ′ × M ′ straight line candidate coordinate point pattern , And the inclination angle Tout is Tout = MAX (lm (i, j)) where MAX (k) is obtained by the element of k indicating the maximum appearance frequency.

【0042】この方式の特徴は実施例1の線分検出マト
リクステーブル格納手段5のメモリが不要となり、学習
をあらかじめ行っているため処理が高速なことである。
The feature of this method is that the memory of the line-segment detection matrix table storage means 5 of the first embodiment becomes unnecessary, and the processing is performed at high speed because learning is performed in advance.

【0043】[0043]

【発明の効果】以上の説明から明らかなように、本発明
は、線分検出マトリクスによってその直線候補座標点の
パターンの判別を行うことができる。
As is clear from the above description, according to the present invention, the pattern of the straight line candidate coordinate points can be determined by the line segment detection matrix.

【0044】さらに、過去の検出結果からの現在の発生
確率を加重することにより、個々のパターン判別の誤り
を防ぐことができて、より精度の高い傾き角検出ができ
るという効果を奏することができる。
Furthermore, by weighting the current occurrence probability from the past detection result, it is possible to prevent an error in individual pattern discrimination, and it is possible to obtain an effect that more accurate tilt angle detection can be performed. .

【0045】また、入力画像における文字列での文字間
が広いときに直線候補座標点の算出を容易にするため画
像の水平あるいは垂直方向へのビットORを行う。これ
により直線候補座標点が文字種に影響されずに安定に算
出できる。
When the character space in the character string in the input image is wide, the bit OR in the horizontal or vertical direction of the image is performed in order to facilitate the calculation of the straight line candidate coordinate point. Thus, the straight line candidate coordinate points can be stably calculated without being affected by the character type.

【0046】また、線分検出マトリクスによってその直
線候補座標点のパターンの判別を行う際にニューラルネ
ットを用いることにより処理に必要なメモリ量を節約す
る事ができ、高速な処理が可能となる。また、ニュウー
ラルネットを用いた認識の学習をする際、画像データに
複数の領域にまたがって傾きパターンを形成し、これを
一度に読み取るため、学習のための操作を容易にするこ
とができる。
Further, by using a neural network when discriminating the pattern of the line candidate coordinate points by the line segment detection matrix, the amount of memory required for processing can be saved, and high-speed processing can be performed. Further, when learning the recognition using a neural network, a tilt pattern is formed in a plurality of areas in the image data, and this is read at a time, so that the learning operation can be facilitated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例1の構成図FIG. 1 is a configuration diagram of a first embodiment.

【図2】部分領域抽出手段の説明図FIG. 2 is an explanatory diagram of a partial area extracting unit.

【図3】部分領域での直線成分候補抽出方法の説明図FIG. 3 is an explanatory diagram of a straight line component candidate extraction method in a partial area.

【図4】直線成分候補抽出手段の詳細説明図FIG. 4 is a detailed explanatory diagram of a straight-line component candidate extracting unit;

【図5】直線成分候補記憶手段の説明図FIG. 5 is an explanatory diagram of a linear component candidate storage unit.

【図6】n×m線分検出マトリクス図FIG. 6 is an n × m line segment detection matrix diagram.

【図7】n×m線分検出マトリクス照合方法の詳細説明
FIG. 7 is a detailed explanatory diagram of an nxm line segment detection matrix matching method;

【図8】線分検出マトリクスの発生確率テーブルの説明
FIG. 8 is an explanatory diagram of an occurrence probability table of a line segment detection matrix.

【図9】実施例2の構成図FIG. 9 is a configuration diagram of a second embodiment.

【図10】(a)部分領域ビット操作手段(操作開始
前)の説明図 (b)部分領域ビット操作手段(操作開始後)の説明図
10A is an explanatory diagram of a partial area bit operating unit (before the start of operation); FIG. 10B is an explanatory diagram of a partial area bit operating unit (after the start of operation);

【図11】実施例3の構成図FIG. 11 is a configuration diagram of a third embodiment.

【図12】ニューラルネットワークでの学習データ作成
方法の説明図
FIG. 12 is an explanatory diagram of a method for creating learning data in a neural network.

【符号の説明】[Explanation of symbols]

1 部分領域抽出手段 2 直線成分候補抽出手段 3 直線成分候補記憶手段 4 線分検出マトリクス照合手段 5 線分検出マトリクステーブル格納手段 6 画像傾き角計算手段 7 線分検出マトリクス発生確率テーブル格納手段 8 画像傾き補正手段 9 文字切り出し手段 10 文字認識手段 11 部分領域ビット操作手段 12 部分領域要素間距離抽出手段 13 学習用データ格納手段 14 入力データ切替手段 15 教師信号格納手段 21 1ページ画像 22 部分領域画像 32 直線成分候補座標の検出方向を示す矢印 33 直線成分候補座標の検出開始点 34 直線成分候補座標の検出変化点 51 N’×M’画素領域 52 直線成分候補座標点 61 注目点画素 62 直線成分候補点 72 n×m線分検出マトリクス 73 参照画素 81 入力画像データ 82 学習データ 83 t度の傾きをもつ直線 84 中心線 DESCRIPTION OF SYMBOLS 1 Partial area extraction means 2 Straight line component candidate extraction means 3 Straight line component candidate storage means 4 Line segment detection matrix collation means 5 Line segment detection matrix table storage means 6 Image inclination angle calculation means 7 Line segment detection matrix occurrence probability table storage means 8 Image Inclination correction means 9 Character cutout means 10 Character recognition means 11 Partial area bit manipulation means 12 Partial area element distance extraction means 13 Learning data storage means 14 Input data switching means 15 Teacher signal storage means 21 One page image 22 Partial area image 32 Arrow indicating the detection direction of the straight-line component candidate coordinates 33 Detection start point of the straight-line component candidate coordinates 34 Detection change point of the straight-line component candidate coordinates 51 N '× M' pixel area 52 Straight-line component candidate coordinate points 61 Attention point pixel 62 Straight-line component candidate Point 72 nxm line segment detection matrix 73 Reference pixel 81 Input image data 82 linear 84 centerline with the inclination of the training data 83 t of

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 読み取った画像を所定領域に分割し、抽
出する部分領域抽出手段と、前記所定領域の傾きパター
ンを検出する検出手段と、予め複数の角度パターンを格
納する記憶手段と、前記検出手段が検出した傾きパター
ンと前記記憶手段に記憶される角度パターンとを照合す
る照合手段と、この照合手段による照合の結果を算出す
る制御手段とを備えた文字認識装置。
1. A partial area extracting means for dividing a read image into a predetermined area and extracting the same, a detecting means for detecting a tilt pattern of the predetermined area, a storing means for storing a plurality of angle patterns in advance, A character recognizing device comprising: matching means for matching the inclination pattern detected by the means with the angle pattern stored in the storage means; and control means for calculating the result of matching by the matching means.
【請求項2】 読み取った画像を所定領域に分割し、抽
出する部分領域抽出手段と、前記所定領域の傾きパター
ンを検出する検出手段と、予め複数の角度パターンを格
納する記憶手段と、前記検出手段が検出した傾きパター
ンと前記記憶手段に記憶される角度パターンとを照合す
る照合手段と、過去における傾きパターンの発生確率を
格納するパターンテーブルと、前記照合手段による照合
結果と前記パターンテーブルに格納される発生確率とに
基づいて照合結果を決定する制御手段とを備えた文字認
識装置。
2. A partial area extracting means for dividing a read image into a predetermined area and extracting the same, a detecting means for detecting a tilt pattern of the predetermined area, a storing means for storing a plurality of angle patterns in advance, A matching unit that matches the inclination pattern detected by the unit with the angle pattern stored in the storage unit; a pattern table that stores a past occurrence probability of the inclination pattern; a matching result obtained by the matching unit and stored in the pattern table And a control unit for determining a collation result based on the occurrence probability to be performed.
【請求項3】 読み取った画像を所定領域に分割し、抽
出する部分領域抽出手段と、この部分領域抽出手段が抽
出した画像を水平方向に所定ビット付加するビット操作
手段と、このビット操作手段により加工された前記所定
領域の傾きパターンを検出する検出手段と、予め複数の
角度パターンを格納する記憶手段と、前記検出手段が検
出した傾きパターンと前記記憶手段に記憶される角度パ
ターンとを照合する照合手段と、この照合手段による照
合の結果を算出する制御手段とを備えた文字認識装置。
3. A partial area extracting means for dividing a read image into predetermined areas and extracting the same, a bit operating means for adding predetermined bits in a horizontal direction to the image extracted by the partial area extracting means, and a bit operating means. Detecting means for detecting the processed inclination pattern of the predetermined area; storage means for storing a plurality of angle patterns in advance; and collating the inclination pattern detected by the detection means with the angle pattern stored in the storage means. A character recognition device, comprising: a matching unit; and a control unit that calculates a result of the matching by the matching unit.
【請求項4】 読み取った画像を所定領域に分割し、抽
出する部分領域抽出手段と、前記所定領域の傾きパター
ンを検出する検出手段と、この検出手段で検出した傾き
パターンをニューラルネットワークにより近似度を検出
するニューラルネットワーク手段とを備えた文字認識装
置。
4. A partial area extracting means for dividing a read image into a predetermined area and extracting the same, a detecting means for detecting a tilt pattern of the predetermined area, and a degree of approximation of the tilt pattern detected by the detecting means by a neural network. And a neural network means for detecting a character.
【請求項5】 所定領域の算出した傾き角に基づいて画
像の傾きを回転することにより補正し、補正後の画像か
ら文字を1文字毎に切出し、文字認識することを特徴と
する請求項1乃至4記載の文字認識装置。
5. The method according to claim 1, wherein the inclination of the image is corrected by rotating the inclination of the image based on the calculated inclination angle of the predetermined area, and characters are cut out from the corrected image one by one to recognize the characters. A character recognition device according to any one of claims 1 to 4.
【請求項6】 傾きパターンが複数の所定領域にまたが
って記載されている学習用データを読み取る読取手段
と、この読取手段が読み取った傾きパターンとこれに対
応する傾き角を示す教師信号を学習する学習手段と、こ
の学習手段により得た傾きパターンと傾き角とを対応づ
けて格納する格納手段とを備えた文字認識装置。
6. A reading means for reading learning data in which a tilt pattern is described over a plurality of predetermined areas, and a teacher signal indicating a tilt pattern read by the reading means and a tilt angle corresponding thereto is learned. A character recognition device comprising: learning means; and storage means for storing an inclination pattern and an inclination angle obtained by the learning means in association with each other.
JP8165708A 1996-06-26 1996-06-26 Character recognizing device Pending JPH1011533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8165708A JPH1011533A (en) 1996-06-26 1996-06-26 Character recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8165708A JPH1011533A (en) 1996-06-26 1996-06-26 Character recognizing device

Publications (1)

Publication Number Publication Date
JPH1011533A true JPH1011533A (en) 1998-01-16

Family

ID=15817553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8165708A Pending JPH1011533A (en) 1996-06-26 1996-06-26 Character recognizing device

Country Status (1)

Country Link
JP (1) JPH1011533A (en)

Similar Documents

Publication Publication Date Title
US5181260A (en) Method for determining the amount of skew of image, method for correcting the same, and image data processing system
JP4607633B2 (en) Character direction identification device, image forming apparatus, program, storage medium, and character direction identification method
JP3108979B2 (en) Image processing method and image processing apparatus
JPH03201866A (en) Decision of picture skew angle from data including data of compressed form
JPH06508465A (en) Character recognition system and method using means for measuring endpoint characteristics in a character bitmap
JPH08167000A (en) Device and method for character recognition
JPH07220026A (en) Method and device for picture processing
JPH09147109A (en) Method and device for specific mark detection
JPH1011533A (en) Character recognizing device
JP2000076378A (en) Character recognizing method
JP4070486B2 (en) Image processing apparatus, image processing method, and program used to execute the method
JP2001101399A (en) Method for detecting image inclination, method for detecting margin, method for correcting image inclination and document image processor
JP3709991B2 (en) Score recognition device
JPH09179982A (en) Specific pattern detecting method
JPS62121589A (en) Character segmenting system
JP3311551B2 (en) Image data input processing method and apparatus
JP4011859B2 (en) Word image normalization device, word image normalization program recording medium, and word image normalization program
JPH04276888A (en) Character reader
JPH08194776A (en) Method and device for processing slip
JP3710164B2 (en) Image processing apparatus and method
JP2994985B2 (en) Character recognition method and character recognition device
JP2755299B2 (en) Image processing method
JP3812835B2 (en) Score recognition device
JP2993533B2 (en) Information processing device and character recognition device
JP3915974B2 (en) Image processing apparatus, image processing method, program, and recording medium