JP2926842B2 - Character extraction circuit - Google Patents
Character extraction circuitInfo
- Publication number
- JP2926842B2 JP2926842B2 JP2066526A JP6652690A JP2926842B2 JP 2926842 B2 JP2926842 B2 JP 2926842B2 JP 2066526 A JP2066526 A JP 2066526A JP 6652690 A JP6652690 A JP 6652690A JP 2926842 B2 JP2926842 B2 JP 2926842B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- coordinates
- pixels
- character
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Character Input (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は文字認識装置に関し、特に文字切出し回路に
関する。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device, and more particularly to a character extraction circuit.
従来、この種の文字切出し回路は、画像をバイナリに
入力することにより画像全体を一方(一般には画像走査
方向に対し直角な方向)へ圧縮し、文字塊の投影画像に
より切出す方式を用いており、圧縮パタンレジスタ、文
字塊情報作成・更新回路、切出し条件検出回路により構
成されていた。Conventionally, this type of character extraction circuit uses a method of compressing the entire image in one direction (generally in a direction perpendicular to the image scanning direction) by inputting the image in binary, and extracting the image using a projected image of a character block. And a compression pattern register, a character block information creating / updating circuit, and a cut-out condition detecting circuit.
上述した従来の文字切出し回路は、圧縮パタンにより
文字塊を検出しているため、斜め文字(例えば第7図)
のような画像は、分離して検出することが不可能であっ
たため、しばしば読取性能向上の足かせとなっていた。In the above-described conventional character extraction circuit, since a character block is detected by a compression pattern, a diagonal character (for example, FIG. 7)
Since such images cannot be detected separately, they often hinder the improvement of reading performance.
第8図は第7図の画像の従来方式による処理過程を示
す図である、第8図(1)は入力画像のうち、左側文字
の中間あたりを走査した時の処理状態を示している。前
回までの走査により作成された圧縮パタン(A−1)
と、A点走査により得られた入力画像との論理和により
A点での圧縮パタンが得られる。第8図(2)は、左側
文字の最右端を走査した時の処理状態を示す図である。
本来ならばB点を走査した時点で左側文字が切出される
が、文字が斜めに記載されているため、右側文字の左端
パタンが入され、その結果圧縮パタンBが得られ、2つ
の文字が結合されてしまうため、2つの文字を分離して
切出しできない。FIG. 8 is a diagram showing a process of processing the image of FIG. 7 by the conventional method. FIG. 8 (1) shows a processing state when the middle of the left character in the input image is scanned. Compression pattern created by the previous scan (A-1)
And the input image obtained by scanning the point A, the compression pattern at the point A is obtained. FIG. 8 (2) is a diagram showing a processing state when the rightmost end of the left character is scanned.
Originally, the left character is cut out when point B is scanned. However, since the character is described diagonally, the left end pattern of the right character is inserted. As a result, a compression pattern B is obtained, and the two characters are Because they are combined, two characters cannot be separated and cut out.
本発明の文字切り出し回路は、帳票等の画像が格納さ
れる画像メモリと、画像メモリ空間を走査するアドレス
制御部と、特徴バッファと、3×3メッシュの格子画素
において、中心座標から8つの周辺画素に向かう8つの
ベクトルによって中心画素と周辺画素の黒格子のつなが
りをコード化し、前記格子画素の左下及び右上の二つの
座標と合わて、前記3×3メッシュの格子画素の特徴と
して特徴バッファに格納する画素特徴抽出部と、入力画
素の走査が1画素移動する毎に、特徴バッファに格納さ
れているつながりのある格子画素の前記左下の座標を前
記つながりのある格子画素の左下座標のうちもっとも小
さいものに更新し、つながりのある格子画素の前記右上
の座標を前記つながりのある格子画素の右上座標のうち
もっとも大きいものに更新し、文字塊を検出する判断対
象となるベクトル方向に連続する黒画素が見られなくな
ると、特徴バッファに格納されている座標を最終切り出
し情報として出力する斜め文字切り出し部とを有する。The character cutout circuit according to the present invention includes an image memory for storing an image such as a form, an address control unit for scanning the image memory space, a feature buffer, and 3 × 3 mesh grid pixels. The connection of the black lattice of the center pixel and the peripheral pixels is coded by eight vectors toward the pixel, and the two coordinates of the lower left and the upper right of the lattice pixels are combined into a feature buffer as a characteristic of the 3 × 3 mesh lattice pixels. A pixel feature extraction unit to store, and every time the scanning of the input pixel moves by one pixel, the lower left coordinate of the connected grid pixel stored in the feature buffer is the most lower left coordinate of the connected grid pixel. Update to a smaller one, and change the upper right coordinates of the connected grid pixels to the largest of the upper right coordinates of the connected grid pixels. It has a diagonal character cutout unit that outputs the coordinates stored in the feature buffer as the final cutout information when the black pixels are updated and the continuous black pixels in the vector direction as the determination target for detecting the character chunk are no longer seen.
本発明は、圧縮パタンによる文字検出をせずに、各画
素の相関関係を画素特徴として抽出し、その特徴のつな
がりによって文字塊を検出・抽出し、切出し情報を得る
ものである。したがって、従来方式では圧縮パタンによ
り統合してしまた2つのパタンを完全に2つに分離して
切出すことができる。According to the present invention, a correlation between pixels is extracted as a pixel feature without detecting a character by a compression pattern, and a character block is detected and extracted based on a connection between the features to obtain cutout information. Therefore, in the conventional method, the two patterns can be integrated by the compression pattern and the two patterns can be completely separated and cut out.
次に、本発明の実施例について図面を参照して説明す
る。Next, embodiments of the present invention will be described with reference to the drawings.
第1図は本発明の文字切出し回路の一実施例のブロッ
ク図、第2図は3×3メッシュの格子画素において、中
心画素とそれを囲む8つの周辺画素との相関関係を示す
図、第3図は入力画素の例と、その特徴および中心画素
の座標を示す図、第4図は入力画素の例と、その特徴お
よび中心画素の座標を示す図、第5図は最終切出しが行
なわれる入力画素の例を示す図、第6図は第7図の入力
画素においてX=A,X=Bの位置における格子画素を示
す図である。FIG. 1 is a block diagram of a character extracting circuit according to an embodiment of the present invention. FIG. 2 is a diagram showing a correlation between a central pixel and eight peripheral pixels surrounding the central pixel in a 3 × 3 mesh lattice pixel. FIG. 3 is a diagram showing an example of an input pixel and its features and the coordinates of a center pixel. FIG. 4 is a diagram showing an example of an input pixel and its features and coordinates of a center pixel. FIG. 6 is a diagram showing an example of input pixels, and FIG. 6 is a diagram showing lattice pixels at positions of X = A and X = B in the input pixels of FIG.
画素特徴抽出部2は処理対象画像を下から上に走査
し、左から右へ移動する3×3メッシュの格子画素にお
いて、中心画素と、それを囲む8つの周辺画素との相関
関係、即ち、黒格子のつながり具合をコード化し、また
中心画素の座標と合せて画素特徴として表現するもので
ある。簡単なために、相関関係を8つのベクトルa〜f
(第2図(a))で表現し、座標をXS,YS,YL,YL(第3
図(b))で表現する。この座標は、格子画素のつなが
りによって順次更新され、後に切出し情報として用いら
れる。今、第2図(a)のような画素が入力されたと
き、中心画素と黒格子でつながっているのはベクトルe,
fの画素で、中心画素の座標は、(XS,YS,XL,YL)=(p
−1,q−1,p+1,q−1)となる。第3図(b)の場合も
同様である。斜め文字切出し部4は3×3メッシュの格
子画素において、画素特徴抽出部2で得られた中心画素
の特徴と、あらかじめ、前列までの走査によって予め特
徴バッファ3に格納されている周辺画素の特徴から、そ
のつながりを確認し、切出し情報を作成・更新し、画素
特徴として、再度特徴バッファ3に格納する。また、条
件によって、作成された切出し情報を最終の文字切出し
情報として外部に出力する。The pixel feature extraction unit 2 scans the image to be processed from bottom to top, and in a 3 × 3 mesh lattice pixel moving from left to right, the correlation between the center pixel and eight surrounding pixels surrounding it, that is, The degree of connection of the black lattice is coded, and is expressed as a pixel feature together with the coordinates of the center pixel. For simplicity, the correlation is represented by eight vectors af
(FIG. 2 (a)) represented by the coordinates of the X S, Y S, Y L , Y L ( 3
(B) of FIG. These coordinates are sequentially updated by the connection of the lattice pixels, and are later used as cutout information. Now, when a pixel as shown in FIG. 2A is input, the center pixel and the black lattice are connected by the vectors e,
In the pixel of f, the coordinates of the center pixel are (X S , Y S , X L , Y L ) = (p
−1, q−1, p + 1, q−1). The same applies to the case of FIG. 3 (b). In the 3 × 3 mesh grid pixels, the oblique character extraction unit 4 includes the features of the center pixel obtained by the pixel feature extraction unit 2 and the features of the peripheral pixels previously stored in the feature buffer 3 by scanning up to the previous row. Then, the connection is confirmed, cut-out information is created / updated, and stored as a pixel feature in the feature buffer 3 again. Also, depending on the conditions, the created cutout information is output to the outside as final character cutout information.
入力画素を第4図としたとき、格子画素A,B,Cの各々
の特徴を求めると、第4図(b)に示したようになる。
今、格子画素Bに注目して画素特徴抽出処理を行なった
時、周辺画素とのつながりを見ると、前列走査時に検出
された格子画素Aが示すつながりのベクトルfと、現在
処理中の格子画素Bが示すつながりのペクトルが互いに
向かい合い、格子画素A,Bが連続していることを示して
いる。あらかじめ特徴バッファ3に格納されている格子
画素Aの特徴の内の座標情報と格子画素Bの座標情報が
統合され、切出し情報の更新処理が行なわれる。すなわ
ち、座標情報の統合により、切り出し情報の座標のXS,
YSについては、格子画素A,Bの座標にうち、小さい方の
XS,YSが求められてその値に更新され、XL,YLについて
は、格子画素A,Bの座標にうち、大きい方のXL,YLが求
められてその値に更新される。Assuming that the input pixels are shown in FIG. 4, the characteristics of each of the lattice pixels A, B, and C are obtained as shown in FIG. 4B.
Now, when the pixel feature extraction process is performed by focusing on the grid pixel B, the connection with the surrounding pixels is viewed. The connection vector f indicated by the grid pixel A detected during the front row scanning and the grid pixel currently being processed are displayed. The connected vectors indicated by B face each other, indicating that the grid pixels A and B are continuous. The coordinate information of the features of the lattice pixel A and the coordinate information of the lattice pixel B stored in the feature buffer 3 in advance are integrated, and the cut-out information is updated. That is, by integrating the coordinate information, the coordinates XS,
For YS, the smaller of the coordinates of the grid pixels A and B, XS, YS, is obtained and updated to that value. For XL, YL, the larger of the coordinates of the grid pixels A, B, XL , YL is determined and updated to that value.
格子画素Bにおいて、ベクトルd,e方向につながって
いる黒画素については格子画素BとC、格子画素Bと次
列走査時に検出される格子画素との関係であるため、こ
の時点では統合されない。したがって、格子画素Bに対
する処理が終了した時点で、統合された画素特徴を示す
ベクトルと座標切出し情報は、第4図(c)のようにな
る。次に、格子画素Cに注目して処理を行なった時、同
様に格子画素AおよびBとの連続性が検出されるので、
格子画素A,B,C全てが統合される。したがって、統合後
の格子画素A,B,C各々の特徴は、 格子画素A:(e,f)(p−1,q−1,p+2,q+2) 格子画素B:(b,d,e)(p−1,q−1,p+2,q+2) 格子画素C:(a,e,f,h)(p−1,q−1,p+2,q+2) となる。In the lattice pixel B, the black pixels connected in the vector d and e directions are not integrated at this time because the lattice pixels B and C are related to each other, and the lattice pixel B and the lattice pixel detected in the next column scan. Therefore, when the processing for the lattice pixel B is completed, the vector indicating the integrated pixel feature and the coordinate extraction information are as shown in FIG. 4 (c). Next, when processing is performed by focusing on the lattice pixel C, the continuity with the lattice pixels A and B is detected in the same manner.
All of the grid pixels A, B, and C are integrated. Therefore, the characteristics of the grid pixels A, B, and C after integration are as follows: grid pixel A: (e, f) (p-1, q-1, p + 2, q + 2) grid pixel B: (b, d, e) (P−1, q−1, p + 2, q + 2) Grid pixel C: (a, e, f, h) (p−1, q−1, p + 2, q + 2).
以上のようにして、処理画像上を走査する3×3メッ
シュ格子画素に対する処理において連続性が検出される
とこれらの画素の特徴は更新され続ける。この処理は、
文字塊を分離して切出すための切出し条件を検知するま
で続けられる。ここでは、ベクトルd,e,f,gの方向に連
続する黒画素が見られない場合を切出し条件としてい
る。As described above, when continuity is detected in the processing on the 3 × 3 mesh grid pixels that scan the processed image, the characteristics of these pixels are continuously updated. This process
The process is continued until a cutout condition for separating and cutting out a character block is detected. Here, the case where no continuous black pixel is seen in the directions of the vectors d, e, f, and g is set as the extraction condition.
第5図に示すように、文字塊、この場合は「1」の最
右端に3×3メッシュが至り、切出し処理が最終段階に
至ると、斜め文字切出し部4は最終切出し条件を検知
し、格子画素Yの特徴で得られる座標を最終切出し情報
として出力する。As shown in FIG. 5, the 3 × 3 mesh reaches the rightmost end of the character block, in this case “1”, and when the extraction processing reaches the final stage, the oblique character extraction unit 4 detects the final extraction condition, The coordinates obtained by the characteristics of the lattice pixel Y are output as final cutout information.
以上の画素特徴抽出部2、斜め文字切出し部4を第1
図に示すような構成において、従来の方式で切出せなか
った第7図の入力画像について動作させる。第7図に示
した入力画像のX=A,Y=Bを走査した時の処理結果を
第6図および表1に示す。ここで(m,n)は左側パタン
の左下座標、(p,q)は右側パタンの左下座標を示す。
また、X=Bのとき、左側パタンは切出し条件をする。The above pixel feature extraction unit 2 and oblique character extraction unit 4
In the configuration shown in the figure, the operation is performed on the input image of FIG. 7 which cannot be cut out by the conventional method. FIG. 6 and Table 1 show the processing results when X = A, Y = B of the input image shown in FIG. 7 is scanned. Here, (m, n) indicates the lower left coordinate of the left pattern, and (p, q) indicates the lower left coordinate of the right pattern.
Also, when X = B, the left pattern sets the cutout condition.
表1の特徴テーブルより、従来方式では圧縮パタンに
より統合してしまった2つのパタンが、本実施例では完
全に2つに分離され、切出されるのがわかる。 From the feature table of Table 1, it can be seen that the two patterns integrated by the compression pattern in the conventional method are completely separated into two and cut out in the present embodiment.
以上説明したように本発明は、各画素の相関関係を画
素特徴として抽出し、その特徴のつながりによって文字
塊を検出・抽出し、切出し情報を得ることにより、従来
方式では圧縮パタンにより統合してしまった2つのパタ
ンを完全に2つに分離して切出すことができる効果があ
る。As described above, the present invention extracts the correlation of each pixel as a pixel feature, detects and extracts a character block based on the connection of the features, and obtains cutout information. There is an effect that two broken patterns can be completely separated and cut out.
第1図は本発明の文字切出し回路の一実施例のブロック
図、第2図は3×3メッシュの格子画素において、中心
画素とそれを囲む8つの周辺画素との相関関係を示す
図、第3図は入力画素の例と、その特徴および中心画素
の座標を示す図、第4図は入力画素の例と、その特徴お
よび中心画素の座標を示す図、第5図は最終切出しが行
なわれる入力画素の例を示す図、第6図は第7図の入力
画像においてX=A,X=Bの位置における格子画素を示
す図、第7図は斜め文字の入力画像の例を示す図、第8
図は第7図の入力画像を従来方式にて処理した結果を示
す図である。 1……画像メモリ、2……画素特徴抽出部、 3……特徴バッファ、4……斜め文字切出し部、 5……アドレス制御部。FIG. 1 is a block diagram of a character extracting circuit according to an embodiment of the present invention. FIG. 2 is a diagram showing a correlation between a central pixel and eight peripheral pixels surrounding the central pixel in a 3 × 3 mesh lattice pixel. FIG. 3 is a diagram showing an example of an input pixel and its features and the coordinates of a center pixel. FIG. 4 is a diagram showing an example of an input pixel and its features and coordinates of a center pixel. FIG. 6 is a diagram showing an example of an input pixel, FIG. 6 is a diagram showing a grid pixel at the position of X = A, X = B in the input image of FIG. 7, FIG. 7 is a diagram showing an example of an input image of oblique characters, 8th
The figure shows the result of processing the input image of FIG. 7 by the conventional method. 1 ... Image memory, 2 ... Pixel feature extraction unit, 3 ... Feature buffer, 4 ... Diagonal character extraction unit, 5 ... Address control unit.
Claims (1)
の周辺画素に向かう8つのベクトルによって中心画素と
周辺画素の黒格子のつながりをコード化し、前記格子画
素の左下及び右上の二つの座標と合わせて、前記3×3
メッシュの格子画素の特徴として特徴バッファに格納す
る画素特徴抽出部と、 入力画素の走査が1画素移動する毎に、特徴バッファに
格納されているつながりのある格子画素の前記左下の座
標を前記つながりのある格子画素の左下座標のうちもっ
とも小さいものに更新し、つながりのある格子画素の前
記右上の座標を前記つながりのある格子画素の右上座標
のうちもっとも大きいものに更新し、文字塊を検出する
判断対象となるベクトル方向に連続する黒画素が見られ
なくなると、特徴バッファに格納されている座標を最終
切り出し情報として出力する斜め文字切り出し部とを有
する文字切り出し回路。1. An image memory for storing an image of a form or the like, an address control unit for scanning an image memory space, a feature buffer, and 3 × 3 mesh grid pixels from the center coordinates to eight peripheral pixels. The connection of the center pixel and the black lattice of the peripheral pixel is coded by eight vectors, and the 3 × 3 coordinates are added to the two coordinates of the lower left and upper right of the lattice pixel.
A pixel feature extraction unit that stores the feature of the grid pixel of the mesh in the feature buffer; and each time the scanning of the input pixel moves by one pixel, the lower left coordinate of the connected grid pixel stored in the feature buffer is connected to the connection. Update the lower left coordinate of the connected grid pixel to the smallest one, update the upper right coordinate of the connected grid pixel to the largest of the upper right coordinates of the connected grid pixel, and detect the character block A character cutout circuit having a diagonal character cutout unit for outputting the coordinates stored in the feature buffer as final cutout information when black pixels continuous in the vector direction to be determined are no longer seen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2066526A JP2926842B2 (en) | 1990-03-16 | 1990-03-16 | Character extraction circuit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2066526A JP2926842B2 (en) | 1990-03-16 | 1990-03-16 | Character extraction circuit |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03266197A JPH03266197A (en) | 1991-11-27 |
JP2926842B2 true JP2926842B2 (en) | 1999-07-28 |
Family
ID=13318406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2066526A Expired - Lifetime JP2926842B2 (en) | 1990-03-16 | 1990-03-16 | Character extraction circuit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2926842B2 (en) |
-
1990
- 1990-03-16 JP JP2066526A patent/JP2926842B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH03266197A (en) | 1991-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5075895A (en) | Method and apparatus for recognizing table area formed in binary image of document | |
KR930002349B1 (en) | Character array devide method for press image | |
JP2926842B2 (en) | Character extraction circuit | |
JP2568172B2 (en) | Image information processing device | |
JP2789622B2 (en) | Character / graphic area determination device | |
US20020012469A1 (en) | Picture image processing method, processing apparatus and recording medium | |
JP2800192B2 (en) | High-speed character / graphic separation device | |
JP2954218B2 (en) | Image processing method and apparatus | |
JPH05128306A (en) | Attribute discriminating method for sentence picture | |
JP3031565B2 (en) | Table space judgment method | |
JPH0877355A (en) | Weighed pattern matching method | |
JP2977259B2 (en) | Skew detection method | |
JP2002269561A (en) | Image processing device and marker | |
JP2743378B2 (en) | Character recognition method | |
JP2805352B2 (en) | Picture cutting device | |
JP2507949B2 (en) | Character / graphic area determination device | |
JPH06162106A (en) | Electronic filing system | |
JPH0394393A (en) | Character recognizing device | |
JPH07160811A (en) | Character recognizing device | |
JPH07120386B2 (en) | Character recognition device | |
JPH11345333A (en) | Labeling processing system and method therefor | |
JPS6250971A (en) | Pattern discriminating device | |
JP2002032713A (en) | Character recognition processing method | |
JPH0620091A (en) | Character size extracting method | |
JP2006331216A (en) | Image processor, processing object range designation method in image processor, image processing range designation program and recording medium for recording image processing range designation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090514 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term |