JP2003271973A - Method and program for image processing - Google Patents
Method and program for image processingInfo
- Publication number
- JP2003271973A JP2003271973A JP2002074000A JP2002074000A JP2003271973A JP 2003271973 A JP2003271973 A JP 2003271973A JP 2002074000 A JP2002074000 A JP 2002074000A JP 2002074000 A JP2002074000 A JP 2002074000A JP 2003271973 A JP2003271973 A JP 2003271973A
- Authority
- JP
- Japan
- Prior art keywords
- circumscribed rectangle
- label
- pixel
- attribute
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力画像に対する
領域識別を行う画像処理方法および画像処理プログラム
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing program for performing area identification on an input image.
【0002】[0002]
【従来の技術】近年、コンピュータの処理能力が著しく
向上し、それに伴い表現豊かな文書作成ツールが発達
し、文書のカラー化、多様化が進んでいる。また、文書
管理の電子化が進み、従来紙文書で保管されていたもの
をスキャナーで取り込むという紙文書の電子化が進んで
いる。2. Description of the Related Art In recent years, the processing capability of computers has been remarkably improved, and along with this, rich document expression tools have been developed, and documents are being colorized and diversified. In addition, the digitization of document management is progressing, and the digitization of paper documents, which are conventionally stored as paper documents by a scanner, is progressing.
【0003】これに対し、従来技術は、2値画像に対す
るランレングスの分布を調べ白ラン黒ランの長さにより
文字領域や図形領域等を分割するランレングス分析方式
を用いたものや、入力画像のフーリエスペクトルを分析
して各種領域に識別するスペクトル分析方式を用いたも
のや、特開昭64-15889号公報に記載されている
ように垂直および水平方向の射影を交互に繰り返して、
領域を分割していく射影分析方式を用いたものがある。On the other hand, in the prior art, a run length analysis method is used in which the distribution of run lengths for a binary image is examined and a character area, a graphic area, or the like is divided according to the length of a white run or a black run, or an input image. Using a spectrum analysis method for analyzing the Fourier spectrum of the above and identifying it in various regions, or by alternately repeating vertical and horizontal projections as described in JP-A-64-15889.
There is a method using a projective analysis method that divides an area.
【0004】一方、コンピュータの処理能力向上で、文
書処理ツールに対しても高機能化が求められる状況にな
り、文字領域の抽出に留まらず、図形や写真、背景など
も的確に抽出し、スキャン文書を再利用できる形式、例
えば構造化文書への変換等の機能が望まれるようになっ
ている。On the other hand, due to the improvement in computer processing capability, it has become necessary to improve the functionality of document processing tools as well, and not only extraction of character areas but also figures, photographs, backgrounds, etc. are accurately extracted and scanned. There is a growing demand for a function that allows the document to be reused, such as conversion into a structured document.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、ランレ
ングス分析法式や射影分析方式等は一定の単位領域(矩
形単位等)毎の領域識別であり、オブジェクト単位の識
別でないため、絵柄の外形が矩形でない場合は絵柄領域
部分のみを分離識別すことが難しい。また、背景が網点
でその上に文字や網点写真が構成されているような文書
ではフーリエスペクトルに差がでないため、このようの
文書に対して、スペクトル分析方式を用いて領域識別を
するのは難しい。このように従来技術では、文書のカラ
ー化、レイアウトの複雑化している現状を鑑みれば、文
書の領域識別技術として、十分満足が得られているとは
言い難い。However, since the run-length analysis method, the projection analysis method, etc., are area identification for each fixed unit area (rectangular unit, etc.) and are not identification for each object, the outline of the pattern is not rectangular. In this case, it is difficult to separate and identify only the picture area. In addition, since there is no difference in the Fourier spectrum in a document in which the background is halftone dots and characters or halftone photographs are formed on it, region identification is performed using the spectrum analysis method for such documents. Is difficult. As described above, it is hard to say that the conventional technique is sufficiently satisfactory as the document area identification technique in view of the current situation that the document is colored and the layout is complicated.
【0006】[0006]
【課題を解決するための手段】本発明はこのような課題
を解決するために成されたものである。すなわち、本発
明は、入力画像を黒画素に対応したエッジと白画素に対
応した非エッジとに分離する2値化ステップと、2値化
ステップで2値化された2値画像の黒画素に対し、上下
・左右・斜めで連続している画素に同一ラベルを付加
し、同一ラベルの付された画素群の外接矩形をかたどっ
ていく第1のラベリングステップと、2値化ステップで
2値化された2値画像の白画素に対し、上下・左右で連
続している画素に同一ラベルを付加し、同一ラベルの付
された画素群の外接矩形をかたどっていく第2のラベリ
ングステップと、第1のラベリングステップでラベル付
けされた外接矩形と第2のラベリングステップでラベル
付けされた外接矩形との包含関係を検出する包含関係検
出ステップと、包含関係検出ステップの結果と、第1の
ラベリングステップでラベル付けされた外接矩形に関す
る第1の情報(幅、高さ、面積、画素密度、分散)と前
記第2のラベリングステップでラベル付けされた外接矩
形に関する第2の情報(幅、高さ)とを用いて、全画素
に対し、属性を区別する属性検出ステップと、属性検出
ステップの検出結果に基づいて入力画像の領域分割を行
う領域分割ステップとを備える画像処理方法である。ま
た、これらのステップを備える画像処理プログラムでも
ある。The present invention has been made to solve the above problems. That is, according to the present invention, a binarization step of separating an input image into an edge corresponding to a black pixel and a non-edge corresponding to a white pixel, and a black pixel of a binary image binarized in the binarization step are performed. On the other hand, the same label is added to pixels that are consecutive in the vertical, horizontal, and diagonal directions, and the first labeling step that traces the circumscribed rectangle of the pixel groups with the same label and the binarization step is used for binarization. The second labeling step of adding the same label to the pixels that are continuous in the vertical and horizontal directions with respect to the white pixels of the created binary image, and modeling the circumscribed rectangle of the pixel group with the same label; A inclusion relation detecting step of detecting an inclusion relation between the circumscribed rectangle labeled in the first labeling step and the circumscribed rectangle labeled in the second labeling step, a result of the inclusion relation detection step, and a first labeling The first information (width, height, area, pixel density, variance) about the bounding rectangle labeled in the labeling step and the second information (width, height) about the bounding rectangle labeled in the second labeling step. Is an image processing method including an attribute detection step for distinguishing attributes for all pixels, and an area division step for performing area division of the input image based on the detection result of the attribute detection step. It is also an image processing program including these steps.
【0007】このような本発明では、第1のラベリング
ステップと第2のラベリングステップとでラベリングの
条件を変えていることから、黒画素の群による外接矩形
と白画素の群による外接矩形との包含関係を的確に把握
でき、入力画像の領域分割を正確に行うことができるよ
うになる。In the present invention as described above, since the labeling conditions are changed between the first labeling step and the second labeling step, the circumscribed rectangle of the group of black pixels and the circumscribed rectangle of the group of white pixels are changed. The inclusion relation can be accurately grasped, and the area of the input image can be accurately divided.
【0008】[0008]
【発明の実施の形態】以下、本発明の実施の形態を図に
基づき説明する。図1は本実施形態の画像処理方法を実
現する装置の構成図である。すなわち、本装置は、画像
入力部101、CPU102、記憶部103、領域識別
部104から構成される。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an apparatus that realizes the image processing method of this embodiment. That is, the present apparatus includes the image input unit 101, the CPU 102, the storage unit 103, and the area identification unit 104.
【0009】画像入力部101はスキャナーなどの原稿
画像を入力する部分である。CPU102は中央処理装
置であって、記憶部103に格納されている画像処理プ
ログラムに従って本実施形態に係る処理を行う。記憶部
103はRAMおよびROM等から構成され、CPU1
02が実行する画像処理プログラムや、その処理に用い
る各種パラメータ、入力画像等、各種データの格納を行
う。領域識別部104は記憶部103に格納されている
本実施形態の画像処理プログラムに従って、入力画像に
対する領域識別を行う。The image input section 101 is a section for inputting a document image such as a scanner. The CPU 102 is a central processing unit, and performs processing according to the present embodiment according to an image processing program stored in the storage unit 103. The storage unit 103 is composed of a RAM and a ROM, and the CPU 1
An image processing program executed by 02, various parameters used for the processing, input images, and various data are stored. The area identification unit 104 performs area identification for the input image according to the image processing program of the present embodiment stored in the storage unit 103.
【0010】次に領域識別部104の動作について説明
する。図2は領域識別部で実行される領域識別処理の流
れを表すフローチャートである。Next, the operation of the area identification section 104 will be described. FIG. 2 is a flowchart showing the flow of the area identification processing executed by the area identification unit.
【0011】<ステップS201>ここでは、画像入力
部101から入力された画像データをエッジと非エッジ
とに分離する処理を行う。本実施形態では、入力画像を
カラー画像として、注目画素とその8近傍の画素との間
に以下の(1)式および(2)式の条件を満たすものが
あれば、その画素をエッジとみなし、2値化の出力をO
N(黒画素)にし、満たさない場合は非エッジとみなし、
2値化の出力をOFF(白画素)にする。ここで2値化さ
れた画像は記憶部103に格納される。<Step S201> Here, a process of separating the image data input from the image input unit 101 into edges and non-edges is performed. In the present embodiment, if the input image is a color image and there is a pixel between the pixel of interest and its eight neighboring pixels that satisfy the following equations (1) and (2), the pixel is regarded as an edge. Binary output is O
N (black pixel), if not satisfied, it is regarded as a non-edge,
The binary output is turned off (white pixels). The binarized image is stored in the storage unit 103.
【0012】 ((R-R’)2+(G-G’)2+(B-B’)2)1/2 > th1 …(1) Y < Y’ …(2)((R-R ') 2 + (G-G') 2 + (B-B ') 2 ) 1/2 > th1 ... (1) Y <Y' ... (2)
【0013】ここで、注目画素の画像信号をR、G、B、
近傍の画像信号をR’、G’、B’とし、式(3)で得ら
れる輝度信号をY、Y’とする。
Y=0.3R + 0.59G+ 0.11B …(3)Here, the image signals of the pixel of interest are R, G, B,
Let R ′, G ′, and B ′ be neighboring image signals, and let Y and Y ′ be the luminance signals obtained by the equation (3). Y = 0.3R + 0.59G + 0.11B… (3)
【0014】<ステップS202>ここでは、ステップ
S201で2値化された2値画像の黒画素に対し、上下
・左右・斜めで連続している画素に同一ラベルを付加
し、この同一ラベルの付された画素群の外接矩形をかた
どっていく。また、この処理とともに矩形情報を求め
る。この処理ステップで得られるラベル情報および矩形
情報は記憶装置103に記憶され、後段の処理で用いら
れる。矩形情報は以下の内容である。
(A)外接矩形の幅
(B)外接矩形の高さ
(C)外接矩形の面積
(D)外接矩形の左端座標値
(E)外接矩形の右端座標値
(F)外接矩形の上端座標値
(G)外接矩形の下端座標値
(H)外接矩形内有効画素数
(I)輝度の分散:ON画素部分に対応する入力画像を
参照して算出する
(J)セル候補数:ON画素群(領域)が直接包含する表
・枠のセルとなり得るOFF画素群(領域)の数
(K)非セル候補数:ON画素群(領域)が直接包含する
表・枠のセルとなり得ないOFF画素群(領域)の数
(L)包含ラベル:ON画素群を直接包含するOFF画素群
のラベル
(M)属性
この段階では(A)〜(H)の情報を取得し、(I)〜
(M)は包含関係検出処理などの後段の処理で得られ
る。これらを用いて最終的に属性判定を行う。<Step S202> Here, with respect to the black pixels of the binary image binarized in step S201, the same label is added to consecutive pixels in the vertical, horizontal, and diagonal directions, and the same label is attached. The circumscribed rectangle of the pixel group that has been created is modeled. In addition, rectangular information is obtained along with this processing. The label information and the rectangular information obtained in this processing step are stored in the storage device 103 and used in the subsequent processing. The rectangle information has the following contents. (A) Width of circumscribed rectangle (B) Height of circumscribed rectangle (C) Area of circumscribed rectangle (D) Left edge coordinate value of circumscribed rectangle (E) Right edge coordinate value of circumscribed rectangle (F) Top edge coordinate value of circumscribed rectangle ( G) Lower end coordinate value of circumscribed rectangle (H) Effective pixel number in circumscribed rectangle (I) Luminance variance: Calculated by referring to an input image corresponding to ON pixel portion (J) Number of cell candidates: ON pixel group (area The number of OFF pixel groups (areas) that can be directly included in the table / frame (K) The number of non-cell candidates: The OFF pixel group (area) that cannot be directly included in the table / frame cells (area) Number of regions) (L) inclusion label: label of OFF pixel group that directly includes ON pixel group (M) attribute At this stage, information of (A) to (H) is acquired, and (I) to
(M) is obtained by a subsequent process such as an inclusion relation detection process. Finally, attribute determination is performed using these.
【0015】ここで、ラベル付けの動作を図3を例にし
て説明する。まず主走査方向に左から右にラベル付けさ
れていない黒画素があるかをチェックする。主走査方向
右端までいき、存在しない場合は、次ラインの左端から
同様の処理を行う。図3(a)に示すように、最初に検
出される黒画素aにラベル1を付加する。The labeling operation will now be described with reference to FIG. 3 as an example. First, it is checked whether there are unlabeled black pixels from left to right in the main scanning direction. The process goes to the right end in the main scanning direction, and if it does not exist, the same process is performed from the left end of the next line. As shown in FIG. 3A, the label 1 is added to the first detected black pixel a.
【0016】次に黒画素aを起点として、画素aの8近傍
にラベル付けされていない黒画素をチェックすると、黒
画素bが該当するので、これは連続する黒画素と判定し
画素aと同一ラベル1を付ける。次に画素a,bの8近傍
画素でラベル付けされていない黒画素があるかをチェッ
クして、あれば前記同様に同一ラベルを付ける。この操
作を繰り返して、ラベル1が付加されている全画素の8
近傍にラベル付けされていない黒画素が無くなるまで行
う。Next, when the unlabeled black pixels are checked in the 8 neighborhoods of the pixel a starting from the black pixel a, the black pixel b corresponds to it. Therefore, this is judged as a continuous black pixel and is the same as the pixel a. Label 1 Next, it is checked whether there are any unlabeled black pixels in the 8 neighboring pixels of the pixels a and b. By repeating this operation, 8 pixels of all pixels to which label 1 is added
Repeat until there are no unlabeled black pixels in the neighborhood.
【0017】次に黒画素aの右の画素からラベル付けさ
れていない黒画素があるかをチェックする処理を再開す
る。図3(a)では黒画素gが検出され、この黒画素gに
ラベル1を付加する。このあと黒画素aのときと同様に
ラベル2が付加されている全画素の8近傍にラベル付け
されていない黒画素が無くなるまでラベル2を付加する
処理を繰り返す。図3(a)の場合は、(b)のように
黒画素a〜fまでラベル1が付加され、黒画素g〜lまで
ラベル2が付加される。Next, the process of checking whether there is any unlabeled black pixel from the pixel to the right of the black pixel a is restarted. In FIG. 3A, the black pixel g is detected, and the label 1 is added to this black pixel g. After that, similarly to the case of the black pixel a, the process of adding the label 2 is repeated until there are no unlabeled black pixels in the 8 vicinity of all the pixels to which the label 2 is added. In the case of FIG. 3A, the label 1 is added to the black pixels a to f and the label 2 is added to the black pixels g to 1 as shown in FIG.
【0018】次に、矩形情報の抽出および算出について
説明する。ここで左端座標値をLeft、右端座標値をRigh
t、上端座標値をTop、下端座標値をBottom、画素数(同
一のラベルを付与された画素群の画素総数)をcountと
する。まず、ラベルXが付与される1個目の画素が特定さ
れた時に上記変数を初期化する。1個目の画素の座標値
を(X1、Y1)、1個目の画素に対応する輝度をY1とすると
以下のようになる。
Left = X1
Right = X1
Top = Y1
Bottom = Y1
count = 1Next, extraction and calculation of rectangle information will be described. Where the leftmost coordinate value is Left and the rightmost coordinate value is Righ
Let t be the top coordinate value, the top coordinate value is Bottom, the bottom coordinate value is Bottom, and the number of pixels (the total number of pixels in a pixel group having the same label) is count. First, the above variables are initialized when the first pixel to which the label X is given is specified. When the coordinate value of the first pixel is (X1, Y1) and the brightness corresponding to the first pixel is Y1, the result is as follows. Left = X1 Right = X1 Top = Y1 Bottom = Y1 count = 1
【0019】ラベルXが付与される2個目以降の画素に関
しては、次の様な動作を行う。n個目の画素の座標値を
(Xn、Yn)、n個目の画素に対応する輝度をYnとする。For the second and subsequent pixels to which the label X is given, the following operation is performed. the coordinate value of the nth pixel
(Xn, Yn), and the luminance corresponding to the nth pixel is Yn.
【0020】 Left ≧ Xn ならば Left = Xnに更新する。 Right ≦ Xn ならば Right = Xnに更新する。 Top ≧ Yn ならば Top = Ynに更新する。 Bottom ≦ Yn ならば Bottom= Ynに更新する。 count = count + 1[0020] If Left ≧ Xn, update Left = Xn. If Right ≤ Xn, update to Right = Xn. If Top ≧ Yn, update Top = Yn. If Bottom ≤ Yn, update Bottom = Yn. count = count + 1
【0021】この動作をラベルXの付与が終わるまで行
う。求める矩形情報は上記変数から、以下の様に求めら
れる。
幅(以下Wと示す) = Right − Left + 1
高さ(以下Hと示す) = Bottom− Top + 1
面積(以下Sと示す) = 幅 × 高さ
外接矩形内有効画素数 = count
左端座標値、右端座標値、上端座標値、下端座標値はそ
れぞれ、最終的に得られたLeft、Right、Top、Bottomと
なる。これらの動作を各ラベルに対して行う。This operation is repeated until the label X is applied. The rectangle information to be obtained is obtained from the above variables as follows. Width (hereinafter referred to as W) = Right-Left + 1 Height (hereinafter referred to as H) = Bottom-Top + 1 Area (hereinafter referred to as S) = Width x Height Number of effective pixels in circumscribed rectangle = count Left coordinate value , The right end coordinate value, the upper end coordinate value, and the lower end coordinate value are the finally obtained Left, Right, Top, and Bottom, respectively. These operations are performed for each label.
【0022】<ステップS203>ここでは、ステップ
S201で2値化された2値画像の白画素に対し、上下
・左右で連続している画素に同一ラベルを付加し、同時
に矩形をかたどっていく。この処理と同時に矩形情報を
求める。この処理ステップで得られるラベル情報および
矩形情報は記憶装置103に記憶され、後段の処理で用
いられる。矩形情報は以下の内容である。
(A’)外接矩形の幅
(B’)外接矩形の高さ
(C’)外接矩形の左端座標値
(D’)外接矩形の右端座標値
(E’)外接矩形の上端座標値
(F’)外接矩形の下端座標値
(G’)外接矩形の面積
(H’)文字包含数:OFF画素群(領域)が直接包含する
文字候補数
(I’)包含ラベル:OFF画素群を直接包含するON画素
群
(J’)属性<Step S203> Here, with respect to the white pixels of the binary image binarized in step S201, the same label is added to consecutive pixels in the vertical and horizontal directions, and the rectangle is simultaneously modeled. At the same time as this processing, rectangular information is obtained. The label information and the rectangular information obtained in this processing step are stored in the storage device 103 and used in the subsequent processing. The rectangle information has the following contents. (A ') Width of circumscribed rectangle (B') Height of circumscribed rectangle (C ') Left edge coordinate value of circumscribed rectangle (D') Right edge coordinate value of circumscribed rectangle (E ') Top edge coordinate value of circumscribed rectangle (F' ) Bottom coordinate value of the circumscribed rectangle (G ') Area of the circumscribed rectangle (H') Number of character inclusions: Number of character candidates directly included in OFF pixel group (area) (I ') Inclusion label: Direct inclusion of OFF pixel group ON pixel group (J ') attribute
【0023】この段階では(A’)〜(G’)の情報を
取得し、(H’)〜(J’)は包含関係検出処理などの
後段の処理で得られる。これらを用いて最終的に属性判
定を行う。At this stage, the information of (A ') to (G') is acquired, and (H ') to (J') are obtained by the subsequent processing such as the inclusion relation detection processing. Finally, attribute determination is performed using these.
【0024】ここで、ラベル付けの動作を図4を例にし
て説明する。まず主走査方向に左から右にラベル付けさ
れていない白画素があるかをチェックする。主走査方向
右端までいき、存在しない場合は、次ラインの左端から
同様の処理を行う。図4(a)に示す例では、最初に検
出される白画素aにラベル1を付加する。The labeling operation will be described with reference to FIG. 4 as an example. First, it is checked whether there are unlabeled white pixels from left to right in the main scanning direction. The process goes to the right end in the main scanning direction, and if it does not exist, the same process is performed from the left end of the next line. In the example shown in FIG. 4A, the label 1 is added to the first detected white pixel a.
【0025】次に白画素aを起点として、画素aの上下左
右4近傍にラベル付けされていない白画素をチェックす
ると、画素bが該当するので、これは連続する白画素と
判定し画素aと同一ラベル1を付ける。次に画素a,bの
上下左右4近傍画素でラベル付けされていない白画素が
あるかをチェックして、あれば前記同様に同一ラベルを
付ける。この操作を繰り返して、ラベル1が付加されて
いる全画素の上下左右4近傍にラベル付けされていない
白画素が無くなるまで行う。Next, when the unlabeled white pixels are checked in the four upper, lower, left, and right neighborhoods of the pixel a starting from the white pixel a, the pixel b corresponds to it. Attach the same label 1. Next, it is checked whether there are any unlabeled white pixels in the four neighboring pixels above, below, left and right of the pixels a and b. This operation is repeated until there are no unlabeled white pixels near the top, bottom, left, and right 4 of all the pixels to which the label 1 is added.
【0026】ここでステップS202との違いは、白画
素cに対して白画素dが画素cに連続する白画素とは判
定しないことである。同様に、画素eに対する画素f、
画素gに対する画素h、画素iに対する画素h、画素j
に対する画素k、画素lに対する画素mも連続する白画
素とは判定しない。Here, the difference from step S202 is that the white pixel d is not judged to be a white pixel continuous to the pixel c with respect to the white pixel c. Similarly, pixel f for pixel e,
Pixel h for pixel g, pixel h for pixel i, pixel j
The pixel k with respect to the pixel and the pixel m with respect to the pixel l are not determined as continuous white pixels.
【0027】次に白画素aの右の画素からラベル付けさ
れていない白画素があるかをチェックする処理を再開す
る。図4(a)では白画素dが検出され、この白画素d
にラベル2を付加する。Next, the process of checking whether there is any unlabeled white pixel from the pixel to the right of the white pixel a is restarted. In FIG. 4A, the white pixel d is detected, and the white pixel d is detected.
Label 2 is added to.
【0028】このあと白画素aのときと同様にラベル2
が付加されている全画素の上下左右4近傍にラベル付け
されていない白画素が無くなるまでラベル2を付加する
処理を繰り返す。上記の処理をラベル付けされていない
白画素がなくなるまで行う。After that, the label 2 is printed as in the case of the white pixel a.
The process of adding the label 2 is repeated until there are no unlabeled white pixels in the vicinity of the upper, lower, left and right 4 of all the pixels to which the. The above process is repeated until there are no unlabeled white pixels.
【0029】図4(a)の場合は、図4(b)に示すよ
うに白画素aから始まる連続画素にはラベル1が付加さ
れ、白画素dから始まる連続画素にはラベル2が付加さ
れ、白画素hから始まる連続画素にはラベル3が付加さ
れる。In the case of FIG. 4A, as shown in FIG. 4B, the label 1 is added to the continuous pixels starting from the white pixel a, and the label 2 is added to the continuous pixels starting from the white pixel d. , Label 3 is added to consecutive pixels starting from white pixel h.
【0030】矩形情報の抽出は、ステップS202と同
様に行うため、ここでは説明を省略する。Since the extraction of the rectangular information is performed in the same manner as in step S202, its explanation is omitted here.
【0031】<ステップS204>次に、ステップS2
02およびステップS203で抽出され、ラベル付けさ
れたON画素群とOFF画素群の包含関係の検出を行
う。ここでは直接包含関係にある対象画素群を検出す
る。この処理ステップで得られる矩形情報(包含ラベル)
は記憶装置103に記憶され、後段の処理で用いられ
る。<Step S204> Next, step S2
02 and the inclusion relation between the labeled ON pixel group and the labeled OFF pixel group extracted in step S203 is detected. Here, a target pixel group having a direct inclusion relationship is detected. Rectangle information (inclusion label) obtained in this processing step
Is stored in the storage device 103 and used in the subsequent processing.
【0032】ここで、包含関係検出の動作を図5に基づ
き説明する。図5(a)に対し、上記ステップS202
およびステップS203の処理を行うと、図5(b)の
ようになる。ここで、ステップS202の処理でのラベ
ルとステップS203の処理でのラベルとを区別するた
めに、ステップS202の処理で付与されたラベルは
およびという形式で表現している。また、各ラベルの
矩形情報は以下のようになる(この包含関係検出ステッ
プでは、座標値データのみの使用であるため、座標値デ
ータのみ示す)。The operation of detecting the inclusion relation will be described with reference to FIG. In contrast to FIG. 5A, the above step S202
Then, when the process of step S203 is performed, the result is as shown in FIG. Here, in order to distinguish the label in the process of step S202 from the label in the process of step S203, the label given in the process of step S202 is expressed in the form of and. Further, the rectangular information of each label is as follows (only coordinate value data is shown in this inclusion relation detecting step, since only coordinate value data is used).
【0033】ラベル1:Left_1=1、Right_1=11、T
op_1=1、Bottom_1=9
ラベル2:Left_2=3、Right_2=4、Top_2=3、Bott
om_2=6
ラベル3:Left_3=8、Right_3=9、Top_3=3、Bott
om_3=6
ラベル:Left_=2、Right_=5、Top_=2、B
ottom_=7
ラベル:Left_=7、Right_=10、Top_=
2、Bottom_=7Label 1: Left_1 = 1, Right_1 = 11, T
op_1 = 1, Bottom_1 = 9 Label 2: Left_2 = 3, Right_2 = 4, Top_2 = 3, Bott
om_2 = 6 Label 3: Left_3 = 8, Right_3 = 9, Top_3 = 3, Bott
om_3 = 6 Label: Left_ = 2, Right_ = 5, Top_ = 2, B
ottom_ = 7 Label: Left_ = 7, Right_ = 10, Top_ =
2, Bottom_ = 7
【0034】ここでは、ステップS202でラベル付け
されたものを基準として、包含関係を検出する。まずラ
ベルを付与された画素と隣接する2値化OFF画素を
探索し、それに付与されてるラベル(ステップS203
で付与されたもの)を抽出する。図5(b)のの場合
は、ラベル1と2となる。Here, the inclusion relation is detected with reference to the one labeled in step S202. First, a binarized OFF pixel adjacent to the pixel to which the label is attached is searched for, and the label attached to it (step S203).
(The one given in step 1) is extracted. In the case of FIG. 5B, the labels are 1 and 2.
【0035】次にラベルとラベル1とラベル2の矩形
情報を基にそれぞれの包含関係を判断する。判断は以下
の方法で行う。Then, based on the label, the rectangular information of the label 1 and the label 2, the inclusion relation of each is determined. Judgment is made by the following method.
【0036】対象となるラベル(A)の矩形情報をLeft、R
ight、Top、Bottom、対象ラベルの画素と隣接する画素
から構成される画素群のラベル(B)の矩形情報をLef
t’、Right’、Top’、Bottom’とする。The rectangle information of the target label (A) is Left, R
Right, Top, Bottom, rectangle information of the label (B) of the pixel group consisting of pixels adjacent to the pixel of the target label is Lef
t ', Right', Top ', Bottom'.
【0037】Left≧Left’ かつRight≦Right’ かつ T
op≧Top’ かつBottom≦Bottom’のとき、ラベル(A)は
ラベル(B)に包含されていると判断する。また、Left≦L
eft’ かつRight≧Right’ かつ Top≦Top’ かつBotto
m≧Bottom’のとき、ラベル(A)はラベル(B)を包含して
いると判断する。上記ラベルとラベル1との関係は、
Left_≧Left_1、Right_≦Right_1、
Top_≧Top_1、Bottom_≦Bottom_1
が成り立つため、ラベルはラベル1に直接包含されて
いると判断する。この場合ラベルの矩形情報(12)は
『1』となる。なお、説明中()が付された数字(数式以
外)は丸付きの数字を意味し、以下同様とする。Left ≧ Left 'and Right ≦ Right' and T
When op ≧ Top ′ and Bottom ≦ Bottom ′, it is determined that the label (A) is included in the label (B). Also, Left ≤ L
eft 'and Right ≥ Right' and Top ≤ Top 'and Botto
When m ≧ Bottom ', it is determined that the label (A) includes the label (B). Since the relationship between the label and the label 1 is Left_ ≧ Left_1, Right_ ≦ Right_1, Top_ ≧ Top_1, Bottom_ ≦ Bottom_1, it is determined that the label is directly included in the label 1. In this case, the rectangle information (12) of the label is "1". In the description, numbers with parentheses (other than mathematical formulas) mean circled numbers, and the same applies hereinafter.
【0038】上記ラベルとラベル2との関係は、
Left_≦Left_1、Right_≧Right_1、
Top_≦Top_1、Bottom_≧Bottom_1
が成り立つため、ラベルはラベル2を直接包含してい
ると判断する。この場合ラベル2の矩形情報は『』
となる。Since the relationship between the label and the label 2 is Left_ ≦ Left_1, Right_ ≧ Right_1, Top_ ≦ Top_1, Bottom_ ≧ Bottom_1, it is judged that the label directly includes the label 2. In this case, the rectangle information of label 2 is ""
Becomes
【0039】ここのステップS204では上記のように
各ラベルに対し包含関係を検出し、矩形情報の1つ(包
含ラベル)として対象ラベルを包含するラベルのナンバ
ーを保持する。In step S204, the inclusion relation is detected for each label as described above, and the number of the label including the target label is held as one piece of rectangle information (inclusion label).
【0040】上記例ではラベルの包含ラベルとして
『1』、ラベル2の包含ラベルとしては『』となり、
ラベル1の包含ラベルは『無し』となる。上述のように
この包含関係検出ステップでは2値化のON領域とOF
F領域がどのような構造になっているかを的確に抽出す
ることが大事となる。In the above example, the inclusion label of the label is "1" and the inclusion label of the label 2 is "".
The inclusion label of label 1 is “none”. As described above, in this inclusion relation detecting step, the binarized ON area and OF
It is important to accurately extract the structure of the F region.
【0041】また、ステップS203で斜め方向に連続
する画素に同じラベルを付与しないことが、この包含関
係検出ステップで効果として表れている。なお、ステッ
プS203でステップS202と同様に斜め方向に連続
する画素にも同じラベルを付与すると図5(c)のよう
になり、この包含関係検出ステップではラベル1がラベ
ルとラベルを包含するという情報しか抽出できず、
的確なON領域とOFF領域の構造が抽出できない。Further, not giving the same label to the pixels which are diagonally continuous in step S203 is effective as the inclusion relation detecting step. Note that, in step S203, similar to step S202, when the same label is given to pixels that are diagonally continuous, the result becomes as shown in FIG. 5C. In this inclusion relation detecting step, the information that label 1 includes the label and the label is included. Can only be extracted,
The exact structure of the ON area and the OFF area cannot be extracted.
【0042】<ステップS205>ここでは、ステップ
S202、ステップS203、ステップS204で抽出
された矩形情報を基に属性判定を行う。また、本実施形
態において、文字(線分なども)というのは、背景もしく
は枠や表のセル内に存在するものであり、絵柄中に存在
する文字らしきものは絵柄の一部としている。これは本
方式がOCRのような文字認識のために文字を出来るだ
け多く抽出することを目的としているのではなく、スキ
ャン文書を構造的に分解するために行う属性識別を目的
ととしているためである。<Step S205> Here, attribute determination is performed based on the rectangular information extracted in steps S202, S203, and S204. In addition, in the present embodiment, a character (also a line segment or the like) is present in a background, a frame, or a cell of a table, and a character-like thing existing in the pattern is a part of the pattern. This is because this method is not intended to extract as many characters as possible for character recognition such as OCR, but is intended to identify attributes that are used to structurally decompose a scanned document. is there.
【0043】ここで、属性判別の動作を図6を入力画像
として、説明する。図6中のA〜Eの領域はそれぞれ異な
った色で構成されているもので、車の絵も複数色で構成
されているものとする。Now, the operation of the attribute discrimination will be described with reference to FIG. 6 as an input image. It is assumed that the areas A to E in FIG. 6 are formed in different colors, and the car picture is also formed in a plurality of colors.
【0044】図6に対し、上記説明したステップS20
1〜ステップS204の処理を行った結果を図7(a)
として、以下に説明する。図7中のラベルは、ステップ
S204で説明したと同様にステップS202でラベル
付けされたものは丸で囲まれた数字で表記し、ステップ
S203でラベル付けされたものは数字のみで表記して
いる。図7(b)はステップS204で得られる包含ラ
ベルを示している。In contrast to FIG. 6, step S20 explained above.
FIG. 7A shows the result of performing the processing from 1 to step S204.
Will be described below. As for the labels in FIG. 7, those labeled in step S202 are represented by circled numbers, and those labeled in step S203 are represented only by numbers, as described in step S204. . FIG. 7B shows the inclusion label obtained in step S204.
【0045】まずは背景の検出について説明する。本実
施形態では、背景を他のオブジェクト(絵柄、文字、
表、枠など)に一切包含されない領域と定義する。これ
を基に図8に示すフローチャートで2値化OFF画素群
から背景を抽出する。First, the background detection will be described. In the present embodiment, the background is set to another object (pattern, character,
It is defined as an area that is not included in any table, frame, etc.). Based on this, the background is extracted from the binarized OFF pixel group in the flowchart shown in FIG.
【0046】図7(a)の例では、2値化OFF画素群
のラベル1〜30について、包含ラベルが存在するかをチ
ェックし、背景を抽出する。図7(b)より、図7
(a)ではラベル1の2値化OFF画素群(領域)が包含
ラベルを有しないため、背景であると判断される。In the example of FIG. 7A, for the labels 1 to 30 of the binarized OFF pixel group, it is checked whether or not the inclusive label exists, and the background is extracted. From FIG. 7B, FIG.
In (a), since the binarized OFF pixel group (area) with label 1 has no inclusive label, it is determined to be the background.
【0047】次に、2値化ON画素群の属性検出につい
て、図9のフローチャートを用いて説明する。まずは、
本文に用いられる平均的なフォントサイズから予め求め
られる閾値th1を用い、外接矩形サイズの幅(W)および高
さ(H)が共に閾値th1を越えるものは、文書本文中の文字
になり得ないものと判断する。Next, the attribute detection of the binarized ON pixel group will be described with reference to the flowchart of FIG. First,
If the threshold value th1 that is obtained in advance from the average font size used in the text is used and both the width (W) and height (H) of the circumscribed rectangle size exceed the threshold value th1, the characters in the text of the document cannot be considered. Judge that.
【0048】しかし、上記処理だけでは文字であると判
断できるわけでなく、更に外接矩形のサイズ(HやW)と外
接矩形縦横比(H/W)を用いる。上記処理で得られた外接
矩形の幅(W)もしくは高さ(H)がth1より小さいものの中
で、WもしくはHが閾値th5より小さいものはノイズ・線
分候補であると判断し、H/Wがth6より大きいもしくはth
7より小さいものは線分候補と判断し、それ以外を文字
候補とする。これをまとめると以下のようになる。
th5≦W …(4)
th5≦H …(5)
th7≦H/W≦th6 …(6)
W≦th1 …(7)
H≦th1 …(8)However, it cannot be determined that the character is a character only by the above processing, and the size of the circumscribing rectangle (H or W) and the circumscribing rectangle aspect ratio (H / W) are used. Among the width (W) or height (H) of the circumscribed rectangle obtained by the above process is smaller than th1, it is determined that W or H smaller than the threshold th5 is a noise / segment candidate, and H / W is greater than th6 or th
Those smaller than 7 are judged as line segment candidates, and the others are regarded as character candidates. This is summarized as follows. th5≤W (4) th5≤H (5) th7≤H / W≤th6 (6) W≤th1 (7) H≤th1 (8)
【0049】上記式(4)(5)(6)全ての条件を満
足し、式(7)(8)のいずれか1つ以上の条件を満足
するものが文字候補で、式(7)(8)のいずれか1つ
以上の条件を満足し、式(4)(5)(6)のいずれか
1つ以上条件を満足しないものがノイズ・線分候補にな
る。Character candidates satisfying all the conditions of the above formulas (4), (5) and (6) and satisfying at least one condition of the formulas (7) and (8) are the character candidates, and the formulas (7) ( Any one of the formulas (4), (5) and (6) that satisfies one or more conditions of 8)
Noise or line segment candidates are those that do not satisfy one or more conditions.
【0050】ここで候補としているのは、前述している
ようにこれら文字(線分なども)は背景もしくは枠や表の
セル内に存在するものしているため、包含ラベルの属性
が確定していないとこれら候補の属性が決まらない。As described above, the candidates are those characters (including line segments) existing in the background, the frame, or the cells of the table. Therefore, the attribute of the inclusion label is determined. If not, the attributes of these candidates cannot be determined.
【0051】この段階では、図8の処理で背景が確定し
ているので、これら候補の中で、包含ラベルの属性が背
景であるものは、ノイズ・線分、文字という属性に確定
する。図7(a)の例では、ラベル〜(148)、(150)〜
(365)、(367)〜(402)である『車の写真、』が文字候補
である。図7(b)より、ラベル〜(148)、(150)〜(3
65)、(367)〜(402)の包含ラベルにラベル1が存在しない
ため、この段階では文字候補のままである。これらの属
性は包含ラベルの属性が確定するまで決まらない。At this stage, since the background has been determined by the processing of FIG. 8, among these candidates, the attribute whose inclusion label is background is determined to be the attributes noise, line segment, and character. In the example of FIG. 7A, labels ~ (148), (150) ~
(365), (367) to (402), "Car Photo," is a character candidate. From FIG. 7B, the labels ~ (148), (150) ~ (3
Since the label 1 does not exist in the inclusion labels of 65) and (367) to (402), it remains a character candidate at this stage. These attributes are not determined until the attributes of the inclusion label are determined.
【0052】次は式(7)(8)の条件を共に満足しな
いものについての属性判定について説明する。式(7)
(8)の条件を共に満足しないものは、th1が本文に用
いられる平均的なフォントサイズから予め求めたもので
あるから、見出し文字や枠・表、絵柄等のように外接矩
形サイズが比較的大きいものである。これらを区別する
ために、像密度(=外接矩形内有効画素数/外接矩形面
積、以下IDと示す)、外接矩形の幅(W)、高さ(H)、
分散(V)、を用いる。Next, description will be made regarding the attribute determination for the items that do not satisfy the conditions of the expressions (7) and (8). Formula (7)
If the condition (8) is not satisfied, th1 is obtained in advance from the average font size used in the text, so the circumscribed rectangle size such as heading characters, frames / tables, and patterns is relatively small. It's a big one. In order to distinguish them, the image density (= the number of effective pixels in the circumscribed rectangle / the circumscribed rectangle area, hereinafter referred to as ID), the width (W) and the height (H) of the circumscribed rectangle,
Dispersion (V) is used.
【0053】まず図9に示すように、外接矩形の像密度
(ID)がth2以下の時、その属性は絵柄・枠・表候補と
し、更にWとHの少なくともどちらか一方がth3以上の
時、その属性は絵柄・枠・表候補とする。IDがth2より
大きく、WとHがともにth3より小さい場合は、輝度の分
散(V)を記憶部103に記憶されているラベル画像と入力画
像を基に求め、Vがth4以上の場合は、その属性は絵柄・
枠・表候補とし、th4より小さい場合は、その属性を文
字候補とする。この文字候補に対しては、上述と同様に
その包含ラベルの属性が背景であれば、属性が文字して
確定する。図7(a)の例では、、、、、(14
9)、(366)が絵柄・枠・表候補として判定される。First, as shown in FIG. 9, the image density of the circumscribed rectangle
When the (ID) is th2 or less, the attribute is a pattern / frame / table candidate, and when at least one of W and H is th3 or more, the attribute is a pattern / frame / table candidate. When ID is larger than th2 and both W and H are smaller than th3, the luminance variance (V) is obtained based on the label image and the input image stored in the storage unit 103, and when V is th4 or more, Its attribute is a pattern
If it is a frame / table candidate and it is smaller than th4, its attribute is a character candidate. For this character candidate, if the inclusion label has an attribute of background as in the above, the attribute is determined as a character. In the example of FIG. 7A, ..., (14
9) and (366) are determined as picture / frame / table candidates.
【0054】次に図9の処理で絵柄・枠・表候補と判定
された黒画素群については、その領域が包含する白画素
群の特徴によって判断する。具体的には、以下のような
それぞれの特徴を利用する。表は、表のセルと想定でき
るような文字を含んだ白画素群を多く含んでいるという
特徴を持っている。Next, the black pixel group determined to be a picture / frame / table candidate in the processing of FIG. 9 is determined based on the characteristics of the white pixel group included in the area. Specifically, the following features are used. The table has a feature that it includes many white pixel groups including characters that can be assumed to be cells of the table.
【0055】枠は、包含する白画素群の数が少なく、ま
たその白画素群が更に絵柄・枠・表候補を包含すること
も少なくないという特徴を持っている。絵柄は、表のセ
ルと想定できるような文字を含んだ白画素群を殆ど持っ
ていないという特徴を持っている。The frame is characterized in that it contains a small number of white pixel groups and that the white pixel groups often contain a picture, a frame, and a table candidate. The picture has a feature that it has almost no white pixel group including characters that can be assumed to be a table cell.
【0056】この前処理として、図8で背景と判断され
なかった2値化OFF画素群についてセル候補か非セル
候補かを判断する。判断の方法は、2値化OFF画素群
が包含している文字候補の数で行う。As this pre-processing, it is determined whether the binarized OFF pixel group not determined to be the background in FIG. 8 is a cell candidate or a non-cell candidate. The determination method is performed by the number of character candidates included in the binarized OFF pixel group.
【0057】図10は、2値化OFF画素群が包含して
いる文字候補の数を計数する流れであり、2値化ON画
素群が文字候補の場合、その包含ラベルの外接矩形特徴
量である文字候補数をカウントアップする。これを全て
の2値化ON画素群に対して行う。その結果、各2値化
OFF画素群が包含している文字候補の数が計数でき
る。FIG. 10 is a flow for counting the number of character candidates included in the binarized OFF pixel group. When the binarized ON pixel group is a character candidate, the circumscribed rectangular feature amount of the inclusion label is used. Count up the number of certain character candidates. This is performed for all the binarized ON pixel groups. As a result, the number of character candidates included in each binarized OFF pixel group can be counted.
【0058】これをもとに図11に示すようなフローチ
ャートで、各2値化OFF画素群に対し、セル候補か、
非セル候補かを判断する。判断は2値化OFF画素群が
包含している文字候補数が閾値th7以上か否かで行う。
また、同時に、この2値化OFF画素群の包含ラベルの
外接矩形情報である、セル候補数、非セル候補数をカウ
ントアップする。Based on this, in the flow chart as shown in FIG. 11, whether each binarized OFF pixel group is a cell candidate,
Determine if it is a non-cell candidate. The determination is made based on whether or not the number of character candidates included in the binarized OFF pixel group is the threshold th7 or more.
At the same time, the number of cell candidates and the number of non-cell candidates that are the circumscribed rectangle information of the inclusion label of the binarized OFF pixel group are counted up.
【0059】次に図12に示すフローチャートで絵柄・
枠・表候補に対する属性判定を行う。まず、非セル候補
数がth8より少なく、セル候補数が0のものは、枠と想
定されるので枠・表と判定する。また、セル候補数の包
含する2値化OFF画素群の数に占める割合がth9より
大きいものは表と想定されるので枠・表と判定する。上
記2条件を満たさないものを絵柄と判定する。Next, referring to the flow chart shown in FIG.
Attribute determination is performed for frame / table candidates. First, if the number of non-cell candidates is less than th8 and the number of cell candidates is 0, it is assumed to be a frame, so it is determined to be a frame / table. In addition, it is assumed that the ratio of the number of cell candidate numbers in the number of binarized OFF pixel groups included in the group is larger than th9 is a table, so it is determined as a frame / table. Those that do not satisfy the above two conditions are determined to be patterns.
【0060】図13はこの段階で属性が確定していない
領域に対する判定のフローである。まず2値化OFF領
域に対しその包含ラベルの属性が絵柄であればその属性
を絵柄にし、枠・表であればその属性をセルとする。ま
たどちらの場合でもない場合は、未確定とし、iをカウ
ントアップする。これは、2値化ON画素群と2値化O
FF画素の包含関係が数階層にもなっていることがある
ためで、この段階では包含ラベルの属性として、文字候
補が存在するためである。FIG. 13 is a flow of judgment for the area whose attribute is not determined at this stage. First, if the attribute of the inclusion label for the binarization OFF area is a picture, the attribute is set to a picture, and if it is a frame / table, the attribute is set to a cell. If neither is the case, it is undetermined and i is incremented. This is a binarization ON pixel group and a binarization O
This is because the inclusion relationship of FF pixels may be in several layers, and at this stage, character candidates exist as attributes of the inclusion label.
【0061】これを図14で説明する。図14(a)
は、車の絵の中に文字があるもので、その点線円部を拡
大したものが図14(b)である。図14(b)に示す
ように、属性が絵柄判定されたフレーム部分(A)、それ
が包含する2値化OFF領域(B)、その2値化OFF領
域が包含する文字候補(C)、その文字候補が包含する2
値化OFF領域(D)と構造になっている。This will be described with reference to FIG. FIG. 14 (a)
Shows a car with letters in it, and FIG. 14 (b) is an enlarged view of the dotted circle. As shown in FIG. 14B, a frame portion (A) whose attribute is determined to be a pattern, a binarization OFF area (B) included in the frame portion, a character candidate (C) included in the binarization OFF area, 2 that the character candidate includes
It is structured as a digitization OFF area (D).
【0062】Aの属性が絵柄であるため、Bの属性は絵柄
と確定するが、Dに関してはその包含ラベル(C)の属性が
文字候補である。この段階ではDの属性を絵柄と判定で
きない。この処理を全ての属性未確定な2値化OFF群
に対して行う。Since the attribute of A is a picture, the attribute of B is decided to be a picture, but the attribute of the inclusion label (C) of D is a character candidate. At this stage, the attribute of D cannot be determined as a pattern. This process is performed on all the binarized OFF groups whose attributes have not been determined.
【0063】次に属性未確定な2値化ON画素群に対す
る属性を判定する。2値化ON領域に対しその包含ラベ
ルの属性が絵柄であればその属性を絵柄にし、セルであ
ればその属性を文字とする。またどちらの場合でもない
場合は、未確定とし、jをカウントアップする。これ処
理を全ての属性未確定な2値化ON群に対して行う。このj
は上記iと同じ理由であるため、説明は省略する。図1
4の例では、この段階でCの属性は絵柄と確定する。Next, the attribute for the binarized ON pixel group whose attribute has not been determined is determined. If the attribute of the inclusion label for the binarized ON area is a picture, the attribute is a picture, and if it is a cell, the attribute is a character. If neither is the case, it is undetermined and j is incremented. This process is performed for all binarization ON groups whose attributes are undetermined. This j
Is the same as the above-mentioned i, and therefore its explanation is omitted. Figure 1
In the example of 4, the attribute of C is determined to be a pattern at this stage.
【0064】この段階でi=0、j=0であるかをチェックし
そうでない場合は、iおよびjを一旦0にリセットした
後、再度上記処理を繰り返し、およびjが0になるまで行
う。図14の例では、Dの包含ラベルの属性が絵柄であ
るため、Dの属性も絵柄と確定し、全ての属性が確定す
る。At this stage, if it is not checked whether i = 0 and j = 0, i and j are once reset to 0, the above process is repeated again, and the process is repeated until j becomes 0. In the example of FIG. 14, since the attribute of the inclusion label D is a picture, the attribute of D is also decided as a picture, and all the attributes are decided.
【0065】以上のようにして求めた各種領域の属性デ
ータを画像データと共に外部へ出力する。The attribute data of various areas obtained as described above is output to the outside together with the image data.
【0066】次に、本実施形態の他の例を説明する。他
の例では、上述のステップS203、S204、S20
5において2値画像の白画素に対する外接矩形情報とし
て、下記(A’)〜(J’)の10種の情報を取得し、
それを用いて各種領域の属性データを確定しているが、
更にその白画素群(領域)の色情報(K’)を矩形情報に
追加することで、背景および表・枠のセルを白地の背
景、表・枠のセル、非白地の背景、表・枠のセルと属性
を細分類できる。Next, another example of this embodiment will be described. In another example, steps S203, S204, S20 described above.
5, the following 10 types of information (A ′) to (J ′) are acquired as circumscribed rectangle information for white pixels of the binary image,
Using that, the attribute data of various areas is fixed,
Furthermore, by adding the color information (K ') of the white pixel group (area) to the rectangular information, the background and table / frame cells are white background, table / frame cells, non-white background, table / frame. The cells and attributes of can be subdivided.
【0067】色情報は白画素に対応した記憶部103に
記憶されている入力画像を参照することにより、求め
る。求める方法は、公知の代表色決定方法で構わない。The color information is obtained by referring to the input image stored in the storage unit 103 corresponding to the white pixel. A known representative color determination method may be used as the method for obtaining the color.
【0068】矩形情報に色情報が追加されたことによ
り、この属性データを基に画像データに対する補正処理
(空間フィルタ、下地除去、明度補正、彩度補正等)を行
う場合に、先に説明した実施形態より細かな設定が可能
となる。
(A’)外接矩形の幅
(B’)外接矩形の高さ
(C’)外接矩形の左端座標値
(D’)外接矩形の右端座標値
(E’)外接矩形の上端座標値
(F’)外接矩形の下端座標値
(G’)外接矩形の面積
(H’)文字包含数:OFF画素群(領域)が直接包含する
文字候補数
(I’)包含ラベル:OFF画素群を直接包含するON画素
群
(J’)属性
(K’)色情報Since the color information is added to the rectangle information, the correction processing for the image data is performed based on this attribute data.
When performing (spatial filter, background removal, brightness correction, saturation correction, etc.), it is possible to make finer settings than the above-described embodiment. (A ') Width of circumscribed rectangle (B') Height of circumscribed rectangle (C ') Left edge coordinate value of circumscribed rectangle (D') Right edge coordinate value of circumscribed rectangle (E ') Top edge coordinate value of circumscribed rectangle (F' ) Bottom coordinate value of the circumscribed rectangle (G ') Area of the circumscribed rectangle (H') Number of character inclusions: Number of character candidates directly included in OFF pixel group (area) (I ') Inclusion label: Direct inclusion of OFF pixel group ON pixel group (J ') attribute (K') color information
【0069】また、先に説明した実施形態では、文字、
ノイズ・線分、背景、表・枠、絵柄、表・枠のセルとい
う属性を属性データとして、画像データと共に外部へ出
力するとしているが、特にこれに限定するものではな
い。ここで得られた属性情報を用いて、実施される処理
の目的などによって、上記属性を組み合わせて1つの属
性として出力しても構わない。In the above-described embodiment, characters,
It is stated that attributes such as noise / line segment, background, table / frame, picture, and cell of table / frame are output to the outside together with the image data, but the invention is not limited to this. Using the attribute information obtained here, the above attributes may be combined and output as one attribute depending on the purpose of the processing to be performed.
【0070】例えば、背景と文字の属性のものを同一の
属性にして、文字領域として出力することも可能であ
る。特に上述のような属性データを基に画像データに対
する補正処理を行う場合は、このように文字とそれを直
接包含する領域をまとめて、文字領域とした方が扱いや
すい。For example, it is possible to make the attributes of the background and the character have the same attribute and output as the character area. In particular, when performing the correction processing on the image data based on the attribute data as described above, it is easier to handle the character and the area directly including the character as a character area.
【0071】また、上述のステップS205において、
いくつかの2値化ON画素群に対し、記憶装置103に
記憶されている入力画像から、そのON画素に対応する
画像データ参照し輝度の分散を求めているが、これは属
性を識別する際に、全てのラベルに対して不可欠な情報
ではないためである。しかし、輝度の分散を求めるのは
ステップS205である必要はなく、ステップS202
の段階で求めても構わない。同様に2値化OFF群の色
情報抽出に関しても同様で、ステップS203の段階で
抽出しても構わない。In step S205 described above,
For some binary ON pixel groups, the luminance distribution is obtained from the input image stored in the storage device 103 by referring to the image data corresponding to the ON pixel. In addition, it is not essential information for all labels. However, it is not necessary to obtain the variance of luminance in step S205, and it is not necessary to calculate in step S202
You may ask for it at the stage. Similarly, the same applies to the color information extraction of the binarization OFF group, and the extraction may be performed in the step S203.
【0072】[0072]
【発明の効果】以上説明したように、本発明によれば、
2値化ON画素およびOFF画素それぞれにラベリング
を行って得られた外接矩形情報と2値化ON画素群およ
びOFF画素群の包含関係情報を用いることで、文字、
表・枠、写真、背景等の領域を分割するようにしたの
で、複雑な領域構成の分割精度の向上が得られる効果が
ある。As described above, according to the present invention,
By using the circumscribed rectangle information obtained by labeling each of the binarized ON pixel and the OFF pixel and the inclusion relation information of the binarized ON pixel group and the OFF pixel group,
Since the areas such as the table / frame, the photograph, and the background are divided, there is an effect that the division accuracy of the complicated area structure can be improved.
【図1】 本実施形態の画像処理方法を実現する装置の
構成図である。FIG. 1 is a configuration diagram of an apparatus that realizes an image processing method of the present embodiment.
【図2】 領域識別部で実行される領域識別処理の流れ
を表すフローチャートである。FIG. 2 is a flowchart showing a flow of area identification processing executed by an area identification unit.
【図3】 黒画素へのラベル付けの動作を説明する模式
図である。FIG. 3 is a schematic diagram illustrating an operation of labeling black pixels.
【図4】 白画素へのラベル付けの動作を説明する模式
図である。FIG. 4 is a schematic diagram illustrating an operation of labeling white pixels.
【図5】 包含関係の動作を説明する模式図である。FIG. 5 is a schematic diagram illustrating an operation of an inclusion relation.
【図6】 属性判別の動作を説明する図である。FIG. 6 is a diagram illustrating an operation of attribute determination.
【図7】 処理結果を説明する図である。FIG. 7 is a diagram illustrating a processing result.
【図8】 背景抽出のフローチャートである。FIG. 8 is a flowchart of background extraction.
【図9】 ON画素の属性検出のフローチャートであ
る。FIG. 9 is a flowchart of attribute detection of ON pixels.
【図10】 文字候補の数の計数のフローチャートであ
る。FIG. 10 is a flowchart of counting the number of character candidates.
【図11】 セル候補の判断のフローチャートである。FIG. 11 is a flowchart for determining a cell candidate.
【図12】 絵柄・枠・表候補に対する属性判定のフロ
ーチャートである。FIG. 12 is a flowchart of attribute determination for a picture / frame / table candidate.
【図13】 属性が確定していない領域に対する判定の
フローチャートである。FIG. 13 is a flowchart of determination for an area whose attribute is not fixed.
【図14】 属性が確定していない領域に対する判定を
説明する図である。FIG. 14 is a diagram illustrating a determination for a region whose attribute is not fixed.
101…画像入力部、102…CPU、103…記憶
部、104…領域識別部101 ... Image input section, 102 ... CPU, 103 ... Storage section, 104 ... Area identification section
Claims (12)
画素に対応した非エッジとに分離する2値化ステップ
と、 前記2値化ステップで2値化された2値画像の黒画素に
対し、上下・左右・斜めで連続している画素に同一ラベ
ルを付加し、同一ラベルの付された画素群の外接矩形を
かたどっていく第1のラベリングステップと、 前記2値化ステップで2値化された2値画像の白画素に
対し、上下・左右で連続している画素に同一ラベルを付
加し、同一ラベルの付された画素群の外接矩形をかたど
っていく第2のラベリングステップと、 前記第1のラベリングステップでラベル付けされた外接
矩形と前記第2のラベリングステップでラベル付けされ
た外接矩形との包含関係を検出する包含関係検出ステッ
プと、 前記包含関係検出ステップの結果と、前記第1のラベリ
ングステップでラベル付けされた外接矩形に関する第1
の情報と、前記第2のラベリングステップでラベル付け
された外接矩形に関する第2の情報とを用いて、全画素
に対し、属性を区別する属性検出ステップと、 前記属性検出ステップの検出結果に基づいて前記入力画
像の領域分割を行う領域分割ステップとを備えることを
特徴とする画像処理方法。1. A binarization step of separating an input image into an edge corresponding to a black pixel and a non-edge corresponding to a white pixel, and a black pixel of a binary image binarized in the binarizing step. On the other hand, the same labeling is added to consecutive pixels in the vertical, horizontal, and diagonal directions, and a first labeling step of modeling a circumscribed rectangle of a pixel group with the same label; A second labeling step in which the same label is added to the pixels that are continuous in the vertical and horizontal directions with respect to the white pixels of the binarized image, and the circumscribed rectangle of the pixel group with the same label is modeled, The inclusion relation detection step of detecting an inclusion relation between the circumscribed rectangle labeled in the first labeling step and the circumscribed rectangle labeled in the second labeling step, and a result of the inclusion relation detection step. When, the related labeled circumscribed rectangle in the first labeling step 1
Information and the second information on the circumscribed rectangle labeled in the second labeling step, the attribute detection step of distinguishing attributes for all pixels, and based on the detection result of the attribute detection step. And a region dividing step of dividing the input image into regions.
ベルを付与された画素に対応する入力画像からラベル毎
に色味を求める色味検出ステップを更に有することを特
徴とする請求項1記載の画像処理方法。2. The image according to claim 1, further comprising a tint detection step of obtaining a tint for each label from an input image corresponding to pixels to which the same label is added in the second labeling step. Processing method.
種類に、少なくとも文字、図形または写真、表または
枠、背景が含まれていることを特徴とする請求項1また
は2記載の画像処理方法。3. The image processing method according to claim 1, wherein the types of attributes distinguished by the attribute detection step include at least characters, figures or photographs, tables or frames, and backgrounds.
種類に、少なくとも文字、図形または写真、表または
枠、背景、表・枠のセルが含まれていることを特徴とす
る請求項1または2記載の画像処理方法。4. The attribute type distinguished by the attribute detecting step includes at least a character, a figure or a photograph, a table or a frame, a background, and a table / frame cell. The described image processing method.
種類において、背景、表・枠のセルを彩度および明度の
少なくともどちらかを用いて細分類することを特徴とす
る請求項4記載の画像処理方法。5. The image according to claim 4, wherein the types of attributes distinguished by the attribute detection step are sub-classified by using at least one of saturation and lightness of cells of a background and a table / frame. Processing method.
さ、面積、画素密度、分散であり、前記第2の情報は、
外接矩形の幅、高さであることを特徴とする請求項1記
載の画像処理方法。6. The first information is the width, height, area, pixel density, and variance of the circumscribed rectangle, and the second information is
The image processing method according to claim 1, wherein the circumscribed rectangle has a width and a height.
ッジと非エッジとに分離する2値化ステップと、 前記2値化ステップで2値化された2値画像の黒画素に
対し、上下・左右・斜めで連続している画素に同一ラベ
ルを付加し、同一ラベルの付された画素群の外接矩形を
かたどっていく第1のラベリングステップと、 前記2値化ステップで2値化された2値画像の白画素に
対し、上下・左右で連続している画素に同一ラベルを付
加し、同一ラベルの付された画素群の外接矩形をかたど
っていく第2のラベリングステップと、 前記第1のラベリングステップでラベル付けされた外接
矩形と前記第2のラベリングステップでラベル付けされ
た外接矩形との包含関係を検出する包含関係検出ステッ
プと、 前記包含関係検出ステップの結果と、前記第1のラベリ
ングステップでラベル付けされた外接矩形に関する第1
の情報と、前記第2のラベリングステップでラベル付け
された外接矩形に関する第2の情報とを用いて、全画素
に対し、属性を区別する属性検出ステップと、 前記属性検出ステップの検出結果に基づいて前記入力画
像の領域分割を行う領域分割ステップとを備えることを
特徴とする画像処理プログラム。7. A binarization step of converting an input image into a black-and-white binary image and separating it into edges and non-edges, and for black pixels of the binary image binarized in the binarization step. , A first labeling step in which the same label is added to consecutive pixels vertically, horizontally, and diagonally, and a circumscribed rectangle of a pixel group having the same label is modeled, and binarization in the binarization step A second labeling step in which the same label is added to consecutive pixels in the vertical and horizontal directions with respect to the white pixels of the binarized image, and the circumscribed rectangle of the pixel group with the same label is modeled; An inclusion relation detecting step of detecting an inclusion relation between the circumscribed rectangle labeled in the first labeling step and the circumscribed rectangle labeled in the second labeling step; a result of the inclusion relation detecting step; The related labeled circumscribed rectangle in the first labeling step 1
Information and the second information on the circumscribed rectangle labeled in the second labeling step, the attribute detection step of distinguishing attributes for all pixels, and based on the detection result of the attribute detection step. And a region dividing step of dividing the input image into regions.
ベルを付与された画素に対応する入力画像からラベル毎
に色味を求める色味検出ステップを更に有することを特
徴とする請求項7記載の画像処理プログラム。8. The image according to claim 7, further comprising a tint detection step of obtaining a tint for each label from an input image corresponding to a pixel to which the same label is added in the second labeling step. Processing program.
種類に、少なくとも文字、図形または写真、表または
枠、背景が含まれていることを特徴とする請求項7また
は8記載の画像処理プログラム。9. The image processing program according to claim 7, wherein the types of attributes distinguished by the attribute detection step include at least characters, figures or photographs, tables or frames, and backgrounds.
の種類に、少なくとも文字、図形または写真、表または
枠、背景、表・枠のセルが含まれていることを特徴とす
る請求項7または8記載の画像処理プログラム。10. The attribute type distinguished by the attribute detection step includes at least a character, a figure or a photograph, a table or a frame, a background, and a table / frame cell. The image processing program described.
の種類において、背景、表・枠のセルを彩度および明度
の少なくともどちらかを用いて細分類することを特徴と
する請求項10記載の画像処理プログラム。11. The image according to claim 10, wherein, in the type of attribute distinguished by the attribute detecting step, cells of a background and a table / frame are finely classified by using at least one of saturation and lightness. Processing program.
さ、面積、画素密度、分散であり、前記第2の情報は、
外接矩形の幅、高さであることを特徴とする請求項7記
載の画像処理プログラム。12. The first information is the width, height, area, pixel density, and variance of the circumscribing rectangle, and the second information is
The image processing program according to claim 7, wherein the circumscribing rectangle has a width and a height.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002074000A JP2003271973A (en) | 2002-03-18 | 2002-03-18 | Method and program for image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002074000A JP2003271973A (en) | 2002-03-18 | 2002-03-18 | Method and program for image processing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003271973A true JP2003271973A (en) | 2003-09-26 |
Family
ID=29203515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002074000A Pending JP2003271973A (en) | 2002-03-18 | 2002-03-18 | Method and program for image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003271973A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007235679A (en) * | 2006-03-02 | 2007-09-13 | Ricoh Co Ltd | Image output system, program, and information recording medium |
US7889280B2 (en) | 2006-09-06 | 2011-02-15 | Canon Kabushiki Kaisha | Image processing apparatus and method thereof |
US8218178B2 (en) | 2008-01-17 | 2012-07-10 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, recording medium storing image processing program, and computer data signal embedded in carrier wave |
JP2021189991A (en) * | 2020-06-04 | 2021-12-13 | 株式会社東芝 | Moving image speed detecting device and method for detecting speed of moving image |
-
2002
- 2002-03-18 JP JP2002074000A patent/JP2003271973A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007235679A (en) * | 2006-03-02 | 2007-09-13 | Ricoh Co Ltd | Image output system, program, and information recording medium |
US7889280B2 (en) | 2006-09-06 | 2011-02-15 | Canon Kabushiki Kaisha | Image processing apparatus and method thereof |
US8218178B2 (en) | 2008-01-17 | 2012-07-10 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, recording medium storing image processing program, and computer data signal embedded in carrier wave |
JP2021189991A (en) * | 2020-06-04 | 2021-12-13 | 株式会社東芝 | Moving image speed detecting device and method for detecting speed of moving image |
JP7408490B2 (en) | 2020-06-04 | 2024-01-05 | 株式会社東芝 | Video speed detection device, video speed detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
USRE47889E1 (en) | System and method for segmenting text lines in documents | |
US6993185B2 (en) | Method of texture-based color document segmentation | |
CN107093172B (en) | Character detection method and system | |
JP4745296B2 (en) | Digital image region separation method and region separation system | |
KR100525692B1 (en) | Color image processing apparatus and pattern extracting apparatus | |
US9158986B2 (en) | Character segmentation device and character segmentation method | |
JP4745297B2 (en) | Method and system for identifying regions of uniform color in digital images | |
JP3950777B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP2000172849A (en) | Picture processor and pattern extracting device | |
JP2007272601A (en) | Image processor, control method and computer program | |
JP2002133426A (en) | Ruled line extracting device for extracting ruled line from multiple image | |
CN107066972B (en) | Natural scene Method for text detection based on multichannel extremal region | |
CN101122952A (en) | Picture words detecting method | |
US20090245640A1 (en) | Image determination apparatus, image search apparatus and a recording medium on which an image search program is recorded | |
JP2010218420A (en) | Character recognition apparatus, image reading apparatus, and program | |
CN110598566A (en) | Image processing method, device, terminal and computer readable storage medium | |
EP0949579A2 (en) | Multiple size reductions for image segmentation | |
JP3851742B2 (en) | Form processing method and apparatus | |
CN113971792A (en) | Character recognition method, device, equipment and storage medium for traffic sign board | |
JP2005317042A (en) | Image processor | |
Hemachander et al. | Locally adaptive block thresholding method with continuity constraint | |
JPH05166002A (en) | Method for analyzing source image | |
JPH0950527A (en) | Frame extracting device and rectangle extracting device | |
JP2003271973A (en) | Method and program for image processing | |
JP3268552B2 (en) | Area extraction method, destination area extraction method, destination area extraction apparatus, and image processing apparatus |