JP2013081174A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013081174A
JP2013081174A JP2012216955A JP2012216955A JP2013081174A JP 2013081174 A JP2013081174 A JP 2013081174A JP 2012216955 A JP2012216955 A JP 2012216955A JP 2012216955 A JP2012216955 A JP 2012216955A JP 2013081174 A JP2013081174 A JP 2013081174A
Authority
JP
Japan
Prior art keywords
gradation
area
layer
binary image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012216955A
Other languages
Japanese (ja)
Other versions
JP6011213B2 (en
Inventor
Tianyi Gui
天 宜 桂
Akihiro Minagawa
明洋 皆川
Yutaka Katsuyama
裕 勝山
Shun Son
俊 孫
Yoshinobu Hotta
悦伸 堀田
Satoshi Naoi
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2013081174A publication Critical patent/JP2013081174A/en
Application granted granted Critical
Publication of JP6011213B2 publication Critical patent/JP6011213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing method.SOLUTION: An image processing apparatus includes: a binary image generation section for generating a binary image corresponding to each layer of a ternary image on the basis of the ternary image, wherein in each binary image, pixels belonging to the layer to which the binary image corresponds have a first gradation and the other pixels have a second gradation; a connected region recognition section for recognizing in each binary image second gradation connected regions disconnected from boundaries; and a character layer decision section for, if a total area ratio of the second gradation connected regions is greater than a first threshold in two binary images, and an overlap ratio of first gradation regions in the binary image that has the smaller total area of the second gradation connected regions of the two binary images to the second gradation connected regions in the binary image that has the larger total area of the second gradation connected regions is greater than a second threshold, deciding that the layer to which the binary image having the smaller total area of the second gradation connected regions of the two binary images corresponds is a character layer, and deciding that the layer to which the other binary image corresponds is a character boundary region layer.

Description

本発明は、画像処理装置及び画像処理方法に関し、より具体的には、画像から文字層(文字の層)を認識するための画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more specifically to an image processing apparatus and an image processing method for recognizing a character layer (character layer) from an image.

ビデオの検索(video indexing)及びビデオの要約(video summarization)を行うには、ビデオにおける文字は、非常に簡潔かつ確かな手がかりである。よって、ビデオ画像における字幕領域を検出した後、字幕の文字情報を得るために、字幕領域に対してOCR(optical character recognition:光学的文字認識)を行ってもよい。当該プロセスにおいて、文字を抽出することは非常に重要なステップである。   To perform video indexing and video summarization, the characters in the video are very concise and reliable clues. Therefore, after detecting a caption area in a video image, OCR (optical character recognition) may be performed on the caption area to obtain caption character information. In the process, extracting characters is a very important step.

一種類の従来技術として、色クラスタリング(clustering)手法を用いて文字を取得する。この手法では、文字の色が同一であるとする。しかしながら、あるビデオでは、この仮説は必ずしも成り立たない。また、低画質のビデオ画像では、色情報は確かなものではない。更に、背景の色は文字の色と近似している場合は、多くのノイズを生じてしまう。   Characters are acquired using a color clustering technique as one type of conventional technology. In this method, it is assumed that the characters have the same color. However, in some videos this hypothesis does not always hold. Also, color information is not reliable for low-quality video images. Furthermore, if the background color is close to the character color, a lot of noise is generated.

もう一種類の従来技術として、局部の二値化手法(例えば、Niblackアルゴリズム)を用いて文字を取得する。しかし、このアルゴリズムの特性により、多くのノイズを生じる可能性がある。   As another type of prior art, characters are acquired using a local binarization method (for example, Niblack algorithm). However, the characteristics of this algorithm can cause a lot of noise.

また、上述の二種類の手法は何れも、画像処理を行った後で、画像において実際の文字層をどうやって判定するかの問題点がある。   In addition, both of the above-described two methods have a problem of how to determine an actual character layer in an image after performing image processing.

ビデオ画像、特にビデオ画像の字幕領域においては、境界領域を有する文字(例えば、薄い色の境界領域を有する濃い色の文字、又は濃い色の境界領域を有する薄い色の文字)がよくある。文字を抽出するには、この文字の境界領域は重要な情報である。しかし、従来の文字抽出方法は、当該特徴を十分に利用していない。   In a video image, particularly a caption area of a video image, a character having a border region (for example, a dark character having a light border region or a light character having a dark border region) is often used. In order to extract characters, the boundary region of the characters is important information. However, the conventional character extraction method does not fully utilize the feature.

本発明は、上述の従来技術の少なくとも一部の問題点を解決するように、画像において文字層(文字の層)を認識できる画像処理装置及び画像処理方法を提供する。   The present invention provides an image processing apparatus and an image processing method capable of recognizing a character layer (a layer of characters) in an image so as to solve at least a part of the problems of the conventional technology described above.

本発明の一の態様は、三値画像に基づいて、該三値画像の各層に対応する二値画像を生成する二値画像生成部であって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、二値画像生成部と、各前記二値画像において、境界に連結していない第2の階調連結領域を認識する連結領域認識部と、2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定する文字層決定部と、を含む画像処理装置を提供する。   One aspect of the present invention is a binary image generation unit that generates a binary image corresponding to each layer of the ternary image based on the ternary image, wherein each binary image includes the binary image. The pixels belonging to the layer corresponding to have a first gradation and the other pixels have a second gradation. A connected area recognition unit for recognizing two gradation connected areas, and a ratio of a total area of the second gradation connected areas in the two binary images is greater than a first threshold, and the two binary values In the image, the first gradation region in the binary image having a small total area of the second gradation connection region and the second gradation in the binary image having a large total area of the second gradation connection region. If the overlapping engagement rate with the connected area is larger than the second threshold value, the two binary images are not included. A character layer determining unit that determines a layer corresponding to a binary image having a small total area of the second gradation connection region as a character layer, and determines a layer corresponding to another binary image as a character boundary region layer And an image processing apparatus.

本発明の他の態様は、三値画像に基づいて、該三値画像の各層に対応する二値画像を生成するステップであって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、ステップと、各前記二値画像において、境界に連結していない第2の階調連結領域を認識するステップと、2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定するステップと、を含む画像処理方法を提供する。   Another aspect of the present invention is a step of generating, based on a ternary image, a binary image corresponding to each layer of the ternary image, wherein each of the binary images corresponds to the layer corresponding to the binary image. The pixel belonging to the pixel has the first gradation and the other pixels have the second gradation, and in each of the binary images, the second gradation connected region not connected to the boundary is recognized. And a ratio of the total area of the second gradation connected regions in the two binary images is larger than a first threshold, and the second gradation connected region in the two binary images The overlapping engagement ratio between the first gradation region in the binary image having a small total area and the second gradation connection region in the binary image having a large total area of the second gradation connection region is the second. If it is larger than the threshold value, the second gradation in the two binary images And determining a layer corresponding to a binary image having a small total area of the concatenation region as a character layer and determining a layer corresponding to another binary image as a character boundary region layer. .

本発明によれば、画像において文字層を認識できる画像処理装置及び画像処理方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and image processing method which can recognize a character layer in an image can be provided.

本発明の実施例に係る画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus which concerns on the Example of this invention. 文字対象及び文字境界領域を含む画像を例示する図である。It is a figure which illustrates the image containing a character object and a character boundary area. 図2の画像に基づいて生成された三値画像における各層に対応する二値画像を示す図である。It is a figure which shows the binary image corresponding to each layer in the ternary image produced | generated based on the image of FIG. 図2の画像に基づいて生成された三値画像における各層に対応する二値画像を示す図である。It is a figure which shows the binary image corresponding to each layer in the ternary image produced | generated based on the image of FIG. 図2の画像に基づいて生成された三値画像における各層に対応する二値画像を示す図である。It is a figure which shows the binary image corresponding to each layer in the ternary image produced | generated based on the image of FIG. 図3a乃至図3cの二値画像における穴連結領域を示す図である。It is a figure which shows the hole connection area | region in the binary image of FIG. 3a thru | or 3c. 図3a乃至図3cの二値画像における穴連結領域を示す図である。It is a figure which shows the hole connection area | region in the binary image of FIG. 3a thru | or 3c. 図3a乃至図3cの二値画像における穴連結領域を示す図である。It is a figure which shows the hole connection area | region in the binary image of FIG. 3a thru | or 3c. (a)乃至(c)は、得られた二値画像における穴連結領域に用いられる例示方法の処理で生じられた二値画像を示す図である。(A) thru | or (c) is a figure which shows the binary image produced by the process of the example method used for the hole connection area | region in the obtained binary image. 本発明の他の実施例に係る画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus which concerns on the other Example of this invention. 図3bに示される二値画像における各連結領域の外輪郭を示す図である。It is a figure which shows the outer outline of each connection area | region in the binary image shown by FIG. 3b. 図3bにおける一つの文字対象連結領域及び該連結領域の外輪郭を示す図である。It is a figure which shows one character object connection area | region in FIG. 3b, and the outer outline of this connection area | region. 図3bにおける一つの文字対象連結領域及び該連結領域の外輪郭を示す図である。It is a figure which shows one character object connection area | region in FIG. 3b, and the outer outline of this connection area | region. 図3bにおける一つの非文字対象(ノイズ)の連結領域及び該連結領域の外輪郭を示す図である。It is a figure which shows the connection area | region of one non-character object (noise) in FIG. 3b, and the outer contour of this connection area | region. 図3bにおける一つの非文字対象(ノイズ)の連結領域及び該連結領域の外輪郭を示す図である。It is a figure which shows the connection area | region of one non-character object (noise) in FIG. 3b, and the outer contour of this connection area | region. ノイズが除去された文字層を例示する図である。It is a figure which illustrates the character layer from which noise was removed. 本発明の実施例に係る画像処理方法を示すフローチャートである。3 is a flowchart illustrating an image processing method according to an embodiment of the present invention. 本発明に係る画像処理装置及び画像処理方法を実現するためのコンピュータの構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of a computer for realizing an image processing apparatus and an image processing method according to the present invention.

本発明の上述の及びその他の目的、特徴及び効果は、図面を参照しながら、好適な実施形態の詳細な説明に示されるように、明らかである。   The above and other objects, features and advantages of the present invention will be apparent as shown in the detailed description of the preferred embodiments with reference to the drawings.

次に、本発明を実施するための形態を図面に基づいて説明する。   Next, an embodiment for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の実施例に係る画像処理装置100の構成例を示すブロック図である。画像処理装置100は、二値画像生成部110、連結領域認識部120、及び文字層決定部130を含む。   FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to an embodiment of the present invention. The image processing apparatus 100 includes a binary image generation unit 110, a connected region recognition unit 120, and a character layer determination unit 130.

画像処理装置100には、三値化画像が入力される。この三値化画像は、通常の方法を用いて画像を三値化して得られるものであってもよい。例えば、図2は、ビデオ画像における字幕領域を例示する画像である。図2に示される画像において、文字は黒い色であり、背景(ビデオの画面)は漸進的に変化する色(グラジェント)を有し、文字と背景との間は白い色の境界領域を有する。既知の方法を用いて、この画像を処理して三値化図を生成してもよい。例えば、この画像をグレースケール画像(階調値の範囲は0〜255となる)に変換して、各画素の階調と2つの局部ウインドウ閾値とを比較することで画像を三値化(即ち、画像を三つの層に分ける)してもよい。具体的な例としては、局部ウインドウ閾値をT=m−k×s,T=m+k×sと設定してもよい。そのうち、mは局部(例えば3×3画素のウインドウ)平均値であり、sは局部の平方偏差(variance)であり、係数kは必要に応じて異なる値に設定できる値である。閾値と比較することで、Tよりも小さい階調値を有する画素の集合を黒い色の層とし、Tよりも大きい階調値を有する画素の集合を白い色の層とし、階調値がTとTとの間にある画素の集合を中間層としてもよい。また、その他の方法、例えば色クラスタリング(clustering)手法などを用いて三値化図を取得してもよい。 A ternary image is input to the image processing apparatus 100. This ternary image may be obtained by ternarizing the image using a normal method. For example, FIG. 2 is an image illustrating a caption area in a video image. In the image shown in FIG. 2, the characters are black, the background (video screen) has a progressively changing color (gradient), and there is a white border area between the characters and the background. . This image may be processed to generate a ternary diagram using known methods. For example, this image is converted into a grayscale image (the range of gradation values is 0 to 255), and the image is ternarized by comparing the gradation of each pixel with two local window thresholds (ie, The image may be divided into three layers). As a specific example, the local window threshold value may be set as T 1 = m−k × s and T 2 = m + k × s. Among them, m is a local (for example, 3 × 3 pixel window) average value, s is a local square variation, and the coefficient k is a value that can be set to a different value as needed. By comparing with a threshold value, a set of pixels having a gradation value smaller than T 1 is a black color layer, a set of pixels having a gradation value larger than T 2 is a white color layer, and a gradation value A set of pixels between T 1 and T 2 may be used as the intermediate layer. Further, the ternary diagram may be acquired by using other methods such as a color clustering method.

二値画像生成部110は、入力された三値化画像に基づいて、該三値画像の各層に対応する二値画像を生成する、即ち三値化画像の各層を抽出する。各二値画像において、二値画像が対応する層に属する画素は第1の階調を有し、他の画素(背景)は第2の階調を有する。   Based on the input ternary image, the binary image generation unit 110 generates a binary image corresponding to each layer of the ternary image, that is, extracts each layer of the ternary image. In each binary image, the pixels belonging to the layer corresponding to the binary image have the first gradation, and the other pixels (background) have the second gradation.

図3a乃至図3cは、二値画像生成部110が図2の画像の三値化画像に基づいて生成した三つの二値画像を示す。図3a乃至図3cの二値画像において、三値化画像の対応層の画素は黒い色であり、その他の画素(背景)は白い色である。   3a to 3c show three binary images generated by the binary image generation unit 110 based on the ternary image of the image of FIG. In the binary images of FIGS. 3a to 3c, the pixels in the corresponding layer of the ternary image are black, and the other pixels (background) are white.

二値画像生成部110により生成された二値画像は、連結領域認識部120に供給される。連結領域認識部120は、各二値画像における、境界に連結していない第2の階調連結領域を認識する。以下、境界に連結していない第2の階調連結領域を穴連結領域と略称する。   The binary image generated by the binary image generation unit 110 is supplied to the connected region recognition unit 120. The connected area recognition unit 120 recognizes a second gradation connected area that is not connected to the boundary in each binary image. Hereinafter, the second gradation connection region that is not connected to the boundary is abbreviated as a hole connection region.

図4a乃至図4cは、連結領域認識部120により、図3a乃至図3cの二値画像から認識された穴連結領域を示す。   4A to 4C show hole connection regions recognized by the connection region recognition unit 120 from the binary images of FIGS. 3A to 3C.

具体的な例として、連結領域認識部120は、以下の処理によって二値画像における穴連結領域を取得してもよい。
(1)二値画像に対して、色反転処理を行い、
(2)色反転処理が行われた二値画像における境界に連結している第1の階調連結領域を第2の階調に変換し、
(3)変換された二値画像における第1の階調の領域を穴連結領域とする。
As a specific example, the connected region recognition unit 120 may acquire a hole connected region in the binary image by the following process.
(1) Perform color reversal processing on the binary image,
(2) The first gradation connected area connected to the boundary in the binary image subjected to the color inversion processing is converted into the second gradation,
(3) The region of the first gradation in the converted binary image is set as a hole connection region.

図5a乃至図5cは、該例示した処理における各二値画像を示す。図5aは、該処理の対象の二値画像であり、図5bは、図5aの二値画像を色反転して得られた二値画像であり、図5cは、図5bの二値画像における境界に連結している連結領域を第2の階調に変換して得られた二値画像である。   5a to 5c show each binary image in the exemplified processing. 5a is a binary image to be processed, FIG. 5b is a binary image obtained by color-reversing the binary image of FIG. 5a, and FIG. 5c is a binary image of FIG. 5b. It is the binary image obtained by converting the connection area | region connected to the boundary into 2nd gradation.

なお、本発明は上記に例示したものに限らず、例えば他の連結領域の分析方法を用いて二値画像における穴連結領域を認識してもよい。   In addition, this invention is not restricted to what was illustrated above, For example, you may recognize the hole connection area | region in a binary image using the analysis method of another connection area | region.

連結領域認識部120による各二値画像の連結領域の認識結果は、文字層決定部130に供給される。文字層決定部130は、各二値画像における穴連結領域の比較結果に基づいて、三つの二値画像には文字層及び文字境界領域層に対応する二値画像が存在しているか否か、文字層に対応するのはどれか、及び文字境界領域層に対応するのはどれか、を決定する。   The recognition result of the connected area of each binary image by the connected area recognition unit 120 is supplied to the character layer determination unit 130. The character layer determination unit 130 determines whether or not binary images corresponding to the character layer and the character boundary region layer exist in the three binary images based on the comparison result of the hole connection regions in the binary images. It is determined which corresponds to the character layer and which corresponds to the character boundary region layer.

より具体的には、文字層決定部130は、任意の2つの二値画像における穴連結領域の総面積(即ち画像数)の比率を比較してもよい。該2つの二値画像の穴連結領域の総面積の比率が所定の閾値(例えば20)を超えた場合、文字層決定部130は、この2つの二値画像が対応する層それぞれを文字層及び文字境界領域層と決定してもよい。これは、通常、文字境界領域層が対応する二値画像における穴連結領域の総面積が大きく、文字層が対応する二値画像における穴連結領域の総面積が小さいため、両者の穴連結領域の総面積の比率が通常極めて高いからである。   More specifically, the character layer determination unit 130 may compare the ratio of the total area (that is, the number of images) of the hole connection regions in any two binary images. When the ratio of the total area of the hole connection regions of the two binary images exceeds a predetermined threshold (for example, 20), the character layer determination unit 130 sets the layers corresponding to the two binary images as character layers and The character boundary region layer may be determined. This is because the total area of the hole connection areas in the binary image corresponding to the character boundary area layer is usually large and the total area of the hole connection areas in the binary image corresponding to the character layer is small. This is because the ratio of the total area is usually extremely high.

また、2つの二値画像における穴連結領域の総面積の比率が閾値を超えた場合は、文字層決定部130は、この2つの二値画像において、穴連結領域の総面積が小さい二値画像における第1の階調の領域と、穴連結領域の総面積が大きい二値画像における穴連結領域との重なりかみ合い率をさらに比較してもよい。当該重なりかみ合い率が所定の閾値よりも大きい場合は、文字層決定部130は二つの二値画像における穴連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定してもよい。   When the ratio of the total area of the hole connection areas in the two binary images exceeds the threshold value, the character layer determination unit 130 uses the binary image in which the total area of the hole connection areas is small in the two binary images. The overlapping degree of overlap between the first gradation region in FIG. 5 and the hole connection region in the binary image having a large total area of the hole connection region may be further compared. When the overlapping engagement rate is larger than a predetermined threshold, the character layer determining unit 130 determines a layer corresponding to the binary image having a small total area of the hole connection regions in the two binary images as the character layer. A layer corresponding to two binary images may be determined as a character boundary region layer.

図3に示される各二値画像を例として、文字層決定部130は、図4に示される穴連結領域の識別結果を比較し、図4aの穴連結領域の総面積と図4bの穴連結領域の総面積との比率が所定の閾値を超えた、且つ図4aに示される穴連結領域と図3bにおける黒い色領域との重なりかみ合い率が所定の閾値を超えた場合は、図3bが対応する層を文字層と決定し、図3aが対応する層を文字境界領域層と決定する。   Taking each binary image shown in FIG. 3 as an example, the character layer determination unit 130 compares the hole connection region identification results shown in FIG. 4 and compares the total area of the hole connection region shown in FIG. 4a with the hole connection shown in FIG. 4b. FIG. 3b corresponds to the case where the ratio of the total area of the area exceeds a predetermined threshold and the overlapping engagement ratio between the hole connection area shown in FIG. 4a and the black color area in FIG. 3b exceeds the predetermined threshold. The layer to be determined is determined as the character layer, and the layer corresponding to FIG. 3A is determined as the character boundary region layer.

本発明の一つの具体的な実施例によれば、N1/N2を上記の重なりかみ合い率としてもよい。N1は、穴連結領域の総面積が小さい二値画像における第1の階調の領域と穴連結領域の総面積が大きい二値画像における穴連結領域との積集合(共通部分)の画素数であり、N2は、穴連結領域の総面積が小さい二値画像における第1の階調の領域と穴連結領域の総面積が大きい二値画像における穴連結領域との和集合の画素数である。ここで、上記の重なりかみ合い率は0.6〜0.9の範囲から選択されてもよく、例えば0.7であってもよい。なお、本発明はここに例示されるものに限定されず、他の具体的な方法で上記重なりかみ合い率を計測してもよい。   According to one specific embodiment of the present invention, N1 / N2 may be the overlap ratio. N1 is the number of pixels in the product set (common part) of the first gradation area in the binary image with a small total area of the hole connection area and the hole connection area in the binary image with a large total area of the hole connection area. Yes, N2 is the number of pixels in the union of the first gradation area in the binary image with a small total area of hole connection areas and the hole connection area in a binary image with a large total area of hole connection areas. Here, the overlap engagement rate may be selected from a range of 0.6 to 0.9, and may be 0.7, for example. In addition, this invention is not limited to what is illustrated here, You may measure the said overlap ratio by another concrete method.

また、ある個別の場合は、ある二値画像における穴連結領域の総面積は非常に小さい(例えば、該二値画像の総面積の1%よりも小さい)ため、文字層及び文字境界領域層の誤判断をすることがある。このため、一つの実施例では、文字層決定部130は、判断の精度を向上するために、上記2つの判断条件以外に、以下の判断条件を付加的に採用してもよい。   Further, in a certain individual case, the total area of the hole connection regions in a certain binary image is very small (for example, smaller than 1% of the total area of the binary image). Mistakes may be made. Therefore, in one embodiment, the character layer determination unit 130 may additionally employ the following determination conditions in addition to the above two determination conditions in order to improve the determination accuracy.

文字層決定部130は、当該2つの二値画像における、各穴連結領域の総面積と該二値画像の総面積との比率が所定の閾値(例えば、0.05)よりも大きい場合は、文字層及び文字境界領域層の決定を行う。   When the ratio between the total area of each hole connection region and the total area of the binary image in the two binary images is larger than a predetermined threshold (for example, 0.05), the character layer determination unit 130 The character layer and the character boundary region layer are determined.

画像処理装置100により決定された文字層及び/又は文字境界領域層は、処理結果として出力され、後処理、例えば文字認識等に用いられる。従って、本発明の実施例に係る画像処理装置は、通常の画像処理装置と比べて、画像における文字境界領域の特徴を利用することで、画像における文字層及び文字境界領域層を効率的に認識、決定することができる。   The character layer and / or character boundary region layer determined by the image processing apparatus 100 is output as a processing result and used for post-processing, for example, character recognition. Therefore, the image processing apparatus according to the embodiment of the present invention efficiently recognizes the character layer and the character boundary area layer in the image by using the feature of the character boundary area in the image as compared with the normal image processing apparatus. Can be determined.

また、本発明の他の実施例では、画像処理装置は、決定された文字層に対してノイズ除去処理を行ってもよい。   In another embodiment of the present invention, the image processing apparatus may perform noise removal processing on the determined character layer.

図6は、本発明の他の実施例に係る画像処理装置600の構成例を示すブロック図である。画像処理装置600は、二値画像生成部610、連結領域認識部620、文字層決定部630、及びノイズ除去部640を含む。なお、二値画像生成部610、連結領域認識部620、及び文字層決定部630は、図1に示される二値画像生成部110、連結領域認識部120、及び文字層決定部130と類似し、ここでその説明を適宜省略することとする。   FIG. 6 is a block diagram illustrating a configuration example of an image processing apparatus 600 according to another embodiment of the present invention. The image processing apparatus 600 includes a binary image generation unit 610, a connected region recognition unit 620, a character layer determination unit 630, and a noise removal unit 640. The binary image generation unit 610, the connected region recognition unit 620, and the character layer determination unit 630 are similar to the binary image generation unit 110, the connection region recognition unit 120, and the character layer determination unit 130 shown in FIG. Here, the description thereof will be omitted as appropriate.

ノイズ除去部640は、文字層決定部630により決定された文字境界領域層に基づいて、決定された文字層に対してノイズ除去処理を行う。より具体的には、ノイズ除去部640は、文字層と決定された二値画像における各第1の階調連結領域に対して、該第1の階調連結領域の外輪郭と決定された文字境界領域層の二値画像における第1の階調の領域との合致度が所定の閾値よりも小さい場合は、第1の階調連結領域をノイズとして除去する。ここで、連結領域の外輪郭とは、該連結領域の外部と該連結領域の境界と隣接する輪郭を意味する。   The noise removal unit 640 performs noise removal processing on the determined character layer based on the character boundary region layer determined by the character layer determination unit 630. More specifically, the noise removing unit 640 determines, for each first gradation connected area in the binary image determined as the character layer, the character determined as the outer contour of the first gradation connected area. When the degree of coincidence with the first gradation area in the binary image in the boundary area layer is smaller than a predetermined threshold, the first gradation connection area is removed as noise. Here, the outer contour of the connection region means a contour adjacent to the outside of the connection region and the boundary of the connection region.

図3に示される二値画像を例として、文字層決定部630が図3bの二値画像が対応する層を文字層と決定し、図3aの二値画像が対応する層を文字境界領域層と決定する場合は、ノイズ除去部640は、文字層の二値画像における各第1の階調連結領域の外輪郭を抽出してもよい。図7は、図3bに示される二値画像における各連結領域の外輪郭を示している。文字層の二値画像の各第1の階調連結領域には、図8aに示すように本当の文字対象が含まれることがあり、図8bに示すようにノイズが含まれることもある。ノイズ除去部640は、当該連結領域の外輪郭(例えば、図8b及び図9bに示すように)と文字境界領域層における第1の階調の領域とを比較することで、ノイズを除去する。図8bに示される連結領域の外輪郭と図3aにおける第1の階調の領域とは合致しているため、ノイズ除去部640は、図8aに示される連結領域が文字対象に対応することと決定(判定)する。一方、図9bに示される連結領域の外輪郭と図3aにおける第1の階調の領域とは合致していないため、ノイズ除去部640は、図9aの連結領域をノイズとして除去する。図10は、ノイズが除去された文字層を例示する図を示している。   Taking the binary image shown in FIG. 3 as an example, the character layer determining unit 630 determines the layer corresponding to the binary image in FIG. 3b as the character layer, and the layer corresponding to the binary image in FIG. , The noise removal unit 640 may extract the outer contour of each first gradation connected region in the binary image of the character layer. FIG. 7 shows the outer contour of each connected region in the binary image shown in FIG. 3b. Each first gradation connected region of the binary image of the character layer may include a real character object as shown in FIG. 8a and may include noise as shown in FIG. 8b. The noise removing unit 640 removes noise by comparing the outer contour of the connected area (for example, as shown in FIGS. 8b and 9b) and the first gradation area in the character boundary area layer. Since the outer contour of the connected area shown in FIG. 8b matches the area of the first gradation in FIG. 3a, the noise removing unit 640 determines that the connected area shown in FIG. 8a corresponds to the character object. Determine (determine). On the other hand, since the outer contour of the connected area shown in FIG. 9b does not match the area of the first gradation in FIG. 3a, the noise removing unit 640 removes the connected area of FIG. 9a as noise. FIG. 10 is a diagram illustrating a character layer from which noise has been removed.

本発明の具体的な実施例によれば、N4/N3を合致度としてもよい。N3は、文字層の二値画像における第1の階調連結領域の外輪郭の画素数であり、N4は、文字層の二値画像における第1の階調連結領域の外輪郭と文字境界領域層の二値画像における第1の階調の領域との積集合の画素数である。ここで、上述した合致度の閾値は、例えば0.85〜0.95の範囲内から選択されてもよく、例えば0.9であってもよい。なお、本発明は、ここに例示されるものに限定されず、他の具体的な方法で上述した合致度を計測してもよい。   According to a specific embodiment of the present invention, N4 / N3 may be set as the degree of match. N3 is the number of pixels of the outer contour of the first gradation connected region in the binary image of the character layer, and N4 is the outer contour and character boundary region of the first gradation connected region in the binary image of the character layer This is the number of pixels in the product set with the first gradation region in the binary image of the layer. Here, the threshold value of the matching degree described above may be selected from a range of 0.85 to 0.95, for example, and may be 0.9, for example. In addition, this invention is not limited to what is illustrated here, You may measure the matching degree mentioned above with the other concrete method.

画像処理装置600は、ノイズ除去部640によりノイズを除去した文字層を結果として出力する。これによって、本実施例に係る画像処理装置は、通常の画像処理装置と比べて、画像における文字境界領域の特徴を利用することで、ノイズが少ない文字層を提供することができ、当該ノイズ除去方法でノイズを効果的に除去することができる。   The image processing apparatus 600 outputs the character layer from which the noise is removed by the noise removing unit 640 as a result. As a result, the image processing apparatus according to the present embodiment can provide a character layer with less noise by using the feature of the character boundary region in the image as compared with a normal image processing apparatus. The method can effectively remove noise.

図11は、本発明の実施例に係る画像処理方法を示すフローチャートである。   FIG. 11 is a flowchart showing an image processing method according to the embodiment of the present invention.

ステップS1110において、三値画像に基づいて、該三値画像の各層に対応する二値画像を生成する。各二値画像において、二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する。   In step S1110, based on the ternary image, a binary image corresponding to each layer of the ternary image is generated. In each binary image, pixels belonging to the layer to which the binary image corresponds have a first gradation, and the other pixels have a second gradation.

ステップS1120において、各二値画像において、境界に連結していない第2の階調連結領域を認識する。   In step S1120, a second gradation connected region that is not connected to the boundary is recognized in each binary image.

ステップS1130において、2つの二値画像における第2の階調連結領域の総面積の比率が第1の閾値(例えば、20)よりも大きいか否かと決定(判断)し、決定結果はYESであれば、処理がステップS1140に進む。   In step S1130, it is determined (determined) whether the ratio of the total area of the second gradation connected regions in the two binary images is larger than a first threshold (for example, 20), and the determination result is YES. If so, the process advances to step S1140.

ステップS1140において、2つの二値画像において第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と第2の階調連結領域の総面積が大きい二値画像における第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きいか否かを決定(判断)し、決定結果はYESであれば、処理がステップS1150に進む。   In step S1140, in the binary image in which the total area of the first gradation region and the second gradation connection region in the binary image in which the total area of the second gradation connection region is small in the two binary images is large. It is determined (determined) whether or not the overlapping engagement ratio with the second gradation connection region is larger than the second threshold value. If the determination result is YES, the process proceeds to step S1150.

ステップS1150において、二つの二値画像における第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定する。   In step S1150, the layer corresponding to the binary image having the small total area of the second gradation connected regions in the two binary images is determined as the character layer, and the layer corresponding to the other binary image is determined as the character boundary region. Decide with a layer.

一つの実施例によれば、ステップS1140において、N1/N2を重なりかみ合い率とし、N1は、第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と第2の階調連結領域の総面積が大きい二値画像における第2の階調連結領域との積集合の画素数であり、N2は、第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と第2の階調連結領域の総面積が大きい二値画像における第2の階調連結領域との和集合の画素数である。   According to one embodiment, in step S1140, N1 / N2 is used as the overlapping engagement ratio, and N1 is the first gradation region and the second region in the binary image in which the total area of the second gradation connection region is small. Is the number of pixels of the product set with the second gradation connected area in the binary image having a large total area of the gradation connected areas, and N2 is in the binary image having a small total area of the second gradation connected areas. This is the number of pixels in the union of the second gradation connected region in the binary image in which the total area of the first gradation region and the second gradation connected region is large.

一つの実施例によれば、ステップS1150の後では、ノイズ除去ステップがさらに含まれる。ノイズ除去ステップにおいて、決定された文字層の二値画像における各第1の階調連結領域に対し、第1の階調連結領域の外輪郭と決定された文字境界領域層の二値画像における第1の階調の領域との合致度が第3の閾値よりも小さい場合は、第1の階調連結領域をノイズとして除去する。   According to one embodiment, a noise removal step is further included after step S1150. In the noise removal step, for each first gradation connected area in the binary image of the determined character layer, the outer contour of the first gradation connected area and the second image in the binary image of the character boundary area layer determined. When the degree of coincidence with the first gradation area is smaller than the third threshold value, the first gradation connection area is removed as noise.

一つの実施例によれば、ノイズ除去ステップにおいて、N4/N3を合致度とし、N3は、文字層の二値画像における第1の階調連結領域の外輪郭の画素数であり、N4は、文字層の二値画像における第1の階調連結領域の外輪郭と文字境界領域層の二値画像における第1の階調の領域との積集合の画素数である。   According to one embodiment, in the noise removal step, N4 / N3 is set as the matching degree, N3 is the number of pixels of the outer contour of the first gradation connected region in the binary image of the character layer, and N4 is This is the number of pixels in the product set of the outer contour of the first gradation connected region in the binary image of the character layer and the region of the first gradation in the binary image of the character boundary region layer.

一つの実施例によれば、ステップS1140の決定結果はYESであれば、2つの二値画像における各第2の階調連結領域の総面積と二値画像の総面積との比率が第4の閾値(例えば、0.05)よりも大きいか否かを決定(判断)し、決定結果がYESの場合は、処理がステップS1150に進む。   According to one embodiment, if the decision result in the step S1140 is YES, the ratio between the total area of each second gradation connected region and the total area of the binary image in the two binary images is a fourth value. It is determined (determined) whether or not it is larger than a threshold value (for example, 0.05). If the determination result is YES, the process proceeds to step S1150.

本発明は装置、方法又はコンピュータプログラムのプロダクトであってもよいことは、当業者にとって理解される。このため、本発明は以下の具体的な形式で実現されてもよく、例えば、完全なハードウェア、完全なソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又はソフトウェア部とハードウェア部との組み合わせであってもよい。また、本発明は如何なる有形の表現媒体におけるコンピュータソフトウェアのプロダクトを用いてもよく、該媒体にはコンピュータが使用可能なプログラムコードを含む。   It will be appreciated by those skilled in the art that the present invention may be a device, method or computer program product. Thus, the present invention may be implemented in the following specific forms, for example, complete hardware, complete software (including firmware, resident software, microcode, etc.), or software and hardware parts A combination of these may be used. Further, the present invention may use a computer software product in any tangible expression medium, and the medium includes program code usable by a computer.

本発明は、一つ又は複数のコンピュータが読取可能な媒体の如何なる組み合わせを用いてもよい。コンピュータ読取可能な媒体は、コンピュータが読取可能な信号媒体又は記憶媒体であってもよく、コンピュータが読取可能な記憶媒体は電気的、磁気的、光学的、電磁的、赤外線の、又は半導体のシステム、装置、機器の部分品、伝播媒体、或いはそれらの適当な組み合わせであってもよいが、ここに例示されるものに限定されない。コンピュータが読取可能な記憶媒体は、より具体的な例として、一つ又は複数の導線間の電気接続、携帯可能なコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去及びプログラム可能読取り専用記憶装置(EPROM又はフラッシュメモリ)、光ファイバー、コンパクトディスク(CD−ROM)、光学記憶装置、磁気記憶装置、又はそれらの適当な組みあわせを含む。本明細書では、コンピュータが読取可能な記憶媒体は、指令実行システム、装置若しくは機器に適用される、又は指令実行システム、装置若しくは機器に関するプログラムを含む或いは記憶する、如何なる有形媒体であってもよい。   The invention may use any combination of one or more computer readable media. The computer readable medium may be a computer readable signal medium or a storage medium, and the computer readable storage medium is an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system. , Devices, parts of equipment, propagation media, or any suitable combination thereof, but is not limited to those illustrated here. Computer-readable storage media include, as a more specific example, electrical connections between one or more conductors, portable computer disks, hard disks, random access memory (RAM), read only memory (ROM), erasure And programmable read-only storage (EPROM or flash memory), optical fiber, compact disk (CD-ROM), optical storage, magnetic storage, or any suitable combination thereof. In this specification, a computer-readable storage medium may be any tangible medium that applies to or stores a program related to a command execution system, apparatus, or device. .

本発明を実行するための操作のコンピュータプログラムコードは、一つのプログラミング言語又は複数のプログラミング言語の如何なる組み合わせで開発してもよく、プログラミング言語は、例えばJava(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語を含み、例えば「C」プログラミング言語又は類似なプログラミング言語などの通常の手続き型プログラミング言語をさらに含む。プログラムコードは完全にユーザのコンピュータで実行してもよいし、部分的にユーザのコンピュータで実行してもよいし、独立のソフトウェアパッケージとして実行してもよいし、一部がユーザのコンピュータで実行し一部がリモートコンピュータで実行してもよいし、完全にリモートコンピュータ又はサーバで実行してもよい。後者の場合は、リモートコンピュータは、例えば地域ネットワーク(LAN)又は広域ネットワーク(WAN)などの如何なるネットワークを介してユーザのコンピュータに接続されてもよいし、或いは(インターネットのプロバイダによるインターネットを介して)外部コンピュータに接続されてもよい。   The computer program code of the operation for carrying out the present invention may be developed in one programming language or any combination of a plurality of programming languages, for example, an object such as Java (registered trademark), Smalltalk, C ++, etc. It includes an oriented programming language, and further includes a normal procedural programming language such as a “C” programming language or similar programming language. The program code may be executed entirely on the user's computer, partially on the user's computer, as an independent software package, or partially on the user's computer. However, some may be executed by a remote computer, or may be executed completely by a remote computer or a server. In the latter case, the remote computer may be connected to the user's computer via any network, such as a regional network (LAN) or a wide area network (WAN), or (via the Internet by an Internet provider). It may be connected to an external computer.

図12は、本発明に係る画像処理装置及び画像処理方法を実現するためのコンピュータの構成例を示すブロック図を示している。図12において、中央処理ユニット(CPU)1201が、リードオンリーメモリ(ROM)1202に記憶されているプログラム、又は記憶部1208からランダムアクセスメモリ(RAM)1203にロードされているプログラムに基づいて各種の処理を行う。RAM1203は、必要に応じてCPU1201が各種の処理などを実行するときに必要なデータを記憶してもよい。   FIG. 12 is a block diagram showing a configuration example of a computer for realizing the image processing apparatus and the image processing method according to the present invention. In FIG. 12, the central processing unit (CPU) 1201 performs various processing based on a program stored in a read-only memory (ROM) 1202 or a program loaded from a storage unit 1208 to a random access memory (RAM) 1203. Process. The RAM 1203 may store data necessary when the CPU 1201 executes various processes as necessary.

CPU1201、ROM1202及びRAM1203は、バス1204を介して互いに接続される。また、入力/出力インターフェース1205もバス1204に接続される。   The CPU 1201, ROM 1202, and RAM 1203 are connected to each other via a bus 1204. An input / output interface 1205 is also connected to the bus 1204.

入力/出力インターフェース1205には、入力部1206(キーボード、マウスなどを含む)、出力部分1207(例えばCRTなどの表示器、液晶表示装置(LCD)、スピーカーなどを含む)、記憶部1208(ハードディスクなどを含む)、及び通信部1209(例えばLANカードなどのネットワーク接続カード、モデムなどを含む)が接続される。通信部1209は、ネットワーク例えばインターネットを介して通信処理を行う。   The input / output interface 1205 includes an input unit 1206 (including a keyboard and a mouse), an output unit 1207 (for example, a display such as a CRT, a liquid crystal display (LCD), a speaker, etc.), and a storage unit 1208 (such as a hard disk). And a communication unit 1209 (including a network connection card such as a LAN card, a modem, etc.). The communication unit 1209 performs communication processing via a network such as the Internet.

駆動装置(ドライブ)1210は、必要に応じて入力/出力インターフェース1205に接続されてもよい。また、必要に応じて、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどの取り外し可能な媒体1211を駆動装置1210にセットすることにより、その中から読み出したコンピュータプログラムを記憶部1208にインストールしてもよい。   The drive device (drive) 1210 may be connected to the input / output interface 1205 as necessary. Further, if necessary, for example, a removable medium 1211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is set in the drive device 1210 so that a computer program read from the medium is installed in the storage unit 1208. May be.

ソフトウェアにより上述の一連の処理を実現する場合は、ネットワーク例えばインターネット、又は記憶媒体例えば取り外し可能な媒体1211から、このソフトウェアを構成するプログラムをインストールしてもよい。   When the above-described series of processing is realized by software, a program constituting the software may be installed from a network such as the Internet or a storage medium such as a removable medium 1211.

なお、当業者が理解すべきこととしては、このような記憶媒体は、中にプログラムが記憶されており、ユーザにプログラムを提供するよう装置と独立して配られる図12に示すような取り外し可能な媒体1211に限定されないということである。取り外し可能な媒体1211の例としては、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD−ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体メモリを含む。或いは、記憶媒体はROM1202、記憶部1208に含まれるハードディスクなどであってもよく、それらにはプログラムが記憶されており、且つそれらを含む装置とともにユーザに配られてもよい。   It should be understood by those skilled in the art that such a storage medium has a program stored therein and is removable as shown in FIG. 12, which is distributed independently of the apparatus so as to provide the program to the user. It is not limited to the medium 1211. Examples of the removable medium 1211 include a magnetic disk (including a floppy disk (registered trademark)), an optical disk (including a CD-ROM and a DVD), a magneto-optical disk (including MD (registered trademark)), and a semiconductor memory. including. Alternatively, the storage medium may be a ROM 1202, a hard disk included in the storage unit 1208, and the like, in which a program is stored, and may be distributed to a user together with a device including them.

上記の説明は、本発明の好適な実施例に過ぎず、本発明の実施の範囲がこれらに限定されず、本発明の特許請求の範囲及び明細書の内容に基づいて、当業者によって任意の変更及び変形が可能であり、本発明の保護範囲は特許請求の範囲を基準とする。また、本発明の実施例又は特許請求の範囲は何れも本発明により開示された目的又は利点又は特徴の全てを必ずしも実現する必要はない。さらにまた、本明細書及び特許請求の範囲に言及される「第1の」、「第2の」等の用語は、単なる構成要素を命名する、或いは異なる実施例又は範囲を区別するものであり、構成要素の数の上限又は下限を限定するものではない。   The above description is only a preferred embodiment of the present invention, and the scope of the present invention is not limited thereto. Any one of ordinary skill in the art based on the claims of the present invention Modifications and variations are possible, and the protection scope of the present invention is based on the claims. In addition, any embodiment of the present invention or claims does not necessarily have to realize all of the objects, advantages, or features disclosed by the present invention. Furthermore, the terms “first”, “second”, etc. referred to in this specification and the claims merely name the components or distinguish different embodiments or ranges. The upper limit or lower limit of the number of components is not limited.

また、上述の各実施例を含む実施形態に関し、更に以下の付記を開示する。   Moreover, the following additional remarks are disclosed regarding the embodiment including each of the above-described examples.

(付記1)
三値画像に基づいて、該三値画像の各層に対応する二値画像を生成する二値画像生成部であって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、二値画像生成部と、
各前記二値画像において、境界に連結していない第2の階調連結領域を認識する連結領域認識部と、
2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定する文字層決定部と、を含む画像処理装置。
(Appendix 1)
A binary image generation unit that generates a binary image corresponding to each layer of the ternary image based on the ternary image, and in each of the binary images, pixels belonging to the layer to which the binary image corresponds A binary image generator having a first gradation and the other pixels having a second gradation;
In each of the binary images, a connected region recognition unit that recognizes a second gradation connected region that is not connected to the boundary;
The ratio of the total area of the second gradation connection area in the two binary images is larger than the first threshold value, and the total area of the second gradation connection area in the two binary images is small. The overlapping engagement ratio between the first gradation area in the binary image and the second gradation connection area in the binary image having a large total area of the second gradation connection area is larger than the second threshold. In this case, a layer corresponding to a binary image having a small total area of the second gradation connection region in the two binary images is determined as a character layer, and a layer corresponding to the other binary image is determined as a character boundary. An image processing apparatus including a region layer and a character layer determination unit that determines a region layer.

(付記2)
N1/N2を前記重なりかみ合い率とし、
N1は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との積集合の画素数であり、
N2は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との和集合の画素数である付記1に記載の画像処理装置。
(Appendix 2)
Let N1 / N2 be the overlap engagement rate,
N1 represents the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The number of pixels in the intersection set with the key connected region,
N2 is the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The image processing apparatus according to appendix 1, which is the number of pixels in the union with the key connection area.

(付記3)
前記決定された文字層の二値画像における各第1の階調連結領域に対し、前記第1の階調連結領域の外輪郭と前記決定された文字境界領域層の二値画像における第1の階調の領域との合致度が第3の閾値よりも小さい場合は、前記第1の階調連結領域をノイズとして除去するノイズ除去部をさらに含む付記1又は2に記載の画像処理装置。
(Appendix 3)
For each first gradation connected area in the determined binary image of the character layer, an outer contour of the first gradation connected area and a first in the binary image of the determined character boundary area layer The image processing apparatus according to appendix 1 or 2, further including a noise removal unit that removes the first gradation connection area as noise when the degree of coincidence with the gradation area is smaller than a third threshold value.

(付記4)
N4/N3を前記合致度とし、
N3は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭の画素数であり、
N4は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭と前記文字境界領域層の二値画像における前記第1の階調の領域との積集合の画素数である付記3に記載の画像処理装置。
(Appendix 4)
N4 / N3 is the degree of match,
N3 is the number of pixels of the outer contour of the first gradation connection region in the binary image of the character layer,
N4 is the number of pixels in the product set of the outer contour of the first gradation connected region in the binary image of the character layer and the region of the first gradation in the binary image of the character boundary region layer. The image processing apparatus according to appendix 3.

(付記5)
前記2つの二値画像における各前記第2の階調連結領域の総面積と前記二値画像の総面積との比率が第4の閾値よりも大きい場合は、前記文字層決定部は前記文字層及び前記文字境界領域層の決定を行う付記1又は2に記載の画像処理装置。
(Appendix 5)
When the ratio of the total area of each of the second gradation connected regions and the total area of the binary image in the two binary images is greater than a fourth threshold, the character layer determining unit determines the character layer The image processing apparatus according to appendix 1 or 2, wherein the character boundary region layer is determined.

(付記6)
三値画像に基づいて、該三値画像の各層に対応する二値画像を生成するステップであって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、ステップと、
各前記二値画像において、境界に連結していない第2の階調連結領域を認識するステップと、
2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定するステップと、を含む画像処理方法。
(Appendix 6)
Generating a binary image corresponding to each layer of the ternary image based on the ternary image, wherein in each of the binary images, the pixels belonging to the layer to which the binary image corresponds correspond to a first floor; A step, the other pixel has a second gradation,
Recognizing a second gradation connected region not connected to the boundary in each of the binary images;
The ratio of the total area of the second gradation connection area in the two binary images is larger than the first threshold value, and the total area of the second gradation connection area in the two binary images is small. The overlapping engagement ratio between the first gradation area in the binary image and the second gradation connection area in the binary image having a large total area of the second gradation connection area is larger than the second threshold. In this case, a layer corresponding to a binary image having a small total area of the second gradation connection region in the two binary images is determined as a character layer, and a layer corresponding to the other binary image is determined as a character boundary. Determining an area layer.

(付記7)
N1/N2を前記重なりかみ合い率とし、
N1は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との積集合の画素数であり、
N2は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との和集合の画素数である付記6に記載の画像処理方法。
(Appendix 7)
Let N1 / N2 be the overlap engagement rate,
N1 represents the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The number of pixels in the intersection set with the key connected region,
N2 is the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The image processing method according to appendix 6, which is the number of pixels in the union with the key connection area.

(付記8)
前記決定された文字層の二値画像における各第1の階調連結領域に対し、前記第1の階調連結領域の外輪郭と前記決定された文字境界領域層の二値画像における第1の階調の領域との合致度が第3の閾値よりも小さい場合は、前記第1の階調連結領域をノイズとして除去するステップをさらに含む付記6又は7に記載の画像処理方法。
(Appendix 8)
For each first gradation connected area in the determined binary image of the character layer, an outer contour of the first gradation connected area and a first in the binary image of the determined character boundary area layer The image processing method according to appendix 6 or 7, further including a step of removing the first gradation connection area as noise when the degree of coincidence with the gradation area is smaller than a third threshold value.

(付記9)
N4/N3を前記合致度とし、
N3は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭の画素数であり、
N4は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭と前記文字境界領域層の二値画像における前記第1の階調の領域との積集合の画素数である付記8に記載の画像処理方法。
(Appendix 9)
N4 / N3 is the degree of match,
N3 is the number of pixels of the outer contour of the first gradation connection region in the binary image of the character layer,
N4 is the number of pixels in the product set of the outer contour of the first gradation connected region in the binary image of the character layer and the region of the first gradation in the binary image of the character boundary region layer. The image processing method according to attachment 8.

(付記10)
前記2つの二値画像における各前記第2の階調連結領域の総面積と前記二値画像の総面積との比率が第4の閾値よりも大きい場合は、前記文字層及び前記文字境界領域層の決定を行う付記6又は7に記載の画像処理方法。
(Appendix 10)
The character layer and the character boundary region layer when the ratio of the total area of the second gradation connection regions and the total area of the binary images in the two binary images is greater than a fourth threshold value; The image processing method according to appendix 6 or 7, wherein the determination is performed.

(付記11)
コンピュータに、付記6乃至10の何れか一項に記載の各ステップを実行させるためのプログラム。
(Appendix 11)
The program for making a computer perform each step as described in any one of appendix 6 thru | or 10.

(付記12)
付記11に記載のプログラムを記憶しているコンピュータ読み出し可能な記憶媒体。
(Appendix 12)
A computer-readable storage medium storing the program according to appendix 11.

以上、本発明の好ましい実施形態、実施例を説明したが、本発明はこの実施形態、実施例に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術範囲に属する。   The preferred embodiments and examples of the present invention have been described above, but the present invention is not limited to these embodiments and examples, and all modifications to the present invention are within the technical scope of the present invention without departing from the spirit of the present invention. Belonging to.

100、600 画像処理装置
110、610 二値画像生成部
120、620 連結領域認識部
130、630 文字層決定部
640 ノイズ除去部
100, 600 Image processing device 110, 610 Binary image generation unit 120, 620 Connected region recognition unit 130, 630 Character layer determination unit 640 Noise removal unit

Claims (10)

三値画像に基づいて、該三値画像の各層に対応する二値画像を生成する二値画像生成部であって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、二値画像生成部と、
各前記二値画像において、境界に連結していない第2の階調連結領域を認識する連結領域認識部と、
2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定する文字層決定部と、を含む画像処理装置。
A binary image generation unit that generates a binary image corresponding to each layer of the ternary image based on the ternary image, and in each of the binary images, pixels belonging to the layer to which the binary image corresponds A binary image generator having a first gradation and the other pixels having a second gradation;
In each of the binary images, a connected region recognition unit that recognizes a second gradation connected region that is not connected to the boundary;
The ratio of the total area of the second gradation connection area in the two binary images is larger than the first threshold value, and the total area of the second gradation connection area in the two binary images is small. The overlapping engagement ratio between the first gradation area in the binary image and the second gradation connection area in the binary image having a large total area of the second gradation connection area is larger than the second threshold. In this case, a layer corresponding to a binary image having a small total area of the second gradation connection region in the two binary images is determined as a character layer, and a layer corresponding to the other binary image is determined as a character boundary. An image processing apparatus including a region layer and a character layer determination unit that determines a region layer.
N1/N2を前記重なりかみ合い率とし、
N1は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との積集合の画素数であり、
N2は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との和集合の画素数である請求項1に記載の画像処理装置。
Let N1 / N2 be the overlap engagement rate,
N1 represents the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The number of pixels in the intersection set with the key connected region,
N2 is the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The image processing apparatus according to claim 1, wherein the number of pixels in the union with the key connection region is set.
前記決定された文字層の二値画像における各第1の階調連結領域に対し、前記第1の階調連結領域の外輪郭と前記決定された文字境界領域層の二値画像における第1の階調の領域との合致度が第3の閾値よりも小さい場合は、前記第1の階調連結領域をノイズとして除去するノイズ除去部をさらに含む請求項1又は2に記載の画像処理装置。   For each first gradation connected area in the determined binary image of the character layer, an outer contour of the first gradation connected area and a first in the binary image of the determined character boundary area layer 3. The image processing apparatus according to claim 1, further comprising a noise removal unit that removes the first gradation connection area as noise when the degree of coincidence with the gradation area is smaller than a third threshold value. 4. N4/N3を前記合致度とし、
N3は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭の画素数であり、
N4は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭と前記文字境界領域層の二値画像における前記第1の階調の領域との積集合の画素数である請求項3に記載の画像処理装置。
N4 / N3 is the degree of match,
N3 is the number of pixels of the outer contour of the first gradation connection region in the binary image of the character layer,
N4 is the number of pixels in the product set of the outer contour of the first gradation connected region in the binary image of the character layer and the region of the first gradation in the binary image of the character boundary region layer. The image processing apparatus according to claim 3.
前記2つの二値画像における各前記第2の階調連結領域の総面積と前記二値画像の総面積との比率が第4の閾値よりも大きい場合は、前記文字層決定部は前記文字層及び前記文字境界領域層の決定を行う請求項1又は2に記載の画像処理装置。   When the ratio of the total area of each of the second gradation connected regions and the total area of the binary image in the two binary images is greater than a fourth threshold, the character layer determining unit determines the character layer The image processing apparatus according to claim 1, wherein the character boundary region layer is determined. 三値画像に基づいて、該三値画像の各層に対応する二値画像を生成するステップであって、各前記二値画像において、前記二値画像が対応する層に属する画素は第1の階調を有し、他の画素は第2の階調を有する、ステップと、
各前記二値画像において、境界に連結していない第2の階調連結領域を認識するステップと、
2つの前記二値画像における前記第2の階調連結領域の総面積の比率が第1の閾値よりも大きい、且つ前記2つの二値画像において前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との重なりかみ合い率が第2の閾値よりも大きい場合は、前記二つの二値画像における前記第2の階調連結領域の総面積が小さい二値画像が対応する層を文字層と決定し、もう一つの二値画像が対応する層を文字境界領域層と決定するステップと、を含む画像処理方法。
Generating a binary image corresponding to each layer of the ternary image based on the ternary image, wherein in each of the binary images, the pixels belonging to the layer to which the binary image corresponds correspond to a first floor; A step, the other pixel has a second gradation,
Recognizing a second gradation connected region not connected to the boundary in each of the binary images;
The ratio of the total area of the second gradation connection area in the two binary images is larger than the first threshold value, and the total area of the second gradation connection area in the two binary images is small. The overlapping engagement ratio between the first gradation area in the binary image and the second gradation connection area in the binary image having a large total area of the second gradation connection area is larger than the second threshold. In this case, a layer corresponding to a binary image having a small total area of the second gradation connection region in the two binary images is determined as a character layer, and a layer corresponding to the other binary image is determined as a character boundary. Determining an area layer.
N1/N2を前記重なりかみ合い率とし、
N1は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との積集合の画素数であり、
N2は、前記第2の階調連結領域の総面積が小さい二値画像における第1の階調の領域と前記第2の階調連結領域の総面積が大きい二値画像における前記第2の階調連結領域との和集合の画素数である請求項6に記載の画像処理方法。
Let N1 / N2 be the overlap engagement rate,
N1 represents the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The number of pixels in the intersection set with the key connected region,
N2 is the second floor in the binary image in which the total area of the first gradation area and the second gradation connection area is large in the binary image in which the total area of the second gradation connection area is small. The image processing method according to claim 6, wherein the number of pixels in the union with the key connection region is set.
前記決定された文字層の二値画像における各第1の階調連結領域に対し、前記第1の階調連結領域の外輪郭と前記決定された文字境界領域層の二値画像における第1の階調の領域との合致度が第3の閾値よりも小さい場合は、前記第1の階調連結領域をノイズとして除去するステップをさらに含む請求項6又は7に記載の画像処理方法。   For each first gradation connected area in the determined binary image of the character layer, an outer contour of the first gradation connected area and a first in the binary image of the determined character boundary area layer The image processing method according to claim 6, further comprising a step of removing the first gradation connection area as noise when the degree of coincidence with the gradation area is smaller than a third threshold value. N4/N3を前記合致度とし、
N3は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭の画素数であり、
N4は、前記文字層の二値画像における前記第1の階調連結領域の外輪郭と前記文字境界領域層の二値画像における前記第1の階調の領域との積集合の画素数である請求項8に記載の画像処理方法。
N4 / N3 is the degree of match,
N3 is the number of pixels of the outer contour of the first gradation connection region in the binary image of the character layer,
N4 is the number of pixels in the product set of the outer contour of the first gradation connected region in the binary image of the character layer and the region of the first gradation in the binary image of the character boundary region layer. The image processing method according to claim 8.
前記2つの二値画像における各前記第2の階調連結領域の総面積と前記二値画像の総面積との比率が第4の閾値よりも大きい場合は、前記文字層及び前記文字境界領域層の決定を行う請求項6又は7に記載の画像処理方法。   The character layer and the character boundary region layer when the ratio of the total area of the second gradation connection regions and the total area of the binary images in the two binary images is greater than a fourth threshold value; The image processing method according to claim 6, wherein the determination is performed.
JP2012216955A 2011-09-30 2012-09-28 Image processing apparatus and image processing method Active JP6011213B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110310159.XA CN103034854B (en) 2011-09-30 2011-09-30 Image processing apparatus and method
CN201110310159.X 2011-09-30

Publications (2)

Publication Number Publication Date
JP2013081174A true JP2013081174A (en) 2013-05-02
JP6011213B2 JP6011213B2 (en) 2016-10-19

Family

ID=48021733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216955A Active JP6011213B2 (en) 2011-09-30 2012-09-28 Image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP6011213B2 (en)
CN (1) CN103034854B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596874A (en) * 2018-03-17 2018-09-28 深圳市极客思索科技有限公司 Image clearly determination method, device and computer equipment, product
CN112686264A (en) * 2020-12-31 2021-04-20 中广核研究院有限公司 Digital instrument reading method and device, computer equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104254022B (en) * 2014-09-25 2018-10-12 小米科技有限责任公司 Caption presentation method and device
CN106845473B (en) * 2015-12-03 2020-06-02 富士通株式会社 Method and device for determining whether image is image with address information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191906A (en) * 2007-02-05 2008-08-21 Fujitsu Ltd Telop character extraction program, storage medium, method and device
JP2009017325A (en) * 2007-07-06 2009-01-22 Hitachi Ltd Telop character region extraction device and method
JP2009217303A (en) * 2008-03-07 2009-09-24 Hitachi Ltd Telop character extraction method and telop character recognition device
JP2010219858A (en) * 2009-03-17 2010-09-30 Seiko Epson Corp Noise component removing device, and medium having noise component removing program recorded thereon

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593276B (en) * 2008-05-29 2011-10-12 汉王科技股份有限公司 Video OCR image-text separation method and system
KR101114744B1 (en) * 2009-02-12 2012-03-05 전남대학교산학협력단 Method for recognizing a text from an image
CN102054271B (en) * 2009-11-02 2013-11-20 富士通株式会社 Text line detection method and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008191906A (en) * 2007-02-05 2008-08-21 Fujitsu Ltd Telop character extraction program, storage medium, method and device
JP2009017325A (en) * 2007-07-06 2009-01-22 Hitachi Ltd Telop character region extraction device and method
JP2009217303A (en) * 2008-03-07 2009-09-24 Hitachi Ltd Telop character extraction method and telop character recognition device
JP2010219858A (en) * 2009-03-17 2010-09-30 Seiko Epson Corp Noise component removing device, and medium having noise component removing program recorded thereon

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596874A (en) * 2018-03-17 2018-09-28 深圳市极客思索科技有限公司 Image clearly determination method, device and computer equipment, product
CN108596874B (en) * 2018-03-17 2024-01-05 紫光汇智信息技术有限公司 Image definition judging method and device, computer equipment and product
CN112686264A (en) * 2020-12-31 2021-04-20 中广核研究院有限公司 Digital instrument reading method and device, computer equipment and storage medium
CN112686264B (en) * 2020-12-31 2023-10-20 中广核研究院有限公司 Digital meter reading method, device, computer equipment and storage medium

Also Published As

Publication number Publication date
CN103034854B (en) 2016-03-30
CN103034854A (en) 2013-04-10
JP6011213B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
US9619735B1 (en) Pure convolutional neural network localization
WO2019091417A1 (en) Neural network-based identification method and device
US10049291B2 (en) Image-processing apparatus, image-processing method, and computer program product
CN112559800B (en) Method, apparatus, electronic device, medium and product for processing video
RU2641225C2 (en) Method of detecting necessity of standard learning for verification of recognized text
JP6011213B2 (en) Image processing apparatus and image processing method
KR20200109239A (en) Image processing method, device, server and storage medium
CN112733858B (en) Image character rapid identification method and device based on character region detection
CN107786867A (en) Image identification method and system based on deep learning architecture
CN111460355A (en) Page parsing method and device
CN113205047A (en) Drug name identification method and device, computer equipment and storage medium
CN113221601B (en) Character recognition method, device and computer readable storage medium
US20230096921A1 (en) Image recognition method and apparatus, electronic device and readable storage medium
US20160351185A1 (en) Voice recognition device and method
US20210012003A1 (en) Information processing apparatus and information processing method
US9008428B2 (en) Efficient verification or disambiguation of character recognition results
JP2011192094A (en) Character string sensing device, character evaluating device, image processing apparatus, character string sensing method, character evaluating method, control program and recording medium
US9773472B2 (en) Text extraction from graphical user interface content
US10509986B2 (en) Image similarity determination apparatus and image similarity determination method
WO2022111688A1 (en) Face liveness detection method and apparatus, and storage medium
JP7486574B2 (en) Scalable Structure Learning via Context-Free Recursive Document Decomposition
TWI775038B (en) Method and device for recognizing character and storage medium
Chang et al. Multi-level smile intensity measuring based on mouth-corner features for happiness detection
US9292763B2 (en) System, method, and medium for image object and contour feature extraction
US20170154281A1 (en) Switching Leader-Endorser for Classifier Decision Combination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150