JP2000341515A - Method and device for extracting text area and recording medium - Google Patents

Method and device for extracting text area and recording medium

Info

Publication number
JP2000341515A
JP2000341515A JP11151565A JP15156599A JP2000341515A JP 2000341515 A JP2000341515 A JP 2000341515A JP 11151565 A JP11151565 A JP 11151565A JP 15156599 A JP15156599 A JP 15156599A JP 2000341515 A JP2000341515 A JP 2000341515A
Authority
JP
Japan
Prior art keywords
image
text area
color
extracting
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11151565A
Other languages
Japanese (ja)
Inventor
Hirofumi Nishida
広文 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP11151565A priority Critical patent/JP2000341515A/en
Publication of JP2000341515A publication Critical patent/JP2000341515A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely extract a text area that is printed in a colored ground from a colored image. SOLUTION: In a method for extracting a text area, a colored image expressed in R, G, and B colors is transformed into color coordinates, having high independency between components reflecting the visual characteristics of humans (S20) and image texture characteristics are extracted for every transformed component (S30). Then each pixel is classified into a text area and a non-text area by utilizing the image texture characteristics (S40) and the connecting components of the pixels classified into the text area are extracted as the text area (S50).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、文書画像処理の分
野に係り、特に、デジタルカラー画像から文字や記号等
から構成されるテキスト領域を抽出する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the field of document image processing and, more particularly, to a technique for extracting a text area composed of characters and symbols from a digital color image.

【0002】[0002]

【従来の技術】従来、文書は白黒印刷されたものが主だ
ったが、最近はカラープリンタの普及に伴い、文書のカ
ラー化が進んできている。文書画像処理技術も、白黒の
2値画像や濃淡のグレースケール画像を対象とするもの
が多かったが、カラー文書画像を対象とするものの必要
性が高まっている。
2. Description of the Related Art Conventionally, documents are mainly printed in black and white, but recently, with the spread of color printers, the colorization of documents has been progressing. Many of the document image processing techniques target black-and-white binary images and gray-scale grayscale images, but the need for color document images is increasing.

【0003】このようなカラー文書画像処理技術の応用
分野としては、紙に印刷された文書画像をイメージスキ
ャナなどの画像入力機器を通してコンピュータに入力し
て得られるデジ夕ルカラー画像を処理して、OCRによ
り文字などのテキスト情報をコード化する文書画像認織
や、デジタルコピアにおいて、入力された画像から文字
領域と中問調領域を分別して処理することによって画質
向上をはかるための像域分離などが挙げられる。このよ
うな処理を施すためには、まず、デジタルカラー画像か
ら文字や記号などから構成されたテキスト領域を抽出す
ることが必要である。
As an application field of such a color document image processing technology, a digital color image obtained by inputting a document image printed on paper to a computer through an image input device such as an image scanner is processed, and the OCR is performed. Document image recognition that encodes text information such as characters, and image area separation for improving image quality by separating and processing character areas and medium tone areas from input images in digital copiers. No. In order to perform such processing, it is necessary to first extract a text area composed of characters, symbols, and the like from a digital color image.

【0004】デジタルカラー画像からテキスト領域を抽
出するための従来技術として、文献[Anil K.Jain and
Yao Chen, " Address block location using color and
texture analysis," CVGIP: Image Understandin
g, vol.60, no.2, pp.179−190, September 1994 ]に
述べられている方法が知られている。この方法において
は、RGBの3成分で表されたデジタルカラー画像の各
画素の輝度値を計算し、その輝度値を用いた(又はG値
を輝度値として代用した)グレースケール画像を生成す
る。このグレースケール画像の各画素値をある閾値で2
値化することにより、白の領域とそれ以外の領域とに分
離する。また、グレースケール画像のテクスチャ特徴を
用いて、テキスト領域とそれ以外の領域とに分離する。
そして、2つの処理結果を統合し、画像テキスチャ特徴
によってテキスト領域とされた領域のうちで、白領域に
囲まれた領域のみを最終的にテキスト領域として抽出す
る。
[0004] As a conventional technique for extracting a text region from a digital color image, a document [Anil K. Jain and
Yao Chen, "Address block location using color and
texture analysis, "CVGIP: Image Understandin
g, vol. 60, no. 2, pp. 179-190, September 1994]. In this method, a luminance value of each pixel of a digital color image represented by three components of RGB is calculated, and a grayscale image using the luminance value (or using the G value as a luminance value) is generated. Each pixel value of this grayscale image is 2
By binarizing, it is separated into a white area and other areas. In addition, the image is separated into a text region and other regions using the texture characteristics of the grayscale image.
Then, the two processing results are integrated, and only the area surrounded by the white area is finally extracted as the text area from the text area by the image texture feature.

【0005】[0005]

【発明が解決しようとする課題】前記従来技術は、白地
に印刷されたテキストの領域を抽出する目的には有効で
ある。また、画像テクスチャ特徴の計算に、デジタルF
IRフィルタとしてハードウェアで実装できるガボア
(Gabor)フィルタを用いるので、処理速度の点で
も優れている。しかしながら、色地に印刷されたテキス
ト領域の抽出精度が悪く、特に、グレースケール画像上
では、地(背景)とテキストの濃淡値が近いような場
合、あるいは、地の濃淡値が黒に近いような場合に正常
なテキスト領域抽出が難しいという問題がある。
The above prior art is effective for the purpose of extracting an area of a text printed on a white background. In addition, a digital F
Since a Gabor filter that can be implemented by hardware is used as the IR filter, the processing speed is excellent. However, the extraction accuracy of a text area printed on a color background is poor, and particularly, on a grayscale image, when the gray value of the ground (background) and the text are close, or the gray value of the ground is close to black. In such a case, there is a problem that normal text region extraction is difficult.

【0006】よって、本発明の目的は、そのような問題
を解決し、多種多様なカラー文書画像のテキスト領域を
精度良く抽出する方法及び装置を提供することにある。
本発明のもう一つの目的は、人間の色彩感覚により近い
テキスト領域抽出を可能にすることである。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to solve such a problem and to provide a method and an apparatus for accurately extracting text regions of various color document images.
Another object of the present invention is to enable text region extraction closer to human color perception.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明においては、処理対象のデジタルカラー画像
の各成分毎に画像テキスチャ特徴を抽出し、抽出した画
像テキスチャ特徴を利用して、処理対象デジタルカラー
画像中の各画素をテキスト領域又は非テキスト領域に分
類する。好ましくは、処理対象のデジタルカラー画像に
対し、人間の視覚特性を反映した成分間の独立性が高い
他の色彩座標への変換を行い、変換後の各成分の画像テ
キスチャ特徴を抽出し、それを各画素の分類に利用す
る。
In order to achieve the above object, according to the present invention, an image texture feature is extracted for each component of a digital color image to be processed, and processing is performed using the extracted image texture feature. Classify each pixel in the target digital color image into a text area or a non-text area. Preferably, the digital color image to be processed is converted to another color coordinate having a high degree of independence between components reflecting human visual characteristics, and an image texture feature of each converted component is extracted. Is used to classify each pixel.

【0008】[0008]

【発明の実施の形態】添付図面を参照して、本発明の好
ましい実施の形態を説明する。添付図面中、図1はテキ
スト領域抽出処理手順の一例を示すフローチャート、図
2は画像テキスチャ特徴抽出処理手順の一例を示すフロ
ーチャートである。また、図3は、図1及び図2に示し
た処理を実行するテキスト領域抽出装置の一例を示すブ
ロック図である。以下、図1又は図2に示す処理の流れ
に沿い、テキスト領域抽出処理の内容とテキスト領域抽
出装置の構成を関連付けて説明する。
Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, FIG. 1 is a flowchart showing an example of a text area extraction processing procedure, and FIG. 2 is a flowchart showing an example of an image texture feature extraction processing procedure. FIG. 3 is a block diagram illustrating an example of a text region extracting apparatus that executes the processing illustrated in FIGS. 1 and 2. Hereinafter, the contents of the text region extraction process and the configuration of the text region extraction device will be described in association with the flow of the process shown in FIG. 1 or FIG.

【0009】《ステップS10》 カラー画像入力部1
00は、イメージスキャナやデジタルコピア等のカラー
画像入力機器、通信回線、あるいは、フロッピーディス
クや光磁気ディスクといった記録媒体を通して、テキス
ト領域を含むデジタルカラー画像を取り込む。ここで
は、入力されたデジタルカラー画像は、各画素の色が
R,G,Bに対応する色彩座標で表現されているものと
して説明する。入力されたデジタルカラー画像はメモリ
101に格納される。
<< Step S10 >> Color image input unit 1
Reference numeral 00 captures a digital color image including a text area through a color image input device such as an image scanner or a digital copier, a communication line, or a recording medium such as a floppy disk or a magneto-optical disk. Here, the input digital color image will be described assuming that the color of each pixel is represented by color coordinates corresponding to R, G, and B. The input digital color image is stored in the memory 101.

【0010】《ステップS20》 色彩座標変換部10
2において、メモリ101に格納されているデジタルカ
ラー画像に対し、より人間の視覚特性を反映し成分間の
独立性が高い他の色彩座標への変換を行い、R,G,B
成分を別の3成分によって表現する。変換後の色彩座標
の各成分について各画素の値を集めると、3枚の濃淡値
画像すなわち第1成分画像、第2成分画像、第3成分画
像が得られる。これら各成分画像はメモリ103,10
4,メモリ105にそれぞれ格納される。変換後の色彩
座標としては、例えば、次に挙げるような濃淡成分と2
つの独立な色相成分からなる色彩座標を利用可能であ
る。
<< Step S20 >> Color coordinate conversion unit 10
In step 2, the digital color image stored in the memory 101 is converted into another color coordinate that reflects human visual characteristics and has high independence between components, thereby obtaining R, G, and B colors.
The component is represented by another three components. When the values of the respective pixels are collected for each component of the converted color coordinates, three gray value images, that is, a first component image, a second component image, and a third component image are obtained. These component images are stored in memories 103 and 10.
4, stored in the memory 105, respectively. As the color coordinates after the conversion, for example,
Color coordinates consisting of two independent hue components are available.

【0011】(1)擬似KL空間 RGB空間から擬似KL空間への変換は次のような行列
で与えられる。
(1) Pseudo KL space Conversion from RGB space to pseudo KL space is given by the following matrix.

【数1】 第1成分I1 は濃淡(輝度)を表し、第2成分I2 及び
第3成分I3 は色相を表す。
(Equation 1) The first component I1 represents shading (luminance), and the second component I2 and the third component I3 represent hue.

【0012】(2)YyCxCz空間 CIE Lab空間を線形近似した空間で、XYZ空間
からの変換はつぎのような行列で与えられる。
(2) YyCxCz space A space obtained by linearly approximating the CIE Lab space, and the conversion from the XYZ space is given by the following matrix.

【数2】 第1成分Yy は濃淡(輝度)を表し、第2成分Cx と第
3成分Cz は色相を表す。ここで、RGB空間からXY
Z空間への変換は次の行列で与えられる。
(Equation 2) The first component Yy represents shading (luminance), and the second component Cx and the third component Cz represent hue. Here, XY from RGB space
The transformation to Z space is given by the following matrix:

【数3】 (Equation 3)

【0013】(3)Yy−rg−yb空間 XYZ空間からの変換は次のような行列で与えられる。(3) Yy-rg-yb space Conversion from XYZ space is given by the following matrix.

【数4】 (Equation 4)

【0014】前記(3)式を考慮すると、YyCxCz と
Yy−rg−yb とは、第2成分が赤−緑の反対色応答、
第3成分が黄−青の反対色応答にそれぞれ対応する成分
から構成される色空間となる。
Considering the above equation (3), YyCxCz and Yy-rg-yb are the opposite color responses of the second component of red-green,
The third component is a color space composed of components corresponding to the opposite color responses of yellow-blue respectively.

【0015】なお、上に挙げた変換のほか、テレビジョ
ンで使われているYIQ空間(Yは輝度、IとQは色
差)などへの変換も利用し得る。
In addition to the above-mentioned conversion, conversion to a YIQ space (Y is luminance, I and Q are color differences) used in television can be used.

【0016】《ステップS30》 画像テクスチャ特徴
抽出部106において、各メモリ103,104,10
5に格納された各成分画像(各成分の濃淡値画像)のテ
クスチャ特徴を抽出する。具体的には、図2に示すよう
にガボアフィルタを用いて画像テクスチャ特徴を計算す
る。
<< Step S30 >> In the image texture feature extraction unit 106, each of the memories 103, 104, 10
The texture feature of each component image (the gray-scale value image of each component) stored in 5 is extracted. Specifically, an image texture feature is calculated using a Gabor filter as shown in FIG.

【0017】すなわち、画素(m,n)での第i成分
(i=1,2,3)の値をIi(m,n)と表し、第i
成分(i=1,2,3)の画像をIiと表す。ガボアフ
ィルタは、画像での方向性・周期的パターン特徴の検出
のための線形フィルタであり、4つのパラメータ(方向
θ、空問周波数u、平滑化パラメータσx、σy)によっ
て決まり、そのインパルス応答は次式で与えられる。
That is, the value of the ith component (i = 1, 2, 3) at the pixel (m, n) is expressed as Ii (m, n), and
The image of the component (i = 1, 2, 3) is represented by Ii. The Gabor filter is a linear filter for detecting directional / periodic pattern features in an image, and is determined by four parameters (direction θ, spatial frequency u, smoothing parameters σx, σy). Given by the formula.

【0018】[0018]

【数5】 ここで,空間周波数uの単位は1/画素である。平滑化
パラメータであるσx とσy はそれぞれ2つの直交方向
のガウシアン関数の標準偏差(単位:画素)である。I
i(m,n)にガボアフィルタをかけた結果は、畳み込
みGi(m,n)=Ii(m,n)*h(m,n;u,
θ,σx,σy)で与えられる。図4にθ=0のときのガ
ボアフィルタのインパルス応答の例を示す。なお,σx
とσy は、uとθの値に応じて、周波数バンド幅と方向
バンド幅が適当な値になるように設定する。
(Equation 5) Here, the unit of the spatial frequency u is 1 / pixel. The smoothing parameters σx and σy are standard deviations (unit: pixel) of Gaussian functions in two orthogonal directions, respectively. I
The result of applying Gabor filter to i (m, n) is convolution Gi (m, n) = Ii (m, n) * h (m, n; u,
θ, σx, σy). FIG. 4 shows an example of the impulse response of the Gabor filter when θ = 0. Note that σx
And σy are set in accordance with the values of u and θ so that the frequency bandwidth and the directional bandwidth have appropriate values.

【0019】図2を参照する。まず、uとθの値をいく
つか選び(ステップS31)、それぞれの(u,θ)の
値の組について、各成分画像にガボアフィルタをかけた
結果であるフィルタ画像 Gi(m,n)=Ii(m,
n)*h(m,n;u,θ,σx,σy),i=1,2,
3 を計算する(ステップS32)。
Referring to FIG. First, several values of u and θ are selected (step S31), and for each set of values of (u, θ), a filtered image Gi (m, n) = Ii, which is the result of applying a Gabor filter to each component image. (M,
n) * h (m, n; u, θ, σx, σy), i = 1, 2,
3 is calculated (step S32).

【0020】次に,各フィルタ画像の各画素の値tを次
式によって変換する(ステップS33)。
Next, the value t of each pixel of each filter image is converted by the following equation (step S33).

【数6】 (Equation 6)

【0021】この変換後の画素値からなる各画像をr
(m,n)と表し,次式に示すように、画素(m,n)
で画像r(m,n)の値をウィンドウ平均することによ
り、画像テクスチャ特徴を計算する。
Each image composed of the converted pixel values is represented by r
(M, n), and as shown in the following equation, the pixel (m, n)
Calculates the image texture feature by window averaging the values of the image r (m, n).

【数7】 ただし、Wm,n は画素(m,n)を中心とする、大きさ
M×Mのウィンドウである。
(Equation 7) Here, Wm, n is a window of size M × M centered on pixel (m, n).

【0022】このようにして3つの成分画像から計算さ
れた、(u,θ)の値の各組についての画像テクスチャ
特徴のベクトルを作成し、それを分類部107へ渡す
(ステップS35)。
A vector of the image texture feature for each set of (u, θ) values calculated from the three component images in this manner is created and passed to the classification unit 107 (step S35).

【0023】《ステップS40》 分類部107におい
て、前ステップで抽出された画像テクスチャ特徴を用
い、各画素をテキスト領域又はそれ以外の非テキスト領
域に分類する。分類結果はメモリ108に保存される。
この分類には、最近傍法やニューラルネットワークのよ
うなパターン分類の手法を用いることができる。予め学
習データを用いて、テキスト領域に属する画素の特徴量
と非テキスト領域に属する画索の特徴量とによって、分
類部107をトレーニングしておく。今の場合、特徴量
は様々な周波数uと方向θのガボアフィルタを用いて計
算されたテクスチャ特徴を並べたべクトルである。周波
数uの値をM通り,角度θの値をN通り選んだ場合,特
徴べクトルの次元は3MNになる。
<Step S40> The classifying unit 107 classifies each pixel into a text area or other non-text area using the image texture features extracted in the previous step. The classification result is stored in the memory 108.
For this classification, a method of pattern classification such as a nearest neighbor method or a neural network can be used. Using the learning data in advance, the classification unit 107 is trained based on the feature amounts of the pixels belonging to the text region and the feature amounts of the graphics belonging to the non-text region. In this case, the feature amount is a vector in which texture features calculated using a Gabor filter with various frequencies u and directions θ are arranged. When M values of the frequency u and N values of the angle θ are selected, the dimension of the feature vector is 3MN.

【0024】《ステップS50》 テキスト領域抽出部
109において、メモリ108に格納されている各画素
の分類結果を参照し、テキスト領域に分類された画素の
連結成分を、入力されたデジタルカラー画像のテキスト
領域として抽出する。
<< Step S50 >> The text area extraction unit 109 refers to the classification result of each pixel stored in the memory 108, and connects the connected components of the pixels classified into the text area to the text of the input digital color image. Extract as a region.

【0025】以上説明した本発明の方法及び装置によれ
ば、デジタルカラー画像の各成分の画像テクスチャ特徴
を利用するため、前記従来技術で問題となった色地に印
刷されているようなテキスト領域を、グレースケール画
像に変換して見たときに地とテキストの濃淡値が近いよ
うな場合でも地の領域の濃淡値が黒に近いような場合で
も、精度良く抽出することができる。特に、画像テクス
チャ特徴の抽出に先だって、人間の視覚特性を反映した
成分間の独立性が高い色彩座標への変換を行うため、人
間の視覚によればかなりはっきりと地色と区別できる色
であるが、RGBデータでは差が小さい色で印刷された
テキストの領域も確実に抽出することができ、また、抽
出されたテキスト領域を人間が認識したテキスト領域
に、より接近させることができる。すなわち、人間の色
彩感覚により近いテキスト領域抽出が可能になる。
According to the above-described method and apparatus of the present invention, since the image texture characteristics of each component of the digital color image are used, a text area printed on a color background, which is a problem in the prior art, is used. Can be accurately extracted regardless of whether the grayscale value of the ground is close to the text when converted into a grayscale image or the grayscale value of the ground area is close to black. In particular, prior to the extraction of image texture features, since the conversion to color coordinates with high independence between components reflecting human visual characteristics is performed, it is a color that can be clearly distinguished from ground color according to human vision. However, in the RGB data, a text region printed in a color having a small difference can be reliably extracted, and the extracted text region can be brought closer to a text region recognized by a human. That is, it is possible to extract a text area closer to human color sense.

【0026】なお、ステップS30の画像テクスチャフ
ィルタ抽出において、必ずしもガボアフィルタを利用し
なくともよい。しかし、前述のようにガボアフィルタは
ハードウエアで容易に実装できるため、処理速度の点で
優れている。
In the extraction of the image texture filter in step S30, it is not always necessary to use a Gabor filter. However, as described above, the Gabor filter can be easily implemented by hardware, and is therefore excellent in processing speed.

【0027】また、図示しないが、他の実施例によれば
ステップS20の色彩座標変換が省かれ、入力されたデ
ジタルカラー画像のR,G,G各成分の画像テクスチャ
特徴が抽出され、これが分類ステップS40で利用され
る。このようにしても、色地に印刷されているようなテ
キスト領域を確実に抽出することができる。ただし、前
述のように、ステップS20の色彩座標変換を経由させ
たほうが、人間の色彩感覚により近いテキスト領域抽出
が可能である。
Although not shown, according to another embodiment, the color coordinate conversion in step S20 is omitted, and image texture features of R, G, and G components of the input digital color image are extracted, which are classified. It is used in step S40. Even in this case, it is possible to reliably extract a text area printed on a color background. However, as described above, it is possible to extract a text region closer to human color sense by performing the color coordinate conversion in step S20.

【0028】本発明は、例えば、図5に示すようなCP
U200、メモリ201、ディスプレイ装置202、キ
ーボードやマウス等のユーザ入力装置203、ハードデ
ィスク装置204、例えばフロッピーディスクや光磁気
ディスク、CD−ROM等の記録媒体205の読み書き
のための媒体駆動装置206、イメージスキャナ等の画
像入力機器207や通信回線208との接続のための外
部インターフェース部209,210等をシステムバス
211で接続した一般的なコンピュータを利用し、ソフ
トウエアにより実施することも可能である。
According to the present invention, for example, as shown in FIG.
U200, memory 201, display device 202, user input device 203 such as keyboard and mouse, hard disk device 204, medium drive device 206 for reading and writing recording medium 205 such as floppy disk, magneto-optical disk, CD-ROM, image It is also possible to use software such as a general computer in which external interface units 209 and 210 for connection to an image input device 207 such as a scanner and a communication line 208 are connected by a system bus 211.

【0029】図1及び図2に関連して説明した本発明の
テキスト領域抽出処理の各ステップをコンピュータに実
行されるためのプログラム、又は、図3に関連して説明
した本発明のテキスト領域抽出装置の各手段の機能をコ
ンピュータのハードウエアを利用して実現させるための
プログラムは、例えば、同プログラムが記録された記録
媒体205からメモリ201に読み込まれて実行され
る。又は、同プログラムは予めハードディスク装置20
4に格納されており、その実行時にメモリ201に読み
込まれて実行される。
A program for causing a computer to execute each step of the text region extraction processing of the present invention described with reference to FIGS. 1 and 2, or the text region extraction of the present invention described with reference to FIG. A program for realizing the function of each unit of the apparatus by using hardware of a computer is read from the recording medium 205 in which the program is recorded into the memory 201 and executed. Alternatively, the program is stored in the hard disk drive 20 in advance.
4 is read into the memory 201 and executed at the time of execution.

【0030】また、処理対象のデジタルカラー画像は、
例えば、記録媒体205や、外部インターフェース部2
09,210を介し接続された画像入力機器207又は
通信回線208よりコンピュータに取り込まれる。テキ
スト領域抽出結果データはメモリ201上に得られる
が、これはハードディスク装置204や記録媒体205
に出力されたり、ディスプレイ装置202に画面出力さ
れたり、あるいは通信回線208に出力される。
The digital color image to be processed is
For example, the recording medium 205 or the external interface unit 2
The image data is input to a computer via the image input device 207 or the communication line 208 connected via the input terminals 09 and 210. The text area extraction result data is obtained on the memory 201, which is stored in the hard disk drive 204 or the recording medium 205.
, The screen output to the display device 202, or the communication line 208.

【0031】[0031]

【発明の効果】以上の説明から明らかなように、請求項
1乃至6の各項記載の発明によれば、色地に印刷された
ようなテキスト領域の抽出が可能であり、従来技術で最
も問題てあった、グレースケール画像に変換して見たと
きに地とテキストの濃淡値が近いような場合や地の領域
の濃淡値が黒に近いような場合でも確実なテキスト領域
抽出が可能であり、さらに請求項2又は5記載の発明に
よれば、人間の色彩感覚に近い高精度のテキスト領域抽
出が可能である。請求項3又は6記載の発明によれば、
画像テクスチャ特徴抽出の高速化が容易であり、したが
ってテキスト領域抽出処理全体の高速化に有利である。
また、請求項7又は8記載の発明によれば、一般的なコ
ンピュータを利用して、上に述べたようなテキスト領域
抽出処理を容易に行うことができる等々の効果を得られ
る。
As is clear from the above description, according to the first to sixth aspects of the present invention, it is possible to extract a text area as if it were printed on a color background, and this is the most conventional technique. Even if the gray value of the ground and the text are close to each other when converted to a grayscale image and the gray value of the ground area is close to black, reliable text area extraction is possible. In addition, according to the second or fifth aspect of the present invention, it is possible to extract a text region with high accuracy close to human color sense. According to the invention of claim 3 or 6,
It is easy to speed up image texture feature extraction, which is advantageous for speeding up the entire text region extraction process.
Further, according to the seventh or eighth aspect of the invention, it is possible to obtain such effects that the above-described text region extraction processing can be easily performed using a general computer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明によるテキスト領域抽出処理手順の一例
を示すフローチャートである。
FIG. 1 is a flowchart showing an example of a text area extraction processing procedure according to the present invention.

【図2】画像テキスチャ特徴抽出処理手順の一例を示す
フローチャートである。
FIG. 2 is a flowchart illustrating an example of an image texture feature extraction processing procedure;

【図3】本発明によるテキスト領域抽出装置の構成の一
例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration of a text region extraction device according to the present invention.

【図4】方向θ=0のときのガボアフィルタのインパル
ス応答の例を示す図である。
FIG. 4 is a diagram illustrating an example of an impulse response of a Gabor filter when a direction θ = 0.

【図5】本発明をソフトウエアにより実施するためのコ
ンピュータの一例を示すブロック図である。
FIG. 5 is a block diagram showing an example of a computer for implementing the present invention by software.

【符号の説明】[Explanation of symbols]

100 カラー画像入力部 101 デジタルカラー画像記憶用メモリ 102 色彩座標変換部 103 第1成分画像記憶用メモリ 104 第2成分画像記憶用メモリ 105 第3成分画像記憶用メモリ 106 画像テクスチャ特徴抽出部 107 分類部 108 分類結果記憶用メモリ 109 テキスト領域抽出部 REFERENCE SIGNS LIST 100 color image input unit 101 digital color image storage memory 102 color coordinate conversion unit 103 first component image storage memory 104 second component image storage memory 105 third component image storage memory 106 image texture feature extraction unit 107 classification unit 108 Classification result storage memory 109 Text area extraction unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/46 Z Fターム(参考) 5C077 MP06 MP08 PP01 PP27 PP31 PP32 PP43 PQ22 5C079 HB01 HB11 LA01 LA06 MA01 NA29 5C082 AA27 BA02 BA20 BA27 BA34 CA21 CA54 CB01 DA87 5L096 AA02 AA06 AA07 BA07 BA17 EA26 FA44 FA81 GA40 GA55 9A001 HH28 HH31 JJ28 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) H04N 1/46 Z F Term (Reference) 5C077 MP06 MP08 PP01 PP27 PP31 PP32 PP43 PQ22 5C079 HB01 HB11 LA01 LA06 MA01 NA29 5C082 AA27 BA02 BA20 BA27 BA34 CA21 CA54 CB01 DA87 5L096 AA02 AA06 AA07 BA07 BA17 EA26 FA44 FA81 GA40 GA55 9A001 HH28 HH31 JJ28

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 各画素の色がある色彩座標で表された処
理対象デジタルカラー画像のテキスト領域を抽出する方
法であって、前記処理対象デジタル画像から前記色彩座
標の各成分毎の画像テクスチャ特徴を抽出し、抽出した
画像テキスチャ特徴を用いて、前記処理対象デジタルカ
ラー画像の各画素をテキスト領域又は非テキスト領域に
分類することを特徴とするテキスト領域抽出方法。
1. A method for extracting a text area of a digital color image to be processed represented by a certain color coordinate for each pixel color, the image texture feature for each component of the color coordinate from the digital image to be processed. And extracting each pixel of the digital color image to be processed into a text area or a non-text area using the extracted image texture feature.
【請求項2】 各画素の色がある色彩座標で表された処
理対象デジタルカラー画像のテキスト領域を抽出する方
法であって、前記処理対象デジタルカラー画像に対し
て、人間の視覚特性を反映した成分間の独立性が高い他
の色彩座標への変換を行い、この変換後のデジタルカラ
ー画像から前記他の色彩座標の各成分毎の画像テキスチ
ャ特徴を抽出し、抽出した画像テキスチャ特徴を用いて
前記処理対象デジタルカラー画像の各画素をテキスト領
域又は非テキスト領域に分類することを特徴とするテキ
スト領域抽出方法。
2. A method for extracting a text area of a processing target digital color image represented by a certain color coordinate, wherein a color of each pixel is represented by human visual characteristics in the processing target digital color image. Conversion to other color coordinates with high independence between components is performed, and image texture features for each component of the other color coordinates are extracted from the converted digital color image, using the extracted image texture features. A method for extracting a text region, wherein each pixel of the digital color image to be processed is classified into a text region or a non-text region.
【請求項3】 画像テキスチャ特徴の抽出にガボアフィ
ルタを用いることを特徴とする請求項1又は2記載のテ
キスト領域抽出方法。
3. The method according to claim 1, wherein a Gabor filter is used for extracting image texture features.
【請求項4】 各画素の色がある色彩座標で表されたデ
ジタルカラー画像を入力する手段、この手段により入力
されたデジタルカラー画像から前記色彩座標の各成分毎
の画像テクスチャ特徴を抽出する手段、この手段により
抽出された画像テキスチャ特徴を用いて前記入力された
デジタルカラー画像の各画素をテキスト領域又は非テキ
スト領域に分類する手段、及び、この手段によりテキス
ト領域に分類された画素の連結成分をテキスト領域とし
て抽出する手段を具備するテキスト領域抽出装置。
4. A means for inputting a digital color image represented by a certain color coordinate of a color of each pixel, and means for extracting an image texture feature for each component of the color coordinate from the digital color image input by this means. Means for classifying each pixel of the input digital color image into a text area or a non-text area using the image texture features extracted by this means, and connected components of the pixels classified into the text area by this means Region extracting device, comprising: means for extracting a character as a text region.
【請求項5】 各画素の色がある色彩座標で表されたデ
ジタルカラー画像を入力する手段、この手段により入力
されたデジタルカラー画像に対し人間の視覚特性を反映
した成分間の独立性が高い他の色彩座標への変換を行う
手段、この手段による変換後のデジタルカラー画像から
前記他の色彩座標の各成分毎の画像テキスチャ特徴を抽
出する手段、この手段により抽出された画像テキスチャ
特徴を用いて前記入力されたデジタルカラー画像の各画
素をテキスト領域又は非テキスト領域に分類する手段、
及び、この手段よりテキスト領域に分類された画素の連
結成分をテキスト領域として抽出する手段を具備するテ
キスト領域抽出装置。
5. A means for inputting a digital color image represented by a certain color coordinate of a color of each pixel, wherein the input digital color image has high independence between components reflecting human visual characteristics. Means for performing conversion to other color coordinates, means for extracting image texture features for each component of the other color coordinates from the digital color image converted by this means, and using the image texture features extracted by this means. Means for classifying each pixel of the input digital color image into a text area or a non-text area,
And a text region extracting apparatus comprising: a unit that extracts, as a text region, a connected component of pixels classified into a text region by the unit.
【請求項6】 画像テキスチャ特徴の抽出にガボアフィ
ルタが用いられることを特徴とする請求項4又は5記載
のテキスト領域抽出装置。
6. The text region extracting apparatus according to claim 4, wherein a Gabor filter is used for extracting image texture features.
【請求項7】 各画素の色がある色彩座標で表されたデ
ジタルカラー画像を入力するステップ、このステップに
より入力されたデジタルカラー画像から前記色彩座標の
各成分毎の画像テクスチャ特徴を抽出するステップ、こ
のステップにより抽出された画像テキスチャ特徴を用い
て前記入力されたデジタルカラー画像の各画素をテキス
ト領域又は非テキスト領域に分類するステップ、及び、
このステップによりテキスト領域に分類された画素の連
結成分をテキスト領域として抽出するステップをコンピ
ュータに実行させるためのプログラムが記録されたコン
ピュータ読み取り可能記録媒体。
7. A step of inputting a digital color image represented by a certain color coordinate for each pixel color, and extracting an image texture feature for each component of the color coordinate from the input digital color image in this step. Classifying each pixel of the input digital color image into a text area or a non-text area using the image texture features extracted by this step; and
A computer-readable recording medium on which a program for causing a computer to execute a step of extracting, as a text area, a connected component of pixels classified into a text area by this step is recorded.
【請求項8】 各画素の色がある色彩座標で表されたデ
ジタルカラー画像を入力するステップ、このステップに
より入力されたデジタルカラー画像に対し、人間の視覚
特性を反映した成分間の独立性が高い他の色彩座標への
変換を行うステップ、このステップによる変換後のデジ
タルカラー画像から前記他の色彩座標の各成分毎の画像
テキスチャ特徴を抽出するステップ、このステップによ
り抽出された画像テキスチャ特徴を用いて前記入力され
たデジタルカラー画像の各画素をテキスト領域又は非テ
キスト領域に分類するステップ、及び、このステップよ
りテキスト領域に分類された画素の連結成分をテキスト
領域として抽出するステップをコンピュータに実行させ
るためのプログラムが記録されたコンピュータ読み取り
可能記録媒体。
8. A step of inputting a digital color image represented by a certain color coordinate for each pixel color, wherein in the input digital color image, independence between components reflecting human visual characteristics is obtained. Performing a conversion to other high color coordinates, extracting image texture features for each component of the other color coordinates from the digital color image after the conversion in this step, extracting the image texture features extracted in this step. Using a computer to perform a step of classifying each pixel of the input digital color image into a text area or a non-text area by using the computer and a step of extracting a connected component of the pixels classified into the text area from the step as a text area. A computer-readable recording medium on which a program for causing a computer to execute is recorded.
JP11151565A 1999-05-31 1999-05-31 Method and device for extracting text area and recording medium Pending JP2000341515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11151565A JP2000341515A (en) 1999-05-31 1999-05-31 Method and device for extracting text area and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11151565A JP2000341515A (en) 1999-05-31 1999-05-31 Method and device for extracting text area and recording medium

Publications (1)

Publication Number Publication Date
JP2000341515A true JP2000341515A (en) 2000-12-08

Family

ID=15521321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11151565A Pending JP2000341515A (en) 1999-05-31 1999-05-31 Method and device for extracting text area and recording medium

Country Status (1)

Country Link
JP (1) JP2000341515A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100385062B1 (en) * 2001-09-20 2003-05-23 삼성전자주식회사 Printer and Apparatus for controlling outputting Printing data capable of preventing printing about page of data nonexisting
WO2013108595A1 (en) * 2012-01-17 2013-07-25 パナソニック株式会社 Electronic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100385062B1 (en) * 2001-09-20 2003-05-23 삼성전자주식회사 Printer and Apparatus for controlling outputting Printing data capable of preventing printing about page of data nonexisting
WO2013108595A1 (en) * 2012-01-17 2013-07-25 パナソニック株式会社 Electronic device
JP5507760B2 (en) * 2012-01-17 2014-05-28 パナソニック株式会社 Electronics
JPWO2013108595A1 (en) * 2012-01-17 2015-05-11 パナソニック株式会社 Electronics
US9348413B2 (en) 2012-01-17 2016-05-24 Panasonic Intellectual Property Management Co., Ltd. Electronic device

Similar Documents

Publication Publication Date Title
US6175663B1 (en) Method and apparatus for preserving background continuity in images
US6865290B2 (en) Method and apparatus for recognizing document image by use of color information
US7428331B2 (en) Page background estimation using color, texture and edge features
US20030174869A1 (en) Image processing apparatus, image processing method, program and recording medium
JP2005202562A (en) Image processing method, image processor and image processing program
JP2008085695A (en) Electronic watermark embedding apparatus and detection apparatus
JP2007504719A (en) System and method for detecting and correcting red eyes in an image suitable for embedded applications
TW200842734A (en) Image processing program and image processing device
CN107358184A (en) The extracting method and extraction element of document word
JP2003152995A (en) Image processing device
Bouillon et al. Grayification: a meaningful grayscale conversion to improve handwritten historical documents analysis
JP3740351B2 (en) Image processing apparatus and method, and recording medium on which execution program for the method is recorded
JP2000207489A (en) Character extracting method and device and record medium
US8477988B2 (en) Image processing apparatus, image forming apparatus and computer readable medium
WO2021129289A1 (en) Image processing method and apparatus, electronic device, and storage medium
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2000341515A (en) Method and device for extracting text area and recording medium
JP2003219180A (en) Image processing method, image processing device, recording medium capable of reading computer and computer program
AU2008264171A1 (en) Print quality assessment method
JP2003087562A (en) Image processor and image processing method
JP2003209704A (en) Image processing method, image processor, image forming device, image processing program, and recording medium
JP4116377B2 (en) Image processing method and image processing apparatus
JP4710672B2 (en) Character color discrimination device, character color discrimination method, and computer program
JP2003274180A (en) Image processor, image processing method, printer driver, computer readable storage medium and computer program
JP2003196592A (en) Program for processing image, and image processor