JP2000175038A - Image binary processing system on area basis - Google Patents

Image binary processing system on area basis

Info

Publication number
JP2000175038A
JP2000175038A JP11343264A JP34326499A JP2000175038A JP 2000175038 A JP2000175038 A JP 2000175038A JP 11343264 A JP11343264 A JP 11343264A JP 34326499 A JP34326499 A JP 34326499A JP 2000175038 A JP2000175038 A JP 2000175038A
Authority
JP
Japan
Prior art keywords
image
binary
photographic
grayscale
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11343264A
Other languages
Japanese (ja)
Other versions
JP4261005B2 (en
Inventor
Yongchun Lee
リー ヨンチュン
Peter Rudak
ルダック ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JP2000175038A publication Critical patent/JP2000175038A/en
Application granted granted Critical
Publication of JP4261005B2 publication Critical patent/JP4261005B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/162Quantising the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

PROBLEM TO BE SOLVED: To realize a top-down type segmentation method that finds out a photographing area on the basis of entire pixel connectivity. SOLUTION: An area-based binary processing system applies adaptive threshold processing and image rendering to a gray scale image to generate 1st and 2nd binary images. The gray scale image is sub-sampled to obtain a low resolution image and a position of a photographing image is detected in the low resolution image. Furthermore, a rectangular photographing image is identified in the detected photographing image and a classification map to distinguish pixels of the rectangular photographing image from other pixels is produced. Then a final binary image can be formed from the 1st and 2nd binary images on the basis of the classification map.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、混合形式の文書に
対して最適な2値イメージ品質を提供する領域ベースの
2値化システムに関する。
FIELD OF THE INVENTION The present invention relates to a region-based binarization system that provides optimal binary image quality for mixed format documents.

【0002】[0002]

【従来の技術】雑誌の頁には、テキスト、線画及びグラ
フィックスに混じり写真が印刷されていることが多い。
斯かる頁がスキャナにより電子的にキャプチャされると
き、キャプチャされたグレースケール・イメージ(grey
scale image)を、出力におけるイメージの複調表示(bit
onal representation)へと変換する2値化プロセスが必
要である。而して、イメージ2値化技術には一般的に2
つの種類がある。ひとつは、主としてテキスト及び線画
を含む種類の文書に対して良好な、適応スレッショルド
化技術(adaptive thresholding technique) と称され
る。他方は、2値フォーマットの形態でグレーの陰影を
再現するディザ(dither)もしくはエラー拡散(error dif
fusion) 技術である。これは写真イメージを2値化する
上で有効である。キャプチャされた文書イメージ中にテ
キスト及び写真が含まれた混合形式の文書の場合、上記
の2つの2値化方法はいずれも、テキスト及び写真の満
足なイメージ品質を生成し得ない。この問題に対する公
知の解決策は、最適なイメージ品質を得るべく夫々の領
域に対して別個の2値化プロセスを適用し得る如く、キ
ャプチャされたデジタル・イメージを写真及びテキスト
の領域にセグメント化することである。
2. Description of the Related Art Magazine pages often have photographs printed in addition to text, line drawings and graphics.
When such a page is electronically captured by a scanner, the captured grayscale image (grey
scale image) is converted to an image
An onal representation is needed. Thus, image binarization techniques generally have two
There are two types. One is referred to as an adaptive thresholding technique, which is good for documents of the type that mainly include text and line art. The other is dither or error diffusion which reproduces gray shading in the form of a binary format.
fusion) technology. This is effective in binarizing a photographic image. For a mixed format document where text and photos are included in the captured document image, neither of the two binarization methods described above can produce satisfactory image quality of text and photos. A known solution to this problem is to segment the captured digital image into photographic and text regions so that a separate binarization process can be applied to each region for optimal image quality. That is.

【0003】公知のセグメント化方法は、混合形式の文
書を4×4ブロックに分割し、各ブロックをテキストま
たはイメージに分類し、ブロックのショートラン(short
run) を排除することにより分類を改良するものである
( 例えば、Chen et al. に対する米国特許第4,668 ,99
5 号を参照されたい) 。イメージ・ラインのブロックは
分類された後、夫々異った2値化プロセスが適用され
る。別の公知の方法は、各走査線に対するランレングス
(run length)を抽出し、それらのランレングスから矩形
(rectangle) を構成し、次に各矩形をテキストまたは非
テキストに分類し、最後には関連テキスト・ブロックを
テキスト領域へと併合することにより、イメージをセグ
メント化している( 例えば、Cullenその他に対する米国
特許第5,335,290 号を参照されたい) 。
A known segmentation method divides a mixed-format document into 4 × 4 blocks, classifies each block as text or image, and performs a short run of blocks.
run) to improve classification.
(See, for example, US Pat. No. 4,668,995 to Chen et al.)
See Issue 5). After the blocks of the image lines have been classified, a different binarization process is applied. Another known method is to use a run length for each scan line.
(run length) and extract rectangles from those run lengths
(rectangle), then classifying each rectangle into text or non-text, and finally merging the relevant text blocks into text areas (e.g., US to Cullen et al. See US Pat. No. 5,335,290).

【0004】[0004]

【発明が解決しようとする課題】上述した2つのセグメ
ント化方法は、情報をピクセル毎にもしくは小さなブロ
ック毎にセグメント化することにより開始し、領域へ展
開して行くというボトムアップ式のセグメント化方法に
言及している。これらの方法はロバストでなく分類エラ
ーを生じ易い、と言うのも、テキストまたは非テキスト
の分類が局所的情報のみに基づくからである。
The two segmentation methods described above start by segmenting the information on a pixel-by-pixel or small block basis and then expand into regions. Is mentioned. These methods are not robust and are prone to classification errors, since the classification of text or non-text is based only on local information.

【0005】本発明の目的は、全体的ピクセル連結度(g
lobal pixel connectivity) に基づいて写真領域を発見
するトップダウン式セグメント化方法を提供すると共
に、セグメント化した結果を使用して最適な2値イメー
ジ品質を獲得する領域ベース2値化システムを提案する
にある。
It is an object of the present invention to provide an overall pixel connectivity (g
To provide a top-down segmentation method for finding photographic regions based on global pixel connectivity) and to propose a region-based binarization system that obtains optimal binary image quality using the segmented results. is there.

【0006】[0006]

【課題を解決するための手段】本発明は領域ベース2値
化システムに関するが、該システムは、適応スレッショ
ルド化と、エラー拡散( またはディザ) などのイメージ
・レンダリングとを個々に適用し、グレースケール・イ
メージから2つの2値イメージを生成し、低解像度イメ
ージで写真イメージの位置を検出し、矩形の形状もしく
は境界を有する写真イメージを識別し、写真ピクセルを
“1”、非写真ピクセルを“0”としてマークする分類
ビットマップを生成し、且つ、記憶された2つの2値イ
メージから分類マップに基づいて最終的2値イメージを
組立てるものである。
SUMMARY OF THE INVENTION The present invention is directed to a region-based binarization system that applies adaptive thresholding and image rendering, such as error diffusion (or dither), individually, and uses a grayscale system. Generating two binary images from the image, detecting the position of the photographic image in the low-resolution image, identifying the photographic image having a rectangular shape or boundary, and setting the photographic pixel to "1" and the non-photographic pixel to "0" And generating a classification bitmap to be marked as "" and assembling a final binary image from the two stored binary images based on the classification map.

【0007】写真検出プロセスは、全体的スレッショル
ド化を使用して低解像度グレースケール・イメージを2
値イメージへと変換する段階と、細線と、文字の大多数
とを除去すべく2値イメージ浸食プロセス(binary imag
e erosion process)を実行する段階と、連結成分分析(c
onnected component analysis)を適用してオブジェクト
を発見する段階と、サイズ・フィルタを使用して小寸オ
ブジェクトを排除する段階とを備えている。大寸オブジ
ェクトの位置は、写真の位置と見なされる。
[0007] The photo detection process uses global thresholding to convert low resolution grayscale images to two.
A binary image erosion process (binary imag) to remove the thin lines and the majority of characters.
e erosion process) and connected component analysis (c
applying an onnected component analysis to find objects, and using a size filter to eliminate small objects. The position of the large object is considered as the position of the photograph.

【0008】本発明はまた、グレースケール・イメージ
を第1及び第2の2値イメージに変換する段階と、グレ
ースケール・イメージにおける写真イメージの位置を検
出する段階と、検出された写真イメージの内で矩形境界
を有する写真イメージを識別する段階と、矩形境界を有
する写真イメージ中のピクセルを残りのピクセルから区
別する分類マップを生成する段階と、上記分類マップに
基づいて上記第1及び第2の2値イメージから最終的2
値イメージを形成する段階とを備えた領域ベース2値化
プロセスに関している。
The present invention also includes converting the grayscale image to first and second binary images, detecting a position of the photographic image in the grayscale image, and detecting the position of the photographic image in the grayscale image. Identifying a photographic image having a rectangular boundary with, generating a classification map that distinguishes pixels in the photographic image having a rectangular boundary from the remaining pixels, and based on the classification map. Final 2 from binary image
Forming a value image.

【0009】本発明は更に、イメージをキャプチャする
段階と、キャプチャされたイメージにおける写真イメー
ジの位置を検出する段階と、検出された写真イメージの
内で矩形境界を有する写真イメージを識別する段階と、
上記写真イメージにおいて矩形境界を有する写真ピクセ
ルを非写真ピクセルから区別する分類マップを生成する
段階と、上記分類マップに基づいて最終的2値イメージ
を形成する段階とを備えた領域ベース2値化プロセスに
関している。
[0009] The present invention further comprises the steps of capturing the image, locating the photographic image in the captured image, and identifying a photographic image having a rectangular boundary in the detected photographic image.
A region-based binarization process comprising: generating a classification map that distinguishes photographic pixels having rectangular boundaries from non-photographic pixels in the photographic image; and forming a final binary image based on the classification map. About.

【0010】本発明は更に、イメージをキャプチャする
イメージ・キャプチャ部分と、キャプチャされたイメー
ジを、該キャプチャされたイメージを表すデジタル・イ
メージ情報に変換する変換部分と、上記デジタル・イメ
ージ情報を処理して上記キャプチャされたイメージにお
ける写真イメージの位置を検出すると共に、検出された
写真イメージの内で矩形境界を有する写真イメージを識
別し、且つ、上記矩形境界を有する写真イメージの内の
ピクセルを残りのピクセルから区別する分類マップを生
成する処理部分とを備えたイメージ・キャプチャ・アセ
ンブリに関する。
The invention further comprises an image capture portion for capturing the image, a conversion portion for converting the captured image into digital image information representing the captured image, and processing the digital image information. Detecting the position of the photographic image in the captured image, identifying the photographic image having a rectangular boundary among the detected photographic images, and relocating the pixels in the photographic image having the rectangular boundary to the remaining pixels. A processing portion for generating a classification map that distinguishes from pixels.

【0011】[0011]

【発明の実施の形態】図面を参照すると、各図を通して
同一の参照番号は同一のまたは対応部分を示し、図1に
は領域ベースのイメージ2値化方法のブロック図が示さ
れている。入力としてのデジタル・グレースケール・イ
メージ・データに対して上記方法は次の様に作用する。
適応イメージ・スレッショルド化( 段階15a)が適用
されて、グレースケール・イメージ(G) を、テキスト
及び線画の良好なイメージ品質を示す2値イメージ(B
1)へと変換する。エラー拡散またはディザなどのイメ
ージ・レンダリング( 段階15b)が同一のグレースケ
ール・イメージ(G) に適用されて、イメージの写真部
分における良好なイメージ品質を呈するレンダリング済
2値イメージ(B2)を獲得する。段階15cにては、
サブサンプル化イメージ(Gs)を提供すべくグレース
ケール・イメージのサブサンプリングが行われる。段階
16にては、サブサンプル化イメージ(Gs)内におけ
る矩形写真イメージの位置が検出される一方、段階17
では矩形の形状または境界を有する写真イメージが検出
される。段階18にては矩形写真イメージを“1”で且
つ他のピクセルは“0”でマークする分類マップの生成
が行われ、且つ、最終的2値イメージ(B)は、生成さ
れた分類マップに基づく2つの2値イメージB1及びB
2のイメージ合成(image composition) の結果である。
即ち、生成された分類マップ中の位置(i,j)におけ
るピクセルが写真ピクセルを示す“1”によりマークさ
れたとすれば、イメージB2中の位置(i,j)におけ
るピクセルが2値イメージBへとコピーされる。一方、
分類マップ中の位置(i,j)におけるピクセルが、テ
キストピクセルを示す“0”であれば、上記イメージB
中の位置(i,j)におけるピクセルは2値イメージ
(B1)のコピーである。
Referring to the drawings, wherein like reference numerals indicate like or corresponding parts throughout the different views, FIG. 1 is a block diagram of a region-based image binarization method. For digital grayscale image data as input, the above method works as follows.
Adaptive image thresholding (step 15a) is applied to convert the grayscale image (G) to a binary image (B) that exhibits good image quality of text and line art.
Convert to 1). An image rendering (step 15b) such as error diffusion or dither is applied to the same grayscale image (G) to obtain a rendered binary image (B2) exhibiting good image quality in the photographic portion of the image. . In step 15c,
Subsampling of the grayscale image is performed to provide a subsampled image (Gs). In step 16, the position of the rectangular photographic image in the sub-sampled image (Gs) is detected, while step 17
Detects a photographic image having a rectangular shape or boundary. At step 18, a classification map is generated that marks the rectangular photographic image with "1" and other pixels with "0", and the final binary image (B) is added to the generated classification map. Based two binary images B1 and B
2 is the result of image composition.
That is, assuming that the pixel at position (i, j) in the generated classification map is marked by "1" indicating a photographic pixel, the pixel at position (i, j) in image B2 is converted to binary image B. Is copied. on the other hand,
If the pixel at the position (i, j) in the classification map is “0” indicating a text pixel, the image B
The pixel at the middle position (i, j) is a copy of the binary image (B1).

【0012】図2は、記述された本発明の特徴に従っ
て、キャプチャされたイメージを処理するイメージ・キ
ャプチャ・アセンブリ300の概略図である。イメージ
・キャプチャ・アセンブリ300は、イメージをキャプ
チャする例えば荷電結合素子などの形態のイメージ・キ
ャプチャ部分301と、キャプチャされたイメージを、
該キャプチャされたイメージを表すデジタル情報へと変
換する例えばA/D変換器などの形態の変換部分303
とを含んでいるスキャーとすることができる。上記デジ
タル情報は、図1に関して記述されると共に図3及び図
4に関して更に記述される手法で上記デジタル情報を処
理するイメージ・プロセッサ305へと送信される。
FIG. 2 is a schematic diagram of an image capture assembly 300 for processing a captured image in accordance with the described features of the invention. The image capture assembly 300 includes an image capture portion 301 that captures the image, for example, in the form of a charge coupled device,
A conversion part 303 in the form of, for example, an A / D converter, for converting it into digital information representing the captured image
And a skier that includes The digital information is transmitted to an image processor 305 that processes the digital information in the manner described with respect to FIG. 1 and further described with respect to FIGS.

【0013】図3には、混合形式文書における写真イメ
ージの検出の詳細( 段階16) が示されている。最初
に、サブサンプリング段階( 図1の15c)において、
グレースケール・イメージはNピクセル毎かつN走査線
毎にサブサンプリングされて、低解像度のグレースケー
ル・イメージ(Gs)を獲得する。固定スレッショルド
値( 全体的スレッショルド化)(段階20)が供給され、
上記グレースケール・イメージ(Gs)を2値イメージ
(Bs)へと変換する。2値イメージの全てのピクセル
に亙り3×3の2値浸食操作( 段階21) が適用され、
細線と、文字などの他の細かいオブジェクトとを除去す
る。イメージ浸食操作の後の結果的イメージは、イメー
ジ(Es)として保存される。該イメージ(Es)に対
しては連結成分分析( 段階22)が適用され、連結ピク
セルをグループ化する。連結ピクセルの全てのグループ
はオブジェクトとして取り込まれる。オブジェクトの境
界座標は、該オブジェクトの位置を定義する。サイズ・
フィルタに基づき( 段階23)、その境界サイズがサイ
ズ・スレッショルド値より大きいオブジェクトは写真と
見做される。一例として、サイズ・フィルタはスキャン
解像度に依存し得る。実例による上記方法の各段階の例
証 図5は、テキスト、ライン、矩形写真および非矩形グラ
フィックス( サングラスのグラフィックス) を含む雑誌
の混合形式の文書頁をスキャンして印刷したものであ
る。図5のグレースケール・イメージに対して適応スレ
ッショルド化( 段階15a、図1) を適用すると、2値
イメージ(B1)が生成される。図6の2値イメージ
(B1)は明確で鮮やかな文字およびラインを呈する
が、写真の陰影の詳細は消失している。同一のグレース
ケール・イメージに対してエラー拡散技術( 図1の段階
15b)を適用することにより、図7に示された結果的
2値イメージ(B2)は、写真の領域のイメージ詳細が
保持されて実際の写真品質に近くなっていることを示し
ている。但し、テキスト・イメージ品質は霞んでいる。
上記の2つの2値イメージ(B1)および(B2)を比
較すると、混合形式文書において良好な2値イメージを
生成する為には、テキスト領域に対する適応スレッショ
ルド化、および、写真領域に対するエラー拡散、の組合
せが必要であると結論づけられる。この作業を達成する
為には、写真領域の検出が必要とされる。
FIG. 3 shows the details of detecting a photographic image in a mixed format document (step 16). First, in the sub-sampling stage (15c in FIG. 1)
The grayscale image is subsampled every N pixels and every N scan lines to obtain a low resolution grayscale image (Gs). A fixed threshold value (global thresholding) (step 20) is provided,
The grayscale image (Gs) is converted into a binary image (Bs). A 3 × 3 binary erosion operation (step 21) is applied to all pixels of the binary image,
Remove thin lines and other fine objects, such as characters. The resulting image after the image erosion operation is saved as an image (Es). Connected component analysis (step 22) is applied to the image (Es) to group connected pixels. All groups of connected pixels are captured as objects. The boundary coordinates of an object define the position of the object. size·
Based on the filter (step 23), objects whose border size is greater than the size threshold value are considered photographs. As an example, the size filter may depend on the scan resolution. Illustrating Steps of the Method by Example FIG. 5 shows a scanned and printed page of a mixed format document page of a magazine containing text, lines, rectangular photographs and non-rectangular graphics (sunglasses graphics). Applying adaptive thresholding (step 15a, FIG. 1) to the grayscale image of FIG. 5 produces a binary image (B1). The binary image (B1) in FIG. 6 shows clear and vivid characters and lines, but the details of the shading of the photograph have been lost. By applying the error diffusion technique (step 15b in FIG. 1) to the same grayscale image, the resulting binary image (B2) shown in FIG. 7 retains the image details of the photographic area. Indicates that it is close to the actual photographic quality. However, the text image quality is blurred.
Comparing the two binary images (B1) and (B2) above, in order to generate a good binary image in a mixed format document, adaptive thresholding for text regions and error diffusion for photographic regions are considered. It is concluded that a combination is needed. In order to accomplish this task, the detection of a photographic area is required.

【0014】検出プロセス( 図1の段階16および図3
のフローチャート) においては最初に、図8に示された
小寸グレースケール・イメージ(Gs)を生成すべくグ
レースケール・イメージのサブサンプリングが実行され
る。その後、固定スレッショルド値によりグレースケー
ル・イメージ(Gs)をスレッショルド処理することに
より、2値イメージ(Bs)が生成される。結果的な2
値イメージ(Bs)は図9に示されている。図10に示
された如く、2値イメージ浸食操作( 図3、段階21)
を適用するとイメージEsに帰着するが、該イメージに
おいては小寸文字および細線が除去されると共に、残り
のブラック・ピクセルの殆どは写真領域内に在る。上記
イメージ(Es)内の各オブジェクトの境界枠は、2値
イメージの連結ブラック・ピクセルを個別のオブジェク
トとしてグループ化する連結成分( 図3、段階22)に
より検出される( 例えば、米国特許出願第08/739,076号
を参照されたい) 。小寸オブジェクトを排除する( 図
3、段階23)と、潜在的写真境界枠100が図11に
示される。境界座標は完全解像度へと変換されて図12
に示されている。4個の境界枠100は、検出された写
真の位置である。検出された境界枠内の写真の全てが矩
形状であるとは限らない。
The detection process (step 16 in FIG. 1 and FIG. 3)
First, the grayscale image is sub-sampled to generate the small grayscale image (Gs) shown in FIG. Thereafter, the grayscale image (Gs) is thresholded with a fixed threshold value to generate a binary image (Bs). Result 2
The value image (Bs) is shown in FIG. As shown in FIG. 10, the binary image erosion operation (FIG. 3, step 21)
Applies to the image Es, where small letters and fine lines are removed and most of the remaining black pixels are in the photographic area. The bounding box of each object in the image (Es) is detected by a connected component (FIG. 3, step 22) that groups the connected black pixels of the binary image as individual objects (see, for example, U.S. Pat. 08 / 739,076). Eliminating the small objects (FIG. 3, step 23), the potential photographic bounding box 100 is shown in FIG. The boundary coordinates are converted to full resolution and
Is shown in The four border frames 100 are the positions of the detected photos. Not all of the photos in the detected border frame are necessarily rectangular.

【0015】次の段階は、4個の境界枠100の位置内
において矩形の写真オブジェクトを検出することである
( 図1、段階17)。この検出は、図5の2値イメージ
(B1)内で検出された境界枠内の一切の文字を検証す
ることにより行われる。境界枠内に何らかの文字が存在
すれば、境界枠内の写真は非矩形と分類される。一方、
境界枠内に何らの文字も存在しなければ、該境界枠内の
写真は矩形写真として分類される。上記例においては図
13に示された如くサングラスのグラフィックスに対す
る境界枠100’内には文字が在る。従って、サングラ
スのグラフィックスは非矩形写真と見做される。残りの
他の3個の境界枠は文字を含まないことから、これらの
境界枠が含む写真は矩形として分類される。矩形の形状
または境界を有する写真イメージの検出( 図1、段階1
7)の詳細は、図4に示されている。図4に示された如
く、潜在的な写真イメージ並びに2値イメージ(B1)
の境界座標に関する情報は、連結成分分析に関して考慮
される( 段階30)。段階30においては、連結成分分
析が行われて各境界枠内のオブジェクトが抽出される。
最大オブジェクト(largest object)は絵画的イメージ(p
ictorial image) であると見做され、小寸オブジェクト
は文字またはノイズとして分類されることを銘記された
い。段階33においては、幾何的に最大オブジェクトの
境界の外側に配置されていない小寸オブジェクト( 文
字) が存在するか否かを認識すべきチェックの判断が為
される。もし段階33に対する答えがYESであれば、
オブジェクトは非矩形境界を有する写真イメージであ
る。段階33に対する答えがNOであれば、オブジェク
トは矩形境界を有する写真イメージである。
The next step is to detect rectangular photographic objects within the positions of the four border frames 100.
(FIG. 1, step 17). This detection is performed by verifying all the characters in the boundary frame detected in the binary image (B1) in FIG. If there are any characters in the bounding box, the pictures in the bounding box are classified as non-rectangular. on the other hand,
If no characters are present in the border frame, the picture in the border frame is classified as a rectangular picture. In the above example, as shown in FIG. 13, characters are present in the border frame 100 'for the sunglasses graphics. Therefore, sunglasses graphics are considered non-rectangular photographs. Since the other three border frames do not contain characters, the photos they contain are classified as rectangular. Detection of photographic images with rectangular shapes or boundaries (Figure 1, step 1)
Details of 7) are shown in FIG. As shown in FIG. 4, a potential photographic image and a binary image (B1)
The information about the boundary coordinates is considered for connected component analysis (step 30). In step 30, a connected component analysis is performed to extract objects within each bounding box.
The largest object is a pictorial image (p
Note that small objects are classified as text or noise. In step 33, a check is made to determine if there are any small objects (characters) that are not geometrically located outside the boundaries of the largest object. If the answer to step 33 is YES,
The object is a photographic image with non-rectangular boundaries. If the answer to step 33 is NO, the object is a photographic image with rectangular boundaries.

【0016】次に、図14に示された如く3個の矩形写
真の境界領域内をブラック・ピクセルで充填することに
より、分類マップ( 図1、段階18)が生成される。最
終的2値イメージ(B)は、分類マップに基づき2値イ
メージ(B1)および(B2)から組立てられる。イメ
ージ(B)のピクセルは分類マップのテキスト領域にお
いてはイメージ(B1)のコピーであり、且つ、写真領
域( 分類マップ中のブラック領域) においてイメージ
(B)はイメージ(B2)のコピーである。結果は図1
5に示されている。
Next, a classification map (FIG. 1, step 18) is generated by filling the boundaries of the three rectangular photographs with black pixels as shown in FIG. The final binary image (B) is assembled from the binary images (B1) and (B2) based on the classification map. Pixels of image (B) are copies of image (B1) in the text area of the classification map, and images (B) are copies of image (B2) in the photographic area (black area of the classification map). The result is shown in FIG.
It is shown in FIG.

【図面の簡単な説明】[Brief description of the drawings]

【図1】混合形式の文書に対する領域ベース2値化シス
テムの各段階を示すフローチャートである。
FIG. 1 is a flowchart showing the steps of an area-based binarization system for a mixed format document.

【図2】本発明に係る装置の概略図である。FIG. 2 is a schematic diagram of an apparatus according to the present invention.

【図3】写真検出プロセスの各段階を概略化したフロー
チャートである。
FIG. 3 is a flowchart outlining each step of the photo detection process.

【図4】矩形の形状または境界を有する写真イメージを
検出する各段階を概略化したフローチャートである。
FIG. 4 is a flowchart outlining steps for detecting a photographic image having a rectangular shape or boundary.

【図5】デジタル的に印刷されたグレースケール混合文
書(G)の一例である。
FIG. 5 is an example of a grayscale blended document (G) printed digitally.

【図6】適応スレッショルド化方法を使用した図3のイ
メージ(G)のスレッショルド化イメージ(B1)であ
る。
FIG. 6 is a thresholded image (B1) of the image (G) of FIG. 3 using the adaptive thresholding method.

【図7】エラー拡散方法を使用した図3のイメージ
(G)のスレッショルド化イメージ(B2)である。
FIG. 7 is a thresholded image (B2) of the image (G) of FIG. 3 using the error diffusion method.

【図8】4:1サイズ縮小を使用した図3のイメージ
(G)のサブサンプル化イメージ(Gs)である。
FIG. 8 is a sub-sampled image (Gs) of the image (G) of FIG. 3 using 4: 1 size reduction.

【図9】固定スレッショルド化を使用した図6のイメー
ジ(Gs)のスレッショルド化イメージ(Bs)であ
る。
9 is a thresholded image (Bs) of the image of FIG. 6 (Gs) using fixed thresholding.

【図10】図9のイメージ(Bs)に対するイメージ侵
食処理の結果的2値イメージ(Es)である。
FIG. 10 is a resultant binary image (Es) of the image erosion process on the image (Bs) of FIG. 9;

【図11】図10の2値イメージ(E)に対して検出さ
れた大寸オブジェクトの境界枠である。
11 is a boundary frame of a large object detected for the binary image (E) in FIG.

【図12】図6のイメージ(B1)において検出された
写真の位置である。
FIG. 12 is a photograph position detected in the image (B1) of FIG. 6;

【図13】非矩形写真に対するテキストを含む境界枠の
例である。
FIG. 13 is an example of a border frame including text for a non-rectangular photograph.

【図14】検出された矩形写真の領域を示すビットマッ
プである。
FIG. 14 is a bitmap showing an area of a detected rectangular photograph.

【図15】本発明の方法を使用した最終的2値イメージ
である。
FIG. 15 is a final binary image using the method of the present invention.

【符号の説明】[Explanation of symbols]

100…潜在的写真境界枠 300…イメージ・キャプチャ・アセンブリ 301…イメージ・キャプチャ 303…A/D変換器 305…イメージ・プロセッサ 100: Potential photo border 300: Image capture assembly 301: Image capture 303: A / D converter 305: Image processor

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 グレースケール・イメージを第1及び第
2の2値イメージへと変換する段階と、 前記グレースケール・イメージ中の写真イメージの位置
を検出する段階と、 前記検出された写真イメージの内で矩形境界を有する写
真イメージを識別する段階と、 前記矩形境界を有する写真イメージ内のピクセルを残り
のピクセルから区別する分類マップを生成する段階と、 前記分類マップに基づき、前記第1及び第2の2値イメ
ージから最終的2値イメージを形成する段階と、 を備えて成る、領域ベース2値化方法。
1. converting a grayscale image into first and second binary images; detecting a position of the photographic image in the grayscale image; Identifying a photographic image having a rectangular boundary within; generating a classification map that distinguishes pixels in the photographic image having the rectangular boundary from the remaining pixels; and, based on the classification map, the first and second images. Forming a final binary image from the two binary images.
【請求項2】 前記検出段階が前記サブサンプル化イメ
ージにおける写真イメージの位置を検出する段階を備え
る如く、前記グレースケール・イメージをサブサンプリ
ングしてサブサンプル化イメージを獲得する段階を更に
備えて成る、請求項1に記載の方法。
2. The method of claim 1, further comprising the step of subsampling the grayscale image to obtain a subsampled image, wherein the detecting step comprises detecting a position of a photographic image in the subsampled image. The method of claim 1.
【請求項3】 前記グレースケール・イメージは、少な
くとも写真部分およびテキスト部分を含む文書からキャ
プチャされたものである、請求項1に記載の方法。
3. The method of claim 1, wherein the grayscale image has been captured from a document that includes at least a photographic portion and a text portion.
【請求項4】 前記変換段階は、前記グレースケール・
イメージに対して適応スレッショルド化技術を適用して
前記第1及び第2の2値イメージの一方を獲得する段階
と、 前記グレースケール・イメージに対してイメージ・レン
ダリング技術を適用して前記第1及び第2の2値イメー
ジの他方を獲得する段階と、 を有する、請求項1に記載の方法。
4. The method of claim 1, wherein the converting step comprises:
Applying one of the first and second binary images by applying an adaptive thresholding technique to the image; and applying the image rendering technique to the first and second grayscale images. Acquiring the other of the second binary image.
【請求項5】 前記イメージ・レンダリング技術はエラ
ー拡散プロセスを有する、請求項4に記載の方法。
5. The method of claim 4, wherein said image rendering technique comprises an error diffusion process.
【請求項6】 前記イメージ・レンダリング技術はディ
ザ・プロセスを有する、請求項4に記載の方法。
6. The method of claim 4, wherein said image rendering technique comprises a dither process.
【請求項7】 前記サブサンプル化イメージは低解像度
イメージである、請求項2に記載の方法。
7. The method of claim 2, wherein said sub-sampled image is a low resolution image.
【請求項8】 前記検出段階は、 前記サブサンプル化イメージを更なる2値イメージへと
変換する段階と、 前記更なる2値イメージから細線および文字を除去する
段階と、 前記更なる2値イメージにおける連結ピクセルをグルー
プ化すべく前記更なる2値イメージに対して連結成分分
析を実行し、連結ピクセルのグループは前記更なる2値
イメージにおけるオブジェクトとして識別される、段階
と、 前記更なる2値イメージにおいてスレッショルド値より
大きなサイズを有するオブジェクトを写真イメージとし
て指定する段階と、 を有する、請求項2に記載の方法。
8. The detecting step further comprises: converting the sub-sampled image into a further binary image; removing thin lines and characters from the further binary image; Performing connected component analysis on the further binary image to group the connected pixels in, wherein the group of connected pixels is identified as an object in the further binary image; and 3. The method of claim 2, comprising: designating an object having a size greater than the threshold value as a photographic image at.
【請求項9】 前記指定段階は、前記スレッショルド値
より大きなオブジェクトをオブジェクトイメージとして
指定すると共に前記スレッショルド値より小さなオブジ
ェクトを排除するためにサイズフィルタを用いる段階を
有する、請求項8に記載の方法。
9. The method according to claim 8, wherein the specifying step includes the step of specifying an object larger than the threshold value as an object image and using a size filter to exclude objects smaller than the threshold value.
JP34326499A 1998-12-04 1999-12-02 Region-based image binarization system Expired - Lifetime JP4261005B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/205948 1998-12-04
US09/205,948 US6393150B1 (en) 1998-12-04 1998-12-04 Region-based image binarization system

Publications (2)

Publication Number Publication Date
JP2000175038A true JP2000175038A (en) 2000-06-23
JP4261005B2 JP4261005B2 (en) 2009-04-30

Family

ID=22764334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34326499A Expired - Lifetime JP4261005B2 (en) 1998-12-04 1999-12-02 Region-based image binarization system

Country Status (3)

Country Link
US (1) US6393150B1 (en)
JP (1) JP4261005B2 (en)
DE (1) DE19956158A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229317A (en) * 2013-05-24 2014-12-08 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Method and system for automatic selection of one or more image processing algorithm

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031543B2 (en) * 2002-01-02 2006-04-18 Xerox Corporation Grayscale image de-speckle algorithm
US7092584B2 (en) 2002-01-04 2006-08-15 Time Warner Entertainment Company Lp Registration of separations
US6947607B2 (en) * 2002-01-04 2005-09-20 Warner Bros. Entertainment Inc. Reduction of differential resolution of separations
US6993185B2 (en) * 2002-08-30 2006-01-31 Matsushita Electric Industrial Co., Ltd. Method of texture-based color document segmentation
US7382903B2 (en) * 2003-11-19 2008-06-03 Eastman Kodak Company Method for selecting an emphasis image from an image collection based upon content recognition
US7379594B2 (en) * 2004-01-28 2008-05-27 Sharp Laboratories Of America, Inc. Methods and systems for automatic detection of continuous-tone regions in document images
US7701614B2 (en) * 2004-03-31 2010-04-20 Fujifilm Corporation Image processing method, apparatus, and program with selective error diffusion among a pluraity of pixel groups withing a digital image
KR20060050746A (en) * 2004-08-31 2006-05-19 엘지전자 주식회사 Method for processing document image captured by camera
KR20060050729A (en) * 2004-08-31 2006-05-19 엘지전자 주식회사 Method and apparatus for processing document image captured by camera
US7672539B2 (en) * 2005-12-15 2010-03-02 General Instrument Corporation Method and apparatus for scaling selected areas of a graphics display
US20070253615A1 (en) * 2006-04-26 2007-11-01 Yuan-Hsiang Chang Method and system for banknote recognition
US20090116756A1 (en) * 2007-11-06 2009-05-07 Copanion, Inc. Systems and methods for training a document classification system using documents from a plurality of users
US8073284B2 (en) * 2008-04-03 2011-12-06 Seiko Epson Corporation Thresholding gray-scale images to produce bitonal images
US8351720B2 (en) * 2008-04-24 2013-01-08 Hewlett-Packard Development Company, L.P. Method and system providing edge enhanced image binarization
US8213735B2 (en) * 2008-10-10 2012-07-03 Accusoft Corporation Methods and apparatus for performing image binarization
US9241128B2 (en) 2013-02-14 2016-01-19 Warner Bros. Entertainment Inc. Video conversion technology
CN103345747A (en) * 2013-06-26 2013-10-09 公安部第三研究所 Optimized picture shape feature extraction and structuring description device and method based on horizontal coordinate
US9704057B1 (en) 2014-03-03 2017-07-11 Accusoft Corporation Methods and apparatus relating to image binarization
CN109893084A (en) 2014-06-20 2019-06-18 拉姆伯斯公司 System and method for having lens and lensless optical sensing
US10136103B2 (en) 2015-11-23 2018-11-20 Lexmark International, Inc. Identifying consumer products in images
US9990561B2 (en) * 2015-11-23 2018-06-05 Lexmark International, Inc. Identifying consumer products in images
CN106228555A (en) * 2016-07-22 2016-12-14 湖南文理学院 Thresholding Method for Grey Image Segmentation based on Masi entropy measure
CN106327497A (en) * 2016-08-29 2017-01-11 湖南文理学院 Gray-scale image threshold segmentation method based on super-extensive entropy
CN106408586A (en) * 2016-08-30 2017-02-15 湖南文理学院 Gray scale image segmentation method based on non-extensive Gaussian entropy measure
US10607101B1 (en) * 2016-12-14 2020-03-31 Revenue Management Solutions, Llc System and method for patterned artifact removal for bitonal images
US10909406B2 (en) * 2018-01-08 2021-02-02 Newgen Software Technologies Limited Image processing system and method
CN110309060B (en) * 2019-05-24 2021-08-17 平安科技(深圳)有限公司 Detection method and device for updating identification algorithm, storage medium and computer equipment
CN110335198B (en) * 2019-07-08 2021-06-08 威创集团股份有限公司 Image processing method and system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4668995A (en) 1985-04-12 1987-05-26 International Business Machines Corporation System for reproducing mixed images
JPH01295570A (en) * 1988-05-23 1989-11-29 Mitsubishi Electric Corp Picture processing device
US5617485A (en) * 1990-08-15 1997-04-01 Ricoh Company, Ltd. Image region segmentation system
US5335290A (en) 1992-04-06 1994-08-02 Ricoh Corporation Segmentation of text, picture and lines of a document image
DE69321308T2 (en) * 1992-07-31 1999-03-25 Canon Kk Display control unit
US5872864A (en) * 1992-09-25 1999-02-16 Olympus Optical Co., Ltd. Image processing apparatus for performing adaptive data processing in accordance with kind of image
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
DE69332750T2 (en) * 1993-01-11 2003-10-16 Canon Kk Image processing apparatus and method
JPH07131641A (en) * 1993-11-08 1995-05-19 Canon Inc Image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229317A (en) * 2013-05-24 2014-12-08 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Method and system for automatic selection of one or more image processing algorithm

Also Published As

Publication number Publication date
US6393150B1 (en) 2002-05-21
DE19956158A1 (en) 2000-06-08
JP4261005B2 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
JP4261005B2 (en) Region-based image binarization system
US6738154B1 (en) Locating the position and orientation of multiple objects with a smart platen
US8244031B2 (en) System and method for identifying and classifying color regions from a digital image
JP4646797B2 (en) Image processing apparatus, control method therefor, and program
US5892854A (en) Automatic image registration using binary moments
US7321688B2 (en) Image processor for character recognition
US7437002B2 (en) Image recognition system utilizing an edge image and a binary image
Bhattacharjya et al. Data embedding in text for a copier system
WO1999067943A1 (en) Image processor, image processing method, and medium on which image processing program is recorded
US8306335B2 (en) Method of analyzing digital document images
US20060215232A1 (en) Method and apparatus for processing selected images on image reproduction machines
JP2005275854A (en) Image processor, image processing method, image processing program and recording medium with this program stored thereon
JP3100383B2 (en) Character region separation method and apparatus
Roullet et al. An automated technique to recognize and extract images from scanned archaeological documents
EP0975146B1 (en) Locating the position and orientation of multiple objects with a smart platen
JPH10283475A (en) Image processing method and device
KR100537827B1 (en) Method for the Separation of text and Image in Scanned Documents using the Distribution of Edges
KR100537829B1 (en) Method for segmenting Scan Image
JP2004048130A (en) Image processing method, image processing apparatus, and image processing program
JPH1196296A (en) Method and device for processing slip image
JPH10285391A (en) Image-processing unit
JP4027016B2 (en) Image processing apparatus, image processing method, and storage medium
JPH0766976A (en) Picture processing unit
Hu Three Problems in Image Analysis and Processing: Determining Optimal Resolution for Scanned Document Raster Content, Page Orientation, and Color Table Compression
JP3020293B2 (en) Attribute determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080909

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4261005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term