JP2003228691A - Slip read device and program for processing slip read - Google Patents

Slip read device and program for processing slip read

Info

Publication number
JP2003228691A
JP2003228691A JP2002026834A JP2002026834A JP2003228691A JP 2003228691 A JP2003228691 A JP 2003228691A JP 2002026834 A JP2002026834 A JP 2002026834A JP 2002026834 A JP2002026834 A JP 2002026834A JP 2003228691 A JP2003228691 A JP 2003228691A
Authority
JP
Japan
Prior art keywords
plane
image
binary image
dropout
binary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002026834A
Other languages
Japanese (ja)
Other versions
JP4008715B2 (en
Inventor
Hideo Kamata
英夫 鎌田
Yasunao Isaki
保直 伊崎
Shunji Sakane
俊司 坂根
Katsumi Ide
克美 井出
Kazumasa Komatsu
一正 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2002026834A priority Critical patent/JP4008715B2/en
Publication of JP2003228691A publication Critical patent/JP2003228691A/en
Application granted granted Critical
Publication of JP4008715B2 publication Critical patent/JP4008715B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To improve the efficiency of the specific processing of a picture for recognizing characters by removing a dropout color from a slip picture. <P>SOLUTION: A slip read device and a program consider the difference of density distribution in histograms 12, 14, and 16 of R, G, and B plane multilevel pictures 11, 13, and 15 of a read slip. The read slip is provided with a red frame 17 of a dropout color, and characters or numerics are entered into the frame by a user in black. As for an automatic determination threshold indicating the so called distribution characteristics of each histogram, an R plane is '187', and G and B planes are both '152'. Then, the R plane whose value is the maximum and whose difference with a plane which is the largest next to this is not less than a prescribed value is selected as a dropout plane, and the character recognition processing of the picture is executed. Also, the dropout plane is specified on the basis of the magnitude of the black pixel frequency in the AND synthetic picture or XOR picture of a binary picture of each plane and a Y binary picture. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ドロップアウトカ
ラー部分およびそれに関連した利用者記入部分を含む帳
票(例えば銀行で用いる入出金伝票など)の読取装置、
および当該帳票の読取処理用プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for reading a form (for example, a deposit / withdrawal slip used in a bank) including a dropout collar portion and a user entry portion related thereto.
And a program for reading the form.

【0002】特に、帳票の読取画像からその中の例えば
赤系の文字・数字記入枠部分(ドロップアウトカラー部
分)を消した内容のプレーン画像などを自動選択し、ま
た、当該読取画像のR,G,Bの各プレーン二値画像と
輝度信号二値画像との例えばAND演算処理により当該
記入枠部分を消した内容の合成画像を生成し、これらの
選択画像や生成画像に基づき利用者記入の文字・数字な
どを認識するようにしたものである。
[0002] In particular, a plain image or the like in which the red character / number entry frame portion (dropout color portion) is erased from the read image of the form is automatically selected, and the R and R of the read image are selected. For example, an AND operation is performed on each of the G and B plane binary images and the luminance signal binary image to generate a composite image in which the entry frame portion is erased, and based on these selected images and the generated images, a user entry is performed. It recognizes letters and numbers.

【0003】[0003]

【従来の技術】従来、帳票上の文字枠などのドロップア
ウトカラー部分を当該帳票のR,G,Bの各プレーン二
値画像のAND演算により取り除く方式の光学式文字読
取装置は、例えば特開平6−243290号公報で開示
されている。
2. Description of the Related Art Conventionally, an optical character reading apparatus of a type in which a dropout color portion such as a character frame on a form is removed by AND operation of R, G, B plane binary images of the form is disclosed in, for example, Japanese Patent Laid-Open No. Hei 10 (1999) -31977. No. 6-243290.

【0004】この光学式文字読取装置の場合、R,G,
Bの各プレーン二値画像の1ビットごとのAND演算を
実行することにより、読取帳票のドロップアウトカラー
部分を背景画素(白画素)とし、その文字・数字部分を
情報画素(黒画素)とする合成画像を生成している。
In the case of this optical character reader, R, G,
By executing an AND operation for each bit of each plane binary image of B, the dropout color portion of the read form is set as a background pixel (white pixel), and its character / number portion is set as an information pixel (black pixel). Generating a composite image.

【0005】[0005]

【発明が解決しようとする課題】このような光学式文字
読取の手法の場合、各プレーン二値画像のAND演算を
実行することを前提にしているため、単一ドロップアウ
トカラー(例えば赤系)の帳票に対する処理効率が悪い
という問題点があった。
In the case of such an optical character reading method, since it is premised that the AND operation of each plane binary image is performed, a single dropout color (for example, red color) is used. There was a problem that the processing efficiency for the form was poor.

【0006】これは、単一ドロップアウトカラーのプレ
ーン画像では文字枠部分(ドロップアウトカラー部分)
はすべて取り除かれており、当該画像と他のカラープレ
ーン画像とのAND演算による利点は特にないからであ
る。
In a plain image of a single dropout color, this is the character frame part (dropout color part).
Are all removed, and there is no particular advantage due to the AND operation of the image and another color plane image.

【0007】そこで、本発明では、帳票画像の各プレー
ン中にドロップアウトカラー部分がすべて取り除かれた
に等しいといえる単一プレーンが存在しているかどうか
を判断して、これが存在する場合にはそのプレーン画像
を選択してその後の文字・数字認識処理に用いることに
より、帳票画像からドロップアウトカラーを除去した内
容の文字認識用画像の特定処理の効率化を図ることを目
的とする。
Therefore, according to the present invention, it is judged whether or not there is a single plane in each plane of the form image, which can be said to be equivalent to the removal of all dropout color portions. By selecting a plain image and using it for subsequent character / number recognition processing, it is intended to improve the efficiency of the processing for specifying the character recognition image with the dropout color removed from the form image.

【0008】このような単一プレーンが存在しない場合
において、各プレーン二値画像の合成画像を生成する際
には、読取帳票の輝度信号二値画像(Y信号二値画像)
も併用することにより、この合成画像の解像度を高める
ことを目的とする。
In the case where such a single plane does not exist, when a composite image of binary images of each plane is generated, a luminance signal binary image (Y signal binary image) of the reading form is generated.
It is intended to increase the resolution of this composite image by also using.

【0009】[0009]

【課題を解決するための手段】本発明はこの課題を次の
ようにして解決する。 (1)ドロップアウトカラー部分およびそれに関連した
利用者記入部分を含む帳票を、画素単位で、光学的に読
み取る帳票読取装置において、この読取画像のプレーン
ごとの画素濃度分布を求める濃度分布演算手段と、この
画素濃度分布の特性値を求め、当該特性値に基づいてド
ロップアウトプレーンを特定するプレーン選択手段とを
備える。 (2)ドロップアウトカラー部分およびそれに関連した
利用者記入部分を含む帳票を、画素単位で、光学的に読
み取る帳票読取装置において、この読取画像の各プレー
ンを二値化する二値化手段と、このプレーン二値画像に
対応した黒画素頻度または白画素頻度を求め、当該画素
頻度に基づいてドロップアウトプレーンを特定するプレ
ーン選択手段とを備える。 (3)ドロップアウトカラー部分およびそれに関連した
利用者記入部分を含む帳票を、画素単位で、光学的に読
み取る帳票読取装置において、この読取画像の各プレー
ン二値画像および輝度信号二値画像を生成する画像生成
手段と、この輝度信号二値画像と前記各プレーン二値画
像の一つとの演算処理により第1の合成二値画像を生成
してから、この第1の合成二値画像と前記各プレーン二
値画像の残りの一つとの演算処理により第2の合成二値
画像を生成し、この第2の合成二値画像と前記各プレー
ン二値画像の残りの一つとの演算処理により第3の合成
二値画像を生成する画像合成手段とを備える。
The present invention solves this problem as follows. (1) In a form reading device for optically reading a form including a dropout color part and a user entry part related thereto in a pixel unit, a density distribution calculating means for obtaining a pixel density distribution for each plane of the read image. Plane selection means for determining a characteristic value of the pixel density distribution and specifying a dropout plane based on the characteristic value. (2) In a form reading device which optically reads a form including a dropout color part and a user entry part related thereto, in a form reading device, binarizing means for binarizing each plane of the read image, And a plane selecting unit that determines a black pixel frequency or a white pixel frequency corresponding to the plane binary image and specifies a dropout plane based on the pixel frequency. (3) In a form reading device that optically reads a form including a dropout color part and a user-written part related thereto in pixel units, a plane binary image and a luminance signal binary image of the read image are generated. Image generating means for generating the first combined binary image by calculating the luminance signal binary image and one of the plane binary images, and then generating the first combined binary image and the first combined binary image. A second combined binary image is generated by calculation processing with the other one of the plane binary images, and a third combined binary image is calculated with the remaining one of the plane binary images. And an image synthesizing means for generating a synthetic binary image.

【0010】本発明によれば、上記(1),(2)のよ
うに、対象帳票の読取画像の各プレーンにおける画素濃
度分布の特性値(例えば後述の自動判別閾値)や、当該
各プレーン二値画像に対応した黒画素頻度または白画素
頻度に基づき、すなわちプレーン二値画像間のAND演
算などの合成処理をせずに、ドロップアウトプレーンを
特定する。これによりドロップアウトカラーを除去した
かたちの帳票画像の生成処理を効率的に実行している。
According to the present invention, as described in (1) and (2) above, the characteristic value of the pixel density distribution in each plane of the read image of the target form (for example, an automatic discrimination threshold value described later) and the two planes of each plane. The dropout plane is specified based on the black pixel frequency or the white pixel frequency corresponding to the value image, that is, without performing a combining process such as an AND operation between the plane binary images. As a result, the generation process of the form image in which the dropout color is removed is efficiently executed.

【0011】ここで、プレーン二値画像における黒画素
頻度と白画素頻度との合計は100%となるため、ドロ
ップアウトプレーン特定のための条件は当該頻度のいず
れを用いても等価である。例えば、図14のステップ(s
12) ,(s15) の黒画素頻度についての条件式も「黒画素
頻度=100−白画素頻度」を代入することにより白画
素頻度の条件式となる。
Since the sum of the black pixel frequency and the white pixel frequency in the plane binary image is 100%, the conditions for specifying the dropout plane are equivalent regardless of which frequency is used. For example, the step (s
The conditional expressions for the black pixel frequency in 12) and (s15) also become the conditional expression for the white pixel frequency by substituting "black pixel frequency = 100-white pixel frequency".

【0012】さらには、読取画像の輝度信号二値画像と
プレーン二値画像との合成二値画像(プレーン二値画像
自体よりも解像度が高い)の黒画素頻度または白画素頻
度を用いることにより、ドロップアウトプレーンの特定
精度を高めている。
Further, by using the black pixel frequency or the white pixel frequency of the composite binary image (having a higher resolution than the plane binary image itself) of the luminance signal binary image of the read image and the plane binary image, Improves the accuracy of identifying the dropout plane.

【0013】また、上記(3)のように、例えば上記
(1),(2)のドロップアウトプレーンを特定できな
い場合の、各プレーンの合成二値画像を生成するに際し
て、帳票の輝度信号二値画像との演算合成も実行する。
これにより合成二値画像自体の解像度を高めている。
Further, when the dropout planes of (1) and (2) cannot be specified as in the above (3), when generating a composite binary image of each plane, the luminance signal binary of the form is generated. It also performs arithmetic synthesis with images.
This increases the resolution of the composite binary image itself.

【0014】また、上記(1)〜(3)において、二値
化用閾値,後述する局所的二値化法(図17〜図19)
の背景分離用閾値や対象範囲などを調整して、利用者記
入の文字・数字のかすれ部分の適切な黒画素化を図るこ
とにより、ドロップアウトプレーン特定の精度を高める
とともに、最終的な出力画像における文字・数字をいわ
ば太めにしてそれの認識精度を高めている。
Further, in the above (1) to (3), the threshold for binarization and the local binarization method described later (FIGS. 17 to 19).
By adjusting the background separation threshold and target range, etc., and appropriately converting the faint portions of the characters and numbers entered by the user into black pixels, the accuracy of the dropout plane can be improved and the final output image can be obtained. The letters and numbers in are so-called thicker to improve their recognition accuracy.

【0015】本発明は、このような特徴を持つ帳票読取
装置を対象とし、さらにはドロップアウトカラーを除去
したかたちの帳票画像の生成処理を効率的に実行し、ま
た当該帳票画像を精度の高いものにするための帳票読取
用プログラムも、対象にしている。
The present invention is intended for a form reading apparatus having such characteristics, and further efficiently executes a process of generating a form image in a form in which dropout color is removed, and the form image is highly accurate. A form reading program for making things available is also targeted.

【0016】[0016]

【発明の実施の形態】図1乃至図20を参照して本発明
の実施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described with reference to FIGS.

【0017】以下の記載では、説明の便宜上、原則とし
て赤系ドロップアウトカラーの帳票を対象にし、また、
当該帳票の大きさを約A5サイズ、その読取画像の全画
素数を1,557,790 画素とする。
In the following description, for the sake of convenience of explanation, in principle, a red dropout color form is targeted, and
The size of the form is about A5 size, and the total number of pixels of the read image is 1,557,790 pixels.

【0018】図1は、ドロップアウトプレーン検出手法
の概要(その1)を示す説明図である。
FIG. 1 is an explanatory view showing the outline (part 1) of the dropout plane detection method.

【0019】図1において、11は、帳票を2次元カラ
ーCCDで読み取ったときの赤プレーン,12は、この
赤プレーン多値画像のヒストグラム,13は、帳票を2
次元カラーCCDで読み取ったときの緑プレーン,14
は、この緑プレーン多値画像のヒストグラム,15は、
帳票を2次元カラーCCDで読み取ったときの青プレー
ン,16は、この青プレーン多値画像のヒストグラム,
17は、帳票上の赤系枠(ドロップアウト部分),をそ
れぞれ示している。
In FIG. 1, 11 is a red plane when the form is read by a two-dimensional color CCD, 12 is a histogram of this red plane multivalued image, and 13 is the form 2.
Green plane when read by a three-dimensional color CCD, 14
Is the histogram of this green plane multi-valued image, and 15 is
A blue plane when the form is read by a two-dimensional color CCD, 16 is a histogram of this blue plane multivalued image,
Reference numerals 17 denote red frames (dropout portions) on the form, respectively.

【0020】なお、ヒストグラム12,14,16それ
ぞれの横軸は「0」の黒レベルから「255」の白レベ
ルまでの256階調を示す画素濃度(明るさ)であり、
縦軸は画素数に対応している。また、各プレーン画像の
黒縁枠は帳票読取の際に当該帳票を載せる台部分の画像
成分である。
The horizontal axis of each of the histograms 12, 14 and 16 is the pixel density (brightness) showing 256 gradations from the black level of "0" to the white level of "255",
The vertical axis corresponds to the number of pixels. The black frame of each plain image is an image component of the table portion on which the form is placed when the form is read.

【0021】帳票を読み取る2次元カラーCCDは、赤
色用,緑色用および青色用の各光電変換素子からなる市
松模様で構成されている(図15参照)。
The two-dimensional color CCD for reading the form is formed in a checkered pattern composed of red, green and blue photoelectric conversion elements (see FIG. 15).

【0022】図1の検出手法は、赤,緑,青の各プレー
ン画像のヒストグラムにおける濃度分布の違いに着目し
たものである。
The detection method of FIG. 1 focuses on the difference in density distribution in the histograms of the red, green, and blue plane images.

【0023】処理対象の帳票は、例えば白地の背景部分
と赤系枠17などを有し、この赤系枠の中に利用者が黒
色で文字や数値を記入したものである。
The form to be processed has, for example, a white background portion and a red frame 17, and the user writes black characters and numerical values in the red frame.

【0024】この帳票画像における赤,緑,青(R,
G,B)の各プレーン11,13,15のヒストグラム
は、 ・赤プレーンの場合、ピーク部分が2箇所で、自動判別
閾値が「187」の濃度分布を示し、 ・緑プレーンおよび青プレーンの場合はともに、ピーク
部分が3箇所で、自動判別閾値が「152」の濃度分布
を示している。
Red, green, blue (R,
The histograms of the planes 11, 13 and 15 of (G, B) are as follows: In the case of the red plane, there are two peak portions and the density distribution of the automatic discrimination threshold value is "187"; In both cases, there are three peak portions and the density distribution has an automatic discrimination threshold value of “152”.

【0025】ここで、ヒストグラムの自動判別閾値が最
大となるプレーンを特定することにより、対象帳票のド
ロップアウト種別を自動判定する。図示の場合は赤系ド
ロップアウトカラーの帳票と判定する。なお、ヒストグ
ラムの自動判別閾値の求め方自体は公知である(図16
参照)。
Here, the dropout type of the target form is automatically determined by specifying the plane where the automatic determination threshold of the histogram is the maximum. In the case shown, it is determined that the form is a red dropout color form. It should be noted that the method itself for obtaining the automatic discrimination threshold value of the histogram is publicly known (FIG. 16).
reference).

【0026】赤プレーン11の自動判別閾値(=18
7)が緑,青プレーン13,15の自動判別閾値(=1
52)とは違う、すなわち各プレーンのヒストグラム1
2,14,16のピーク状況に差異があるのは、帳票上
の赤系枠17などの赤系部分に対する光の反射率が、緑
色波長や青色波長よりも赤色波長において大きいからで
ある。
Automatic discrimination threshold (= 18) of the red plane 11
7) is the automatic discrimination threshold (= 1 for green and blue planes 13 and 15)
52), that is, histogram 1 for each plane
The peak states of 2, 14 and 16 are different because the reflectance of light with respect to a reddish portion such as the reddish frame 17 on the form is larger in the red wavelength than in the green wavelength and the blue wavelength.

【0027】帳票の赤系枠17に対する読取出力(濃
度)は、当然のことながら赤色光電変換素子のほうが他
の緑色,青色の光電変換素子よりも大きい。そして、赤
色光電変換素子の当該読取出力は帳票の背景部分(白部
分)のそれと略等しくなる。
The read output (density) of the form with respect to the red frame 17 is naturally larger in the red photoelectric conversion element than in the other green and blue photoelectric conversion elements. The read output of the red photoelectric conversion element is substantially equal to that of the background portion (white portion) of the form.

【0028】そのため、帳票の読取画像の赤プレーンで
は赤系画素(赤系枠など)がドロップアウトしてしま
い、当該プレーンのヒストグラムにおける赤系画素の濃
度分布が背景画素(白画素)のそれにいわばマージされ
た形になる。このようなマージ現象は、読取画像中に赤
系枠が残留している緑,青プレーンでは発生しない。
Therefore, red pixels (such as a red frame) drop out in the red plane of the read image of the form, and the density distribution of the red pixels in the histogram of the plane is, so to speak, that of the background pixels (white pixels). It becomes a merged form. Such a merge phenomenon does not occur in the green and blue planes where the red frame remains in the read image.

【0029】これにより、各プレーンの濃度分布の目安
となる自動判別閾値が、赤プレーンにおいて他の緑,青
の各プレーンよりも大きくなる。
As a result, the automatic discrimination threshold, which is a measure of the density distribution of each plane, becomes larger in the red plane than in the other green and blue planes.

【0030】もちろん、出金帳票のように青系ドロップ
アウトカラーの帳票の場合には、その青プレーンのヒス
トグラムにおいて青系枠の濃度分布が背景画素(白画
素)の濃度分布にマージされる。
Of course, in the case of a blue dropout color form such as a withdrawal form, the density distribution of the blue frame is merged with the density distribution of the background pixels (white pixels) in the histogram of the blue plane.

【0031】このように、帳票画像の各プレーンのヒス
トグラムに基づいて当該帳票のドロップアウトカラー種
別を自動判定する。すなわち、図1の場合の読取帳票は
赤系ドロップアウトカラーである旨を判定する。この自
動判定に用いる値は、各プレーンヒストグラムの内容に
対応したものであればよく、例えば画素濃度分布の平均
値でもよい。
In this way, the dropout color type of the form is automatically determined based on the histogram of each plane of the form image. That is, it is determined that the read form in the case of FIG. 1 is a red dropout color. The value used for this automatic determination may be any value corresponding to the contents of each plane histogram, and may be, for example, the average value of the pixel density distribution.

【0032】図2は、図1の検出手法に対応した全体構
成を示す説明図である。
FIG. 2 is an explanatory diagram showing the overall configuration corresponding to the detection method of FIG.

【0033】図2において、21は、例えばA5サイズ
の帳票を光学的に読み取る小型容量で40万画素の2次
元カラーCCD,22は、この2次元カラーCCDに対
して画素ずらし制御を実行する(例えば9回の画素ずら
し処理に基づき計360万画素の帳票画像を得る:図1
5参照)画素ずらし手段,23は、この画素ずらし処理
により求めた例えば9個の各画像を合成する撮像画像合
成手段,24は、この合成画像の濃淡を均一化するシェ
ーディング補正手段,25は、このシェーディング補正
後の読取画像を赤,緑,青の各プレーン画像に分割する
R,G,Bプレーン分割手段,26〜28は、メモリや
ワーク領域(図示省略)に保持した赤,緑,青の各プレ
ーン画像,29は、この赤,緑,青の各プレーン画像か
らY信号画像(輝度信号画像)を作成するY信号画像生
成手段,30は、メモリやワーク領域(図示省略)に保
持したY信号画像,31は、このY信号画像を局所的二
値化法(図17〜図19参照)により二値化して二値Y
画像を作成する局所的二値化部,32は、メモリやワー
ク領域(図示省略)に保持したY信号二値画像,33〜
35は、赤,青,緑の各プレーン画像(R画像,G画
像,B画像)のヒストグラム演算を実行するヒストグラ
ム演算部,36〜38は,この各プレーンのヒストグラ
ムから二値化用の閾値を求める自動判別閾値法処理部,
39は、この各プレーンの閾値に基づき単一のドロップ
アウトカラー種別を特定できるかどうかを判断して(図
14のステップ(s6) 参照)、特定できる場合にはその
プレーンを選択するプレーン画像判定・選択部,40
は、この選択プレーンの各画素信号を上記自動判別閾値
で二値化する選択画像二値化部,41は、メモリやワー
ク領域(図示省略)に保持した選択プレーン二値画像,
42は、Y信号二値画像32と選択プレーン二値画像4
1とのAND演算を実行するAND演算合成部,43
は、このAND合成画像を出力する合成画像出力部,4
4は、構成要素33〜39からなる統合ブロック,をそ
れぞれ示している。
In FIG. 2, reference numeral 21 is a small-capacity two-dimensional color CCD of 400,000 pixels for optically reading an A5 size form, and 22 is a pixel shift control for the two-dimensional color CCD ( For example, a form image with a total of 3.6 million pixels is obtained based on nine times of pixel shift processing: FIG.
5) Pixel shift means, 23 is a picked-up image synthesizing means for synthesizing, for example, each of the nine images obtained by this pixel shift processing, 24 is a shading correction means for uniformizing the shade of this synthesized image, and 25 is The R, G, B plane dividing means 26 to 28 for dividing the read image after the shading correction into red, green and blue plane images are red, green and blue held in a memory or a work area (not shown). , 29 are Y plane image images, 29 are Y plane image images (luminance signal image), and 30 are held in a memory or a work area (not shown). The Y signal image, 31 is a binary Y obtained by binarizing the Y signal image by the local binarization method (see FIGS. 17 to 19).
The local binarization unit for creating an image, 32 is a Y signal binary image held in a memory or a work area (not shown), 33-
Reference numeral 35 is a histogram calculation unit that executes a histogram calculation of each red, blue, and green plane image (R image, G image, B image), and 36 to 38 are threshold values for binarization from the histogram of each plane. Automatic discriminating threshold method processing unit to be obtained,
39 determines whether a single dropout color type can be specified based on the threshold value of each plane (see step (s6) in FIG. 14), and if it can specify, a plane image determination that selects that plane.・ Selector, 40
Is a selected image binarization unit that binarizes each pixel signal of this selected plane with the automatic discrimination threshold, 41 is a selected plane binary image held in a memory or a work area (not shown),
42 is the Y signal binary image 32 and the selected plane binary image 4
AND operation synthesis unit for executing AND operation with 1, 43
Is a composite image output unit for outputting this AND composite image, 4
Reference numeral 4 denotes an integrated block composed of the constituent elements 33 to 39, respectively.

【0034】なお、局所的二値化部31および選択画像
二値化部40はそれぞれ後述の文字かすれ処理機能を有
している(図3の自動判別閾値の1.3倍化処理,図1
9,20など参照)。
The local binarization unit 31 and the selected image binarization unit 40 each have a character blurring processing function described later (1.3 times the automatic discrimination threshold value in FIG. 3, FIG. 1).
See 9 and 20).

【0035】図3〜図5は、ドロップアウトプレーン検
出手法の概要(その2)を示す説明図である。図3はR
プレーンの場合、図4はGプレーンの場合、図5はBプ
レーンの場合をそれぞれ示している。
3 to 5 are explanatory views showing the outline (part 2) of the dropout plane detection method. Figure 3 is R
In the case of the plane, FIG. 4 shows the case of the G plane, and FIG. 5 shows the case of the B plane.

【0036】なお、図3〜図5および後述の図7〜図9
では、各プレーンの手書き文字部分の図面上の表示サイ
ズを考慮して、プレーン全体の略左上1/4部分のみを
記している。
3 to 5 and FIGS. 7 to 9 described later.
In consideration of the display size of the handwritten character portion of each plane on the drawing, only the upper left ¼ portion of the entire plane is shown.

【0037】図3〜図5において、17は、図1と同様
の赤系枠,51は、読取帳票の赤,青,緑の各プレーン
画像から得られる輝度信号を局所的二値化法(図17〜
19参照)により求めたY信号二値画像,52は、読取
帳票の赤プレーンをその自動判別閾値(=123)で二
値化して求めた第1の赤プレーン二値画像,53は、読
取帳票の赤プレーンをかすれ補正用閾値(=159:自
動判別閾値の1.3倍)で二値化して求めた第2の赤プ
レーン二値画像,54は、Y信号二値画像51と第1の
赤プレーン二値画像52とのAND合成画像(黒画素頻
度=11.823%),55は、Y信号二値画像51と
第2の赤プレーン二値画像53とのAND合成画像(黒
画素頻度=12.030%),62は、読取帳票の緑プ
レーンをその自動判別閾値(=103)で二値化して求
めた第1の緑プレーン二値画像,63は、読取帳票の緑
プレーンをかすれ補正用閾値(=133:自動判別閾値
の1.3倍)で二値化して求めた第2の緑プレーン二値
画像,64は、Y信号二値画像51と第1の緑プレーン
二値画像62とのAND合成画像(黒画素頻度=13.
653%),65は、Y信号二値画像51と第2の緑プ
レーン二値画像63とのAND合成画像(黒画素頻度=
15.495%),72は、読取帳票の青プレーンをそ
の自動判別閾値(=111)で二値化して求めた第1の
青プレーン二値画像,73は、読取帳票の青プレーンを
かすれ補正用閾値(=144:自動判別閾値の1.3
倍)で二値化して求めた第2の青プレーン二値画像,7
4は、Y信号二値画像51と第1の青プレーン二値画像
72とのAND合成画像(黒画素頻度=13.787
%),75は、Y信号二値画像51と第2の青プレーン
二値画像73とのAND合成画像(黒画素頻度=16.
273%),をそれぞれ示している。なお、黒レベルを
論理値「1」としている。
In FIGS. 3 to 5, 17 is a red frame similar to that in FIG. 1, 51 is a local binarization method for the luminance signals obtained from the red, blue and green plane images of the reading form ( FIG. 17-
19)), a Y signal binary image 52 is a first red plane binary image 52 obtained by binarizing the red plane of the reading form with its automatic discrimination threshold (= 123), and 53 is a reading form. The second red plane binary image 54 obtained by binarizing the red plane of the image with the blur correction threshold value (= 159: 1.3 times the automatic determination threshold value) is the Y signal binary image 51 and the first red plane binary image 54. An AND composite image with the red plane binary image 52 (black pixel frequency = 11.823%), 55 is an AND composite image of the Y signal binary image 51 and the second red plane binary image 53 (black pixel frequency = 12.030%), 62 is a first green plane binary image obtained by binarizing the green plane of the reading form with the automatic discrimination threshold value (= 103), and 63 is a blurred green plane of the reading form. Two correction thresholds (= 133: 1.3 times the automatic discrimination threshold) The second green plane binary image turned into asking, 64, Y signal AND the composite image of the binary image 51 and the first green plane binary image 62 (black pixel frequency = 13.
653%) and 65 are AND composite images of the Y signal binary image 51 and the second green plane binary image 63 (black pixel frequency =
15.495%), 72 is the first blue plane binary image obtained by binarizing the blue plane of the reading form with its automatic discrimination threshold (= 111), and 73 is the blur correction of the blue plane of the reading form. Threshold (= 144: 1.3 of automatic discrimination threshold)
Second blue plane binary image obtained by binarization with
4 is an AND composite image of the Y signal binary image 51 and the first blue plane binary image 72 (black pixel frequency = 13.787).
, 75 is an AND composite image of the Y signal binary image 51 and the second blue plane binary image 73 (black pixel frequency = 16.%).
273%), respectively. The black level is set to the logical value "1".

【0038】図3〜図5の検出手法は、読取帳票の各プ
レーンの二値画像と、当該各プレーンのY信号二値画像
(輝度信号二値画像)とのAND合成画像それぞれにお
ける黒画素頻度の違いに着目したものである。これらの
AND合成画像は、合成前の各プレーンの二値画像のノ
イズ部分を除いたかたちの画像にもなっている。すなわ
ち、合成前のプレーン画像よりも解像度が高くなってい
る。
3 to 5, the black pixel frequency in each AND composite image of the binary image of each plane of the read form and the Y signal binary image (luminance signal binary image) of each plane. It focuses on the difference between. These AND combined images are also images in which the noise part of the binary image of each plane before combining is removed. That is, the resolution is higher than that of the plain image before composition.

【0039】ここで、赤プレーンのAND合成画像5
4,55は、読取帳票のドロップアウトカラー(赤系枠
17など)がほぼ消えて文字およびガイド情報のみから
なる二値画像である。
Here, AND composite image 5 of the red plane
Reference numerals 4 and 55 are binary images in which the dropout color (red frame 17 and the like) of the read form has almost disappeared and only the characters and guide information are included.

【0040】一方、緑プレーンのAND合成画像64,
65および青プレーンのAND合成画像74,75は、
読取帳票のドロップアウトカラー(赤系枠17など)も
含んだ形の画像となる。
On the other hand, the AND composite image 64 of the green plane,
The AND composite images 74 and 75 of 65 and the blue plane are
The image has a shape including the dropout color (red frame 17 and the like) of the read form.

【0041】なお、赤,青,緑の各プレーン二値画像に
おける黒画素の頻度は、図示のように、二値化の閾値を
高くすることにより大きくなる。これは、帳票に記され
た文字,赤枠などの細線部分やかすれ部分に相当する画
素の読取濃度が小さくて、低閾値による二値化の際に当
該画素が白レベルとして処理される、すなわち消えてし
まうからである。
The frequency of black pixels in each of the red, blue, and green plane binary images is increased by increasing the binarization threshold value as shown in the figure. This is because the read density of the pixels corresponding to the characters written on the form, the thin line portion such as the red frame or the blurred portion is small, and the pixel is processed as the white level when binarization by the low threshold, that is, Because it disappears.

【0042】各プレーンのAND合成画像54,55,
64,65,74,75における黒画素頻度は、 (1)図3の赤プレーンの場合、 ・11.823%(自動判別閾値:123) ・12.030%(かすれ補正用閾値:159=123
×1.3) (2)図4の緑プレーンの場合、 ・13.653%(自動判別閾値:103) ・15.495%(かすれ補正用閾値:133=103
×1.3) (3)図5の青プレーンの場合、 ・13.787%(自動判別閾値:111) ・16.273%(かすれ補正用閾値:144=111
×1.3) であった。なお、これらの数値は各プレーンの全体画像
(図示の1/4部分の画像のみではなく)における値で
ある。
AND composite images 54, 55 of each plane,
The black pixel frequencies at 64, 65, 74, and 75 are (1) in the case of the red plane of FIG. 3, 11.823% (automatic determination threshold: 123), 12.030% (blurring correction threshold: 159 = 123
× 1.3) (2) In the case of the green plane shown in FIG. 4, 13.653% (automatic determination threshold: 103), 15.495% (blurring correction threshold: 133 = 103)
× 1.3) (3) In the case of the blue plane of FIG. 5, ・ 13.787% (automatic determination threshold: 111) ・ 16.273% (blurring correction threshold: 144 = 111)
× 1.3). It should be noted that these numerical values are values in the entire image of each plane (not only the image of the ¼ portion shown in the drawing).

【0043】このような赤,緑,青の各プレーンの上記
AND合成画像における黒画素頻度を求めて比較するこ
とにより、当該頻度が最小のプレーン(図示の帳票の場
合は赤プレーン)をドロップアウトプレーンとして特定
できる。
By obtaining and comparing the black pixel frequencies in the AND composite image of the respective red, green, and blue planes, the plane with the lowest frequency (the red plane in the case of the illustrated form) is dropped out. It can be specified as a plane.

【0044】これら各プレーンのAND合成画像間の黒
画素頻度差に対応の画素数は、上述のA5サイズで全体
が1,557,790 画素の読取帳票において、 (1)赤プレーンと緑プレーンとの場合、 ・28,507画素(全体の1.83%:自動判別閾値
のとき) ・53,978画素(全体の3.465%:かすれ補正
用閾値のとき) (2)赤プレーンと青プレーンとの場合、 ・30,595画素(全体の1.964%:自動判別閾
値のとき) ・66,097画素(全体の4.243%:かすれ補正
用閾値のとき) (3)緑プレーンと青プレーンとの場合、 ・2,088画素(全体の0.134%:自動判別閾値
のとき) ・12,119画素(全体の0.778%:かすれ補正
用閾値のとき) となる。
The number of pixels corresponding to the black pixel frequency difference between the AND composite images of these planes is (1) in the case of the red plane and the green plane in the above A5 size read form with 1,557,790 pixels in total: 28,507 pixels (1.83% of the whole: at the automatic discrimination threshold) 53,978 pixels (3.465% of the whole: at the threshold for blur correction) (2) In the case of the red plane and the blue plane,・ 30,595 pixels (1.964% of the whole: when automatic discrimination threshold) ・ 66,097 pixels (4.243% of the whole: when threshold for blur correction) (3) In the case of green plane and blue plane , 2,088 pixels (0.134% of the whole: when the automatic determination threshold value), 12,119 pixels (0.778% of the whole, when the blur correction threshold value).

【0045】このように自動判別閾値よりも大きなかす
れ補正用閾値を用いることにより、赤プレーンのAND
合成画像とその他のAND合成画像との黒画素頻度差が
拡大される。そのためドロップアウトプレーンの選択処
理をより確実に行なうことができる。
By using the blur correction threshold value larger than the automatic discrimination threshold value in this way, the AND of the red plane is performed.
The black pixel frequency difference between the composite image and other AND composite images is enlarged. Therefore, the dropout plane selection process can be performed more reliably.

【0046】なお、AND合成画像の黒画素頻度差では
なく、各プレーン画像自体の黒画素頻度差に基づきドロ
ップアウトプレーンを特定してもよい。
The dropout plane may be specified based on the black pixel frequency difference of each plane image itself instead of the black pixel frequency difference of the AND combined image.

【0047】図6は、図3〜図5の検出手法に対応した
全体構成を示す説明図である。
FIG. 6 is an explanatory diagram showing the overall structure corresponding to the detection method of FIGS.

【0048】図6において、21〜38は、図2におけ
る該当番号と同一内容の構成要素,81〜83は、R画
像26,G画像27およびB画像28のそれぞれを自動
判別閾値法処理部36〜38の出力値で二値化処理する
二値化部,84〜86は、メモリやワーク領域(図示省
略)に保持したR二値画像,G二値画像およびB二値画
像,87は、Y信号二値画像32と、R二値画像84,
G二値画像85およびB二値画像86のそれぞれとのA
ND演算を実行するAND演算合成部,88〜90は、
メモリやワーク領域(図示省略)に保持したYR合成二
値画像,YG合成二値画像およびYB合成二値画像,9
1は、これらの各合成二値画像のヒストグラムにおける
黒画素頻度を求め、当該黒画素頻度に基づき単一のドロ
ップアウトカラー種別を特定できるかどうかを判断する
(図14のステップ(s12) 参照)黒画素頻度算出・判定
部,92は、黒画素頻度算出・判定部91で特定された
プレーン画像(図示の場合は赤プレーン画像)を選択し
て出力するプレーン画像選択・出力部,93は、構成要
素81〜91からなる統合ブロック,をそれぞれ示して
いる。
In FIG. 6, 21 to 38 are constituent elements having the same contents as the corresponding numbers in FIG. 2, and 81 to 83 are automatic discrimination threshold method processing section 36 for the R image 26, G image 27 and B image 28, respectively. The binarization unit for performing binarization processing with the output values of ~ 38, 84 to 86 are R binary images, G binary images and B binary images held in a memory or a work area (not shown), and 87 are Y signal binary image 32, R binary image 84,
A with each of the G binary image 85 and the B binary image 86
AND operation synthesis section for executing ND operation, 88 to 90,
YR composite binary image, YG composite binary image and YB composite binary image stored in a memory or a work area (not shown), 9
1 determines the black pixel frequency in the histogram of each of these composite binary images, and determines whether or not a single dropout color type can be specified based on the black pixel frequency (see step (s12) in FIG. 14). The black pixel frequency calculation / determination unit 92 selects a plane image (red plane image in the case shown) specified by the black pixel frequency calculation / determination unit 91 and outputs the selected plane image. An integrated block composed of components 81 to 91 is shown.

【0049】図7〜図9は、ドロップアウトプレーン検
出手法の概要(その3)を示す説明図である。図7はR
プレーンの場合、図8はGプレーンの場合、図9はBプ
レーンの場合をそれぞれ示している。
FIGS. 7 to 9 are explanatory views showing an outline (part 3) of the dropout plane detection method. Figure 7 is R
In the case of the plane, FIG. 8 shows the case of the G plane, and FIG. 9 shows the case of the B plane.

【0050】図7〜図9において、17および51は、
図3〜図5における該当番号と同一内容の構成要素,5
2′は、読取帳票の赤プレーンを、その自動判別閾値
(=123)を用いる局所的二値化法(図17〜図19
参照)で二値化して求めた第1の赤プレーン二値画像,
53′は、読取帳票の赤プレーンを、そのかすれ補正用
閾値(=159)を用いる上記局所的二値化法で二値化
して求めた第2の赤プレーン二値画像,56は、Y信号
二値画像51と第1の赤プレーン二値画像52′とのX
OR合成画像(黒画素頻度=5.943%),57は、
Y信号二値画像51と第2の赤プレーン二値画像53′
とのXOR合成画像(黒画素頻度=6.014%),6
2′は、読取帳票の緑プレーンを、その自動判別閾値
(=103)を用いる上記局所的二値化法で二値化して
求めた第1の緑プレーン二値画像,63′は、読取帳票
の緑プレーンを、そのかすれ補正用閾値(=133)を
用いる上記局所的二値化法で二値化して求めた第2の緑
プレーン二値画像,66は、Y信号二値画像51と第1
の緑プレーン二値画像62′とのXOR合成画像(黒画
素頻度=4.424%),67は、Y信号二値画像51
と第2の緑プレーン二値画像63′とのXOR合成画像
(黒画素頻度=3.577%),72′は、読取帳票の
青プレーンを、その自動判別閾値(=111)を用いる
上記局所的二値化法で二値化して求めた第1の青プレー
ン二値画像,73′は、読取帳票の青プレーンを、その
かすれ補正用閾値(=144)を用いる上記局所的二値
化法で二値化して求めた第2の青プレーン二値画像,7
6は、Y信号二値画像51と第1の青プレーン二値画像
72′とのXOR合成画像(黒画素頻度=4.404
%),77は、Y信号二値画像51と第2の青プレーン
二値画像73′とのXOR合成画像(黒画素頻度=4.
219%),をそれぞれ示している。なお、黒レベルを
論理値「1」としている。
In FIGS. 7 to 9, 17 and 51 are
Components having the same contents as the corresponding numbers in FIGS. 3 to 5, 5
2 ′ is a local binarization method (FIGS. 17 to 19) for the red plane of the read form using the automatic discrimination threshold (= 123).
The first red plane binary image obtained by binarizing
53 ′ is a second red plane binary image obtained by binarizing the red plane of the read form by the local binarization method using the blur correction threshold value (= 159), and 56 is the Y signal X of the binary image 51 and the first red plane binary image 52 '
The OR composite image (black pixel frequency = 5.943%), 57 is
Y signal binary image 51 and second red plane binary image 53 '
XOR composite image with (black pixel frequency = 6.014%), 6
Reference numeral 2'denotes a first green plane binary image obtained by binarizing the green plane of the reading form by the local binarization method using the automatic discrimination threshold (= 103), and 63 'indicates the reading form. The second green plane binary image 66 obtained by binarizing the green plane of No. 2 by the local binarization method using the blur correction threshold value (= 133) is the Y signal binary image 51 and the second green plane binary image 66. 1
XOR composite image (black pixel frequency = 4.424%) with the green plane binary image 62 ′ of No.
XOR composite image (black pixel frequency = 3.577%) of the second green plane binary image 63 ′ and the second green plane binary image 63 ′ is the local plane using the automatic discrimination threshold (= 111) for the blue plane of the read form. The first blue plane binary image 73 ′ obtained by binarization by the dynamic binarization method is the local binarization method using the blur plane correction threshold (= 144) of the blue plane of the read form. Second blue plane binary image obtained by binarizing with,
6 is an XOR composite image of the Y signal binary image 51 and the first blue plane binary image 72 '(black pixel frequency = 4.404).
, 77 is an XOR composite image of the Y signal binary image 51 and the second blue plane binary image 73 '(black pixel frequency = 4.%).
219%), respectively. The black level is set to the logical value "1".

【0051】図7〜図9の検出手法は、読取帳票の各プ
レーンの二値画像と、当該各プレーン画像から求めたY
信号二値画像(輝度信号画像)とのXOR合成画像間に
おける黒画素頻度の違いに着目したものである。
The detection method of FIGS. 7 to 9 is the binary image of each plane of the read form and the Y obtained from each plane image.
It focuses on the difference in black pixel frequency between the signal binary image (luminance signal image) and the XOR combined image.

【0052】XOR合成画像56,57,66,67,
76,77の黒画素頻度は、図3〜図5のAND合成画
像におけるそれぞれとはいわば逆の関係になっている。
XOR composite images 56, 57, 66, 67,
The black pixel frequencies of 76 and 77 are in a so-called inverse relationship to the respective ones in the AND combined images of FIGS.

【0053】すなわち、これらXOR合成画像の場合、
Y信号二値画像の黒画素であって、赤,青,緑の各プレ
ーン二値画像の白画素部分(二値化処理により消えた画
素部分)が黒画素に反転し、一方、当該プレーン二値画
像の黒画素部分(二値化処理により消えなかった画素部
分)が白画素に反転する。
That is, in the case of these XOR composite images,
Of the black pixels of the Y signal binary image, the white pixel portions (pixel portions that have disappeared by the binarization process) of the red, blue, and green plane binary images are inverted to black pixels, while The black pixel portion (pixel portion that has not disappeared due to the binarization process) of the value image is inverted to the white pixel.

【0054】そのため、各プレーンのXOR合成画像の
黒画素頻度は、プレーン画像の二値化処理によって消え
る(白となる)部分が他のプレーンよりも多い赤プレー
ンにおいて最大となる。
Therefore, the black pixel frequency of the XOR composite image of each plane becomes maximum in the red plane in which the part that disappears (becomes white) by the binarization processing of the plane image is larger than the other planes.

【0055】各プレーンのXOR合成画像56,57,
66,67,76,77における黒画素頻度は、 (1)図7の赤プレーンの場合、 ・5.943%(自動判別閾値:123) ・6.014%(かすれ補正用閾値:159=123×
1.3) (2)図8の緑プレーンの場合、 ・4.424%(自動判別閾値:103) ・3.577%(かすれ補正用閾値:133=103×
1.3) (2)図9の青プレーンの場合、 ・4.404%(自動判別閾値:111) ・4.219%(かすれ補正用閾値:144=111×
1.3) であった。なお、これらの数値は各プレーンの全体画像
(図示の1/4部分の画像のみではなく)における値で
ある。
XOR composite images 56, 57 of each plane,
The black pixel frequencies at 66, 67, 76, and 77 are (1) in the case of the red plane of FIG. 7: 5.943% (automatic determination threshold: 123) 6.014% (blurring correction threshold: 159 = 123 ×
1.3) (2) In the case of the green plane of FIG. 8, -4.424% (automatic determination threshold value: 103) -3.577% (blurring correction threshold value: 133 = 103x)
1.3) (2) In the case of the blue plane in FIG. 9, 4.404% (automatic determination threshold: 111), 4.219% (blurring correction threshold: 144 = 111 ×)
It was 1.3). It should be noted that these numerical values are values in the entire image of each plane (not only the image of the ¼ portion shown in the drawing).

【0056】このような赤,青,緑の各プレーンの上記
XOR画像における黒画素頻度を求めて比較することに
より、当該頻度が最小のプレーン(図示の帳票の場合は
赤プレーン)をドロップアウトプレーンとして特定でき
る。
By obtaining and comparing the black pixel frequencies in the above XOR images of the respective red, blue, and green planes, the plane with the lowest frequency (the red plane in the case of the illustrated form) is the dropout plane. Can be specified as

【0057】なお、これら各プレーンのXOR合成画像
間の黒画素頻度差に対応の画素数は、上述のようにA5
サイズで全画素数が1,557,790 画素の読取帳票におい
て、 (1)赤プレーンと緑プレーンとの場合、 ・23,662画素(全体の1.519%:自動判別閾
値のとき) ・37,963画素(全体の2.437%:かすれ補正
用閾値のとき) (2)赤プレーンと青プレーンとの場合、 ・23,974画素(全体の1.539%:自動判別閾
値のとき) ・27,962画素(全体の1.795%:かすれ補正
用閾値のとき) (3)緑プレーンと青プレーンとの場合、 ・311画素(全体の0.02%:自動判別閾値のと
き) ・10,001画素(全体の0.642%:かすれ補正
用閾値のとき) となる。
The number of pixels corresponding to the black pixel frequency difference between the XOR composite images of each of the planes is A5 as described above.
In the reading form with the total number of pixels of 1,557,790 pixels in size, (1) In the case of the red plane and the green plane, 23,662 pixels (1.519% of the total: when the automatic discrimination threshold value), 37,963 pixels ( 2.437% of the whole: at the blur correction threshold) (2) In the case of the red plane and the blue plane: 23,974 pixels (1.539% of the whole: at the automatic discrimination threshold), 27,962 pixels (1.795% of the whole: when the threshold value for blur correction) (3) In the case of the green plane and the blue plane: 311 pixels (0.02% of the whole: when the automatic discrimination threshold value); 10,001 pixels ( 0.642% of the whole: when it is a threshold value for blur correction).

【0058】図10は、図7〜図9の検出手法に対応し
た全体構成を示す説明図である。
FIG. 10 is an explanatory diagram showing the overall structure corresponding to the detection method of FIGS.

【0059】図10において、21〜38は、図2およ
び図6における該当番号と同一内容の構成要素,101
〜103は、R画像26,G画像27およびB画像28
のそれぞれを局所的二値化法(図17〜図19参照)に
より二値化して各プレーン二値画像を作成する局所的二
値化部,104〜106は、メモリやワーク領域(図示
省略)に保持したR二値画像,G二値画像およびB二値
画像,107は、Y信号二値画像32と、R二値画像1
04,G二値画像105およびB二値画像106のそれ
ぞれとのXOR演算を実行するXOR演算合成部,10
8〜110は、メモリやワーク領域(図示省略)に保持
したYR合成二値画像,YG合成二値画像およびYB合
成二値画像,111は、これらの各合成二値画像のヒス
トグラムにおける黒画素頻度を求め、当該黒画素頻度に
基づき単一のドロップアウトカラー種別を特定できるか
どうかを判断する(図14のステップ(s13) 参照)黒画
素頻度算出・判定部,112は、黒画素頻度算出・判定
部111で特定されたプレーン画像(図示の場合は赤プ
レーン画像)を選択して出力するプレーン画像選択・出
力部,113は、構成要素101〜111からなる統合
ブロック,をそれぞれ示している。
In FIG. 10, 21 to 38 are constituent elements having the same contents as the corresponding numbers in FIGS. 2 and 6, and 101.
Nos. 103 to R images 26, G images 27 and B images 28
The local binarization units 104 to 106 that binarize each of the above by the local binarization method (see FIGS. 17 to 19) to create each plane binary image, 104 to 106 are memory and work areas (not shown). The R binary image, the G binary image, and the B binary image 107 held in the table are the Y signal binary image 32 and the R binary image 1
04, an XOR operation synthesizing unit for executing an XOR operation with each of the G binary image 105 and the B binary image 106, 10
8 to 110 are YR composite binary images, YG composite binary images and YB composite binary images held in a memory or a work area (not shown), and 111 is a black pixel frequency in the histogram of each of these composite binary images. And determines whether a single dropout color type can be identified based on the black pixel frequency (see step (s13) in FIG. 14). The black pixel frequency calculation / determination unit 112 calculates the black pixel frequency. A plain image selection / output unit that selects and outputs a plain image (a red plane image in the case shown) identified by the determination unit 111 and an integrated block 113 that includes components 101 to 111, respectively.

【0060】なお、局所的二値化部101〜103は図
19の局所的二値化対象範囲の調整機能を備えたもので
ある。
The local binarization units 101 to 103 have a function of adjusting the local binarization target range shown in FIG.

【0061】図11は、青系および赤系のドロップアウ
トカラーを持つ帳票例を示す説明図であり、121は、
青系ドロップアウトカラーの印鑑枠,122は、赤系ド
ロップアウトカラーの記入文字枠,をそれぞれ示してい
る。
FIG. 11 is an explanatory view showing an example of a form having blue and red dropout colors, and 121 is
A blue-based dropout color stamp frame and 122 represent a red-based dropout color entry character frame, respectively.

【0062】図12は、図11の帳票に対する合成画像
の出力手法を示す説明図である。
FIG. 12 is an explanatory diagram showing a method of outputting a composite image for the form shown in FIG.

【0063】図12において、131は、読取帳票のY
信号画像を局所的二値化法により二値化して生成したY
信号二値画像,132は、読取帳票の赤プレーン画像を
自動判別閾値で二値化して生成したRプレーン二値画
像,133は、Y信号二値画像131とRプレーン二値
画像132とのAND演算合成により生成したYR合成
二値画像,134は、読取帳票の青プレーン画像を自動
判別閾値で二値化して生成したBプレーン二値画像,1
35は、YR合成二値画像133とBプレーン二値画像
134とのAND演算合成により生成したYRB合成二
値画像,をそれぞれ示している。なお、黒レベルが論理
値「1」である。
In FIG. 12, 131 is Y of the read form.
Y generated by binarizing the signal image by the local binarization method
A signal binary image 132 is an R plane binary image generated by binarizing the red plane image of the reading form with an automatic discrimination threshold, and 133 is an AND of the Y signal binary image 131 and the R plane binary image 132. The YR composite binary image, 134 generated by arithmetic composition is a B plane binary image, 1 generated by binarizing the blue plane image of the reading form with an automatic discrimination threshold.
Reference numeral 35 indicates a YRB composite binary image generated by AND operation composition of the YR composite binary image 133 and the B plane binary image 134, respectively. The black level has a logical value of "1".

【0064】ここで、 ・YR合成二値画像133からは、赤系ドロップアウト
カラー(記入文字枠122)が消え、 ・YRB合成二値画像135からは、赤系ドロップアウ
トカラーに加えて青系ドロップアウトカラー(印鑑枠1
21)も消える。
Here, the red dropout color (entry character frame 122) disappears from the YR composite binary image 133, and the blue series in addition to the red dropout color from the YRB composite binary image 135. Dropout color (seal frame 1
21) also disappears.

【0065】なお、YRB合成二値画像135とGプレ
ーン二値画像(図示省略)とのAND演算合成も実行す
るが、図示の読取帳票の場合には、当該Gカラー部分を
積極的に含んでいないため、この合成処理による画像の
変化は特にない。
The YRB composite binary image 135 and the G plane binary image (not shown) are also combined by AND operation, but in the case of the read form shown, the G color portion is positively included. Since it does not exist, there is no particular change in the image due to this combining process.

【0066】図13は、図12の出力手法に対応した全
体構成を示す説明図である。
FIG. 13 is an explanatory diagram showing the overall structure corresponding to the output method of FIG.

【0067】図13において、21〜32,39,4
4,91,93,111および113は、図2,図6お
よび図10における該当番号と同一内容の構成要素,1
41は、例えば統合ブロック113におけるR二値画像
104,G二値画像105,B二値画像106を一つず
つ順に(順番は任意)選択するRGB二値画像選択部,
142は、Y信号二値画像32と、RGB二値画像選択
部141で選択された例えばR二値画像104とのAN
D演算を実行するAND演算合成部,143は、メモリ
やワーク領域(図示省略)に保持したYR合成二値画
像,144は、YR合成二値画像143と、RGB二値
画像選択部141で選択された例えばG二値画像105
とのAND演算をするAND演算合成部,145は、メ
モリやワーク領域(図示省略)に保持したYRG合成二
値画像,146は、YRG合成二値画像145と、RG
B二値画像選択部141で選択された例えばB二値画像
106とのAND演算をするAND演算合成部,147
は、メモリやワーク領域(図示省略)に保持したYRG
B合成二値画像,148は、YRGB合成二値画像14
7を出力する合成二値画像出力部,をそれぞれ示してい
る。
In FIG. 13, 21-32, 39, 4
4, 91, 93, 111 and 113 are components having the same contents as the corresponding numbers in FIG. 2, FIG. 6 and FIG.
Reference numeral 41 denotes an RGB binary image selection unit that sequentially selects the R binary image 104, the G binary image 105, and the B binary image 106 in the integrated block 113 one by one (the order is arbitrary),
142 is an AN of the Y signal binary image 32 and, for example, the R binary image 104 selected by the RGB binary image selection unit 141.
An AND operation synthesis unit that executes D operation, 143 is a YR synthesis binary image held in a memory or a work area (not shown), and 144 is selected by the YR synthesis binary image 143 and the RGB binary image selection unit 141. For example, the G binary image 105
An AND operation combining unit 145 performs an AND operation with the YRG composite binary image 145 held in a memory or a work area (not shown), and a reference numeral 146 represents the YRG composite binary image 145 and RG.
For example, an AND operation combining unit 147 that performs an AND operation with the B binary image 106 selected by the B binary image selecting unit 141.
Is the YRG stored in the memory or work area (not shown).
B composite binary image, 148 is a YRGB composite binary image 14
7 shows a composite binary image output unit that outputs 7 respectively.

【0068】図14は、図13の全体構成に対応した処
理手順を示す説明図であり、その内容は次のようになっ
ている。 (s1) 対象帳票を2次元カラーCCDで読み取って、次
のステップに進む。 (s2) この読取帳票をRGBの各プレーンに分割して、
次のステップに進む。 (s3) この各プレーン画像に基づき読取帳票のY信号二
値画像を生成して、次のステップに進む。 (s4) 先のRGBの各プレーン画像のヒストグラム演算
を実行して、次のステップに進む。 (s5) この各プレーンヒストグラムにおける自動閾値
(Th1〜Th3)をそれぞれ算出して(図16参
照)、次のステップに進む。なお、算出した各自動閾値
自体とTh1〜Th3とを、Th1≧Th2≧Th3の
形で対応させる。 (s6) この各自動閾値において、 ・Th1−Th2≧30 ・Th2−Th3≦10 の条件をともに満たすかどうか判断して、「満たす」場
合は次のステップに進み、「満たさない」場合はステッ
プ(s9) に進む。このときの判断主体はプレーン画像判
定・選択部39である。 (s7) 自動閾値Th1に対応のプレーン画像(図1の帳
票の場合は赤プレーン)の二値化を実行して、次のステ
ップに進む。 (s8) このプレーン二値画像と先のY信号二値画像との
AND演算合成を実行して、ステップ(s20) に進む。 (s9) RGBの各プレーン画像を二値化して、次のステ
ップに進む。 (s10) この各プレーン二値画像と先のY信号二値画像と
のAND演算合成を実行して、次のステップに進む。 (s11) この各合成画像における黒画素頻度(Bf1〜B
f3)をそれぞれ算出して、次のステップに進む。な
お、算出した各黒画素頻度自体とBf1〜Bf3とを、
Bf1≦Bf2≦Bf3の形で対応させる。黒画素頻度
は、合成画像の全体画素数に対する黒画素数の割合とし
て求める。 (s12) この各黒画素頻度において、 ・Bf2−Bf1≧1.5% ・Bf3−Bf2≦0.2% の条件をともに満たすかどうか判断して、「満たす」場
合はステップ(s19) に進み、「満たさない」場合は次の
ステップに進む。このときの判断主体は黒画素頻度算出
・判定部91である。 (s13) 先の各プレーン二値画像とY信号二値画像とのX
OR演算合成を実行して、次のステップに進む。 (s14) この各合成画像における黒画素頻度(Bf4〜B
f6)をそれぞれ算出して、次のステップに進む。な
お、算出した各黒画素頻度自体とBf4〜Bf6とを、
Bf4≧Bf5≧Bf6の形で対応させる。 (s15) この各黒画素頻度において、 ・Bf4−Bf5≧1.0% ・Bf5−Bf6≦0.1% の条件をともに満たすかどうか判断して、「満たす」場
合はステップ(s19) に進み、「満たさない」場合は次の
ステップに進む。このときの判断主体は黒画素頻度算出
・判定部111である。 (s16) 先のY信号二値画像とRプレーン二値画像とのA
ND演算合成を実行して、次のステップに進む。 (s17) このYR合成二値画像と先のGプレーン二値画像
とのAND演算合成を実行して、次のステップに進む。 (s18) このYRG合成二値画像と先のBプレーン二値画
像とのAND演算合成を実行して、ステップ(s20) に進
む。 (s19) 黒画素頻度Bf1またはBf4に対応した画像を
選択して、次のステップに進む。なお、Bf1の対応画
像は合成二値画像(図3の帳票の場合はYR合成二値画
像)であり、Bf4の対応画像はプレーン二値画像(図
7の帳票の場合は赤プレーン二値画像)である。 (s20) ステップ(s18) の合成画像や、ステップ(s19) の
選択画像を表示画面(図示省略)などに出力する。
FIG. 14 is an explanatory diagram showing a processing procedure corresponding to the overall configuration of FIG. 13, and the contents thereof are as follows. (s1) The target form is read by the two-dimensional color CCD and the process proceeds to the next step. (s2) Divide this read form into RGB planes,
Go to the next step. (s3) A Y signal binary image of the read form is generated based on each of the plane images, and the process proceeds to the next step. (s4) The histogram calculation of each RGB plane image is executed, and the process proceeds to the next step. (s5) The automatic thresholds (Th1 to Th3) in each of the plane histograms are calculated (see FIG. 16), and the process proceeds to the next step. The calculated automatic threshold values themselves and Th1 to Th3 are associated with each other in the form of Th1 ≧ Th2 ≧ Th3. (s6) In each of the automatic thresholds, it is determined whether or not the conditions of Th1-Th2 ≧ 30 and Th2-Th3 ≦ 10 are both satisfied. If “satisfies”, proceed to the next step, and if not, step Proceed to (s9). The determination subject at this time is the plain image determination / selection unit 39. (s7) The plane image (red plane in the case of the form in FIG. 1) corresponding to the automatic threshold Th1 is binarized, and the process proceeds to the next step. (s8) The AND binary combination of this plane binary image and the previous Y signal binary image is executed, and the process proceeds to step (s20). (s9) Each RGB plane image is binarized, and the process proceeds to the next step. (s10) This AND binary combination of each plane binary image and the previous Y signal binary image is executed, and the process proceeds to the next step. (s11) Black pixel frequency (Bf1 to Bf) in each composite image
f3) is calculated, and the process proceeds to the next step. The calculated black pixel frequency itself and Bf1 to Bf3 are
It corresponds in the form of Bf1 ≦ Bf2 ≦ Bf3. The black pixel frequency is calculated as the ratio of the number of black pixels to the total number of pixels of the composite image. (s12) At each black pixel frequency, it is judged whether or not the conditions of Bf2-Bf1 ≧ 1.5% and Bf3-Bf2 ≦ 0.2% are both satisfied. If “satisfies”, the process proceeds to step (s19). , If not satisfied, go to the next step. The determination subject at this time is the black pixel frequency calculation / determination unit 91. (s13) X of the previous plane binary image and Y signal binary image
The OR operation composition is executed, and the process proceeds to the next step. (s14) Black pixel frequency (Bf4 to Bf) in each composite image
f6) is calculated and the process proceeds to the next step. The calculated black pixel frequency itself and Bf4 to Bf6 are
Correspond in the form of Bf4 ≧ Bf5 ≧ Bf6. (s15) At each black pixel frequency, it is judged whether or not the conditions of Bf4-Bf5 ≧ 1.0% and Bf5-Bf6 ≦ 0.1% are both satisfied, and if “satisfies”, proceed to step (s19). , If not satisfied, go to the next step. The determination subject at this time is the black pixel frequency calculation / determination unit 111. (s16) A of the Y signal binary image and the R plane binary image
ND arithmetic synthesis is executed and the process proceeds to the next step. (s17) This YR composite binary image and the preceding G plane binary image are ANDed and composited to proceed to the next step. (s18) This YRG composite binary image and the previous B plane binary image are ANDed and composited, and the process proceeds to step (s20). (s19) An image corresponding to the black pixel frequency Bf1 or Bf4 is selected, and the process proceeds to the next step. The corresponding image of Bf1 is a synthetic binary image (YR synthetic binary image in the case of the form of FIG. 3), and the corresponding image of Bf4 is a plain binary image (a red plane binary image in the case of the form of FIG. 7). ). (s20) The composite image of step (s18) and the selected image of step (s19) are output to a display screen (not shown) or the like.

【0069】図13および図14において、統合ブロッ
ク44,93,113それぞれのブロック処理をすべて
実行しなくてもよく、当該統合ブロックの任意の一つま
たは二つの処理のみでもよい。また、統合ブロック4
4,93,113それぞれの処理の実行順序も任意であ
る。例えば、統合ブロック93−113−44の順番で
もよい。
In FIG. 13 and FIG. 14, all the block processes of the integrated blocks 44, 93 and 113 may not be executed, and only one or two processes of the integrated block may be performed. In addition, integrated block 4
The execution order of the processes of 4, 93, and 113 is also arbitrary. For example, the order of the integrated blocks 93-113-44 may be used.

【0070】なお、このような処理態様の変更に応じて
統合ブロックの構成要素が変化することは勿論である。
例えば、統合ブロック44を省略する場合には、統合ブ
ロック93の構成要素としてヒストグラム演算部33〜
35および自動判別閾値法処理部36〜38が加わる。
It is needless to say that the constituent elements of the integrated block change according to such a change in the processing mode.
For example, when the integrated block 44 is omitted, the histogram calculation units 33 to 33 are included as constituent elements of the integrated block 93.
35 and automatic discrimination threshold method processing units 36 to 38 are added.

【0071】以上の帳票画像処理において、 ・Y信号二値画像は主に局所的二値化法により生成し、 ・赤,青,緑の各プレーン二値画像は自動判別閾値法や
局所的二値化法により生成する。
In the above form image processing, the Y signal binary image is mainly generated by the local binarization method, and the red, blue, and green plane binary images are automatically discriminated by the threshold value method and the local binary method. It is generated by the binarization method.

【0072】図15は、CCDおよび画素ずらし方式の
概要を示す説明図であり、(a)はCCDの光電変換素
子の配置態様を示し、(b)は撮像画素のずらしかたを
示している。
FIG. 15 is an explanatory view showing the outline of the CCD and pixel shift system. FIG. 15A shows the arrangement of the photoelectric conversion elements of the CCD, and FIG. 15B shows the shift of the image pickup pixels.

【0073】CCDの1画素分の光電変換部は、図示の
ように、1個の赤色変換用素子R,1個の青色変換用素
子Bおよび2個の緑色変換用素子Gからなっている。
As shown in the figure, the photoelectric conversion portion for one pixel of the CCD comprises one red conversion element R, one blue conversion element B and two green conversion elements G.

【0074】40万個の光電変換部(RGGBの4素
子)を所定間隔(2個の○部分)で配したCCDで帳票
を読み取るとき、先ず1回目の撮像により(1)部分の
画素信号が求まる。
When a form is read by a CCD in which 400,000 photoelectric conversion units (4 elements of RGGB) are arranged at a predetermined interval (two circles), the pixel signal of the (1) part is first detected by the first image pickup. I want it.

【0075】以下、CCDまたは帳票を図示の左右方向
および下方向に8回ずらして(2)〜(9)の各部分の
画素信号を順に取得する。
Thereafter, the CCD or the form is shifted eight times in the horizontal direction and the downward direction in the drawing to sequentially obtain the pixel signals of the respective portions (2) to (9).

【0076】この計9回の撮像で個々に求めた個別画素
信号を合成することにより、360万画素(=40万×
9)の画像信号が求まる。
By combining the individual pixel signals individually obtained by these nine imagings, 3.6 million pixels (= 400,000 ×)
The image signal of 9) is obtained.

【0077】図16は、多値プレーン画像(0〜255
階調)などの自動判別閾値を求める処理手順を示す説明
図であり、その内容は次のようになっている。 (s31) 各階調の濃度レベルi(0≦i≦255)におけ
る正規化ヒストグラム値piを「pi=ni/N」によ
り算出する。なお、niは濃度レベルiの画素数,Nは
帳票全体の読取画素数である。 (s32) この正規化されたヒストグラムの平均濃度レベル
μtを図示の式により算出する。 (s33) 階調0から階調k(0≦k≦255)までの、p
iの累積値ω(k)および「i*pi」の累積値m
(k)を、それぞれ図示の式により階調ごとに算出す
る。 (s34) この累積値ω(k),m(k)および平均濃度レ
ベルμtを用いて各階調k(0≦k≦255)に対応し
た分散値σ(k)を図示の式により算出する。 (s35) この分散値σ(k)が最大となる階調kを多値プ
レーン画像の2値化用閾値として設定する。
FIG. 16 shows a multivalued plane image (0 to 255).
It is explanatory drawing which shows the process sequence which calculates | requires automatic discrimination thresholds, such as a gradation, and the content is as follows. (s31) The normalized histogram value pi at the density level i (0 ≦ i ≦ 255) of each gradation is calculated by “pi = ni / N”. Note that ni is the number of pixels of the density level i, and N is the number of read pixels of the entire form. (s32) The average density level μt of this normalized histogram is calculated by the equation shown. (s33) p from gradation 0 to gradation k (0 ≦ k ≦ 255)
Cumulative value ω (k) of i and cumulative value m of “i * pi”
(K) is calculated for each gradation according to the illustrated formula. (s34) Using the cumulative values ω (k), m (k) and the average density level μt, the variance value σ (k) corresponding to each gradation k (0 ≦ k ≦ 255) is calculated by the formula shown. (s35) The gradation k at which the variance value σ (k) is maximum is set as the binarization threshold value of the multi-valued plane image.

【0078】図17は、局所的二値化法の概要を示す説
明図である。
FIG. 17 is an explanatory view showing the outline of the local binarization method.

【0079】図17において、151は、局所的二値化
処理の対象画素,152は、対象画素に対する7×7画
素の矩形フィルタ,153は、矩形フィルタ内の文字部
ストローク画素,154は、矩形フィルタ内の背景画
素,σminは、矩形フィルタ内の背景分離用閾値(例
えば100),Eは、矩形フィルタ内の各画素の濃度平
均値,E2は、矩形フィルタ内の各画素の濃度二乗平均
値,g2は、濃度平均値Eおよび濃度二乗平均値E2を
用いた図示の式により求まる、矩形フィルタ内の濃度分
散値,Sは、濃度平均値Eおよび濃度分散値g2を用い
た図示の式により求まる、対象画素151の二値化用閾
値,をそれぞれ示している。
In FIG. 17, reference numeral 151 is a target pixel of the local binarization processing, 152 is a 7 × 7 pixel rectangular filter for the target pixel, 153 is a character portion stroke pixel in the rectangular filter, and 154 is a rectangle. Background pixel in the filter, σmin is a threshold value for background separation in the rectangular filter (for example, 100), E is a density average value of each pixel in the rectangular filter, and E2 is a density mean square value of each pixel in the rectangular filter. , G2 are obtained by the equation shown using the density average value E and the density mean square E2, and S is the density dispersion value in the rectangular filter, and S is obtained by the equation shown using the density average value E and the density dispersion value g2. The binarization threshold value of the target pixel 151, which is obtained, is shown.

【0080】なお、二値化用閾値Sを用いるのは、矩形
フィルタ152が背景部分ではないと判断されたとき、
すなわちg2>σminが成立するときである。
The threshold value S for binarization is used when the rectangular filter 152 is judged not to be in the background portion.
That is, when g2> σmin holds.

【0081】局所的二値化法では、二値化の対象画素に
対してそれを含む形の矩形フィルタ152を設定して、
その中の画素全体の濃度分散値g2を求めた上でそれと
背景分離用閾値g2との大小関係を調べることにより、
当該矩形フィルタが背景部分,情報部分のいずれに相当
するかを判定している。
In the local binarization method, a rectangular filter 152 including the target pixel for binarization is set,
By obtaining the density dispersion value g2 of all the pixels in it and examining the magnitude relationship between it and the background separation threshold g2,
It is determined whether the rectangular filter corresponds to the background portion or the information portion.

【0082】背景部分と判定した場合には、濃度分散値
g2の大小に基づいて(対象画素の濃度を直接用いるこ
となしに)対象画素151の「白」,「黒」を特定す
る。
When it is determined to be the background portion, "white" and "black" of the target pixel 151 are specified based on the magnitude of the density dispersion value g2 (without directly using the density of the target pixel).

【0083】一方、情報部分と判定した場合には、対象
画素151の濃度レベルの大小に基づいてその「白」,
「黒」を特定する。
On the other hand, when it is determined that the information part is “white”, it is determined based on the density level of the target pixel 151.
Identify "black".

【0084】図18は、局所的二値化法の処理手順を示
す説明図であり、その内容は次のようになっている。 (s41) 矩形フィルタ152の濃度平均値Eを求める。 (s42) 矩形フィルタ152の濃度2乗平均値E2を求め
る。 (s43) 矩形フィルタ152の濃度分散値g2(=E2−
E*E)を算出する。 (s44) 「背景分離用閾値σmin<濃度分散値g2」の
場合には矩形フィルタ152を背景部分と判定して次の
ステップに進み、当該大小関係が成立しない場合には矩
形フィルタ152を非背景部分と判定してステップ(s4
7) に進む。なお、σminは初期設定値(値は任意)
であり、ここでは「100」としている。 (s45) 二値化用閾値S(=E+(g2)1/2 *0.1 )を
算出する。この乗算係数を小さくすることにより文字周
辺画素のノイズを抑制できる。 (s46) 「二値化用閾値S<対象画素151の濃度」の場
合にはステップ(s48) に進み、当該大小関係が成立しな
い場合にはステップ(s49) に進む。 (s47) 「基準値<濃度平均値E」の場合には次のステッ
プに進み、当該大小関係が成立しない場合にはステップ
(s49) に進む。なお、基準値として何を用いるかは任意
であり、例えば対象画像の自動判別閾値を当該基準値に
用いてもよい。 (s48) 対象画素151を「白」と判定する。 (s49) 対象画素151を「黒」と判定する。
FIG. 18 is an explanatory diagram showing the processing procedure of the local binarization method, and the contents thereof are as follows. (s41) The density average value E of the rectangular filter 152 is calculated. (s42) The density mean square value E2 of the rectangular filter 152 is calculated. (s43) Density dispersion value g2 of the rectangular filter 152 (= E2-
E * E) is calculated. (s44) When “the threshold for background separation σmin <density dispersion value g2”, the rectangular filter 152 is determined to be the background portion and the process proceeds to the next step. When the magnitude relation is not established, the rectangular filter 152 is set to the non-background. Step (s4
Proceed to 7). Σmin is an initial setting value (value is arbitrary)
And is set to “100” here. (s45) The threshold value for binarization S (= E + (g2) 1/2 * 0.1) is calculated. By reducing the multiplication coefficient, it is possible to suppress noise in the pixels around the character. (s46) If "binarization threshold value S <density of target pixel 151", proceed to step (s48). If the magnitude relation is not satisfied, proceed to step (s49). (s47) If "reference value <average density E", proceed to the next step, and if the magnitude relationship is not satisfied, proceed to step
Proceed to (s49). Note that what is used as the reference value is arbitrary, and for example, the automatic determination threshold value of the target image may be used as the reference value. (s48) The target pixel 151 is determined to be "white". (s49) The target pixel 151 is determined to be “black”.

【0085】図19は、局所的二値化対象範囲(文字か
すれ部分と推定される範囲)の調整を示す説明図であ
り、otは、対象画像ヒストグラムにおける自動判別閾
値,aおよびbは、局所的二値化対象範囲を調整するた
めの係数,b-aveは、黒領域(濃度0〜ot)の濃度平
均,w-aveは、白領域(濃度ot+1〜255)の濃度
平均,btは、局所的二値化対象範囲の下限濃度,wt
は、局所的二値化対象範囲の上限濃度,をそれぞれ示し
ている。
FIG. 19 is an explanatory diagram showing adjustment of a local binarization target range (a range estimated to be a character blurred portion), where ot is an automatic discrimination threshold in the target image histogram, and a and b are local. The coefficient for adjusting the target binarization range, b-ave is the density average of the black area (density 0 to ot), w-ave is the density average of the white area (density ot + 1 to 255), and bt is Lower limit concentration of local binarization target range, wt
Indicates the upper limit concentration of the local binarization target range, respectively.

【0086】ここでは、対象画像ヒストグラムにおける
局所的二値化対象範囲(濃度bt〜wt)を図示の二つ
の式により算出している。当該式中の係数a,bを調整
することにより局所的二値化対象範囲を任意に設定でき
る。係数a,bの調整は、局所的二値化部において、ハ
ードウェアの動作により、またはソフトウェアの実行に
より行なわれる。
Here, the local binarization target range (density bt to wt) in the target image histogram is calculated by the two equations shown. The local binarization target range can be arbitrarily set by adjusting the coefficients a and b in the equation. The adjustment of the coefficients a and b is performed by the operation of hardware or the execution of software in the local binarization unit.

【0087】このような推定範囲(濃度bt〜wt)の
みの画素についてのみ局所的二値化法を実行することに
より大幅な高速処理が可能である。
By executing the local binarization method only on pixels in such an estimated range (density bt to wt), a significantly high speed processing is possible.

【0088】推定範囲外の各画素は、一律的に「黒(濃
度0〜bt)」または「白(濃度wt〜255)」と判
定される。この白エリアにおける文字・数字のかすれに
対しては、wtを大きくすることによりこの画素部分を
「黒」と判定できる。一方、推定範囲の拡大にともなっ
て画像全体の二値化の要処理時間が長くなる。
Each pixel outside the estimation range is uniformly determined as "black (density 0 to bt)" or "white (density wt to 255)". With respect to the blurring of letters and numbers in this white area, it is possible to determine that this pixel portion is “black” by increasing wt. On the other hand, as the estimation range is expanded, the time required for binarization of the entire image becomes longer.

【0089】ここの例では「a=0.35,b=0.6
2」に設定し、画像全体の5〜8%の画素に対する局所
的二値化法を実行したところ、全画素を局所的二値化し
た場合と同等レベルの二値化画像が得られた。
In this example, "a = 0.35, b = 0.6
When the local binarization method was executed for 5 to 8% of the pixels of the entire image by setting to "2", a binarized image of the same level as that in the case of locally binarizing all the pixels was obtained.

【0090】図20は、局所的二値化時のかすれ補正に
よる二値画像の変化例を示す説明図であり、(a)は図
17の背景分離用閾値を変更(σmin=100→5
0)した場合を示し、(b)は図19の局所的二値化対
象範囲を変更(a=0.35,b=0.62→a=0.
35,b=0.90)した場合を示している。
FIG. 20 is an explanatory diagram showing an example of change in a binary image due to blur correction during local binarization. FIG. 20A shows the background separation threshold value in FIG. 17 changed (σmin = 100 → 5).
0), and FIG. 19B shows the local binarization target range of FIG. 19 changed (a = 0.35, b = 0.62 → a = 0.
35, b = 0.90).

【0091】以上のドロップアウトプレーン検出や合成
画像出力などのための処理プログラムを格納する記録媒
体としては、 ・プログラム提供者側のデータベース(DASDなどの
回線先メモリ) ・各種形式の可搬型記録媒体 ・コンピュータ本体部側のRAMやハードディスク などのいずれでもよい。当該プログラムはコンピュータ
本体部にローディングされてその主メモリ上で実行され
る。
Recording media for storing the processing programs for detecting the dropout plane and outputting the composite image are as follows: database on the program provider side (destination memory such as DASD), portable recording media of various formats It may be a RAM or a hard disk on the computer body side. The program is loaded into the computer main body and executed on its main memory.

【0092】(付記1)ドロップアウトカラー部分およ
びそれに関連した利用者記入部分を含む帳票を、画素単
位で、光学的に読み取る帳票読取装置において、この読
取画像のプレーンごとの画素濃度分布を求める濃度分布
演算手段と、この画素濃度分布の特性値を求め、当該特
性値に基づいてドロップアウトプレーンを特定するプレ
ーン選択手段とを備えた、ことを特徴とする帳票読取装
置。 (付記2)前記濃度分布演算手段は、前記特性値とし
て、前記画素濃度分布の自動判別閾値を用いる、ことを
特徴とする付記1記載の帳票読取装置。 (付記3)ドロップアウトカラー部分およびそれに関連
した利用者記入部分を含む帳票を、画素単位で、光学的
に読み取る帳票読取装置において、この読取画像の各プ
レーンを二値化する二値化手段と、このプレーン二値画
像に対応した黒画素頻度または白画素頻度を求め、当該
画素頻度に基づいてドロップアウトプレーンを特定する
プレーン選択手段とを備えた、ことを特徴とする帳票読
取装置。 (付記4)前記二値化手段は、利用者記入の文字・数字
のかすれ部分に対応するための二値化処理補正機能を持
つ、ことを特徴とする付記3記載の帳票読取装置。 (付記5)前記プレーン選択手段は、前記黒画素頻度ま
たは前記白画素頻度として、前記読取画像の輝度信号二
値画像と前記プレーン二値画像との演算処理により生成
した合成二値画像の画素頻度を用いる、ことを特徴とす
る付記3記載の帳票読取装置。 (付記6)ドロップアウトカラー部分およびそれに関連
した利用者記入部分を含む帳票を、画素単位で、光学的
に読み取る帳票読取装置において、この読取画像の各プ
レーン二値画像および輝度信号二値画像を生成する画像
生成手段と、この輝度信号二値画像と前記各プレーン二
値画像の一つとの演算処理により第1の合成二値画像を
生成してから、この第1の合成二値画像と前記各プレー
ン二値画像の残りの一つとの演算処理により第2の合成
二値画像を生成し、また、この第2の合成二値画像と前
記各プレーン二値画像の残りの一つとの演算処理により
第3の合成二値画像を生成する画像合成手段とを備え
た、ことを特徴とする帳票読取装置。 (付記7)前記画像生成手段は、利用者記入の文字・数
字のかすれ部分に対応するための二値化処理補正機能を
持つ、ことを特徴とする付記6記載の帳票読取装置。 (付記8)ドロップアウトカラー部分およびそれに関連
した利用者記入部分を含む帳票の読取処理で用いられる
プログラムにおいて、当該プログラムが、この帳票読取
画像の各プレーンの画素濃度分布の特性値を求め、当該
特性値に基づいてドロップアウトプレーンを特定する機
能をコンピュータに実現させるためのものである、こと
を特徴とする帳票読取処理用プログラム。 (付記9)ドロップアウトカラー部分およびそれに関連
した利用者記入部分を含む帳票の読取処理で用いられる
プログラムにおいて、当該プログラムが、この帳票読取
画像の各プレーン二値化画像に対応した黒画素頻度また
は白画素頻度を求め、当該画素頻度に基づいてドロップ
アウトプレーンを特定する機能をコンピュータに実現さ
せるためのものである、ことを特徴とする帳票読取処理
用プログラム。 (付記10)ドロップアウトカラー部分およびそれに関
連した利用者記入部分を含む帳票の読取処理で用いられ
るプログラムにおいて、当該プログラムが、この帳票読
取画像の、輝度信号二値画像と前記各プレーン二値画像
の一つとの演算処理により第1の合成二値画像を生成し
てから、この第1の合成二値画像と前記各プレーン二値
画像の残りの一つとの演算処理により第2の合成二値画
像を生成し、また、この第2の合成二値画像と前記各プ
レーン二値画像の残りの一つとの演算処理により第3の
合成二値画像を生成する機能をコンピュータに実現させ
るためのものである、ことを特徴とする帳票読取処理用
プログラム。
(Supplementary Note 1) Density for obtaining a pixel density distribution for each plane of the read image in a form reading device that optically reads a form including a dropout color portion and a user entry portion related thereto in pixel units. A form reading apparatus comprising: a distribution calculating means; and a plane selecting means that obtains a characteristic value of the pixel density distribution and specifies a dropout plane based on the characteristic value. (Supplementary Note 2) The form reading device according to Supplementary Note 1, wherein the density distribution calculating means uses an automatic determination threshold value of the pixel density distribution as the characteristic value. (Supplementary Note 3) In a form reading device for optically reading a form including a dropout color part and a user entry part related thereto, in a form reading device, a binarizing means for binarizing each plane of the read image. A form reading device comprising: a plane selecting unit that obtains a black pixel frequency or a white pixel frequency corresponding to the plane binary image and specifies a dropout plane based on the pixel frequency. (Supplementary Note 4) The form reading device according to Supplementary Note 3, wherein the binarizing means has a binarization processing correction function for dealing with a blurred portion of a character / number written by a user. (Supplementary Note 5) The plane selection means uses, as the black pixel frequency or the white pixel frequency, a pixel frequency of a composite binary image generated by a calculation process of a luminance signal binary image of the read image and the plane binary image. The form reading device according to appendix 3, characterized in that. (Supplementary Note 6) In a form reading device that optically reads a form including a dropout color part and a user entry part related thereto in pixel units, a plane binary image and a luminance signal binary image of the read image are obtained. After generating the first combined binary image by the image generation means for generating and the arithmetic processing of the luminance signal binary image and one of the plane binary images, the first combined binary image and the A second combined binary image is generated by an arithmetic operation with the remaining one of the plane binary images, and an arithmetic processing with the second combined binary image and the other one of the plane binary images is performed. And a image combining means for generating a third combined binary image according to the above. (Supplementary Note 7) The form reading apparatus according to Supplementary Note 6, wherein the image generating means has a binarization correction function for dealing with a blurred portion of a character / number written by a user. (Supplementary Note 8) In a program used in a process of reading a form including a dropout color part and a user entry part related thereto, the program obtains a characteristic value of pixel density distribution of each plane of the form read image, A form reading processing program for causing a computer to realize a function of specifying a dropout plane based on a characteristic value. (Supplementary Note 9) In a program used in a process of reading a form including a dropout color part and a user-written part related thereto, the program is a black pixel frequency corresponding to each plane binarized image of the form read image, or A form reading program for causing a computer to realize a function of obtaining a white pixel frequency and specifying a dropout plane based on the pixel frequency. (Supplementary Note 10) In a program used in a process of reading a form including a dropout color portion and a user entry portion related thereto, the program is a luminance signal binary image and the plane binary image of the form reading image. To generate a first combined binary image, and then calculate an operation of the first combined binary image and the remaining one of the plane binary images into a second combined binary image. A computer for realizing a function of generating an image and of generating a third combined binary image by the arithmetic processing of the second combined binary image and the remaining one of the plane binary images A form reading processing program characterized by:

【0093】[0093]

【発明の効果】本発明は、このように、対象帳票の読取
画像の各プレーンにおける画素濃度分布の特性値(例え
ば自動判別閾値)や、当該各プレーン二値画像に対応し
た黒画素頻度または白画素頻度に基づき、すなわちプレ
ーン二値画像間のAND演算などの合成処理をせずに、
ドロップアウトプレーンを特定しているので、ドロップ
アウトカラーを除去したかたちの帳票画像の生成処理を
効率的に実行できる。
As described above, according to the present invention, the characteristic value (for example, the automatic discrimination threshold value) of the pixel density distribution in each plane of the read image of the target form, the black pixel frequency or the white value corresponding to each plane binary image, or Based on the pixel frequency, that is, without performing combining processing such as AND operation between plane binary images,
Since the dropout plane is specified, it is possible to efficiently execute the generation process of the form image in the form of removing the dropout color.

【0094】また、読取画像の輝度信号二値画像とプレ
ーン二値画像との合成二値画像(プレーン二値画像自体
よりも解像度が高い)の黒画素頻度または白画素頻度を
用いているので、ドロップアウトプレーンの特定精度を
高めることができる。
Further, since the black pixel frequency or the white pixel frequency of the composite binary image (having higher resolution than the plane binary image itself) of the luminance signal binary image of the read image and the plane binary image is used, The accuracy of identifying the dropout plane can be improved.

【0095】また、上述の特性値や黒画素頻度に基づい
てドロップアウトプレーンを特定できない場合の、各プ
レーンの合成二値画像を生成するに際して、帳票の輝度
信号二値画像との演算合成も実行しているので、合成二
値画像自体の解像度を高めることができる。
Further, when the dropout plane cannot be specified based on the above-mentioned characteristic value or black pixel frequency, when the composite binary image of each plane is generated, arithmetic composition with the luminance signal binary image of the form is also executed. Therefore, the resolution of the composite binary image itself can be increased.

【0096】また、二値化用閾値,局所的二値化法の背
景分離用閾値や対象範囲などを調整して、利用者記入の
文字・数字のかすれ部分の適切な黒画素化を図っている
ので、ドロップアウトプレーン特定の精度を高めるとと
もに、最終的な出力画像における文字・数字をいわば太
めにしてそれの認識精度を高めることができる。
In addition, the threshold for binarization, the threshold for background separation of the local binarization method, the target range, etc. are adjusted so that the faint portions of the characters / numbers entered by the user are appropriately converted into black pixels. Therefore, it is possible to improve the accuracy of identifying the dropout plane and to increase the recognition accuracy of the characters and numbers in the final output image by making them thicker.

【図面の簡単な説明】[Brief description of drawings]

【図1】ドロップアウトプレーン検出手法の概要(その
1)を示す説明図である。
FIG. 1 is an explanatory diagram showing an outline (part 1) of a dropout plane detection method.

【図2】図1の検出手法に対応した全体構成を示す説明
図である。
FIG. 2 is an explanatory diagram showing the overall configuration corresponding to the detection method of FIG.

【図3】ドロップアウトプレーン検出手法の概要(その
2:Rプレーン)を示す説明図である。
FIG. 3 is an explanatory diagram showing an outline (part 2: R plane) of a dropout plane detection method.

【図4】ドロップアウトプレーン検出手法の概要(その
2:Gプレーン)を示す説明図である。
FIG. 4 is an explanatory diagram showing an outline (part 2: G plane) of a dropout plane detection method.

【図5】ドロップアウトプレーン検出手法の概要(その
2:Bプレーン)を示す説明図である。
FIG. 5 is an explanatory diagram showing an outline (part 2: B plane) of a dropout plane detection method.

【図6】図3〜図5の検出手法に対応した全体構成を示
す説明図である。
FIG. 6 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.

【図7】ドロップアウトプレーン検出手法の概要(その
3:Rプレーン)を示す説明図である。
FIG. 7 is an explanatory diagram showing an outline (part 3: R plane) of a dropout plane detection method.

【図8】ドロップアウトプレーン検出手法の概要(その
3:Gプレーン)を示す説明図である。
FIG. 8 is an explanatory diagram showing an outline (part 3: G plane) of a dropout plane detection method.

【図9】ドロップアウトプレーン検出手法の概要(その
3:Bプレーン)を示す説明図である。
FIG. 9 is an explanatory diagram showing an outline (part 3: B plane) of a dropout plane detection method.

【図10】図7〜図9の検出手法に対応した全体構成を
示す説明図である。
FIG. 10 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.

【図11】青系および赤系のドロップアウトカラーを持
つ帳票例を示す説明図である。
FIG. 11 is an explanatory diagram showing an example of a form having blue-based and red-based dropout colors.

【図12】図11の帳票に対する合成画像の出力手法の
概要を示す説明図である。
12 is an explanatory diagram showing an outline of a method of outputting a composite image for the form of FIG.

【図13】図12の出力手法に対応した全体構成を示す
説明図である。
FIG. 13 is an explanatory diagram showing an overall configuration corresponding to the output method of FIG.

【図14】図13の全体構成に対応した処理手順を示す
説明図である。
FIG. 14 is an explanatory diagram showing a processing procedure corresponding to the overall configuration of FIG.

【図15】CCDおよび画素ずらし方式の概要を示す説
明図である。
FIG. 15 is an explanatory diagram showing an outline of a CCD and pixel shifting method.

【図16】プレーン多値画像の自動判別閾値法の処理手
順を示す説明図である。
FIG. 16 is an explanatory diagram showing a processing procedure of an automatic discrimination threshold method of a plane multi-valued image.

【図17】局所的二値化法(フィルタ)の概要を示す説
明図である。
FIG. 17 is an explanatory diagram showing an outline of a local binarization method (filter).

【図18】局所的二値化法の処理手順を示す説明図であ
る。
FIG. 18 is an explanatory diagram showing a processing procedure of a local binarization method.

【図19】局所的二値化対象範囲の調整を示す説明図で
ある。
FIG. 19 is an explanatory diagram showing adjustment of a local binarization target range.

【図20】局所的二値化時のかすれ補正による二値画像
の変化例を示す説明図である。
FIG. 20 is an explanatory diagram showing an example of changes in a binary image due to blur correction during local binarization.

【符号の説明】[Explanation of symbols]

11:赤プレーン 12:赤プレーン多値画像のヒストグラム 13:緑プレーン 14:緑プレーン多値画像のヒストグラム 15:青プレーン 16:青プレーン多値画像のヒストグラム 17:帳票上の赤系枠(ドロップアウト部分) 21:2次元カラーCCD 22:画素ずらし手段 23:撮像画像合成手段 24:シェーディング補正手段 25:R,G,Bプレーン分割手段 26〜28 :赤,緑,青の各プレーン画像 29:Y信号画像生成手段, 30:Y信号画像 31:局所的二値化部 32:Y信号二値画像 33〜35 :ヒストグラム演算部 36〜38 :自動判別閾値法処理部 39:プレーン画像判定・選択部 40:選択画像二値化部 41:選択プレーン二値画像 42:AND演算合成部 43:合成画像出力部 44:統合ブロック 51:Y信号二値画像 52,52′ :第1の赤プレーン二値画像 53,53′ :第2の赤プレーン二値画像 54:AND合成画像(黒画素頻度=11.823%) 55:AND合成画像(黒画素頻度=12.030%) 56:XOR合成画像(黒画素頻度=5.943%) 57:XOR合成画像(黒画素頻度=6.014%) 62,62′:第1の緑プレーン二値画像 63,63′:第2の緑プレーン二値画像 64:AND合成画像(黒画素頻度=13.653%) 65:AND合成画像(黒画素頻度=15.495%) 66:XOR合成画像(黒画素頻度=4.424%) 67:XOR合成画像(黒画素頻度=3.577%) 72,72′:第1の青プレーン二値画像 73,73′:第2の青プレーン二値画像 74:AND合成画像(黒画素頻度=13.787%) 75:AND合成画像(黒画素頻度=16.273%) 76:XOR合成画像(黒画素頻度=4.404%) 77:XOR合成画像(黒画素頻度=4.219%) 81〜83:二値化部 84:R二値画像 85:G二値画像 86:B二値画像 87:AND演算合成部 88:YR合成二値画像 89:YG合成二値画像 90:YB合成二値画像 91:黒画素頻度算出・判定部 92:プレーン画像選択・出力部 93:統合ブロック 101〜103:局所的二値化部 104:R二値画像 105:G二値画像 106:B二値画像 107:XOR演算合成部 108:YR合成二値画像 109:YG合成二値画像 110:YB合成二値画像 111:黒画素頻度算出・判定部 112:プレーン画像選択・出力部 113:統合ブロック 121:印鑑枠(青系ドロップアウトカラー) 122:記入文字枠(赤系ドロップアウトカラー) 131:Y信号二値画像 132:Rプレーン二値画像 133:YR合成二値画像 134:Bプレーン二値画像 135:YRB合成二値画像 141:RGB二値画像選択部 142:AND演算合成部 143:YR合成二値画像 144:AND演算合成部 145:YRG合成二値画像 146:AND演算合成部 147:YRGB合成二値画像 148:合成二値画像出力部 151:局所的二値化処理の対象画素 152:対象画素に対する7×7画素の矩形フィルタ 153:文字部ストローク画素 154:背景画素 σmin:背景分離用閾値(例えば100) E:矩形フィルタ内の各画素の濃度平均値 E2:矩形フィルタ内の各画素の濃度二乗平均値 g2:矩形フィルタ内の濃度分散値 S:対象画素の二値化用閾値 ot:自動判別閾値 a,b:局所的二値化対象範囲を調整するための係数 b-ave:黒領域(濃度0〜ot)の濃度平均 w-ave:白領域(濃度ot+1〜255)の濃度平均 bt:局所的二値化対象範囲の下限濃度 wt:局所的二値化対象範囲の上限濃度 11: Red plane 12: Red plane multi-valued image histogram 13: Green plane 14: Histogram of green plane multi-valued image 15: Blue plane 16: Histogram of blue plane multi-valued image 17: Red frame on the form (dropout part) 21: Two-dimensional color CCD 22: Pixel shifting means 23: Captured image synthesizing means 24: Shading correction means 25: R, G, B plane dividing means 26-28 : Red, green, and blue plain images 29: Y signal image generating means, 30: Y signal image 31: Local binarization unit 32: Y signal binary image 33-35 : Histogram calculator 36-38 : Automatic discrimination threshold method processing unit 39: Plain image determination / selection unit 40: Selected image binarization unit 41: Binary image of selected plane 42: AND operation synthesis section 43: Composite image output unit 44: Integrated block 51: Y signal binary image 52,52 ' : First red plane binary image 53,53 ' : Second red plane binary image 54: AND composite image (black pixel frequency = 11.823%) 55: AND composite image (black pixel frequency = 12.030%) 56: XOR composite image (black pixel frequency = 5.943%) 57: XOR composite image (black pixel frequency = 6.014%) 62, 62 ': first green plane binary image 63, 63 ': second green plane binary image 64: AND composite image (black pixel frequency = 13.653%) 65: AND composite image (black pixel frequency = 15.495%) 66: XOR composite image (black pixel frequency = 4.424%) 67: XOR composite image (black pixel frequency = 3.577%) 72, 72 ': first blue plane binary image 73, 73 ': second blue plane binary image 74: AND composite image (black pixel frequency = 13.787%) 75: AND composite image (black pixel frequency = 16.273%) 76: XOR composite image (black pixel frequency = 4.404%) 77: XOR composite image (black pixel frequency = 4.219%) 81-83: Binarization unit 84: R binary image 85: G binary image 86: B binary image 87: AND operation composition section 88: YR composite binary image 89: YG composite binary image 90: YB composite binary image 91: Black pixel frequency calculation / determination unit 92: Plain image selection / output unit 93: Integrated block 101-103: Local Binarization Unit 104: R binary image 105: G binary image 106: B binary image 107: XOR operation synthesis section 108: YR composite binary image 109: YG composite binary image 110: YB composite binary image 111: Black pixel frequency calculation / determination unit 112: Plain image selection / output unit 113: Integrated block 121: Seal frame (blue dropout color) 122: Entry character frame (red dropout color) 131: Y signal binary image 132: R plane binary image 133: YR composite binary image 134: B plane binary image 135: YRB composite binary image 141: RGB binary image selection unit 142: AND operation synthesis section 143: YR composite binary image 144: AND operation synthesis section 145: YRG composite binary image 146: AND operation synthesis section 147: YRGB composite binary image 148: Synthetic binary image output unit 151: Target Pixel for Local Binarization 152: 7 × 7 pixel rectangular filter for the target pixel 153: Stroke pixel of character part 154: Background pixel σmin: threshold value for background separation (for example, 100) E: Density average value of each pixel in the rectangular filter E2: density mean square value of each pixel in the rectangular filter g2: Density dispersion value in the rectangular filter S: Threshold for binarization of target pixel ot: automatic discrimination threshold a, b: Coefficients for adjusting the local binarization target range b-ave: average density of black area (density 0 to ot) w-ave: average density of white areas (density ot + 1 to 255) bt: lower limit concentration of local binarization target range wt: upper limit concentration of local binarization target range

───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊崎 保直 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 坂根 俊司 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 井出 克美 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 小松 一正 東京都渋谷区道玄坂1丁目15番3号 ライ フコンサルタント株式会社内 Fターム(参考) 5B029 BB02 DD04    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Yasunao Izaki             4-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa             No. 1 within Fujitsu Limited (72) Inventor Shunji Sakane             4-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa             No. 1 within Fujitsu Limited (72) Inventor Katsumi Ide             4-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa             No. 1 within Fujitsu Limited (72) Inventor Kazumasa Komatsu             1-15-3 Dogenzaka, Shibuya-ku, Tokyo Rye             Fu Consultant Co., Ltd. F-term (reference) 5B029 BB02 DD04

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ドロップアウトカラー部分およびそれに
関連した利用者記入部分を含む帳票を、画素単位で、光
学的に読み取る帳票読取装置において、 この読取画像のプレーンごとの画素濃度分布を求める濃
度分布演算手段と、 この画素濃度分布の特性値を求め、当該特性値に基づい
てドロップアウトプレーンを特定するプレーン選択手段
とを備えた、ことを特徴とする帳票読取装置。
1. A density distribution calculation for obtaining a pixel density distribution for each plane of a read image in a form reading device that optically reads a form including a dropout color part and a user entry part related thereto in pixel units. A form reading apparatus comprising: a means for determining a characteristic value of the pixel density distribution; and a plane selecting means for specifying a dropout plane based on the characteristic value.
【請求項2】 ドロップアウトカラー部分およびそれに
関連した利用者記入部分を含む帳票を、画素単位で、光
学的に読み取る帳票読取装置において、 この読取画像の各プレーンを二値化する二値化手段と、 このプレーン二値画像に対応した黒画素頻度または白画
素頻度を求め、当該画素頻度に基づいてドロップアウト
プレーンを特定するプレーン選択手段とを備えた、こと
を特徴とする帳票読取装置。
2. A form reading device for optically reading a form including a dropout color portion and a user entry portion related thereto in a pixel unit, and binarizing means for binarizing each plane of the read image. And a plane selecting means for determining a black pixel frequency or a white pixel frequency corresponding to the plane binary image and specifying a dropout plane based on the pixel frequency.
【請求項3】 ドロップアウトカラー部分およびそれに
関連した利用者記入部分を含む帳票を、画素単位で、光
学的に読み取る帳票読取装置において、 この読取画像の各プレーン二値画像および輝度信号二値
画像を生成する画像生成手段と、 この輝度信号二値画像と前記各プレーン二値画像の一つ
との演算処理により第1の合成二値画像を生成してか
ら、この第1の合成二値画像と前記各プレーン二値画像
の残りの一つとの演算処理により第2の合成二値画像を
生成し、また、この第2の合成二値画像と前記各プレー
ン二値画像の残りの一つとの演算処理により第3の合成
二値画像を生成する画像合成手段とを備えた、ことを特
徴とする帳票読取装置。
3. A form reading device for optically reading a form including a dropout color part and a user-written part related thereto in pixel units, wherein each plane binary image and luminance signal binary image of the read image And an image generating means for generating a first combined binary image by calculating the brightness signal binary image and one of the plane binary images. A second combined binary image is generated by an operation process with the remaining one of the plane binary images, and an operation between the second combined binary image and the remaining one of the plane binary images is performed. A form reading apparatus comprising: an image synthesizing unit that generates a third synthetic binary image by processing.
【請求項4】 ドロップアウトカラー部分およびそれに
関連した利用者記入部分を含む帳票の読取処理で用いら
れるプログラムにおいて、 当該プログラムが、 この帳票読取画像の各プレーンの画素濃度分布の特性値
を求め、 当該特性値に基づいてドロップアウトプレーンを特定す
る機能をコンピュータに実現させるためのものである、
ことを特徴とする帳票読取処理用プログラム。
4. A program used in a process of reading a form including a dropout color part and a user entry part related to the dropout color part, wherein the program obtains a characteristic value of pixel density distribution of each plane of the form read image, It is for realizing the function of identifying the dropout plane based on the characteristic value,
A form reading processing program characterized by the above.
【請求項5】 ドロップアウトカラー部分およびそれに
関連した利用者記入部分を含む帳票の読取処理で用いら
れるプログラムにおいて、 当該プログラムが、 この帳票読取画像の各プレーン二値画像に対応した黒画
素頻度または白画素頻度を求め、 当該画素頻度に基づいてドロップアウトプレーンを特定
する機能をコンピュータに実現させるためのものであ
る、ことを特徴とする帳票読取処理用プログラム。
5. A program used in a process of reading a form including a dropout color part and a user entry part related to the dropout color part, wherein the program is a black pixel frequency or black pixel frequency corresponding to each plane binary image of the form read image. A form reading program for causing a computer to realize a function of obtaining a white pixel frequency and specifying a dropout plane based on the pixel frequency.
JP2002026834A 2002-02-04 2002-02-04 Form reading device and form reading processing program Expired - Lifetime JP4008715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002026834A JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002026834A JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007025543A Division JP2007149118A (en) 2007-02-05 2007-02-05 Form reading device and program for form reading processing

Publications (2)

Publication Number Publication Date
JP2003228691A true JP2003228691A (en) 2003-08-15
JP4008715B2 JP4008715B2 (en) 2007-11-14

Family

ID=27748547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002026834A Expired - Lifetime JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Country Status (1)

Country Link
JP (1) JP4008715B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102299A (en) * 2005-09-30 2007-04-19 Oki Electric Ind Co Ltd Character recognition device
JP2008197542A (en) * 2007-02-15 2008-08-28 Sharp Corp Image forming apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102299A (en) * 2005-09-30 2007-04-19 Oki Electric Ind Co Ltd Character recognition device
JP4682783B2 (en) * 2005-09-30 2011-05-11 沖電気工業株式会社 Character recognition device
JP2008197542A (en) * 2007-02-15 2008-08-28 Sharp Corp Image forming apparatus

Also Published As

Publication number Publication date
JP4008715B2 (en) 2007-11-14

Similar Documents

Publication Publication Date Title
CN108229526B (en) Network training method, network training device, image processing method, image processing device, storage medium and electronic equipment
EP1789922B1 (en) Apparatus and method for processing images
US8488896B2 (en) Image processing apparatus and image processing method
US20190130169A1 (en) Image processing method and device, readable storage medium and electronic device
JP4708909B2 (en) Method, apparatus and program for detecting object of digital image
JP3539539B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
EP1507232B1 (en) Method for classifying a digital image
US20140079319A1 (en) Methods for enhancing images and apparatuses using the same
JP2010525486A (en) Image segmentation and image enhancement
JP2002503840A (en) A new perceptual threshold determination for gradient-based local contour detection
JP2007507802A (en) Text-like edge enhancement in digital images
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
US20100080481A1 (en) 3D Depth Generation by Local Blurriness Estimation
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
CN110136085B (en) Image noise reduction method and device
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
JP2013020505A (en) Image processing method, image processing device, image processing program and radiation dose estimation method based on image processing
JP2003228691A (en) Slip read device and program for processing slip read
CN110909568A (en) Image detection method, apparatus, electronic device, and medium for face recognition
JPH10285399A (en) Binarization method for image
JP2002117400A (en) Image correction method and device, and recording medium readable by computer and having image correction program recorded thereon
JP2001045303A (en) Image thresholding method
CN113505622A (en) Test system and method for automatically identifying multiple bar codes and LED lamps
CN112508024A (en) Intelligent identification method for embossed seal font of electrical nameplate of transformer
JP2007149118A (en) Form reading device and program for form reading processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4008715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

EXPY Cancellation because of completion of term