JP4008715B2 - Form reading device and form reading processing program - Google Patents

Form reading device and form reading processing program Download PDF

Info

Publication number
JP4008715B2
JP4008715B2 JP2002026834A JP2002026834A JP4008715B2 JP 4008715 B2 JP4008715 B2 JP 4008715B2 JP 2002026834 A JP2002026834 A JP 2002026834A JP 2002026834 A JP2002026834 A JP 2002026834A JP 4008715 B2 JP4008715 B2 JP 4008715B2
Authority
JP
Japan
Prior art keywords
plane
image
binary image
dropout
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002026834A
Other languages
Japanese (ja)
Other versions
JP2003228691A (en
Inventor
英夫 鎌田
保直 伊崎
俊司 坂根
克美 井出
一正 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2002026834A priority Critical patent/JP4008715B2/en
Publication of JP2003228691A publication Critical patent/JP2003228691A/en
Application granted granted Critical
Publication of JP4008715B2 publication Critical patent/JP4008715B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票(例えば銀行で用いる入出金伝票など)の読取装置、および当該帳票の読取処理用プログラムに関する。
【0002】
特に、帳票の読取画像からその中の例えば赤系の文字・数字記入枠部分(ドロップアウトカラー部分)を消した内容のプレーン画像などを自動選択し、また、当該読取画像のR,G,Bの各プレーン二値画像と輝度信号二値画像との例えばAND演算処理により当該記入枠部分を消した内容の合成画像を生成し、これらの選択画像や生成画像に基づき利用者記入の文字・数字などを認識するようにしたものである。
【0003】
【従来の技術】
従来、帳票上の文字枠などのドロップアウトカラー部分を当該帳票のR,G,Bの各プレーン二値画像のAND演算により取り除く方式の光学式文字読取装置は、例えば特開平6−243290号公報で開示されている。
【0004】
この光学式文字読取装置の場合、R,G,Bの各プレーン二値画像の1ビットごとのAND演算を実行することにより、読取帳票のドロップアウトカラー部分を背景画素(白画素)とし、その文字・数字部分を情報画素(黒画素)とする合成画像を生成している。
【0005】
【発明が解決しようとする課題】
このような光学式文字読取の手法の場合、各プレーン二値画像のAND演算を実行することを前提にしているため、単一ドロップアウトカラー(例えば赤系)の帳票に対する処理効率が悪いという問題点があった。
【0006】
これは、単一ドロップアウトカラーのプレーン画像では文字枠部分(ドロップアウトカラー部分)はすべて取り除かれており、当該画像と他のカラープレーン画像とのAND演算による利点は特にないからである。
【0007】
そこで、本発明では、帳票画像の各プレーン中にドロップアウトカラー部分がすべて取り除かれたに等しいといえる単一プレーンが存在しているかどうかを判断して、これが存在する場合にはそのプレーン画像を選択してその後の文字・数字認識処理に用いることにより、帳票画像からドロップアウトカラーを除去した内容の文字認識用画像の特定処理の効率化を図ることを目的とする。
【0008】
このような単一プレーンが存在しない場合において、各プレーン二値画像の合成画像を生成する際には、読取帳票の輝度信号二値画像(Y信号二値画像)も併用することにより、この合成画像の解像度を高めることを目的とする。
【0009】
【課題を解決するための手段】
本発明はこの課題を次のようにして解決する。
(1)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票を、画素単位で、光学的に読み取る帳票読取装置において、
前記帳票の読取画像のプレーンごとの画素濃度分布を求める画素濃度演算手段と、
前記プレーンごとの画素濃度分布に基づいて、当該画素濃度分布それぞれの、ドロップアウトカラー判別用およびドロップアウトプレーン二値化用の各閾値を求める閾値算出手段と、
前記各閾値に基づいて、前記読取画像のドロップアウトプレーンを選択するプレーン選択手段と、
前記選択に対応した前記閾値に基づいて、当該選択にかかる前記ドロップアウトプレーンを二値化する二値化手段と、
を備える。
【0010】
本発明によれば、上記(1)のように、対象帳票の読取画像の各プレーンにおける画素濃度分布それぞれの、ドロップアウトカラー判別用およびドロップアウトプレーン二値化用の閾値に基づき、すなわちプレーン二値画像間のAND演算などの合成処理をせずに、ドロップアウトプレーンを選択し、二値化する。これによりドロップアウトカラーを除去した形の帳票画像の生成処理を効率的に実行している。
【0011】
本明細書では後述するように、上記(1)の本発明の関連技術として、対象帳票の読取画像の各プレーン二値画像に対応した黒画素頻度または白画素頻度に基づいてドロップアウトプレーンを選択することも示している。
なお、プレーン二値画像における黒画素頻度と白画素頻度との合計は100%となるので、ドロップアウトプレーン特定のための条件は当該頻度のいずれを用いてもよい。例えば、図14のステップ(s12),(s15)の黒画素頻度についての条件式も「黒画素頻度=100−白画素頻度」を代入することにより白画素頻度の条件式となる。
【0012】
ここで、二値化用閾値,局所的二値化法(図17〜図19)の背景分離用閾値や対象範囲などを調整して、利用者記入の文字・数字のかすれ部分の適切な黒画素化を図ることにより、ドロップアウトプレーン特定の精度を高めるとともに、最終的な出力画像における文字・数字をいわば太めにしてそれの認識精度を高めている。
【0013】
また、読取画像の輝度信号二値画像とプレーン二値画像との合成二値画像(プレーン二値画像自体よりも解像度が高い)の黒画素頻度または白画素頻度を用いることにより、ドロップアウトプレーンの特定精度を高めている。
【0015】
本発明は、このような特徴を持つ帳票読取装置を対象とし、さらにはドロップアウトカラーを除去したかたちの帳票画像の生成処理を効率的に実行し、また当該帳票画像を精度の高いものにするための帳票読取用プログラムも、対象にしている。
【0016】
【発明の実施の形態】
図1乃至図20を参照して本発明の実施の形態を説明する。
【0017】
以下の記載では、説明の便宜上、原則として赤系ドロップアウトカラーの帳票を対象にし、また、当該帳票の大きさを約A5サイズ、その読取画像の全画素数を1,557,790 画素とする。
【0018】
図1は、ドロップアウトプレーン検出手法の概要(その1)を示す説明図である。
【0019】
図1において、
11は、帳票を2次元カラーCCDで読み取ったときの赤プレーン,
12は、この赤プレーン多値画像のヒストグラム,
13は、帳票を2次元カラーCCDで読み取ったときの緑プレーン,
14は、この緑プレーン多値画像のヒストグラム,
15は、帳票を2次元カラーCCDで読み取ったときの青プレーン,
16は、この青プレーン多値画像のヒストグラム,
17は、帳票上の赤系枠(ドロップアウト部分),
をそれぞれ示している。
【0020】
なお、ヒストグラム12,14,16それぞれの横軸は「0」の黒レベルから「255」の白レベルまでの256階調を示す画素濃度(明るさ)であり、縦軸は画素数に対応している。また、各プレーン画像の黒縁枠は帳票読取の際に当該帳票を載せる台部分の画像成分である。
【0021】
帳票を読み取る2次元カラーCCDは、赤色用,緑色用および青色用の各光電変換素子からなる市松模様で構成されている(図15参照)。
【0022】
図1の検出手法は、赤,緑,青の各プレーン画像のヒストグラムにおける濃度分布の違いに着目したものである。
【0023】
処理対象の帳票は、例えば白地の背景部分と赤系枠17などを有し、この赤系枠の中に利用者が黒色で文字や数値を記入したものである。
【0024】
この帳票画像における赤,緑,青(R,G,B)の各プレーン11,13,15のヒストグラムは、
・赤プレーンの場合、ピーク部分が2箇所で、自動判別閾値が「187」の濃度分布を示し、
・緑プレーンおよび青プレーンの場合はともに、ピーク部分が3箇所で、自動判別閾値が「152」の濃度分布を示している。
【0025】
ここで、ヒストグラムの自動判別閾値が最大となるプレーンを特定することにより、対象帳票のドロップアウト種別を自動判定する。図示の場合は赤系ドロップアウトカラーの帳票と判定する。なお、ヒストグラムの自動判別閾値の求め方自体は公知である(図16参照)。
【0026】
赤プレーン11の自動判別閾値(=187)が緑,青プレーン13,15の自動判別閾値(=152)とは違う、すなわち各プレーンのヒストグラム12,14,16のピーク状況に差異があるのは、帳票上の赤系枠17などの赤系部分に対する光の反射率が、緑色波長や青色波長よりも赤色波長において大きいからである。
【0027】
帳票の赤系枠17に対する読取出力(濃度)は、当然のことながら赤色光電変換素子のほうが他の緑色,青色の光電変換素子よりも大きい。そして、赤色光電変換素子の当該読取出力は帳票の背景部分(白部分)のそれと略等しくなる。
【0028】
そのため、帳票の読取画像の赤プレーンでは赤系画素(赤系枠など)がドロップアウトしてしまい、当該プレーンのヒストグラムにおける赤系画素の濃度分布が背景画素(白画素)のそれにいわばマージされた形になる。このようなマージ現象は、読取画像中に赤系枠が残留している緑,青プレーンでは発生しない。
【0029】
これにより、各プレーンの濃度分布の目安となる自動判別閾値が、赤プレーンにおいて他の緑,青の各プレーンよりも大きくなる。
【0030】
もちろん、出金帳票のように青系ドロップアウトカラーの帳票の場合には、その青プレーンのヒストグラムにおいて青系枠の濃度分布が背景画素(白画素)の濃度分布にマージされる。
【0031】
このように、帳票画像の各プレーンのヒストグラムに基づいて当該帳票のドロップアウトカラー種別を自動判定する。すなわち、図1の場合の読取帳票は赤系ドロップアウトカラーである旨を判定する。この自動判定に用いる値は、各プレーンヒストグラムの内容に対応したものであればよく、例えば画素濃度分布の平均値でもよい。
【0032】
図2は、図1の検出手法に対応した全体構成を示す説明図である。
【0033】
図2において、
21は、例えばA5サイズの帳票を光学的に読み取る小型容量で40万画素の2次元カラーCCD,
22は、この2次元カラーCCDに対して画素ずらし制御を実行する(例えば9回の画素ずらし処理に基づき計360万画素の帳票画像を得る:図15参照)画素ずらし手段,
23は、この画素ずらし処理により求めた例えば9個の各画像を合成する撮像画像合成手段,
24は、この合成画像の濃淡を均一化するシェーディング補正手段,
25は、このシェーディング補正後の読取画像を赤,緑,青の各プレーン画像に分割するR,G,Bプレーン分割手段,
26〜28は、メモリやワーク領域(図示省略)に保持した赤,緑,青の各プレーン画像,
29は、この赤,緑,青の各プレーン画像からY信号画像(輝度信号画像)を作成するY信号画像生成手段,
30は、メモリやワーク領域(図示省略)に保持したY信号画像,
31は、このY信号画像を局所的二値化法(図17〜図19参照)により二値化して二値Y画像を作成する局所的二値化部,
32は、メモリやワーク領域(図示省略)に保持したY信号二値画像,
33〜35は、赤,青,緑の各プレーン画像(R画像,G画像,B画像)のヒストグラム演算を実行するヒストグラム演算部,
36〜38は,この各プレーンのヒストグラムから二値化用の閾値を求める自動判別閾値法処理部,
39は、この各プレーンの閾値に基づき単一のドロップアウトカラー種別を特定できるかどうかを判断して(図14のステップ(s6) 参照)、特定できる場合にはそのプレーンを選択するプレーン画像判定・選択部,
40は、この選択プレーンの各画素信号を上記自動判別閾値で二値化する選択画像二値化部,
41は、メモリやワーク領域(図示省略)に保持した選択プレーン二値画像,
42は、Y信号二値画像32と選択プレーン二値画像41とのAND演算を実行するAND演算合成部,
43は、このAND合成画像を出力する合成画像出力部,
44は、構成要素33〜39からなる統合ブロック,
をそれぞれ示している。
【0034】
なお、局所的二値化部31および選択画像二値化部40はそれぞれ後述の文字かすれ処理機能を有している(図3の自動判別閾値の1.3倍化処理,図19,20など参照)。
【0035】
図3〜図5は、ドロップアウトプレーン検出手法の概要(その2)を示す説明図である。図3はRプレーンの場合、図4はGプレーンの場合、図5はBプレーンの場合をそれぞれ示している。
【0036】
なお、図3〜図5および後述の図7〜図9では、各プレーンの手書き文字部分の図面上の表示サイズを考慮して、プレーン全体の略左上1/4部分のみを記している。
【0037】
図3〜図5において、
17は、図1と同様の赤系枠,
51は、読取帳票の赤,青,緑の各プレーン画像から得られる輝度信号を局所的二値化法(図17〜19参照)により求めたY信号二値画像,
52は、読取帳票の赤プレーンをその自動判別閾値(=123)で二値化して求めた第1の赤プレーン二値画像,
53は、読取帳票の赤プレーンをかすれ補正用閾値(=159:自動判別閾値の1.3倍)で二値化して求めた第2の赤プレーン二値画像,
54は、Y信号二値画像51と第1の赤プレーン二値画像52とのAND合成画像(黒画素頻度=11.823%),
55は、Y信号二値画像51と第2の赤プレーン二値画像53とのAND合成画像(黒画素頻度=12.030%),
62は、読取帳票の緑プレーンをその自動判別閾値(=103)で二値化して求めた第1の緑プレーン二値画像,
63は、読取帳票の緑プレーンをかすれ補正用閾値(=133:自動判別閾値の1.3倍)で二値化して求めた第2の緑プレーン二値画像,
64は、Y信号二値画像51と第1の緑プレーン二値画像62とのAND合成画像(黒画素頻度=13.653%),
65は、Y信号二値画像51と第2の緑プレーン二値画像63とのAND合成画像(黒画素頻度=15.495%),
72は、読取帳票の青プレーンをその自動判別閾値(=111)で二値化して求めた第1の青プレーン二値画像,
73は、読取帳票の青プレーンをかすれ補正用閾値(=144:自動判別閾値の1.3倍)で二値化して求めた第2の青プレーン二値画像,
74は、Y信号二値画像51と第1の青プレーン二値画像72とのAND合成画像(黒画素頻度=13.787%),
75は、Y信号二値画像51と第2の青プレーン二値画像73とのAND合成画像(黒画素頻度=16.273%),
をそれぞれ示している。なお、黒レベルを論理値「1」としている。
【0038】
図3〜図5の検出手法は、読取帳票の各プレーンの二値画像と、当該各プレーンのY信号二値画像(輝度信号二値画像)とのAND合成画像それぞれにおける黒画素頻度の違いに着目したものである。これらのAND合成画像は、合成前の各プレーンの二値画像のノイズ部分を除いたかたちの画像にもなっている。すなわち、合成前のプレーン画像よりも解像度が高くなっている。
【0039】
ここで、赤プレーンのAND合成画像54,55は、読取帳票のドロップアウトカラー(赤系枠17など)がほぼ消えて文字およびガイド情報のみからなる二値画像である。
【0040】
一方、緑プレーンのAND合成画像64,65および青プレーンのAND合成画像74,75は、読取帳票のドロップアウトカラー(赤系枠17など)も含んだ形の画像となる。
【0041】
なお、赤,青,緑の各プレーン二値画像における黒画素の頻度は、図示のように、二値化の閾値を高くすることにより大きくなる。これは、帳票に記された文字,赤枠などの細線部分やかすれ部分に相当する画素の読取濃度が小さくて、低閾値による二値化の際に当該画素が白レベルとして処理される、すなわち消えてしまうからである。
【0042】
各プレーンのAND合成画像54,55,64,65,74,75における黒画素頻度は、
(1)図3の赤プレーンの場合、
・11.823%(自動判別閾値:123)
・12.030%(かすれ補正用閾値:159=123×1.3)
(2)図4の緑プレーンの場合、
・13.653%(自動判別閾値:103)
・15.495%(かすれ補正用閾値:133=103×1.3)
(3)図5の青プレーンの場合、
・13.787%(自動判別閾値:111)
・16.273%(かすれ補正用閾値:144=111×1.3)
であった。なお、これらの数値は各プレーンの全体画像(図示の1/4部分の画像のみではなく)における値である。
【0043】
このような赤,緑,青の各プレーンの上記AND合成画像における黒画素頻度を求めて比較することにより、当該頻度が最小のプレーン(図示の帳票の場合は赤プレーン)をドロップアウトプレーンとして特定できる。
【0044】
これら各プレーンのAND合成画像間の黒画素頻度差に対応の画素数は、上述のA5サイズで全体が1,557,790 画素の読取帳票において、
(1)赤プレーンと緑プレーンとの場合、
・28,507画素(全体の1.83%:自動判別閾値のとき)
・53,978画素(全体の3.465%:かすれ補正用閾値のとき)
(2)赤プレーンと青プレーンとの場合、
・30,595画素(全体の1.964%:自動判別閾値のとき)
・66,097画素(全体の4.243%:かすれ補正用閾値のとき)
(3)緑プレーンと青プレーンとの場合、
・2,088画素(全体の0.134%:自動判別閾値のとき)
・12,119画素(全体の0.778%:かすれ補正用閾値のとき)
となる。
【0045】
このように自動判別閾値よりも大きなかすれ補正用閾値を用いることにより、赤プレーンのAND合成画像とその他のAND合成画像との黒画素頻度差が拡大される。そのためドロップアウトプレーンの選択処理をより確実に行なうことができる。
【0046】
なお、AND合成画像の黒画素頻度差ではなく、各プレーン画像自体の黒画素頻度差に基づきドロップアウトプレーンを特定してもよい。
【0047】
図6は、図3〜図5の検出手法に対応した全体構成を示す説明図である。
【0048】
図6において、
21〜38は、図2における該当番号と同一内容の構成要素,
81〜83は、R画像26,G画像27およびB画像28のそれぞれを自動判別閾値法処理部36〜38の出力値で二値化処理する二値化部,
84〜86は、メモリやワーク領域(図示省略)に保持したR二値画像,G二値画像およびB二値画像,
87は、Y信号二値画像32と、R二値画像84,G二値画像85およびB二値画像86のそれぞれとのAND演算を実行するAND演算合成部,
88〜90は、メモリやワーク領域(図示省略)に保持したYR合成二値画像,YG合成二値画像およびYB合成二値画像,
91は、これらの各合成二値画像のヒストグラムにおける黒画素頻度を求め、当該黒画素頻度に基づき単一のドロップアウトカラー種別を特定できるかどうかを判断する(図14のステップ(s12) 参照)黒画素頻度算出・判定部,
92は、黒画素頻度算出・判定部91で特定されたプレーン画像(図示の場合は赤プレーン画像)を選択して出力するプレーン画像選択・出力部,
93は、構成要素81〜91からなる統合ブロック,
をそれぞれ示している。
【0049】
図7〜図9は、ドロップアウトプレーン検出手法の概要(その3)を示す説明図である。図7はRプレーンの場合、図8はGプレーンの場合、図9はBプレーンの場合をそれぞれ示している。
【0050】
図7〜図9において、
17および51は、図3〜図5における該当番号と同一内容の構成要素,
52′は、読取帳票の赤プレーンを、その自動判別閾値(=123)を用いる局所的二値化法(図17〜図19参照)で二値化して求めた第1の赤プレーン二値画像,
53′は、読取帳票の赤プレーンを、そのかすれ補正用閾値(=159)を用いる上記局所的二値化法で二値化して求めた第2の赤プレーン二値画像,
56は、Y信号二値画像51と第1の赤プレーン二値画像52′とのXOR合成画像(黒画素頻度=5.943%),
57は、Y信号二値画像51と第2の赤プレーン二値画像53′とのXOR合成画像(黒画素頻度=6.014%),
62′は、読取帳票の緑プレーンを、その自動判別閾値(=103)を用いる上記局所的二値化法で二値化して求めた第1の緑プレーン二値画像,
63′は、読取帳票の緑プレーンを、そのかすれ補正用閾値(=133)を用いる上記局所的二値化法で二値化して求めた第2の緑プレーン二値画像,
66は、Y信号二値画像51と第1の緑プレーン二値画像62′とのXOR合成画像(黒画素頻度=4.424%),
67は、Y信号二値画像51と第2の緑プレーン二値画像63′とのXOR合成画像(黒画素頻度=3.577%),
72′は、読取帳票の青プレーンを、その自動判別閾値(=111)を用いる上記局所的二値化法で二値化して求めた第1の青プレーン二値画像,
73′は、読取帳票の青プレーンを、そのかすれ補正用閾値(=144)を用いる上記局所的二値化法で二値化して求めた第2の青プレーン二値画像,
76は、Y信号二値画像51と第1の青プレーン二値画像72′とのXOR合成画像(黒画素頻度=4.404%),
77は、Y信号二値画像51と第2の青プレーン二値画像73′とのXOR合成画像(黒画素頻度=4.219%),
をそれぞれ示している。なお、黒レベルを論理値「1」としている。
【0051】
図7〜図9の検出手法は、読取帳票の各プレーンの二値画像と、当該各プレーン画像から求めたY信号二値画像(輝度信号画像)とのXOR合成画像間における黒画素頻度の違いに着目したものである。
【0052】
XOR合成画像56,57,66,67,76,77の黒画素頻度は、図3〜図5のAND合成画像におけるそれぞれとはいわば逆の関係になっている。
【0053】
すなわち、これらXOR合成画像の場合、Y信号二値画像の黒画素であって、赤,青,緑の各プレーン二値画像の白画素部分(二値化処理により消えた画素部分)が黒画素に反転し、一方、当該プレーン二値画像の黒画素部分(二値化処理により消えなかった画素部分)が白画素に反転する。
【0054】
そのため、各プレーンのXOR合成画像の黒画素頻度は、プレーン画像の二値化処理によって消える(白となる)部分が他のプレーンよりも多い赤プレーンにおいて最大となる。
【0055】
各プレーンのXOR合成画像56,57,66,67,76,77における黒画素頻度は、
(1)図7の赤プレーンの場合、
・5.943%(自動判別閾値:123)
・6.014%(かすれ補正用閾値:159=123×1.3)
(2)図8の緑プレーンの場合、
・4.424%(自動判別閾値:103)
・3.577%(かすれ補正用閾値:133=103×1.3)
(2)図9の青プレーンの場合、
・4.404%(自動判別閾値:111)
・4.219%(かすれ補正用閾値:144=111×1.3)
であった。なお、これらの数値は各プレーンの全体画像(図示の1/4部分の画像のみではなく)における値である。
【0056】
このような赤,青,緑の各プレーンの上記XOR画像における黒画素頻度を求めて比較することにより、当該頻度が最小のプレーン(図示の帳票の場合は赤プレーン)をドロップアウトプレーンとして特定できる。
【0057】
なお、これら各プレーンのXOR合成画像間の黒画素頻度差に対応の画素数は、上述のようにA5サイズで全画素数が1,557,790 画素の読取帳票において、
(1)赤プレーンと緑プレーンとの場合、
・23,662画素(全体の1.519%:自動判別閾値のとき)
・37,963画素(全体の2.437%:かすれ補正用閾値のとき)
(2)赤プレーンと青プレーンとの場合、
・23,974画素(全体の1.539%:自動判別閾値のとき)
・27,962画素(全体の1.795%:かすれ補正用閾値のとき)
(3)緑プレーンと青プレーンとの場合、
・311画素(全体の0.02%:自動判別閾値のとき)
・10,001画素(全体の0.642%:かすれ補正用閾値のとき)
となる。
【0058】
図10は、図7〜図9の検出手法に対応した全体構成を示す説明図である。
【0059】
図10において、
21〜38は、図2および図6における該当番号と同一内容の構成要素,
101〜103は、R画像26,G画像27およびB画像28のそれぞれを局所的二値化法(図17〜図19参照)により二値化して各プレーン二値画像を作成する局所的二値化部,
104〜106は、メモリやワーク領域(図示省略)に保持したR二値画像,G二値画像およびB二値画像,
107は、Y信号二値画像32と、R二値画像104,G二値画像105およびB二値画像106のそれぞれとのXOR演算を実行するXOR演算合成部,
108〜110は、メモリやワーク領域(図示省略)に保持したYR合成二値画像,YG合成二値画像およびYB合成二値画像,
111は、これらの各合成二値画像のヒストグラムにおける黒画素頻度を求め、当該黒画素頻度に基づき単一のドロップアウトカラー種別を特定できるかどうかを判断する(図14のステップ(s13) 参照)黒画素頻度算出・判定部,
112は、黒画素頻度算出・判定部111で特定されたプレーン画像(図示の場合は赤プレーン画像)を選択して出力するプレーン画像選択・出力部,
113は、構成要素101〜111からなる統合ブロック,
をそれぞれ示している。
【0060】
なお、局所的二値化部101〜103は図19の局所的二値化対象範囲の調整機能を備えたものである。
【0061】
図11は、青系および赤系のドロップアウトカラーを持つ帳票例を示す説明図であり、
121は、青系ドロップアウトカラーの印鑑枠,
122は、赤系ドロップアウトカラーの記入文字枠,
をそれぞれ示している。
【0062】
図12は、図11の帳票に対する合成画像の出力手法を示す説明図である。
【0063】
図12において、
131は、読取帳票のY信号画像を局所的二値化法により二値化して生成したY信号二値画像,
132は、読取帳票の赤プレーン画像を自動判別閾値で二値化して生成したRプレーン二値画像,
133は、Y信号二値画像131とRプレーン二値画像132とのAND演算合成により生成したYR合成二値画像,
134は、読取帳票の青プレーン画像を自動判別閾値で二値化して生成したBプレーン二値画像,
135は、YR合成二値画像133とBプレーン二値画像134とのAND演算合成により生成したYRB合成二値画像,
をそれぞれ示している。なお、黒レベルが論理値「1」である。
【0064】
ここで、
・YR合成二値画像133からは、赤系ドロップアウトカラー(記入文字枠122)が消え、
・YRB合成二値画像135からは、赤系ドロップアウトカラーに加えて青系ドロップアウトカラー(印鑑枠121)も消える。
【0065】
なお、YRB合成二値画像135とGプレーン二値画像(図示省略)とのAND演算合成も実行するが、図示の読取帳票の場合には、当該Gカラー部分を積極的に含んでいないため、この合成処理による画像の変化は特にない。
【0066】
図13は、図12の出力手法に対応した全体構成を示す説明図である。
【0067】
図13において、
21〜32,39,44,91,93,111および113は、図2,図6および図10における該当番号と同一内容の構成要素,
141は、例えば統合ブロック113におけるR二値画像104,G二値画像105,B二値画像106を一つずつ順に(順番は任意)選択するRGB二値画像選択部,
142は、Y信号二値画像32と、RGB二値画像選択部141で選択された例えばR二値画像104とのAND演算を実行するAND演算合成部,
143は、メモリやワーク領域(図示省略)に保持したYR合成二値画像,
144は、YR合成二値画像143と、RGB二値画像選択部141で選択された例えばG二値画像105とのAND演算をするAND演算合成部,
145は、メモリやワーク領域(図示省略)に保持したYRG合成二値画像,
146は、YRG合成二値画像145と、RGB二値画像選択部141で選択された例えばB二値画像106とのAND演算をするAND演算合成部,
147は、メモリやワーク領域(図示省略)に保持したYRGB合成二値画像,148は、YRGB合成二値画像147を出力する合成二値画像出力部,
をそれぞれ示している。
【0068】
図14は、図13の全体構成に対応した処理手順を示す説明図であり、その内容は次のようになっている。
(s1) 対象帳票を2次元カラーCCDで読み取って、次のステップに進む。
(s2) この読取帳票をRGBの各プレーンに分割して、次のステップに進む。
(s3) この各プレーン画像に基づき読取帳票のY信号二値画像を生成して、次のステップに進む。
(s4) 先のRGBの各プレーン画像のヒストグラム演算を実行して、次のステップに進む。
(s5) この各プレーンヒストグラムにおける自動閾値(Th1〜Th3)をそれぞれ算出して(図16参照)、次のステップに進む。なお、算出した各自動閾値自体とTh1〜Th3とを、Th1≧Th2≧Th3の形で対応させる。
(s6) この各自動閾値において、
・Th1−Th2≧30
・Th2−Th3≦10
の条件をともに満たすかどうか判断して、「満たす」場合は次のステップに進み、「満たさない」場合はステップ(s9) に進む。このときの判断主体はプレーン画像判定・選択部39である。
(s7) 自動閾値Th1に対応のプレーン画像(図1の帳票の場合は赤プレーン)の二値化を実行して、次のステップに進む。
(s8) このプレーン二値画像と先のY信号二値画像とのAND演算合成を実行して、ステップ(s20) に進む。
(s9) RGBの各プレーン画像を二値化して、次のステップに進む。
(s10) この各プレーン二値画像と先のY信号二値画像とのAND演算合成を実行して、次のステップに進む。
(s11) この各合成画像における黒画素頻度(Bf1〜Bf3)をそれぞれ算出して、次のステップに進む。なお、算出した各黒画素頻度自体とBf1〜Bf3とを、Bf1≦Bf2≦Bf3の形で対応させる。黒画素頻度は、合成画像の全体画素数に対する黒画素数の割合として求める。
(s12) この各黒画素頻度において、
・Bf2−Bf1≧1.5%
・Bf3−Bf2≦0.2%
の条件をともに満たすかどうか判断して、「満たす」場合はステップ(s19) に進み、「満たさない」場合は次のステップに進む。このときの判断主体は黒画素頻度算出・判定部91である。
(s13) 先の各プレーン二値画像とY信号二値画像とのXOR演算合成を実行して、次のステップに進む。
(s14) この各合成画像における黒画素頻度(Bf4〜Bf6)をそれぞれ算出して、次のステップに進む。なお、算出した各黒画素頻度自体とBf4〜Bf6とを、Bf4≧Bf5≧Bf6の形で対応させる。
(s15) この各黒画素頻度において、
・Bf4−Bf5≧1.0%
・Bf5−Bf6≦0.1%
の条件をともに満たすかどうか判断して、「満たす」場合はステップ(s19) に進み、「満たさない」場合は次のステップに進む。このときの判断主体は黒画素頻度算出・判定部111である。
(s16) 先のY信号二値画像とRプレーン二値画像とのAND演算合成を実行して、次のステップに進む。
(s17) このYR合成二値画像と先のGプレーン二値画像とのAND演算合成を実行して、次のステップに進む。
(s18) このYRG合成二値画像と先のBプレーン二値画像とのAND演算合成を実行して、ステップ(s20) に進む。
(s19) 黒画素頻度Bf1またはBf4に対応した画像を選択して、次のステップに進む。なお、Bf1の対応画像は合成二値画像(図3の帳票の場合はYR合成二値画像)であり、Bf4の対応画像はプレーン二値画像(図7の帳票の場合は赤プレーン二値画像)である。
(s20) ステップ(s18) の合成画像や、ステップ(s19) の選択画像を表示画面(図示省略)などに出力する。
【0069】
図13および図14において、統合ブロック44,93,113それぞれのブロック処理をすべて実行しなくてもよく、当該統合ブロックの任意の一つまたは二つの処理のみでもよい。また、統合ブロック44,93,113それぞれの処理の実行順序も任意である。例えば、統合ブロック93−113−44の順番でもよい。
【0070】
なお、このような処理態様の変更に応じて統合ブロックの構成要素が変化することは勿論である。例えば、統合ブロック44を省略する場合には、統合ブロック93の構成要素としてヒストグラム演算部33〜35および自動判別閾値法処理部36〜38が加わる。
【0071】
以上の帳票画像処理において、
・Y信号二値画像は主に局所的二値化法により生成し、
・赤,青,緑の各プレーン二値画像は自動判別閾値法や局所的二値化法により生成する。
【0072】
図15は、CCDおよび画素ずらし方式の概要を示す説明図であり、(a)はCCDの光電変換素子の配置態様を示し、(b)は撮像画素のずらしかたを示している。
【0073】
CCDの1画素分の光電変換部は、図示のように、1個の赤色変換用素子R,1個の青色変換用素子Bおよび2個の緑色変換用素子Gからなっている。
【0074】
40万個の光電変換部(RGGBの4素子)を所定間隔(2個の○部分)で配したCCDで帳票を読み取るとき、先ず1回目の撮像により(1)部分の画素信号が求まる。
【0075】
以下、CCDまたは帳票を図示の左右方向および下方向に8回ずらして(2)〜(9)の各部分の画素信号を順に取得する。
【0076】
この計9回の撮像で個々に求めた個別画素信号を合成することにより、360万画素(=40万×9)の画像信号が求まる。
【0077】
図16は、多値プレーン画像(0〜255階調)などの自動判別閾値を求める処理手順を示す説明図であり、その内容は次のようになっている。
(s31) 各階調の濃度レベルi(0≦i≦255)における正規化ヒストグラム値piを「pi=ni/N」により算出する。なお、niは濃度レベルiの画素数,Nは帳票全体の読取画素数である。
(s32) この正規化されたヒストグラムの平均濃度レベルμtを図示の式により算出する。
(s33) 階調0から階調k(0≦k≦255)までの、piの累積値ω(k)および「i*pi」の累積値m(k)を、それぞれ図示の式により階調ごとに算出する。
(s34) この累積値ω(k),m(k)および平均濃度レベルμtを用いて各階調k(0≦k≦255)に対応した分散値σ(k)を図示の式により算出する。
(s35) この分散値σ(k)が最大となる階調kを多値プレーン画像の2値化用閾値として設定する。
【0078】
図17は、局所的二値化法の概要を示す説明図である。
【0079】
図17において、
151は、局所的二値化処理の対象画素,
152は、対象画素に対する7×7画素の矩形フィルタ,
153は、矩形フィルタ内の文字部ストローク画素,
154は、矩形フィルタ内の背景画素,
σminは、矩形フィルタ内の背景分離用閾値(例えば100),
Eは、矩形フィルタ内の各画素の濃度平均値,
E2は、矩形フィルタ内の各画素の濃度二乗平均値,
g2は、濃度平均値Eおよび濃度二乗平均値E2を用いた図示の式により求まる、矩形フィルタ内の濃度分散値,
Sは、濃度平均値Eおよび濃度分散値g2を用いた図示の式により求まる、対象画素151の二値化用閾値,
をそれぞれ示している。
【0080】
なお、二値化用閾値Sを用いるのは、矩形フィルタ152が背景部分ではないと判断されたとき、すなわちg2>σminが成立するときである。
【0081】
局所的二値化法では、二値化の対象画素に対してそれを含む形の矩形フィルタ152を設定して、その中の画素全体の濃度分散値g2を求めた上でそれと背景分離用閾値g2との大小関係を調べることにより、当該矩形フィルタが背景部分,情報部分のいずれに相当するかを判定している。
【0082】
背景部分と判定した場合には、濃度分散値g2の大小に基づいて(対象画素の濃度を直接用いることなしに)対象画素151の「白」,「黒」を特定する。
【0083】
一方、情報部分と判定した場合には、対象画素151の濃度レベルの大小に基づいてその「白」,「黒」を特定する。
【0084】
図18は、局所的二値化法の処理手順を示す説明図であり、その内容は次のようになっている。
(s41) 矩形フィルタ152の濃度平均値Eを求める。
(s42) 矩形フィルタ152の濃度2乗平均値E2を求める。
(s43) 矩形フィルタ152の濃度分散値g2(=E2−E*E)を算出する。
(s44) 「背景分離用閾値σmin<濃度分散値g2」の場合には矩形フィルタ152を背景部分と判定して次のステップに進み、当該大小関係が成立しない場合には矩形フィルタ152を非背景部分と判定してステップ(s47) に進む。なお、σminは初期設定値(値は任意)であり、ここでは「100」としている。
(s45) 二値化用閾値S(=E+(g2)1/2 *0.1 )を算出する。この乗算係数を小さくすることにより文字周辺画素のノイズを抑制できる。
(s46) 「二値化用閾値S<対象画素151の濃度」の場合にはステップ(s48) に進み、当該大小関係が成立しない場合にはステップ(s49) に進む。
(s47) 「基準値<濃度平均値E」の場合には次のステップに進み、当該大小関係が成立しない場合にはステップ(s49) に進む。なお、基準値として何を用いるかは任意であり、例えば対象画像の自動判別閾値を当該基準値に用いてもよい。
(s48) 対象画素151を「白」と判定する。
(s49) 対象画素151を「黒」と判定する。
【0085】
図19は、局所的二値化対象範囲(文字かすれ部分と推定される範囲)の調整を示す説明図であり、
otは、対象画像ヒストグラムにおける自動判別閾値,
aおよびbは、局所的二値化対象範囲を調整するための係数,
b-aveは、黒領域(濃度0〜ot)の濃度平均,
w-aveは、白領域(濃度ot+1〜255)の濃度平均,
btは、局所的二値化対象範囲の下限濃度,
wtは、局所的二値化対象範囲の上限濃度,
をそれぞれ示している。
【0086】
ここでは、対象画像ヒストグラムにおける局所的二値化対象範囲(濃度bt〜wt)を図示の二つの式により算出している。当該式中の係数a,bを調整することにより局所的二値化対象範囲を任意に設定できる。係数a,bの調整は、局所的二値化部において、ハードウェアの動作により、またはソフトウェアの実行により行なわれる。
【0087】
このような推定範囲(濃度bt〜wt)のみの画素についてのみ局所的二値化法を実行することにより大幅な高速処理が可能である。
【0088】
推定範囲外の各画素は、一律的に「黒(濃度0〜bt)」または「白(濃度wt〜255)」と判定される。この白エリアにおける文字・数字のかすれに対しては、wtを大きくすることによりこの画素部分を「黒」と判定できる。一方、推定範囲の拡大にともなって画像全体の二値化の要処理時間が長くなる。
【0089】
ここの例では「a=0.35,b=0.62」に設定し、画像全体の5〜8%の画素に対する局所的二値化法を実行したところ、全画素を局所的二値化した場合と同等レベルの二値化画像が得られた。
【0090】
図20は、局所的二値化時のかすれ補正による二値画像の変化例を示す説明図であり、(a)は図17の背景分離用閾値を変更(σmin=100→50)した場合を示し、(b)は図19の局所的二値化対象範囲を変更(a=0.35,b=0.62→a=0.35,b=0.90)した場合を示している。
【0091】
以上のドロップアウトプレーン検出や合成画像出力などのための処理プログラムを格納する記録媒体としては、
・プログラム提供者側のデータベース(DASDなどの回線先メモリ)
・各種形式の可搬型記録媒体
・コンピュータ本体部側のRAMやハードディスク
などのいずれでもよい。当該プログラムはコンピュータ本体部にローディングされてその主メモリ上で実行される。
【0092】
(付記1)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票を、画素単位で、光学的に読み取る帳票読取装置において、
この読取画像のプレーンごとの画素濃度分布を求める濃度分布演算手段と、
この画素濃度分布の特性値を求め、当該特性値に基づいてドロップアウトプレーンを特定するプレーン選択手段とを備えた、
ことを特徴とする帳票読取装置。
(付記2)前記濃度分布演算手段は、前記特性値として、前記画素濃度分布の自動判別閾値を用いる、
ことを特徴とする付記1記載の帳票読取装置。
(付記3)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票を、画素単位で、光学的に読み取る帳票読取装置において、
この読取画像の各プレーンを二値化する二値化手段と、
このプレーン二値画像に対応した黒画素頻度または白画素頻度を求め、当該画素頻度に基づいてドロップアウトプレーンを特定するプレーン選択手段とを備えた、
ことを特徴とする帳票読取装置。
(付記4)前記二値化手段は、利用者記入の文字・数字のかすれ部分に対応するための二値化処理補正機能を持つ、
ことを特徴とする付記3記載の帳票読取装置。
(付記5)前記プレーン選択手段は、前記黒画素頻度または前記白画素頻度として、前記読取画像の輝度信号二値画像と前記プレーン二値画像との演算処理により生成した合成二値画像の画素頻度を用いる、
ことを特徴とする付記3記載の帳票読取装置。
(付記6)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票を、画素単位で、光学的に読み取る帳票読取装置において、
この読取画像の各プレーン二値画像および輝度信号二値画像を生成する画像生成手段と、
この輝度信号二値画像と前記各プレーン二値画像の一つとの演算処理により第1の合成二値画像を生成してから、この第1の合成二値画像と前記各プレーン二値画像の残りの一つとの演算処理により第2の合成二値画像を生成し、また、この第2の合成二値画像と前記各プレーン二値画像の残りの一つとの演算処理により第3の合成二値画像を生成する画像合成手段とを備えた、
ことを特徴とする帳票読取装置。
(付記7)前記画像生成手段は、利用者記入の文字・数字のかすれ部分に対応するための二値化処理補正機能を持つ、
ことを特徴とする付記6記載の帳票読取装置。
(付記8)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票の読取処理で用いられるプログラムにおいて、
当該プログラムが、
この帳票読取画像の各プレーンの画素濃度分布の特性値を求め、
当該特性値に基づいてドロップアウトプレーンを特定する機能をコンピュータに実現させるためのものである、
ことを特徴とする帳票読取処理用プログラム。
(付記9)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票の読取処理で用いられるプログラムにおいて、
当該プログラムが、
この帳票読取画像の各プレーン二値化画像に対応した黒画素頻度または白画素頻度を求め、
当該画素頻度に基づいてドロップアウトプレーンを特定する機能をコンピュータに実現させるためのものである、
ことを特徴とする帳票読取処理用プログラム。
(付記10)ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票の読取処理で用いられるプログラムにおいて、
当該プログラムが、
この帳票読取画像の、輝度信号二値画像と前記各プレーン二値画像の一つとの演算処理により第1の合成二値画像を生成してから、この第1の合成二値画像と前記各プレーン二値画像の残りの一つとの演算処理により第2の合成二値画像を生成し、また、この第2の合成二値画像と前記各プレーン二値画像の残りの一つとの演算処理により第3の合成二値画像を生成する機能をコンピュータに実現させるためのものである、
ことを特徴とする帳票読取処理用プログラム。
【0093】
【発明の効果】
本発明は、このように、対象帳票の読取画像の各プレーンにおける画素濃度分布の特性値(例えば自動判別閾値)や、当該各プレーン二値画像に対応した黒画素頻度または白画素頻度に基づき、すなわちプレーン二値画像間のAND演算などの合成処理をせずに、ドロップアウトプレーンを特定しているので、ドロップアウトカラーを除去したかたちの帳票画像の生成処理を効率的に実行できる。
【0094】
また、読取画像の輝度信号二値画像とプレーン二値画像との合成二値画像(プレーン二値画像自体よりも解像度が高い)の黒画素頻度または白画素頻度を用いているので、ドロップアウトプレーンの特定精度を高めることができる。
【0095】
また、上述の特性値や黒画素頻度に基づいてドロップアウトプレーンを特定できない場合の、各プレーンの合成二値画像を生成するに際して、帳票の輝度信号二値画像との演算合成も実行しているので、合成二値画像自体の解像度を高めることができる。
【0096】
また、二値化用閾値,局所的二値化法の背景分離用閾値や対象範囲などを調整して、利用者記入の文字・数字のかすれ部分の適切な黒画素化を図っているので、ドロップアウトプレーン特定の精度を高めるとともに、最終的な出力画像における文字・数字をいわば太めにしてそれの認識精度を高めることができる。
【図面の簡単な説明】
【図1】ドロップアウトプレーン検出手法の概要(その1)を示す説明図である。
【図2】図1の検出手法に対応した全体構成を示す説明図である。
【図3】ドロップアウトプレーン検出手法の概要(その2:Rプレーン)を示す説明図である。
【図4】ドロップアウトプレーン検出手法の概要(その2:Gプレーン)を示す説明図である。
【図5】ドロップアウトプレーン検出手法の概要(その2:Bプレーン)を示す説明図である。
【図6】図3〜図5の検出手法に対応した全体構成を示す説明図である。
【図7】ドロップアウトプレーン検出手法の概要(その3:Rプレーン)を示す説明図である。
【図8】ドロップアウトプレーン検出手法の概要(その3:Gプレーン)を示す説明図である。
【図9】ドロップアウトプレーン検出手法の概要(その3:Bプレーン)を示す説明図である。
【図10】図7〜図9の検出手法に対応した全体構成を示す説明図である。
【図11】青系および赤系のドロップアウトカラーを持つ帳票例を示す説明図である。
【図12】図11の帳票に対する合成画像の出力手法の概要を示す説明図である。
【図13】図12の出力手法に対応した全体構成を示す説明図である。
【図14】図13の全体構成に対応した処理手順を示す説明図である。
【図15】CCDおよび画素ずらし方式の概要を示す説明図である。
【図16】プレーン多値画像の自動判別閾値法の処理手順を示す説明図である。
【図17】局所的二値化法(フィルタ)の概要を示す説明図である。
【図18】局所的二値化法の処理手順を示す説明図である。
【図19】局所的二値化対象範囲の調整を示す説明図である。
【図20】局所的二値化時のかすれ補正による二値画像の変化例を示す説明図である。
【符号の説明】
11:赤プレーン
12:赤プレーン多値画像のヒストグラム
13:緑プレーン
14:緑プレーン多値画像のヒストグラム
15:青プレーン
16:青プレーン多値画像のヒストグラム
17:帳票上の赤系枠(ドロップアウト部分)
21:2次元カラーCCD
22:画素ずらし手段
23:撮像画像合成手段
24:シェーディング補正手段
25:R,G,Bプレーン分割手段
26〜28
:赤,緑,青の各プレーン画像
29:Y信号画像生成手段,
30:Y信号画像
31:局所的二値化部
32:Y信号二値画像
33〜35
:ヒストグラム演算部
36〜38
:自動判別閾値法処理部
39:プレーン画像判定・選択部
40:選択画像二値化部
41:選択プレーン二値画像
42:AND演算合成部
43:合成画像出力部
44:統合ブロック
51:Y信号二値画像
52,52′
:第1の赤プレーン二値画像
53,53′
:第2の赤プレーン二値画像
54:AND合成画像(黒画素頻度=11.823%)
55:AND合成画像(黒画素頻度=12.030%)
56:XOR合成画像(黒画素頻度=5.943%)
57:XOR合成画像(黒画素頻度=6.014%)
62,62′
:第1の緑プレーン二値画像
63,63′
:第2の緑プレーン二値画像
64:AND合成画像(黒画素頻度=13.653%)
65:AND合成画像(黒画素頻度=15.495%)
66:XOR合成画像(黒画素頻度=4.424%)
67:XOR合成画像(黒画素頻度=3.577%)
72,72′
:第1の青プレーン二値画像
73,73′
:第2の青プレーン二値画像
74:AND合成画像(黒画素頻度=13.787%)
75:AND合成画像(黒画素頻度=16.273%)
76:XOR合成画像(黒画素頻度=4.404%)
77:XOR合成画像(黒画素頻度=4.219%)
81〜83
:二値化部
84:R二値画像
85:G二値画像
86:B二値画像
87:AND演算合成部
88:YR合成二値画像
89:YG合成二値画像
90:YB合成二値画像
91:黒画素頻度算出・判定部
92:プレーン画像選択・出力部
93:統合ブロック
101〜103
:局所的二値化部
104:R二値画像
105:G二値画像
106:B二値画像
107:XOR演算合成部
108:YR合成二値画像
109:YG合成二値画像
110:YB合成二値画像
111:黒画素頻度算出・判定部
112:プレーン画像選択・出力部
113:統合ブロック
121:印鑑枠(青系ドロップアウトカラー)
122:記入文字枠(赤系ドロップアウトカラー)
131:Y信号二値画像
132:Rプレーン二値画像
133:YR合成二値画像
134:Bプレーン二値画像
135:YRB合成二値画像
141:RGB二値画像選択部
142:AND演算合成部
143:YR合成二値画像
144:AND演算合成部
145:YRG合成二値画像
146:AND演算合成部
147:YRGB合成二値画像
148:合成二値画像出力部
151:局所的二値化処理の対象画素
152:対象画素に対する7×7画素の矩形フィルタ
153:文字部ストローク画素
154:背景画素
σmin:背景分離用閾値(例えば100)
E:矩形フィルタ内の各画素の濃度平均値
E2:矩形フィルタ内の各画素の濃度二乗平均値
g2:矩形フィルタ内の濃度分散値
S:対象画素の二値化用閾値
ot:自動判別閾値
a,b:局所的二値化対象範囲を調整するための係数
b-ave:黒領域(濃度0〜ot)の濃度平均
w-ave:白領域(濃度ot+1〜255)の濃度平均
bt:局所的二値化対象範囲の下限濃度
wt:局所的二値化対象範囲の上限濃度
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a reading device for a form (for example, a deposit / withdrawal slip used in a bank) including a dropout color portion and a user entry portion related thereto, and a reading processing program for the form.
[0002]
In particular, a plain image or the like in which the red character / number entry frame portion (dropout color portion) is erased from the read image of the form is automatically selected, and R, G, B of the read image is also selected. For example, an AND operation process of each plane binary image and luminance signal binary image is generated to generate a composite image with the contents of the entry frame removed, and based on these selected images and generated images, user-entered letters and numbers And so on.
[0003]
[Prior art]
2. Description of the Related Art Conventionally, an optical character reader that removes a dropout color portion such as a character frame on a form by AND operation of R, G, and B plane binary images of the form is disclosed in, for example, Japanese Patent Laid-Open No. 6-243290. Is disclosed.
[0004]
In the case of this optical character reader, the dropout color portion of the read form is set as the background pixel (white pixel) by performing an AND operation for each bit of the R, G, B plane binary images. A composite image is generated in which the character / number portion is an information pixel (black pixel).
[0005]
[Problems to be solved by the invention]
In the case of such an optical character reading method, since it is assumed that AND operation of each plain binary image is performed, the processing efficiency for a single dropout color (for example, red) form is poor. There was a point.
[0006]
This is because all character frame portions (dropout color portions) are removed from a single dropout color plane image, and there is no particular advantage of AND operation between the image and another color plane image.
[0007]
Therefore, in the present invention, it is determined whether or not there is a single plane in each plane of the form image that can be said to be equivalent to all of the dropout color portions being removed. An object is to improve the efficiency of the character recognition image specifying process in which the dropout color is removed from the form image by selecting and using it for the subsequent character / number recognition processing.
[0008]
In the case where such a single plane does not exist, when a composite image of each plane binary image is generated, this composite is also performed by using the luminance signal binary image (Y signal binary image) of the reading form together. The purpose is to increase the resolution of the image.
[0009]
[Means for Solving the Problems]
The present invention solves this problem as follows.
(1) In a form reading device that optically reads a form including a dropout color part and a user entry part related thereto in pixel units.
Pixel density calculation means for obtaining a pixel density distribution for each plane of the read image of the form;
Based on the pixel density distribution for each plane, a threshold value calculation means for obtaining each threshold value for dropout color discrimination and binarization of the dropout plane for each pixel density distribution;
Plane selection means for selecting a dropout plane of the read image based on each threshold;
Based on the threshold corresponding to the selection, binarization means for binarizing the dropout plane according to the selection;
Is provided.
[0010]
According to the present invention, as described in (1) above, based on the threshold values for dropout color discrimination and dropout plane binarization of each pixel density distribution in each plane of the read image of the target form, that is, plane 2 A dropout plane is selected and binarized without performing a synthesis process such as an AND operation between value images. As a result, the form image generation process in which the dropout color is removed is efficiently executed.
[0011]
As will be described later in this specification, the dropout plane is selected based on the black pixel frequency or the white pixel frequency corresponding to each plane binary image of the read image of the target form as the technology related to the present invention of (1) above. It also shows what to do.
Since the sum of the black pixel frequency and the white pixel frequency in the plain binary image is 100%, any of the frequencies may be used as a condition for specifying the dropout plane. For example, the conditional expression for the black pixel frequency in steps (s12) and (s15) in FIG. 14 is also a conditional expression for the white pixel frequency by substituting “black pixel frequency = 100−white pixel frequency”.
[0012]
Here, by adjusting the threshold for binarization, the threshold for background separation of the local binarization method (FIGS. 17 to 19), the target range, etc., an appropriate black in the blurred portion of the letters and numbers entered by the user By using pixels, the accuracy of specifying the dropout plane is increased, and the recognition accuracy is improved by making the letters and numbers in the final output image thicker.
[0013]
Further, by using the black pixel frequency or the white pixel frequency of the composite binary image (the resolution is higher than that of the plane binary image itself) of the luminance signal binary image and the plain binary image of the read image, the dropout plane Increases specific accuracy.
[0015]
The present invention is directed to a form reading apparatus having such characteristics, and further efficiently executes a form image generation process in which the dropout color is removed, and makes the form image highly accurate. A form reading program is also targeted.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described with reference to FIGS.
[0017]
In the following description, for the sake of convenience of explanation, in principle, a red dropout color form is targeted, the size of the form is about A5 size, and the total number of pixels of the read image is 1,557,790 pixels.
[0018]
FIG. 1 is an explanatory diagram showing an outline (part 1) of the dropout plane detection method.
[0019]
In FIG.
11 is a red plane when the form is read with a two-dimensional color CCD,
12 is a histogram of this red plane multi-valued image,
13 is a green plane when the form is read with a two-dimensional color CCD,
14 is a histogram of this green plane multi-valued image,
15 is a blue plane when a form is read with a two-dimensional color CCD,
16 is a histogram of this blue plane multi-valued image,
17 is a red frame on the form (dropout part),
Respectively.
[0020]
The horizontal axes of the histograms 12, 14, and 16 are pixel densities (brightness) indicating 256 gradations from a black level of “0” to a white level of “255”, and the vertical axis corresponds to the number of pixels. ing. Further, the black border frame of each plain image is an image component of a table portion on which the form is placed when the form is read.
[0021]
A two-dimensional color CCD for reading a form is composed of a checkered pattern composed of photoelectric conversion elements for red, green and blue (see FIG. 15).
[0022]
The detection method of FIG. 1 pays attention to the difference in density distribution in the histogram of each plane image of red, green, and blue.
[0023]
The processing target form has, for example, a white background portion and a red frame 17 and the like, and the user enters black characters and numerical values in the red frame.
[0024]
The histogram of each plane 11, 13, 15 of red, green, blue (R, G, B) in this form image is
-In the case of a red plane, the peak distribution is 2 places and the automatic discrimination threshold is “187”.
In both of the green plane and the blue plane, the density distribution has three peak portions and the automatic determination threshold value is “152”.
[0025]
Here, the dropout type of the target form is automatically determined by specifying the plane having the maximum histogram automatic determination threshold. In the case shown in the figure, it is determined as a red dropout color form. Note that the method of obtaining the automatic discrimination threshold of the histogram itself is known (see FIG. 16).
[0026]
The automatic determination threshold (= 187) of the red plane 11 is different from the automatic determination threshold (= 152) of the green and blue planes 13 and 15, that is, the peak conditions of the histograms 12, 14, and 16 of each plane are different. This is because the reflectance of light with respect to a red portion such as the red frame 17 on the form is larger at the red wavelength than at the green wavelength or the blue wavelength.
[0027]
As a matter of course, the read output (density) of the form with respect to the red frame 17 is larger in the red photoelectric conversion element than in the other green and blue photoelectric conversion elements. The read output of the red photoelectric conversion element is substantially equal to that of the background portion (white portion) of the form.
[0028]
Therefore, red pixels (red frame etc.) drop out on the red plane of the read image of the form, and the density distribution of the red pixels in the histogram of the plane is merged with that of the background pixels (white pixels). Become a shape. Such a merge phenomenon does not occur in the green and blue planes in which the red frame remains in the read image.
[0029]
As a result, the automatic determination threshold value, which serves as a guide for the density distribution of each plane, is larger in the red plane than in the other green and blue planes.
[0030]
Of course, in the case of a blue dropout color form such as a withdrawal form, the density distribution of the blue frame is merged with the density distribution of the background pixel (white pixel) in the histogram of the blue plane.
[0031]
In this way, the dropout color type of the form is automatically determined based on the histogram of each plane of the form image. That is, it is determined that the read form in the case of FIG. 1 is a red dropout color. The value used for this automatic determination only needs to correspond to the contents of each plane histogram, and may be, for example, the average value of the pixel density distribution.
[0032]
FIG. 2 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIG.
[0033]
In FIG.
21 is a two-dimensional color CCD having 400,000 pixels and a small capacity for optically reading, for example, an A5 size form.
22 performs pixel shift control for this two-dimensional color CCD (for example, a form image of a total of 3.6 million pixels is obtained based on nine pixel shift processes: see FIG. 15),
23 is a picked-up image synthesizing means for synthesizing, for example, nine images obtained by this pixel shifting process
24 is a shading correction means for equalizing the shade of the composite image;
25, R, G, B plane dividing means for dividing the read image after the shading correction into red, green and blue plane images;
26 to 28 are red, green and blue plane images held in a memory or work area (not shown),
29 is a Y signal image generating means for creating a Y signal image (luminance signal image) from each of the red, green and blue plane images;
30 is a Y signal image held in a memory or work area (not shown);
31 is a local binarization unit that binarizes this Y signal image by a local binarization method (see FIGS. 17 to 19) to create a binary Y image;
32 is a Y signal binary image held in a memory or work area (not shown),
Reference numerals 33 to 35 denote histogram calculation units that perform histogram calculation of red, blue, and green plane images (R image, G image, and B image),
36 to 38 are automatic discrimination threshold method processing units for obtaining a threshold for binarization from the histogram of each plane,
39 determines whether or not a single dropout color type can be specified based on the threshold value of each plane (see step (s6) in FIG. 14). If it can be specified, plane image determination for selecting that plane is performed.・ Selection part,
40 is a selected image binarization unit that binarizes each pixel signal of the selection plane with the automatic discrimination threshold;
41 is a selected plane binary image held in a memory or work area (not shown),
42 is an AND operation combining unit that performs an AND operation on the Y signal binary image 32 and the selected plane binary image 41;
43 is a composite image output unit for outputting the AND composite image,
44 is an integrated block comprising the components 33 to 39,
Respectively.
[0034]
Note that each of the local binarization unit 31 and the selected image binarization unit 40 has a character blur processing function described later (1.3 times the automatic discrimination threshold in FIG. 3, FIGS. 19 and 20, etc.). reference).
[0035]
3-5 is explanatory drawing which shows the outline | summary (the 2) of a dropout plane detection method. 3 shows the case of the R plane, FIG. 4 shows the case of the G plane, and FIG. 5 shows the case of the B plane.
[0036]
In FIGS. 3 to 5 and FIGS. 7 to 9 to be described later, only the substantially upper left 1/4 portion of the entire plane is shown in consideration of the display size of the handwritten character portion of each plane in the drawing.
[0037]
3 to 5,
17 is a red frame similar to FIG.
51 is a Y signal binary image obtained by the local binarization method (see FIGS. 17 to 19) of the luminance signal obtained from the red, blue, and green plain images of the reading form;
52 is a first red plane binary image obtained by binarizing the red plane of the read form with its automatic discrimination threshold (= 123),
53 is a second red plane binary image obtained by binarizing the red plane of the read form with a blur correction threshold (= 159: 1.3 times the automatic discrimination threshold);
54 is an AND composite image of the Y signal binary image 51 and the first red plane binary image 52 (black pixel frequency = 11.823%),
55 is an AND composite image (black pixel frequency = 12.030%) of the Y signal binary image 51 and the second red plane binary image 53;
62 is a first green plane binary image obtained by binarizing the green plane of the read form with its automatic discrimination threshold (= 103);
63 is a second green plane binary image obtained by binarizing the green plane of the read form with the threshold value for blurring correction (= 133: 1.3 times the automatic discrimination threshold value),
64 is an AND composite image of the Y signal binary image 51 and the first green plane binary image 62 (black pixel frequency = 13.653%),
65 is an AND composite image (black pixel frequency = 15.495%) of the Y signal binary image 51 and the second green plane binary image 63;
72 is a first blue plane binary image obtained by binarizing the blue plane of the read form with its automatic discrimination threshold (= 111);
73 is a second blue plane binary image obtained by binarizing the blue plane of the read form with a blur correction threshold (= 144: 1.3 times the automatic discrimination threshold);
74 is an AND composite image of the Y signal binary image 51 and the first blue plane binary image 72 (black pixel frequency = 13.787%),
75 is an AND composite image (black pixel frequency = 16.273%) of the Y signal binary image 51 and the second blue plane binary image 73;
Respectively. The black level is a logical value “1”.
[0038]
The detection method of FIGS. 3 to 5 is based on the difference in the black pixel frequency in each of the AND composite images of the binary image of each plane of the reading form and the Y signal binary image (luminance signal binary image) of each plane. It is the one that paid attention. These AND composite images are also images obtained by removing the noise portion of the binary image of each plane before composition. That is, the resolution is higher than that of the plain image before synthesis.
[0039]
Here, the AND composite images 54 and 55 of the red plane are binary images consisting only of characters and guide information with the dropout color (such as the red frame 17) of the read form almost disappearing.
[0040]
On the other hand, the AND composite images 64 and 65 for the green plane and the AND composite images 74 and 75 for the blue plane are images including a dropout color (such as the red frame 17) of the read form.
[0041]
It should be noted that the frequency of black pixels in each of the red, blue, and green plain binary images is increased by increasing the binarization threshold as shown in the figure. This is because the read density of a pixel corresponding to a thin line part such as a character, a red frame, or a faint part written on the form is small, and the pixel is processed as a white level at the time of binarization with a low threshold, that is, Because it will disappear.
[0042]
The black pixel frequency in the AND composite image 54, 55, 64, 65, 74, 75 of each plane is
(1) In the case of the red plane in FIG.
-11.823% (automatic discrimination threshold: 123)
・ 12.030% (threshold for blurring correction: 159 = 123 × 1.3)
(2) In the case of the green plane in FIG.
・ 13.653% (automatic discrimination threshold: 103)
・ 15.495% (threshold for blurring correction: 133 = 103 × 1.3)
(3) In the case of the blue plane in FIG.
13.787% (automatic discrimination threshold: 111)
16.273% (threshold correction threshold: 144 = 111 × 1.3)
Met. These numerical values are values in the entire image of each plane (not only the ¼ portion image shown in the figure).
[0043]
By determining and comparing the black pixel frequency in the AND composite image of each of the red, green, and blue planes, the plane with the lowest frequency (the red plane in the case of the illustrated form) is identified as the dropout plane. it can.
[0044]
The number of pixels corresponding to the black pixel frequency difference between the AND composite images of these planes is the above-mentioned A5 size and the overall reading form of 1,557,790 pixels,
(1) In case of red plane and green plane,
-28,507 pixels (1.83% of the total: when the automatic discrimination threshold)
-53,978 pixels (3.465% of the total: when the threshold value for blur correction)
(2) In case of red plane and blue plane,
・ 30,595 pixels (1.964% of the total: automatic discrimination threshold)
66,097 pixels (4.243% of the total: at the threshold value for blur correction)
(3) For the green and blue planes,
・ 2,088 pixels (0.134% of the total: when automatic discrimination threshold)
・ 12,119 pixels (0.778% of the total: at the threshold value for blur correction)
It becomes.
[0045]
By using the blur correction threshold value that is larger than the automatic discrimination threshold value in this way, the black pixel frequency difference between the AND composite image of the red plane and the other AND composite image is expanded. Therefore, the dropout plane selection process can be performed more reliably.
[0046]
Note that the dropout plane may be specified based on the black pixel frequency difference of each plane image itself instead of the black pixel frequency difference of the AND composite image.
[0047]
FIG. 6 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.
[0048]
In FIG.
21 to 38 are components having the same contents as the corresponding numbers in FIG.
81-83 are binarization units for binarizing each of the R image 26, G image 27, and B image 28 with the output values of the automatic discrimination threshold method processing units 36-38,
84 to 86 are an R binary image, a G binary image, and a B binary image held in a memory or work area (not shown),
87 is an AND operation combining unit that performs an AND operation on the Y signal binary image 32 and each of the R binary image 84, the G binary image 85, and the B binary image 86;
Reference numerals 88 to 90 denote YR composite binary images, YG composite binary images, and YB composite binary images held in a memory or work area (not shown).
91 obtains the black pixel frequency in the histogram of each composite binary image, and determines whether or not a single dropout color type can be specified based on the black pixel frequency (see step (s12) in FIG. 14). Black pixel frequency calculation / determination unit,
92 is a plane image selection / output unit that selects and outputs the plane image (red plane image in the case of illustration) identified by the black pixel frequency calculation / determination unit 91;
93 is an integrated block composed of the components 81 to 91;
Respectively.
[0049]
7 to 9 are explanatory views showing an outline (part 3) of the dropout plane detection method. 7 shows the case of the R plane, FIG. 8 shows the case of the G plane, and FIG. 9 shows the case of the B plane.
[0050]
7 to 9,
17 and 51 are components having the same contents as the corresponding numbers in FIGS.
52 ′ is a first red plane binary image obtained by binarizing the red plane of the read form by a local binarization method (see FIGS. 17 to 19) using the automatic discrimination threshold (= 123). ,
53 ′ is a second red plane binary image obtained by binarizing the red plane of the reading form by the local binarization method using the blur correction threshold (= 159);
56 is an XOR composite image of the Y signal binary image 51 and the first red plane binary image 52 ′ (black pixel frequency = 5.943%),
57 is an XOR composite image (black pixel frequency = 6.014%) of the Y signal binary image 51 and the second red plane binary image 53 ′;
62 ′ is a first green plane binary image obtained by binarizing the green plane of the read form by the local binarization method using the automatic discrimination threshold (= 103);
63 ′ denotes a second green plane binary image obtained by binarizing the green plane of the read form by the above-described local binarization method using the blur correction threshold (= 133);
66, an XOR composite image (black pixel frequency = 4.424%) of the Y signal binary image 51 and the first green plane binary image 62 ′;
67 is an XOR composite image (black pixel frequency = 3.577%) of the Y signal binary image 51 and the second green plane binary image 63 ′.
72 ′ is a first blue plane binary image obtained by binarizing the blue plane of the read form by the local binarization method using the automatic discrimination threshold (= 111);
73 ′ is a second blue plane binary image obtained by binarizing the blue plane of the read form by the above-described local binarization method using the blur correction threshold (= 144);
76 is an XOR composite image of the Y signal binary image 51 and the first blue plane binary image 72 ′ (black pixel frequency = 4.404%),
77 is an XOR composite image (black pixel frequency = 4.219%) of the Y signal binary image 51 and the second blue plane binary image 73 ′,
Respectively. The black level is a logical value “1”.
[0051]
The detection methods in FIGS. 7 to 9 are different in the black pixel frequency between the XOR composite images of the binary image of each plane of the reading form and the Y signal binary image (luminance signal image) obtained from each plane image. Is focused on.
[0052]
The black pixel frequencies of the XOR composite images 56, 57, 66, 67, 76, and 77 have an inverse relationship to each of the AND composite images in FIGS.
[0053]
That is, in the case of these XOR composite images, the black pixels of the Y signal binary image, and the white pixel portion (the pixel portion disappeared by the binarization process) of the red, blue, and green plain binary images are black pixels. On the other hand, the black pixel portion of the plane binary image (the pixel portion that has not been erased by the binarization process) is inverted to the white pixel.
[0054]
Therefore, the black pixel frequency of the XOR composite image of each plane is maximized in the red plane where the portion that disappears (becomes white) by the binarization processing of the plane image is larger than the other planes.
[0055]
The black pixel frequency in the XOR composite image 56, 57, 66, 67, 76, 77 of each plane is
(1) In the case of the red plane in FIG.
-5.943% (automatic discrimination threshold: 123)
6.014% (threshold for blurring correction: 159 = 123 × 1.3)
(2) In the case of the green plane in FIG.
・ 4.424% (automatic discrimination threshold: 103)
3.577% (threshold correction threshold: 133 = 103 × 1.3)
(2) In the case of the blue plane in FIG.
-4.404% (automatic discrimination threshold: 111)
4.219% (threshold correction threshold: 144 = 111 × 1.3)
Met. These numerical values are values in the entire image of each plane (not only the ¼ portion image shown in the figure).
[0056]
By obtaining and comparing the black pixel frequency in the XOR image of each of the red, blue, and green planes, the plane with the lowest frequency (in the case of the illustrated form, the red plane) can be specified as the dropout plane. .
[0057]
It should be noted that the number of pixels corresponding to the black pixel frequency difference between the XOR composite images of each plane is A5 size and the total number of pixels is 1,557,790 pixels as described above.
(1) In case of red plane and green plane,
23,662 pixels (1.519% of the total: when the automatic discrimination threshold)
37,963 pixels (2.437% of the total: when the threshold value for blur correction)
(2) In case of red plane and blue plane,
23,974 pixels (1.539% of the total: when the automatic discrimination threshold)
27,962 pixels (1.795% of the total: at the threshold value for blur correction)
(3) For the green and blue planes,
・ 311 pixels (0.02% of the total: when automatic discrimination threshold)
・ 10,001 pixels (0.642% of the whole: at the threshold value for blur correction)
It becomes.
[0058]
FIG. 10 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.
[0059]
In FIG.
21 to 38 are components having the same contents as the corresponding numbers in FIG. 2 and FIG.
Reference numerals 101 to 103 denote local binary images that create each plane binary image by binarizing each of the R image 26, the G image 27, and the B image 28 by a local binarization method (see FIGS. 17 to 19). ,
Reference numerals 104 to 106 denote an R binary image, a G binary image, and a B binary image held in a memory or work area (not shown),
107 is an XOR operation combining unit that performs an XOR operation on the Y signal binary image 32 and each of the R binary image 104, the G binary image 105, and the B binary image 106;
108 to 110 are YR composite binary images, YG composite binary images, and YB composite binary images held in a memory or work area (not shown),
111 obtains the black pixel frequency in the histogram of each composite binary image, and determines whether or not a single dropout color type can be specified based on the black pixel frequency (see step (s13) in FIG. 14). Black pixel frequency calculation / determination unit,
112 is a plane image selection / output unit that selects and outputs the plane image (red plane image in the case of illustration) identified by the black pixel frequency calculation / determination unit 111;
Reference numeral 113 denotes an integrated block composed of the components 101 to 111.
Respectively.
[0060]
Note that the local binarization units 101 to 103 have the function of adjusting the local binarization target range in FIG.
[0061]
FIG. 11 is an explanatory diagram showing an example of a form having blue and red dropout colors.
121 is a blue dropout color seal frame,
122 is a red dropout color entry character frame,
Respectively.
[0062]
FIG. 12 is an explanatory diagram showing a composite image output method for the form of FIG.
[0063]
In FIG.
131 is a Y signal binary image generated by binarizing the Y signal image of the read form by a local binarization method;
Reference numeral 132 denotes an R-plane binary image generated by binarizing a red plane image of a read form with an automatic discrimination threshold;
133 is a YR composite binary image generated by AND operation synthesis of the Y signal binary image 131 and the R plane binary image 132;
134 is a B plane binary image generated by binarizing the blue plane image of the read form with an automatic discrimination threshold;
135 is a YRB composite binary image generated by AND operation synthesis of the YR composite binary image 133 and the B plane binary image 134;
Respectively. The black level is a logical value “1”.
[0064]
here,
-From the YR composite binary image 133, the red dropout color (entry text box 122) disappears.
From the YRB composite binary image 135, the blue dropout color (the seal frame 121) disappears in addition to the red dropout color.
[0065]
The YRB composite binary image 135 and the G-plane binary image (not shown) are also AND-combined. However, in the case of the read form shown in the drawing, the G color portion is not actively included. There is no particular change in the image due to this synthesis process.
[0066]
FIG. 13 is an explanatory diagram showing an overall configuration corresponding to the output method of FIG.
[0067]
In FIG.
21 to 32, 39, 44, 91, 93, 111 and 113 are components having the same contents as the corresponding numbers in FIG. 2, FIG. 6 and FIG.
141 is an RGB binary image selection unit that selects, for example, the R binary image 104, the G binary image 105, and the B binary image 106 one by one in order (arbitrary order) in the integrated block 113;
142 is an AND operation combining unit that performs an AND operation on the Y signal binary image 32 and, for example, the R binary image 104 selected by the RGB binary image selection unit 141;
143 is a YR composite binary image stored in a memory or work area (not shown),
144 is an AND operation combining unit that performs an AND operation on the YR combined binary image 143 and, for example, the G binary image 105 selected by the RGB binary image selecting unit 141;
145 is a YRG composite binary image held in a memory or work area (not shown),
Reference numeral 146 denotes an AND operation combining unit that performs an AND operation on the YRG combined binary image 145 and, for example, the B binary image 106 selected by the RGB binary image selecting unit 141.
147 is a YRGB composite binary image held in a memory or work area (not shown), 148 is a composite binary image output unit for outputting the YRGB composite binary image 147,
Respectively.
[0068]
FIG. 14 is an explanatory diagram showing a processing procedure corresponding to the overall configuration of FIG. 13, and the contents thereof are as follows.
(s1) The target form is read with a two-dimensional color CCD, and the process proceeds to the next step.
(s2) The read form is divided into RGB planes, and the process proceeds to the next step.
(s3) A Y signal binary image of the read form is generated based on each plane image, and the process proceeds to the next step.
(s4) The histogram calculation of each of the previous RGB plane images is executed, and the process proceeds to the next step.
(s5) The automatic threshold values (Th1 to Th3) in each plane histogram are calculated (see FIG. 16), and the process proceeds to the next step. Note that the calculated automatic threshold values themselves correspond to Th1 to Th3 in the form of Th1 ≧ Th2 ≧ Th3.
(s6) At each automatic threshold,
・ Th1-Th2 ≧ 30
・ Th2-Th3 ≦ 10
Whether or not both conditions are satisfied is determined. If “satisfy”, the process proceeds to the next step, and if not satisfied, the process proceeds to step (s9). The determination subject at this time is the plain image determination / selection unit 39.
(s7) The binarization of the plane image (red plane in the case of the form in FIG. 1) corresponding to the automatic threshold Th1 is executed, and the process proceeds to the next step.
(s8) An AND operation synthesis of this plain binary image and the previous Y signal binary image is executed, and the flow proceeds to step (s20).
(s9) The RGB plane images are binarized, and the process proceeds to the next step.
(s10) The AND operation synthesis of each plane binary image and the previous Y signal binary image is executed, and the process proceeds to the next step.
(s11) The black pixel frequencies (Bf1 to Bf3) in each composite image are calculated, and the process proceeds to the next step. The calculated black pixel frequencies themselves are associated with Bf1 to Bf3 in the form of Bf1 ≦ Bf2 ≦ Bf3. The black pixel frequency is obtained as a ratio of the number of black pixels to the total number of pixels of the composite image.
(s12) At each black pixel frequency,
・ Bf2-Bf1 ≧ 1.5%
・ Bf3-Bf2 ≦ 0.2%
If both conditions are satisfied, the process proceeds to step (s19). If not, the process proceeds to the next step. The determination subject at this time is the black pixel frequency calculation / determination unit 91.
(s13) The XOR operation synthesis of each plane binary image and the Y signal binary image is executed, and the process proceeds to the next step.
(s14) The black pixel frequency (Bf4 to Bf6) in each composite image is calculated, and the process proceeds to the next step. The calculated black pixel frequencies themselves are associated with Bf4 to Bf6 in the form of Bf4 ≧ Bf5 ≧ Bf6.
(s15) At each black pixel frequency,
・ Bf4-Bf5 ≧ 1.0%
・ Bf5-Bf6 ≦ 0.1%
If both conditions are satisfied, the process proceeds to step (s19). If not, the process proceeds to the next step. The determination subject at this time is the black pixel frequency calculation / determination unit 111.
(s16) The AND operation synthesis of the previous Y signal binary image and the R plane binary image is executed, and the process proceeds to the next step.
(s17) An AND operation synthesis of this YR composite binary image and the previous G plane binary image is executed, and the process proceeds to the next step.
(s18) An AND operation synthesis of this YRG composite binary image and the previous B-plane binary image is executed, and the flow proceeds to step (s20).
(s19) An image corresponding to the black pixel frequency Bf1 or Bf4 is selected, and the process proceeds to the next step. The corresponding image of Bf1 is a composite binary image (YR composite binary image in the case of the form of FIG. 3), and the corresponding image of Bf4 is a plain binary image (red plane binary image in the case of the form of FIG. 7). ).
(s20) The composite image in step (s18) and the selected image in step (s19) are output to a display screen (not shown).
[0069]
In FIG. 13 and FIG. 14, it is not necessary to execute all the block processes of the integrated blocks 44, 93 and 113, and only one or two arbitrary processes of the integrated block may be performed. Further, the execution order of the processes of the integrated blocks 44, 93, 113 is also arbitrary. For example, the order of the integrated blocks 93-113-44 may be used.
[0070]
Needless to say, the components of the integrated block change according to such a change in the processing mode. For example, when the integrated block 44 is omitted, histogram calculation units 33 to 35 and automatic discrimination threshold method processing units 36 to 38 are added as components of the integrated block 93.
[0071]
In the above form image processing,
・ Y signal binary image is generated mainly by local binarization method,
・ Red, blue, and green plain binary images are generated by the automatic discrimination threshold method and the local binarization method.
[0072]
FIGS. 15A and 15B are explanatory views showing an outline of the CCD and the pixel shifting method. FIG. 15A shows the arrangement of the photoelectric conversion elements of the CCD, and FIG. 15B shows how the imaging pixels are shifted.
[0073]
The photoelectric conversion unit for one pixel of the CCD includes one red conversion element R, one blue conversion element B, and two green conversion elements G as shown in the figure.
[0074]
When a form is read by a CCD in which 400,000 photoelectric conversion units (4 elements of RGGB) are arranged at a predetermined interval (two circle portions), first, the pixel signal of the portion (1) is obtained by the first imaging.
[0075]
Thereafter, the CCD or form is shifted eight times in the horizontal direction and the downward direction in the drawing, and the pixel signals of the respective parts (2) to (9) are obtained in order.
[0076]
An image signal of 3.6 million pixels (= 400,000 × 9) can be obtained by synthesizing the individual pixel signals individually obtained by the total of nine imaging operations.
[0077]
FIG. 16 is an explanatory diagram showing a processing procedure for obtaining an automatic discrimination threshold for a multi-value plane image (0 to 255 gradations), and the contents thereof are as follows.
(s31) The normalized histogram value pi at the density level i (0 ≦ i ≦ 255) of each gradation is calculated by “pi = ni / N”. Here, ni is the number of pixels of density level i, and N is the number of read pixels of the entire form.
(s32) The average density level μt of the normalized histogram is calculated by the equation shown in the figure.
(s33) The cumulative value ω (k) of pi and the cumulative value m (k) of “i * pi” from the gradation 0 to the gradation k (0 ≦ k ≦ 255) Calculate for each.
(s34) A variance value σ (k) corresponding to each gradation k (0 ≦ k ≦ 255) is calculated by the equation shown in the drawing using the accumulated values ω (k), m (k) and the average density level μt.
(s35) The gradation k at which the variance value σ (k) is maximum is set as the binarization threshold value of the multi-value plane image.
[0078]
FIG. 17 is an explanatory diagram showing an outline of the local binarization method.
[0079]
In FIG.
151 is a target pixel for local binarization processing,
152 is a 7 × 7 pixel rectangular filter for the target pixel;
153 is a character part stroke pixel in the rectangular filter,
154 is a background pixel in the rectangular filter,
σmin is a threshold for background separation in the rectangular filter (for example, 100),
E is the density average value of each pixel in the rectangular filter,
E2 is the mean square density value of each pixel in the rectangular filter,
g2 is a density dispersion value in the rectangular filter, which is obtained by the equation shown using the density average value E and the density mean square value E2.
S is a threshold value for binarization of the target pixel 151, which is obtained by the illustrated formula using the density average value E and the density variance value g2.
Respectively.
[0080]
Note that the binarization threshold S is used when it is determined that the rectangular filter 152 is not the background portion, that is, when g2> σmin is satisfied.
[0081]
In the local binarization method, a rectangular filter 152 that includes the binarization target pixel is set, and the density dispersion value g2 of the entire pixel in the pixel is obtained, and then the background separation threshold value is obtained. By examining the magnitude relationship with g2, it is determined whether the rectangular filter corresponds to the background portion or the information portion.
[0082]
When the background portion is determined, “white” and “black” of the target pixel 151 are specified based on the magnitude of the density dispersion value g2 (without directly using the density of the target pixel).
[0083]
On the other hand, when it is determined as the information portion, “white” and “black” are specified based on the density level of the target pixel 151.
[0084]
FIG. 18 is an explanatory diagram showing the processing procedure of the local binarization method, and the contents thereof are as follows.
(s41) The average density value E of the rectangular filter 152 is obtained.
(s42) The density mean square value E2 of the rectangular filter 152 is obtained.
(s43) The density dispersion value g2 (= E2-E * E) of the rectangular filter 152 is calculated.
(s44) In the case of “background separation threshold σmin <density variance value g2”, the rectangular filter 152 is determined as the background portion, and the process proceeds to the next step. Proceed to step (s47) by determining that it is a part. Σmin is an initial setting value (value is arbitrary), and is set to “100” here.
(s45) Threshold for binarization S (= E + (g2) 1/2 * 0.1) is calculated. By reducing this multiplication coefficient, noise around the pixels around the character can be suppressed.
(s46) If “binarization threshold S <density of target pixel 151”, the process proceeds to step (s48), and if the magnitude relationship is not established, the process proceeds to step (s49).
(s47) If “reference value <density average value E”, the process proceeds to the next step, and if the magnitude relationship is not established, the process proceeds to step (s49). Note that what is used as the reference value is arbitrary. For example, an automatic determination threshold value of the target image may be used as the reference value.
(s48) The target pixel 151 is determined to be “white”.
(s49) The target pixel 151 is determined to be “black”.
[0085]
FIG. 19 is an explanatory diagram illustrating adjustment of a local binarization target range (a range estimated as a blurred character portion),
ot is an automatic discrimination threshold in the target image histogram,
a and b are coefficients for adjusting the local binarization target range,
b-ave is the density average of the black region (density 0 to ot),
w-ave is the density average of the white region (density ot + 1 to 255),
bt is the lower limit concentration of the local binarization target range,
wt is the upper limit concentration of the local binarization target range,
Respectively.
[0086]
Here, the local binarization target range (density bt to wt) in the target image histogram is calculated by the two equations shown in the figure. The local binarization target range can be arbitrarily set by adjusting the coefficients a and b in the formula. The adjustment of the coefficients a and b is performed by hardware operation or software execution in the local binarization unit.
[0087]
By executing the local binarization method only for pixels in such an estimated range (density bt to wt), a significantly high-speed process is possible.
[0088]
Each pixel outside the estimation range is uniformly determined to be “black (density 0 to bt)” or “white (density wt to 255)”. For blurring of letters and numbers in this white area, this pixel portion can be determined to be “black” by increasing wt. On the other hand, the processing time required for binarization of the entire image becomes longer as the estimated range is expanded.
[0089]
In this example, “a = 0.35, b = 0.62” is set, and when local binarization is performed on 5 to 8% of pixels in the entire image, all pixels are locally binarized. A binarized image of the same level as that obtained was obtained.
[0090]
FIG. 20 is an explanatory diagram illustrating an example of a change in a binary image due to blurring correction during local binarization. FIG. 20A illustrates a case where the background separation threshold in FIG. 17 is changed (σmin = 100 → 50). (B) shows a case where the local binarization target range of FIG. 19 is changed (a = 0.35, b = 0.62 → a = 0.35, b = 0.90).
[0091]
As a recording medium for storing the processing program for the above-described dropout plane detection and composite image output,
・ Program provider's database (DASD etc.)
・ Portable recording media in various formats
-RAM or hard disk on the computer body side
Any of these may be used. The program is loaded into the computer main body and executed on the main memory.
[0092]
(Supplementary Note 1) In a form reading device that optically reads a form including a dropout color part and a user-filled part related thereto in pixel units.
A density distribution calculating means for obtaining a pixel density distribution for each plane of the read image;
A plane selection unit that obtains a characteristic value of the pixel density distribution and identifies a dropout plane based on the characteristic value.
A form reader characterized by that.
(Supplementary Note 2) The density distribution calculating means uses an automatic determination threshold value of the pixel density distribution as the characteristic value.
The form reading device according to Supplementary Note 1, wherein
(Supplementary Note 3) In a form reading apparatus that optically reads a form including a dropout color part and a user entry part related to the dropout color part in pixel units.
Binarization means for binarizing each plane of the read image;
A plane selection unit that obtains a black pixel frequency or a white pixel frequency corresponding to the plane binary image and specifies a dropout plane based on the pixel frequency;
A form reader characterized by that.
(Additional remark 4) The said binarization means has a binarization process correction | amendment function for respond | corresponding to the blurred part of the character and number of a user entry,
The form reading apparatus according to Supplementary Note 3, wherein
(Additional remark 5) The said plane selection means is the pixel frequency of the synthetic | combination binary image produced | generated by the calculation process of the luminance signal binary image of the said read image, and the said plane binary image as said black pixel frequency or said white pixel frequency. Use
The form reading apparatus according to Supplementary Note 3, wherein
(Supplementary Note 6) In a form reading device that optically reads a form including a dropout color part and a user entry part related to the dropout color part in pixel units.
Image generating means for generating each plane binary image and luminance signal binary image of the read image;
A first combined binary image is generated by arithmetic processing of the luminance signal binary image and one of the plane binary images, and then the first combined binary image and the remaining of the plane binary image A second composite binary image is generated by arithmetic processing with one of the second composite binary image, and a third composite binary image is obtained by arithmetic processing of the second composite binary image and the remaining one of the plane binary images. Image synthesizing means for generating an image,
A form reader characterized by that.
(Supplementary note 7) The image generation means has a binarization processing correction function for dealing with a blurred portion of letters and numbers entered by a user.
The form reading apparatus according to Supplementary Note 6, wherein
(Supplementary note 8) In a program used in a reading process of a form including a dropout color part and a user entry part related thereto,
The program is
Obtain the characteristic value of the pixel density distribution of each plane of this form read image,
It is for causing a computer to realize a function of identifying a dropout plane based on the characteristic value.
A form reading processing program characterized by the above.
(Supplementary note 9) In a program used in the reading process of a form including a dropout color part and a user entry part related thereto,
The program is
Find the black pixel frequency or white pixel frequency corresponding to each plain binarized image of this form read image,
In order for the computer to realize the function of specifying the dropout plane based on the pixel frequency,
A form reading processing program characterized by the above.
(Supplementary Note 10) In a program used in a form reading process including a dropout color portion and a user entry portion related thereto,
The program is
A first composite binary image is generated by calculating the luminance signal binary image and one of the plane binary images of the form read image, and then the first composite binary image and the planes. A second composite binary image is generated by an arithmetic process with the remaining one of the binary images, and a second composite binary image is generated by an arithmetic process with the second composite binary image and the remaining one of the plane binary images. 3 for causing a computer to realize a function of generating a composite binary image 3.
A form reading processing program characterized by the above.
[0093]
【The invention's effect】
As described above, the present invention is based on the characteristic value of the pixel density distribution in each plane of the read image of the target form (for example, automatic discrimination threshold) and the black pixel frequency or white pixel frequency corresponding to each plane binary image. That is, since the dropout plane is specified without performing a synthesis process such as an AND operation between the plane binary images, it is possible to efficiently execute a form image generation process in which the dropout color is removed.
[0094]
Further, since the black pixel frequency or the white pixel frequency of the synthesized binary image (the resolution is higher than that of the plane binary image itself) of the luminance signal binary image and the plain binary image of the read image is used, the dropout plane is used. Can improve the accuracy of identification.
[0095]
In addition, when the combined binary image of each plane is generated when the dropout plane cannot be specified based on the above-described characteristic value and black pixel frequency, the calculation synthesis with the luminance signal binary image of the form is also executed. Therefore, the resolution of the synthesized binary image itself can be increased.
[0096]
In addition, by adjusting the threshold for binarization, the threshold for background separation of the local binarization method, the target range, etc., we are aiming at appropriate black pixelization of the blurred part of the letters and numbers entered by the user, In addition to improving the accuracy of specifying the dropout plane, it is possible to increase the recognition accuracy by making the letters and numbers in the final output image thicker.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing an outline (part 1) of a dropout plane detection method;
FIG. 2 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIG. 1;
FIG. 3 is an explanatory diagram showing an outline (part 2: R plane) of a dropout plane detection method;
FIG. 4 is an explanatory diagram showing an outline (part 2: G plane) of a dropout plane detection method;
FIG. 5 is an explanatory diagram showing an outline (part 2: B plane) of a dropout plane detection method;
FIG. 6 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.
FIG. 7 is an explanatory diagram showing an outline (part 3: R plane) of a dropout plane detection method;
FIG. 8 is an explanatory diagram showing an outline (part 3: G plane) of a dropout plane detection method;
FIG. 9 is an explanatory diagram showing an outline (part 3: B plane) of a dropout plane detection method;
FIG. 10 is an explanatory diagram showing an overall configuration corresponding to the detection method of FIGS.
FIG. 11 is an explanatory diagram showing an example of a form having blue and red dropout colors.
12 is an explanatory diagram showing an outline of a composite image output method for the form in FIG. 11; FIG.
13 is an explanatory diagram showing an overall configuration corresponding to the output method of FIG. 12. FIG.
14 is an explanatory diagram showing a processing procedure corresponding to the overall configuration of FIG. 13;
FIG. 15 is an explanatory diagram showing an outline of a CCD and a pixel shifting method;
FIG. 16 is an explanatory diagram illustrating a processing procedure of an automatic discrimination threshold method for a plain multi-valued image.
FIG. 17 is an explanatory diagram showing an outline of a local binarization method (filter).
FIG. 18 is an explanatory diagram showing a processing procedure of a local binarization method.
FIG. 19 is an explanatory diagram illustrating adjustment of a local binarization target range.
FIG. 20 is an explanatory diagram illustrating a change example of a binary image by blur correction at the time of local binarization.
[Explanation of symbols]
11: Red plane
12: Histogram of red plane multilevel image
13: Green plane
14: Histogram of green plane multilevel image
15: Blue plane
16: Histogram of blue plane multi-valued image
17: Red frame on the form (dropout part)
21: Two-dimensional color CCD
22: Pixel shifting means
23: Captured image composition means
24: Shading correction means
25: R, G, B plane dividing means
26-28
: Red, green, and blue plain images
29: Y signal image generating means,
30: Y signal image
31: Local binarization unit
32: Y signal binary image
33-35
: Histogram calculator
36-38
: Automatic discrimination threshold method processor
39: Plain image determination / selection unit
40: Selected image binarization unit
41: Selected plane binary image
42: AND operation synthesis unit
43: Composite image output unit
44: Integrated block
51: Y signal binary image
52, 52 '
: First red plane binary image
53, 53 '
: Second red plane binary image
54: AND composite image (black pixel frequency = 11.823%)
55: AND composite image (black pixel frequency = 12.030%)
56: XOR composite image (black pixel frequency = 5.943%)
57: XOR composite image (black pixel frequency = 6.014%)
62, 62 '
: First green plane binary image
63, 63 '
: Second green plane binary image
64: AND composite image (black pixel frequency = 13.653%)
65: AND composite image (black pixel frequency = 15.495%)
66: XOR composite image (black pixel frequency = 4.424%)
67: XOR composite image (black pixel frequency = 3.577%)
72, 72 '
: First blue plane binary image
73, 73 '
: Second blue plane binary image
74: AND composite image (black pixel frequency = 13.787%)
75: AND composite image (black pixel frequency = 16.273%)
76: XOR composite image (black pixel frequency = 4.404%)
77: XOR composite image (black pixel frequency = 4.219%)
81-83
: Binarization part
84: R binary image
85: G binary image
86: B binary image
87: AND operation synthesis unit
88: YR composite binary image
89: YG composite binary image
90: YB composite binary image
91: Black pixel frequency calculation / determination unit
92: Plain image selection / output unit
93: Integrated block
101-103
: Local binarization unit
104: R binary image
105: G binary image
106: B binary image
107: XOR operation synthesis unit
108: YR composite binary image
109: YG composite binary image
110: YB composite binary image
111: Black pixel frequency calculation / determination unit
112: Plain image selection / output unit
113: Integrated block
121: Seal frame (blue dropout color)
122: Text box (red dropout color)
131: Y signal binary image
132: R-plane binary image
133: YR composite binary image
134: B-plane binary image
135: YRB composite binary image
141: RGB binary image selection unit
142: AND operation synthesis unit
143: YR composite binary image
144: AND operation synthesis unit
145: YRG composite binary image
146: AND operation synthesis unit
147: YRGB composite binary image
148: Composite binary image output unit
151: Target pixel for local binarization processing
152: 7 × 7 pixel rectangular filter for the target pixel
153: Character part stroke pixel
154: Background pixel
σmin: threshold for background separation (for example, 100)
E: Average density value of each pixel in the rectangular filter
E2: density mean square value of each pixel in the rectangular filter
g2: Density dispersion value in the rectangular filter
S: threshold for binarization of the target pixel
ot: Automatic discrimination threshold
a, b: coefficients for adjusting the local binarization target range
b-ave: density average of black region (density 0 to ot)
w-ave: density average of white area (density ot + 1 to 255)
bt: the lower limit concentration of the local binarization target range
wt: Upper limit concentration of the local binarization target range

Claims (2)

ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票を、画素単位で、光学的に読み取る帳票読取装置において、
前記帳票の読取画像のプレーンごとの画素濃度分布を求める画素濃度演算手段と、
前記プレーンごとの画素濃度分布に基づいて、当該画素濃度分布それぞれの、ドロップアウトカラー判別用およびドロップアウトプレーン二値化用の各閾値を求める閾値算出手段と、
前記各閾値に基づいて、前記読取画像のドロップアウトプレーンを選択するプレーン選択手段と、
前記選択に対応した前記閾値に基づいて、当該選択にかかる前記ドロップアウトプレーンを二値化する二値化手段と、
を備えたことを特徴とする帳票読取装置。
In a form reading device that optically reads a form including a dropout color part and a user entry part related thereto in pixel units,
Pixel density calculation means for obtaining a pixel density distribution for each plane of the read image of the form ;
Based on the pixel density distribution of each of the planes, each the pixel density distribution, a threshold value calculating means for determining the threshold values for the drop-out color discrimination and dropout plane binarization,
Plane selection means for selecting a dropout plane of the read image based on each threshold;
Based on the threshold corresponding to the selection, binarization means for binarizing the dropout plane according to the selection;
A form reading apparatus comprising:
ドロップアウトカラー部分およびそれに関連した利用者記入部分を含む帳票の読取処理で用いられるプログラムにおいて、
当該プログラムが、
前記帳票の読取画像のプレーンごとの画素濃度分布を求める演算を実行し、
前記プレーンごとの画素濃度分布に基づいて、当該画素濃度分布それぞれの、ドロップアウトカラー判別用およびドロップアウトプレーン二値化用の各閾値を求め、
前記各閾値に基づいて、前記読取画像のドロップアウトプレーンを選択し、
前記選択に対応した前記閾値に基づいて、当該選択にかかる前記ドロップアウトプレーンを二値化する、
機能をコンピュータに実現させるためのものであることを特徴とする帳票読取処理用プログラム。
In the program used in the reading process of the form including the dropout color part and the user entry part related to it,
The program is
Perform a calculation to obtain the pixel density distribution for each plane of the read image of the form,
Based on the pixel density distribution of each of the planes, each the pixel density distribution, obtains the threshold values for the drop-out color discrimination and dropout plane binarization,
Based on each of the threshold values, a dropout plane of the read image is selected,
Based on the threshold corresponding to the selection, binarize the dropout plane for the selection,
A form reading processing program characterized in that the function is implemented in a computer.
JP2002026834A 2002-02-04 2002-02-04 Form reading device and form reading processing program Expired - Lifetime JP4008715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002026834A JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002026834A JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007025543A Division JP2007149118A (en) 2007-02-05 2007-02-05 Form reading device and program for form reading processing

Publications (2)

Publication Number Publication Date
JP2003228691A JP2003228691A (en) 2003-08-15
JP4008715B2 true JP4008715B2 (en) 2007-11-14

Family

ID=27748547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002026834A Expired - Lifetime JP4008715B2 (en) 2002-02-04 2002-02-04 Form reading device and form reading processing program

Country Status (1)

Country Link
JP (1) JP4008715B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682783B2 (en) * 2005-09-30 2011-05-11 沖電気工業株式会社 Character recognition device
JP2008197542A (en) * 2007-02-15 2008-08-28 Sharp Corp Image forming apparatus

Also Published As

Publication number Publication date
JP2003228691A (en) 2003-08-15

Similar Documents

Publication Publication Date Title
RU2469403C2 (en) Image processing apparatus, method and program
Coltuc et al. Exact histogram specification
US8488896B2 (en) Image processing apparatus and image processing method
JP4423298B2 (en) Text-like edge enhancement in digital images
TW440801B (en) Method and apparatus for perceptual determination of threshold for gradient-based local edge determination
TWI430184B (en) Edge mapping incorporating panchromatic pixels
JP3539539B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
US20140079319A1 (en) Methods for enhancing images and apparatuses using the same
Zhang et al. A naturalness preserved fast dehazing algorithm using HSV color space
DE112008001052T5 (en) Image segmentation and enhancement
JP6818463B2 (en) Image processing equipment, image processing methods and programs
CN102956029B (en) Image processing apparatus and image processing method
US8644640B2 (en) Purple fringing artifact reduction within a digital image with guidance from a green channel
CN108961209B (en) Pedestrian image quality evaluation method, electronic device and computer readable medium
JP2010286959A (en) Method, device and program for enhancing face image resolution
Elboher et al. Recovering color and details of clipped image regions
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
JP4008715B2 (en) Form reading device and form reading processing program
JP4369030B2 (en) Image correction method and apparatus, and computer-readable recording medium storing image correction program
JP2007149118A (en) Form reading device and program for form reading processing
CN113505622A (en) Test system and method for automatically identifying multiple bar codes and LED lamps
JP6003574B2 (en) Image processing apparatus and image processing program
JP2001045303A (en) Image thresholding method
JP5232107B2 (en) Image display method, program, image display apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4008715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

EXPY Cancellation because of completion of term