JP3885885B2 - Image processing apparatus and image processing method for securities - Google Patents

Image processing apparatus and image processing method for securities Download PDF

Info

Publication number
JP3885885B2
JP3885885B2 JP2003201889A JP2003201889A JP3885885B2 JP 3885885 B2 JP3885885 B2 JP 3885885B2 JP 2003201889 A JP2003201889 A JP 2003201889A JP 2003201889 A JP2003201889 A JP 2003201889A JP 3885885 B2 JP3885885 B2 JP 3885885B2
Authority
JP
Japan
Prior art keywords
image
processing method
image data
binarization processing
check
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003201889A
Other languages
Japanese (ja)
Other versions
JP2004127258A (en
Inventor
幸洋 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003201889A priority Critical patent/JP3885885B2/en
Publication of JP2004127258A publication Critical patent/JP2004127258A/en
Application granted granted Critical
Publication of JP3885885B2 publication Critical patent/JP3885885B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に関する。特に、小切手、金券等の有価証券による決済処理の際に、決済に使用された有価証券を特定するのに必要な画像を取得する画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
商取引や店舗での買い物、レストランでの支払い等においては、小切手、金券等の有価証券を用いて決済が行われることがある。以下、これらの決済処理について、有価証券として小切手を用いて説明する。一般に、小切手の表面には、口座番号等が磁気インク文字データとして印刷されており、これらのデータを照会することによって小切手の有効性が確認される。
【0003】
従来、店舗等において小切手を受け取った場合、小切手の有効性を確認した後、日付、金額、小切手振出人の署名等の表書き及び裏書が行われる。これらの表書き及び裏書は、近時、署名を除き、プリンタで印刷されることが多い。通常、店舗等における処理が終わった小切手は、銀行等の決済機関に持ち込まれ、最終的な決済が行われる。しかし、近年においては、取引内容の電子データ及び小切手の画像データ等を決済機関に送信することにより、決済処理の効率化をはかる電子決済による小切手処理が提唱されている。
【0004】
また、小切手、金券等の有価証券は、通常、表面に背景模様を有している。そのため、画像解像度が低いと口座番号、支払い金額、支払人、受取人、署名等の重要な情報の判別が困難となる場合がある。一方、小切手等のイメージを高解像度の画像データとして又はカラーの画像データとして取得する場合には、画像取得のための走査速度が遅くなってしまう。また、画像データの情報量も多くなるため、画像データの取得及び記憶装置への送信等の負荷が大きくなってしまう。従って、画像取得処理に多くの時間が必要となる。そこで、電子決済に必要な有価証券の画像データを少ない情報量で取得する方法として、有価証券の画像を走査して取得した画像データを濃度に基づいて2値化した2値化画像データを取得する方法が考えられた。例えば、濃度に基づいて画像データを2値化するための閾値を動的に変更可能な値とし、走査する画像毎に閾値を算出する方法等がある。
【0005】
【発明が解決しようとする課題】
しかしながら、閾値を動的に変更可能な値とし、走査する画像毎に閾値を算出する方法を利用したとき、仮走査した領域の背景模様から閾値を算出するため、有価証券の画像の背景模様が均一でない場合、例えば、仮走査した領域の背景模様と大きく異なる背景模様の領域がある場合に、2値化画像データにおいて、口座番号、支払い金額、支払人、受取人、署名等の重要な情報と背景模様とを判別できない場合があった。
【0006】
そこで、本発明は、電子決済に必要な有価証券の画像データを、少ない情報量で正確に取得可能な画像処理装置及び画像処理方法を提供することをその目的の一つとする。さらに本発明の目的の一つは、走査によって取得した画像データから電子決済に必要な画像データに変換する方法を、取得する有価証券の画像毎に決定することが可能な画像処理装置及び画像処理方法を提供することである。
【0007】
さらに本発明の目的の一つは、小切手支払いを電子決済するために、MICR文字の読取、必要情報の印刷、及び小切手等の画像データの効率的な取得を可能とする画像処理装置及び画像処理方法を提供することである。
【0008】
【課題を解決するための手段】
本発明では、精算処理時に、有価証券の画像の一部を解析することにより、有価証券全体の画像を2値化する2値化処理方法を決定し、決定した2値化処理方法に基づいて、口座番号、支払い金額、支払人、受取人、署名等の重要な情報を画像情報として、少ない情報量で、正確に取得することにより、上記課題を解決した。
【0009】
本発明の、画像処理装置の1つの態様は、有価証券全体を走査することにより取得した第1の画像データを2値化画像データに変換するイメージ取得部と、前記有価証券の一部領域から取得した第2の画像データに基づいて、前記第1の画像データを2値化画像データに変換するための2値化処理方法を定める2値化処理方法決定部とを備えるとともに、前記一部領域が、前記有価証券に予め印刷された磁気インク文字を含む文字領域及び背景模様を少なくとも一部に含む1個又は複数の背景領域であることを特徴とする画像処理装置である。
【0011】
本発明の、画像処理装置の別の態様は、さらに、上述した背景領域からエッジ画素を検出するエッジ画素検出部を備え、2値化処理方法決定部が、検出されたエッジ画素の個数に基づいて、前記2値化処理方法を定めることを特徴とする画像処理装置である。
【0012】
本発明の、画像処理装置の別の態様は、上述した2値化処理方法決定部が、文字領域の文字の背景を示す画素の濃度分布と、背景領域を構成する画素の濃度分布とに基づいて、2値化処理方法を定めることを特徴とする画像処理装置である。
【0013】
本発明の、画像処理装置の別の態様は、上述したイメージ取得部が、第2の画像データの濃度分布に基づいて算出された第1の閾値に基づいて、第1の画像データを2値化画像データに変換する第1の2値化処理手段と、第1の画像データに、エッジ画素を強調させる鮮鋭化処理を施した後、予め定められた第2の閾値に基づいて、第1の画像データを2値化画像データに変換する第2の2値化処理手段と、を備えていることを特徴とする画像処理装置である。
【0014】
本発明の、画像処理方法の1つの態様は、(a)有価証券の一部領域の画像を解析し、2値化処理方法を定める工程であって、前記一部領域が、前記有価証券に予め印刷された磁気インク文字を含む文字領域及び背景模様を少なくとも一部に含む1個又は複数の背景領域である工程と、(b)有価証券全体の画像を、工程(a)で定めた2値化処理方法に基づいて、2値化画像データに変換する工程とを備えていることを特徴とする画像処理方法である。
【0016】
本発明の、画像処理方法の別の態様は、さらに、(c)背景領域からエッジ画素を検出する工程と、(d)工程(c)で検出されたエッジ画素の個数に基づいて、2値化処理方法を定める工程を備えていることを特徴とする画像処理方法である。
【0017】
本発明の、画像処理方法の別の態様は、さらに、(e)文字領域の文字の背景を示す画素の濃度分布と、背景領域を構成する画素の濃度分布とに基づいて、2値化処理方法を定める工程を備えていることを特徴とする画像処理方法である。
【0018】
本発明の、画像処理方法の別の態様は、さらに、工程(a)の結果に基づいて、下記の2値化処理工程(f)又は(g)のいずれか一方を行うことを特徴とする画像処理方法である。
(f)一部領域の画像の濃度分布に基づいて第1の閾値を算出し、算出された第1の閾値に基づいて、有価証券全体の画像を2値化画像データに変換する工程
(g)有価証券全体の画像に、エッジ画素を強調させる鮮鋭化処理を施した後、予め定められた第2の閾値に基づいて、有価証券全体の画像を2値化画像データに変換する工程
【0019】
本発明の、情報記録媒体の1つの態様は、上述した画像処理方法の各工程をコンピュータに実行させるためのプログラムを記録したことを特徴とするコンピュータに読み取り可能な情報記録媒体である。
【0020】
【発明の実施の形態】
この発明の一実施態様を、図面を参照しながら説明する。なお、以下に説明する実施態様は説明のためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素若しくは全要素をこれと均等なものによって置換した実施態様を採用することが可能であるが、これらの実施態様も本発明の範囲に含まれる。
【0021】
図1は、本発明の画像処理装置の基本概念を説明するための機能ブロック図である。ここでは、本発明を簡潔に説明するため、特徴部分を中心に示しており、有価証券を搬送する搬送部等については記載を省略している。また、本発明は、小切手のみならず、商品券等の金券、その他の有価証券の処理についても適用可能であるが、以下においては、有価証券の代表的な例である小切手を用いて説明する。
【0022】
図1に示すように画像処理装置10は、画像読取部15、2値化処理方法決定部20、イメージ取得部30を備えている。また、2値化処理方法決定部20は、仮走査制御部22、2値化処理判定部23及び閾値算出部24、及び各部22、23,24を統括的に制御する2値化処理制御部21を備えている。イメージ取得部30は、イメージ取得制御部31、走査制御部32、2値化処理部33、イメージ記憶部34及び通信部35を備えている。なお、2値化処理方法決定部20は、イメージ取得のための前処理を行う部分であるため、20を前処理部、30を本処理部と呼んでも良い。
【0023】
顧客から小切手による支払い希望があると、小切手が画像処理装置10の小切手挿入部(図示せず)にセットされる。小切手がセットされると2値化処理方法決定部20の仮走査制御部22により、図示しない搬送制御部が駆動されて小切手の一部が画像読取部15により読み取られ、画像読取部15から2値化処理判定部23に小切手の一部の画像データが出力される。本実施形態では、画像読取部15は、モノクロのイメージセンサで構成されており、出力される画像データは、例えば、各画素の値が0〜255で表される輝度(以下、「濃度」という)で表現されるグレースケールデータである。2値化処理判定部23は、仮走査により取得した小切手の一部のグレースケールデータから、小切手全体の画像データを2値化する2値化処理方法を判定する。ここで、判定される2値化処理方法は、以下の2つの方法のどちらか一方である。
【0024】
1つの方法は、仮走査により取得した小切手の一部のグレースケールデータについて、そのデータを構成する各画素の濃度分布を解析することにより閾値を算出し、算出した閾値に基づいて、小切手全体の画像データを2値化する「閾値算出法」である。もう一方の方法は、小切手全体の画像データにエッジ画素を強調させる鮮鋭化処理を施し、鮮鋭化された画像データを、予め設定した所定の閾値に基づいて2値化する「シャープネス法」である。
【0025】
2値化処理判定部23によって判定された2値化処理方法が、「シャープネス法」である場合は、2値化処理判定部23によって判定された2値化処理方法を、イメージ取得部30の2値化処理部33に伝達する。また、2値化処理判定部23によって判定された2値化処理方法が、「閾値算出法」である場合は、2値化処理判定部23から閾値算出部24に仮走査により取得した小切手の一部のグレースケールデータが出力される。閾値算出部24は、小切手全体の画像データを2値化するための閾値を算出する。閾値算出部24により算出された閾値は、2値化処理判定部23によって判定された2値化処理方法とともに、イメージ取得部30の2値化処理部33に伝達される。2値化処理部33は、受信した閾値を後続する2値化処理のために記憶する。また、2値化処理制御部21は、仮走査制御部22、2値化処理判定部23及び閾値算出部24をそれぞれ関連付けて制御する。
【0026】
イメージ取得制御部31は、イメージ取得部の各部32、33、34、35を制御する。走査制御部32は、イメージ取得制御部31からの走査指示に基づき、小切手の走査を制御する。イメージ取得制御部31からの走査指示があると、走査制御部32は、画像読取部15を制御して小切手全体の画像データを取得する。本実施形態では、小切手全体の画像データも、小切手の一部の画像データと同様にグレースケールデータである。画像読取部15から出力された小切手全体のグレースケールデータは、2値化処理部33に送信される。2値化処理部33では、2値化処理判定部23により判定された2値化処理方法に基づいて、画像読取部15から受信した小切手全体のグレースケールデータを、2値化画像データに変換する。
【0027】
2値化処理部33により変換された小切手全体の2値化画像データは、イメージ記憶部34に記憶されるとともに、通信部35を介してイメージ記憶装置(図示せず)に送信される。尚、イメージ取得部30では、2値化画像データをイメージ記憶部34に記憶する例を示したが、イメージ記憶部34を設けず、直接イメージ記憶装置に送信することも可能である。イメージ記憶装置は、受信した2値化画像を検索可能に記憶する。これにより、金融機関の決済の確認又は支払人とのトラブルの際に、関連する小切手のイメージを読出し、参照することが可能となる。また、必要に応じて、決済機関に電子決済データとともに、画像データを送信することも可能である。
【0028】
図2を用いて、2値化処理方法決定部20及びイメージ取得部30の処理をさらに詳しく説明する。図2は、2値化処理方法決定部20による2値化処理方法の判定処理と、イメージ取得部30によるイメージ取得処理の一例を示すブロック図である。
【0029】
仮走査により小切手の一部の画像が画像読取部15により読み取られ、小切手の一部のグレースケールデータが出力される。本実施形態では、小切手の一部のグレースケールデータは、各々小切手の所定の箇所から取得される、エッジ判定領域部読取データ200、MICR文字部読取データ201及び背景部読取データ202の3つのデータから構成される。画像読取部15から出力されたエッジ判定領域部読取データ200には、2値化処理判定部23によりエッジ画素検出処理203が施される。エッジ画素の検出は、読み取ったグレースケールデータの各画素について、対象画素とその画素の周囲の画素との濃度差を算出し、濃度差の度数分布を生成する。生成した濃度差の度数分布が、濃度差の絶対値の大きい方に偏っている場合に、対象画素をエッジ画素として検出する。ここで、度数とは画素数を表す。
【0030】
次に、エッジ画素検出処理203により検出されたエッジ画素の個数を算出するエッジ画素数算出処理204を実行する。次に、2値化処理方法を「閾値算出法」とするか、又は「シャープネス法」とするかを、エッジ画素数算出処理204によって算出されたエッジ画素数に基づいて判定するエッジ画素判定処理205を実行する。エッジ画素判定処理205における判定条件は、エッジ画素数が所定の値より大きいか否か、である。
【0031】
次に、エッジ画素判定処理205によって、2値化処理方法が「閾値算出法」と判定された場合は、MICR文字部読取データ201及び背景部読取データ202を利用して、ヒストグラム生成処理206が実行される。一方、2値化処理方法が「シャープネス法」と判定された場合は、ヒストグラム生成処理206以降の処理(206〜209)を行うことなく、小切手全体のイメージを取得する処理に移行する。
【0032】
ヒストグラム生成処理206とは、読み取ったグレースケールデータから、濃度毎に画素数を計数し、濃度分布を算出し、さらに、ノイズを除去して度数分布を滑らかにするため、平均化する処理である。ヒストグラム生成処理206の後に実行される背景濃度判定処理207では、再度、2値化処理方法を「閾値算出法」とするか、又は「シャープネス法」とするかを、MICR文字部読取データ201の及び背景部読取データ202の背景データの濃度に基づいて、判定する。
【0033】
背景濃度判定処理207によって、2値化処理方法が「閾値算出法」と判定された場合は、閾値算出部24により閾値を定める基礎となる範囲を確定するための上限値と下限値の確定処理208を行い、この範囲内で適正な閾値の算出処理209を行う。背景データが濃い場合等何らかの原因で閾値の算出ができない場合には、2値化処理方法を「シャープネス法」として、小切手全体のイメージを取得する処理に移行する。算出された閾値は、後述する小切手全体のグレースケールデータを2値化するための処理に使用される。
【0034】
2値化処理方法が決定されると、支払い金額、受取人の記載、支払人の署名等がされた小切手の全体を読み取る画像読取処理210が行われる。ここで、2値化処理方法が決定されるとは、「シャープネス法」であると判定されたとき、又は閾値が算出されたときである。
【0035】
2値化処理方法振分処理211により2値化処理方法が「閾値算出法」である場合は、画像読取処理210により取得された小切手全体のグレースケールデータは、閾値算出部24により算出した閾値に基づいて、画素毎に2値化する2値化処理212が行われ、2値化画像データに変換される。変換された2値化画像データは、2値化画像記憶処理213により小切手の2値化画像として一時記憶されるとともにイメージ記憶装置に送信される。
【0036】
2値化処理方法振分処理211により2値化処理方法が「シャープネス法」である場合は、鮮鋭化画像処理214により、画像読取処理210により取得された小切手全体のグレースケールデータにエッジ画素を強調させた鮮鋭化処理を施す(鮮鋭化画像データを生成する)。鮮鋭化処理が施された画像データは、予め設定している所定の閾値に基づいて、画素毎に2値化する2値化処理215が行われ、2値化画像データに変換される。変換された2値化画像データは、2値化画像記憶処理213により小切手の2値化画像として一時記憶されるとともにイメージ記憶装置に送信される。
【0037】
以上のような画像処理装置10は、CPU、メモリ等の各種記憶装置、スキャナ装置等を備えたハードウェアと、各種制御プログラムにより実現可能である。
【0038】
図3は、支払いに使用される小切手40の一例を示す平面図であり、図4は、図3に示す小切手から取得した2値化画像データの一例を示す図である。小切手40には支払人41、小切手番号42、発行日43、受取人44、支払い金額45、支払名目46、支払人署名47、MICR文字48等が印刷又は記載される。図中、「XXX」として示されているのは、数字、署名又は文字等を表している。これらの文字等は、MICR文字48を除き、仮走査後に印刷又は署名するようにすることができる。また、小切手40には、多くの背景模様49が点在している。小切手の背景模様には、数多くの種類があり、その濃さも異なっている。図3は背景模様の一例を示しており、図には明確に現れていないが、全体的に薄いグレーを背景のベース色として有しており、そのベース色の上にやや濃いグレーの背景模様49が点在しているものとする。
【0039】
図4の2値化画像データ50では、各画素データが白又は黒に2値化されており、背景部分49及びベースの薄いグレーが取り除かれている。図中の51〜58は、図3の41〜48にそれぞれ対応する。
【0040】
図5は、小切手の2値化画像データを取得する場合のイメージ取得処理手順の一例を示すフローチャートである。
【0041】
まず、第一次走査(以下、「仮走査」という)により小切手の一部からグレースケールデータを取得する(S101)。次に、小切手全体の画像データを2値化画像データへ変換する2値化処理方法を、仮走査により取得した小切手の一部のグレースケールデータから検出したエッジ画素の個数、並びに、仮走査により取得した小切手の一部グレースケールデータから算出したMICR文字部及び背景印刷部の背景濃度に基づいて決定する(S102)。
【0042】
ここで、仮走査する領域は、小切手上のMICR文字48及び背景模様49を含む領域である。MICR文字48の幅方向の印刷位置は、小切手の種類によって決っているので、画像読取部15からの出力に基づき、MICR文字部分の画像データを特定することが可能である。図3にMICR文字の印刷領域を「c」として示している。小切手40の右側から走査し、MICR印刷領域cに相当する部分から所定の画像出力が得られたときにMICR文字を検出したものと判断することもできる。また、仮走査領域を、MICR文字の最初の検出位置からさらに所定の距離だけ離れた位置とすることも可能である。さらに、画像処理装置10に、MICR文字読取装置を付設した複合処理装置の場合には、MICR文字読取装置の出力に基づいてMICR文字の印刷位置を確認し、それに基づき仮走査領域を確定することも可能である。
【0043】
図3に仮走査領域Tを、例示している。仮走査領域Tは、最初のMICR文字から“b”の幅を仮走査領域とするものである。図3には、他の例として仮走査領域T'も示している。仮走査領域T'は、最初のMICR文字から所定の距離進んだ位置を仮走査領域としている。仮走査領域は、MICR文字を含むとともに小切手の特徴をもっとも良く表す背景模様を含んでいることが望ましい。また、MICR印刷領域cのMICR文字の存在しない“b”の幅の領域Eを仮走査領域Tに加えて仮走査領域とすることも可能である。
【0044】
図7は、2値化処理方法の判定に使用する仮走査領域の一例を示す模式図である。図7(a)に、図3に示す仮走査領域Tとエッジ画素検出のために選択された領域(以下、「エッジ判定領域」という)の一例を示し、図7(b)に、図3に示す仮走査領域Tと、MICR文字部及び背景印刷部のヒストグラム作成のために選択される領域(以下、「特定領域」という)の一例を示す。図7(a)の例では、エッジ判定領域75として、仮走査領域Tの中からMICR文字領域74を含まない領域が選択される。MICR文字部分は、文字情報が必ず存在するため、エッジ画素が多くなる。そのため、MICR文字部分を除いた領域においてエッジ画素の判定する方が、背景模様を区別する判定としては正確な判定となる。また、図3のMICR印刷領域cのMICR文字の存在しない領域Eをエッジ判定領域に加えることも可能である。
【0045】
図7(b)の例では、特定領域として、仮走査領域Tの中からMICR文字領域74と、3つの背景領域71〜73が選択されている。このように、仮走査領域中の非連続領域をヒストグラム作成のための特定領域として選択することが可能である。特定領域としてどのような範囲をどのくらい選択するかは、任意である。しかし、MICR文字及び背景印刷濃度の濃い部分を含んでいること、及び画素数が適正閾値を確定するのに必要最小限の画素数であることが望ましい。また、MICR文字部分に替えて受取人44等の文字印刷部分を選択するようにすることも可能である。
【0046】
次に、決定した2値化処理方法が「閾値算出法」であるか否かを判定する(S103)。決定した2値化処理方法が「閾値算出法」である場合(S103:Yes)は、仮走査により取得した小切手の一部のグレースケールデータに基づいて、第二次走査(以下、「本走査」という)により得られる小切手全体の画像データを2値化処理するための閾値を算出する(S104)。一方、2値化処理方法が「シャープネス法」である場合(S103:No)は、ステップS107へ移行する。
【0047】
次に、閾値算出処理において計算エラー等の処理異常が発生したか否かを判定する(S105)。閾値算出処理において処理異常が発生した場合(S105:Yes)は、2値化処理方法を「シャープネス法」に変更する(S106)。一方、閾値算出処理において処理異常が発生しなかった場合(S105:No)は、即ち、閾値算出処理が正常終了し、閾値が算出された場合は、ステップS107へ移行する。
【0048】
次に、小切手の本走査を実行し(S107)、決定された2値化処理方法を判定する(S108)。2値化処理方法が、「閾値算出法」である場合(S108:「閾値算出法」)は、ステップS104において算出した閾値を取得し(S109)、取得した閾値に基づいた2値化処理を画像読取部15から入力した小切手全体のグレースケールデータに施して、2値化画像データを生成する(S112)。生成された2値化画像データはイメージ記憶部34に記憶され、又はイメージ記憶装置に送信される(S113)。
【0049】
2値化処理方法が、「シャープネス法」である場合(S108:「シャープネス法」)は、画像読取部15から入力した小切手全体のグレースケールデータにエッジ画素を強調させた鮮鋭化処理を施し、鮮鋭化画像データを生成する(S110)。次に、小切手全体の画像データを2値化処理するための、予め設定している所定の閾値を取得し(S111)、取得した閾値に基づいた2値化処理を鮮鋭化画像データに施して、2値化画像データを生成する(S112)。生成された2値化画像データはイメージ記憶部34に記憶され、又はイメージ記憶装置に送信される(S113)。
【0050】
上述した鮮鋭化画像データは、エッジ画素を強調させるために、グレースケールデータにシャープネスフィルタ係数を施すことにより生成される。以下、グレースケールデータから鮮鋭化画像データへの変換を「シャープネス変換」という。また、シャープネス変換する処理を「鮮鋭化画像処理」という。図13に、シャープネスフィルタ係数の一例を示す。対象画素の濃度値をk1倍にし、周囲画素の濃度値をk2倍にした値を対象画素の濃度値とする。グレースケールデータを構成する各画素について同様な処理を行い、鮮鋭化画像データとする。例えば、周囲画素は上下左右方向にk3画素分離れた周囲画素である。即ち、下記のシャープネス変換式になる。図13においては、k1=5、k2=−1、k3=5とする。
【0051】
シャープネス変換後の対象画素の濃度p=
(対象画素の濃度×k1)
+(周囲画素1の濃度×k2)
+(周囲画素2の濃度×k2)
+(周囲画素3の濃度×k2)
+(周囲画素4の濃度×k2)
ここで、シャープネス変換後の濃度pが、p<0である場合は、p=0とし、p>255である場合は、p=255とする。
【0052】
上記のシャープネス変換式を利用して、本走査によって取得したグレースケールデータの全ての画素に鮮鋭化画像処理を施す。図14は、シャープネス変換前後のヒストグラムを示す図である。図14(a)は、シャープネス変換前のヒストグラムを示す図であり、図14(b)は、シャープネス変換後のヒストグラムを示す図である。図14に示すように、シャープネス変換後の画素の濃度は、「0」又は「255」に集中する。従って、1から254の予め設定した閾値により鮮鋭化画像データを2値化処理しても良いことがわかる。
【0053】
ここで、設定される閾値は、小さい値の方が良い。例えば、30である。これは、2値化処理によるエラー画素(以下、「ノイズ画素」という)を少なくし、更に2値化処理後の圧縮効率を上げるためである。図15は、MICR文字部の1ラインのシャープネス変換前後の濃度値を示す図である。x軸がドット数、y軸が濃度を示す。
【0054】
図15に示すように、シャープネス変換後の鮮鋭化画像データは、画像の黒い部分の濃度値が0に、画像の白い部分の濃度値が255に変化し、濃淡の差が強調される。また、隣接する画素において、シャープネス変換前の濃度に差がある場合は、シャープネス変換後の濃度差が更に大きくなり、濃淡が強調される。例えば、図の黒の楕円部61である。閾値によっては、この濃度差の大きい部分がノイズ画素になってしまう。例えば、閾値を100とした場合、楕円部61は、シャープネス変換前は、白として表される部分がシャープネス変換後には、黒に表されノイズ画素となってしまう。従って、このノイズ画素を少なくするために、閾値を低い値(例えば、30)とした方が良い。
【0055】
図6は、2値化処理方法の判定処理手順の一例を示すフローチャートである。
【0056】
まず、仮走査により取得された小切手の一部のグレースケールデータから、背景模様49が存在する部分で、かつ、MICR文字48が存在しない部分であるエッジ画素判定領域75におけるエッジ画素を検出し、エッジ画素数Neを算出する(S201)。ここで、エッジ画素とは、周辺の画素との濃度差の絶対値の大きい画素である。また、エッジ画素の検出は、図7に示すようにエッジ画素判定領域75を複数のブロック76に分け、ブロック毎にエッジ画素判定を行う。
【0057】
図12は、エッジ画素判定を説明するための図である。エッジ画素判定は、まず判定対象となる画素(以下、「判定対象画素」という)と、その周辺の画素との濃度差を計算する。図12(a)は、1ブロックにおけるエッジ画素判定する判定対象画素とその判定をするための濃度差の計算に利用する計算対象の周辺画素を示す図である。m1×m2個の画素の集合を1ブロックとして、ブロックの中心の画素を判定対象画素Aとし、判定対象画素A以外の画素を周辺画素とする。ここでは、m1=5、m2=5を例に挙げて説明する。また、1ブロックに含まれる全ての周辺画素を計算対象とすると、計算時間がかかってしまうことから、例えば、1つおきに間引いた画素を計算対象の周辺画素(以下、「計算対象周辺画素」という)とする。
【0058】
従って、図12(a)に示すように、判定対象画素との濃度差を計算する計算対象周辺画素は12個となる。次に、この12個の計算対象周辺画素それぞれと判定対象画素との濃度差を算出し、算出した濃度差をm3個に分けられた濃度差の範囲1から範囲m3に分類し、それぞれの範囲に分類された画素数を積算する。ここでは、m3=5を例に挙げて説明する。予め、濃度差境界値n1、n2(n1、n2は正整数)を設定し、濃度差Piが、−255<=Pi<−n2であるときを範囲1とし、−n2<=Pi<−n1であるときを範囲2とし、−n1<=Pi<=n1であるときを範囲3とし、n1<Pi<=n2であるときを範囲4とし、n2<Pi<=255であるときを範囲5として、12個の計算対象周辺画素それぞれと判定対象画素との濃度差を範囲1から範囲5に分類し、それぞれの範囲毎に積算する。ここでは、例えば、n1=10、n2=50とする。
【0059】
図12(b)及び(c)は、判定対象画素と計算対象周辺画素との濃度差の度数分布を示す図である。図12(b)に示すように、濃度差の分布が濃度差の絶対値の大きい方に偏っている場合、即ち、濃度差の分布が範囲1又は範囲5に偏っている場合は、判定対象画素と計算対象周辺画素との濃度差が大きいと判定できる。従って、この場合は、判定対象画素をエッジ画素と判定する。一方、図12(c)に示すように、濃度差の分布に偏りがない場合は、判定対象画素と計算対象周辺画素との濃度差が大きいと判定できない。従って、この場合は、判定対象画素はエッジ画素ではないと判定する。例えば、濃度差の分布が濃度差の絶対値の大きい方に偏っているか否かを判定する条件として、下記のような条件が挙げられる。ここで、Ciは範囲iの度数であり、Teは予め設定された値である。
【0060】
(C5>Te かつ C1=0)
又は、
(C1>Te かつ C5=0)
上述したように、5×5個の画素を1ブロックとして、1個のエッジ画素を判定する。従って、エッジ画素判定領域75に含まれるブロック数がNbである場合、検出されるエッジ画素の個数Neは、0<=Ne<=Nbである。
【0061】
図6に戻り、次に、算出したエッジ画素数Neが所定の値Ne0より大きい値であるか否かを判定する(S202)。即ち、(Ne>Ne0)であるか否かを判定する。ここで、所定の値Ne0は、実験等から導き出される値であり、変更可能な値である。例えば、エッジ画素判定領域のブロック数の10%の値である。即ち、Ne0=Nb×0.1である。
【0062】
算出したエッジ画素数Neが所定の値Ne0より大きい場合、即ち(Ne>Ne0)である場合(S202:Yes)は、次のステップS203へ移行する。一方、算出したエッジ画素数Neが所定の値Ne0以下である場合、即ち(Ne<=Ne0)である場合(S202:No)は、2値化処理方法を、「シャープネス法」とする(S209)。
【0063】
次に、仮走査により取得された小切手の一部の画像データから、MICR文字48が存在する部分の画素について度数分布を生成する(S203)。次に、仮走査により取得された小切手の一部の画像データから背景模様49が存在する部分の画素について度数分布を生成する(S204)。次に、生成したMICR文字部分の度数分布及び背景部分の度数分布から度数分布のノイズ部分を取り除くため、それぞれの度数分布に平均化処理を施す(S205)。ここで、濃度分布を平均化処理したものをヒストグラムという。また、平均化処理とは、例えば、点i及び点iの前後4点からなる合計9点の平均値を点iの値とする処理である。即ち、点(i−4)、点(i−3)、点(i−2)、点(i−1)、点i、点(i+1)、点(i+2)、点(i+3)及び点(i+4)の平均値を点iの値とする。
【0064】
図8に、図3に示す小切手40の仮走査領域TのMICR文字部74と背景部71〜73とを平均化処理した度数分布(ヒストグラム)を示す。横軸が濃度を示し、縦軸が度数(画素数)を示している。横軸の濃度(輝度)は0〜255で表されており、数字が小さいほど濃度が大きい(輝度が小さい:暗い)。図8の濃度20〜60位までの第1の山80は、MICR文字を構成する画素の集合であり、濃度100〜160位までの第2の山81はMICR文字部74(図7)の背景模様49を表す画素の集合である。濃度160〜210までの第3の山82は、背景部71〜73(図7)の背景模様49を表す画素の集合である。図8のヒストグラムは、MICR文字部74と、背景部71〜73とから構成されている。図9にMICR文字部74のヒストグラムを、図10に背景部71〜73のヒストグラムをそれぞれ示す。
【0065】
次に、MICR文字領域74における背景模様49のピーク値濃度Pn1及び標準偏差σ1と、背景領域71〜73における背景模様49のピーク値濃度Pn2及び標準偏差σ2とを算出する(S206)。次に、MICR文字領域74におけるピーク値濃度Pn1及び標準偏差σ1と、背景領域71〜73におけるピーク値濃度Pn2及び標準偏差σ2とに基づいて、MICR文字領域74の背景濃度と背景領域71〜73の背景濃度とがほほ同じであるか否かを判定する(S207)。例えば、ピーク値濃度Pn1とピーク値濃度Pn2がほほ同じで、かつ、標準偏差σ1と標準偏差σがほぼ同じであるか否かを判定する。
【0066】
MICR文字領域74の背景濃度と背景領域71〜73の背景濃度とがほほ同じである場合(S207:Yes)は、2値化処理方法を、「閾値算出法」とする(S208)。一方、MICR文字領域74の背景濃度と背景領域71〜73の背景濃度とがほほ同じではない場合(S207:No)は、2値化処理方法を、「シャープネス法」とする(S209)。
【0067】
図11は閾値の算出処理手順(「閾値算出法」)の一例を示すフローチャートである。まず、MICR文字部74のヒストグラムから、閾値を算出するための濃度の最小限界値PMin(図8、図9)を算出する(S301)。閾値は背景と文字とを区分けするものであるから、閾値は少なくともMICR文字と背景部分の濃度の間に無ければならない。従って閾値の最小限界値PMinは、MICR文字よりも明るいことを必要とする。そのために、まず、MICR文字の濃度を基準に最小限界値PMinを算出する。MICR文字部74のヒストグラムからこの最小限界値PMinを求めることができない場合には(S302:Yes)、2値化処理方法を、「シャープネス法」に変更する(S309)。
【0068】
最小限界値PMinが算出されると(S302:No)、次にMICR文字部74の最大限界値であるMICR最大限界値PmMax(図9)を求める(S303)。MICR最大限界値PmMaxは、MICR文字部74のヒストグラムから求められる明るい方の限界値であり、これ以上閾値を明るくすると、MICR文字部74の背景模様49とMICR文字とを区別することができなくなる限界値となるものである。MICR最大限界値PmMaxを求めることができない場合には(S304:Yes)、2値化処理方法を、「シャープネス法」に変更する(S309)。
【0069】
MICR最大限界値PmMaxが算出されると(S304:No)、次に背景部71〜73の最大限界値である背景最大限界値PbMax(図10)を求める(S305)。背景最大限界値PbMaxは、背景部71〜73の明るい方の限界値であり、これ以上閾値を明るくすると、背景部71〜73の背景模様49とMICR文字とを区別することができなくなる限界値となるものである。背景最大限界値PbMaxを求めることができない場合には(S306:Yes)、2値化処理方法を、「シャープネス法」に変更する(S309)。従って、「閾値算出法」で閾値が算出できず、読み取り不能エラーして処理した小切手も2値化処理方法を「シャープネス」に変更することにより、2値画像取得可能となる。
【0070】
背景最大限界値PbMaxが算出されると(S306:No)、次に閾値の最大限界値PMax(図8)を求める(S307)。最大限界値PMaxは、MICR文字部74と背景部71〜73の背景模様49を排除するための閾値の最大限界値を示すものであり、MICR最大限界値PmMaxと背景最大限界値PbMaxの小さい値が最大限界値PMaxとなる。最小限界値PMinと最大限界値PMaxが求められると、これらの値から閾値が算出される(S308)。
【0071】
(複合処理装置に適用した実施形態)
小切手はスーパーマーケット等の小売店での買い物においても使用される。スーパーマーケットにおいては、通常、精算カウンタにPOSシステムが設置されている。小切手等による支払いの場合には、小切手上の磁気インク文字(MICR文字)の読み取り処理、必要事項の印刷処理等の従来からの処理に加え、小切手等の印刷面の画像データ取得処理、取引内容や画像データの送信処理が必要である。これらの操作は、オペレータにとって煩雑であるのみならず、処理に長時間を要することになる。また、プリンタ、MICRリーダ、スキャナ(画像処理装置)等がそれぞれ別個の装置である場合、レジ周り(精算カウンタ)に各々の装置の設置スペースを確保しなければならない点が問題となる。この問題は、プリンタ及びMICRリーダを備えた複合処理装置により解決可能である。
【0072】
すなわち、POSプリンタ内にMICRリーダ、スキャナ等を設けた複合処理装置により、磁気インク文字の読み取り処理から印刷面のスキャン処理に至る小切手等の一連の処理を連続的に行うことが可能となる。これにより、小切手による支払いにおけるオペレータの操作負担を軽減すると共に、処理に要する時間を短縮することができる。
【0073】
そのためには、印刷機能を備えた複合処理装置は、小切手等の印刷媒体を導く搬送経路と、搬送経路に沿って配置され、印刷媒体に予め記録された磁気インク文字を読み取る磁気ヘッドと、搬送経路に沿って配置され、印刷媒体の第1の面に印刷を行う第1の印刷ヘッドと、搬送経路に沿って配置され、印刷媒体の第2の面に印刷を行う第2の印刷ヘッドと、搬送経路に沿って配置され、印刷媒体の第1又は第2の面をスキャン(走査)するスキャナ(画像読取部)とを備えた構成であることが望ましい。このような複合処理装置は、小切手処理機能を備えたPOSプリンタと考えることも可能である。
【0074】
以下、POSプリンタ機能、MICR機能をも有する本発明の一実施形態にかかる複合処理装置を、図面に沿って説明する。
【0075】
図16は、POSプリンタ機能、MICR文字読取機能を有する本発明の一実施形態に係る複合処理装置110の斜視図である。この図に示されるように、複合処理装置110は、樹脂製のカバー111で覆われており、その前面部には、小切手Pを手差しで挿入する挿入口112が形成される一方、上面部には、小切手Pを排出する排出口113が形成される。さらに、本実施形態の複合処理装置110は、その後部にロール紙を収納するロール紙収納部(図示せず)を備えており、該ロール紙収納部に収納されたロール紙が印刷部を経て装置上面部のロール紙排出口114から引き出される。
【0076】
図17は、複合処理装置110の内部構造を示す側断面図である。この図に示されるように、複合処理装置110の内部には、挿入口112から排出口113に至る小切手Pの搬送経路115が形成される。搬送経路115は、挿入口112側が水平方向を向く一方、排出口113側が垂直方向を向いており、側面視においてL字状に曲折する。搬送経路115上には、挿入口112側から順に、用紙後端検出器116、MICRヘッド(磁気ヘッド)117、第1送りローラ対118、用紙先端検出器119、用紙位置決め部材120、裏印刷ヘッド(第2の印刷ヘッド)121、第二送りローラ対122、表印刷ヘッド(第1の印刷ヘッド)123、用紙排出検出器124及びスキャナ125が配置され、さらに、スキャナ125の対向位置には、スキャナ送りローラ(押圧送りローラ)126が設けられる。
【0077】
用紙後端検出器116、用紙先端検出器119及び用紙排出検出器124は、例えば透過型若しくは反射型のフォトセンサで構成されており、搬送経路115の各位置で小切手Pの有無を非接触で検出する。用紙位置決め部材120は、挿入口112から挿入された小切手Pを所定の位置で一時停止させるためのもので、例えばソレノイド等のアクチュエータ駆動に応じて、搬送経路115内に突出する姿勢と、搬送経路115から退避する姿勢とに変姿動作するように構成される。第1送りローラ対118及び第2送りローラ対122は、それぞれ搬送経路115を挟んで対向する一対のローラ部材で構成され、何れか一方のローラ駆動によって小切手Pを正逆両方向に搬送する。さらに、何れかのローラ部材は、他方のローラ部材に対して進退自在に構成されると共に、例えばソレノイド等のアクチュエータ駆動応じた進退動作によって搬送経路115を開閉する。
【0078】
MICRヘッド117は、小切手Pの表面に記録された磁気インク文字を読み取るためのもので、MICRヘッド117の読み取りデータに基づいて小切手Pの有効・無効が判断される。磁気インク文字は、図18に示されるように、小切手Pの表面におけるMICR記録領域127に記録されており、記録データには、小切手Pの口座番号等が含まれている。尚、MICRヘッド117の対向位置には、読み取り動作時に小切手PをMICRヘッド117に押し付ける押圧部材117aが設けられるが、常時は押圧部材117aがMICRヘッド117から退避し、搬送経路115が開かれる。
【0079】
表印刷ヘッド123は、小切手Pの表面に、支払い先、日付、金額等の表書き事項を印刷するためのもので、この表書き事項は、図18に示される表書き領域128に印刷される。表印刷ヘッド123は、キャリッジに支承されたシリアル式の印刷ヘッドであり、小切手Pの幅方向に移動しながら、1又は複数列ずつのドットマトリックス印刷を実現する。本実施形態においては、表印刷ヘッド123として、インクリボン上のインクを小切手Pに転写するドットインパクト方式の印刷ヘッドを採用しているが、他の方式の印刷ヘッドを採用しても良い。
【0080】
裏印刷ヘッド121は、小切手Pの裏面に買い物客の認証番号、日付、使用金額等の店側として必要な裏書き事項を印刷するためのもので、この裏書き事項は、図18に示される裏書き領域129に印刷される。裏印刷ヘッド121は、シャトル式のものであって、小切手Pの幅方向に所定間隔を存して複数のヘッドを備え、該間隔幅内でのヘッド移動によって1又は複数列のドットマトリックス印刷を実現する。本実施形態においては、裏印刷ヘッド121として、インクリボン上のインクを小切手Pに転写するドットインパクト方式の印刷ヘッドを採用しているが、他の方式の印刷ヘッドを採用しても良い。
【0081】
スキャナ125は、図1に示す画像読取部15に相当するものであり、印刷された小切手Pの表面を走査し画像データを取得するためのもので、読み取られた画像データは、イメージ記憶装置(図示せず)に記憶されて、電子決済の際又は取引の検証に使用される。所得された画像データは圧縮処理された後にイメージ記憶装置に記憶されるようにしてもよい。また、前述の例で説明した通り、始めに仮走査が行われて閾値が算出され、その後の本走査により取得された小切手等の画像データが、閾値に基づいて2値化画像データに変換される。本実施形態においては、スキャナ125として、密着型イメージセンサ(CIS:Contact Image Sensor)を採用しており、その読み取り面125aに小切手Pを密着させた状態でスキャン動作が行われるものとして説明する。
【0082】
スキャナ送りローラ126は、スキャン動作時に小切手Pを搬送するためのもので、スキャナ125の読み取り面125aに小切手Pを押し付けつつ、該小切手Pを排出口113側に搬送する。このとき、スキャナ送りローラ126は、図19に示されるように、スキャナ125の焦点位置Aに小切手Pを押し付けることなく、スキャナ焦点位置Aから僅かにずれた位置に小切手Pを押し付ける。つまり、スキャナ焦点位置Aは、スキャナ送りローラ126のスキャナ接点位置Bに対して搬送上流側若しくは搬送下流側にオフセットされており、例えば本実施形態においては、スキャナ送りローラ126のスキャナ接点位置Bから搬送下流側(排出口113側)に0.8mmオフセットした位置にスキャナ焦点位置Aを設定している。これにより、スキャナ焦点位置にスキャナ送りローラ126の押圧力が直接作用することが回避される。従って、印刷直後における小切手Pのスキャンに際し、スキャナ焦点位置Aへのインク付着量を減らすことができ、インクの付着によるスキキャン画像の品質低下を可及的に防止することが可能になる。また、本実施形態では、上記のように、スキャナ送りローラ126のスキャナ接点位置Bに対し、搬送下流側にスキャナ焦点位置Aをオフセットしているので、小切手Pの先端側スキャン可能領域を広げることが可能になる。尚、スキャナ焦点位置Aを、スキャナ送りローラ126のスキャナ接点位置Bに対して大きくオフセットした場合、スキャナ焦点位置Aにおいて小切手Pが読み取り面125aから浮く可能性があるが、上記のように、オフセット量は0.8mm程度であるため、読み取り面125aに対する小切手Pの浮きは0.2mm以下に抑えられ、スキャン画像の品質低下を招くおそれは無い。
【0083】
上記のスキャン動作においては、まず、仮走査(一次スキャン)が行われ、2値化処理方法の決定及び/又は閾値算出のために小切手の一部の画像データが取得される。仮走査により取得した画像データから2値化処理方法が「シャープネス法」に決定されたり、2値化処理方法が「閾値算出法」の場合に閾値が算出されたりすると、本走査が開始される。本走査(二次スキャン)では、スキャン送りローラ126により小切手Pを上方に搬送しつつ画像を読み取り、小切手Pをそのまま排出口113から排出する。このとき、排出された小切手Pの終端部は、スキャン送りローラ126の下流側搬送経路115で保持される。つまり、搬送経路115の終端部(スキャン送りローラ126と排出口113との間)は、略垂直方向を向き、且つ、L/6(L:小切手Pの長さ)程度の長さが確保されるため、排出した小切手Pを保持することが可能になり、排出後の小切手Pが複合処理装置110から落下することはない。
【0084】
【発明の効果】
以上説明したように、本発明は、有価証券の画像の一部を仮走査することによって取得した画像データに基づいて、有価証券全体の画像データを2値化する2値化処理方法を決定し、決定した2値化処理方法に基づいて、口座番号、支払い金額、支払人、受取人、署名等の重要な情報を画像情報として、少ない情報量で、正確に取得することにより、電子決済に必要な有価証券の画像データを、少ない情報量で正確に取得可能な画像処理装置及び画像処理方法を提供することができるようになった。
【0085】
即ち、「閾値算出法」によって、より少ないデータ量で、高速に取得可能となり、「シャープネス法」によって、読み取れなかった画像情報を正確に読み取ることができる。
【0086】
また、本発明の実施態様によると、小切手支払いを電子決済するために、MICR文字の読取、必要情報の印刷、及び小切手等の画像データの効率的な取得が可能となる。これにより、磁気インク文字の読み取り処理から印刷面のスキャン処理に至る小切手等の一連の処理を連続的に行うことができ、オペレータの操作負担を軽減すると共に、処理に要する時間を短縮することができる。
【図面の簡単な説明】
【図1】 本発明にかかる画像処理装置の一実施形態の基本概念を説明するための機能ブロック図。
【図2】 2値化処理方法決定部20による2値化処理方法の判定処理と、イメージ取得部30によるイメージ取得処理の一例を示すブロック図。
【図3】 小切手の一例を示す平面図。
【図4】 図3に示す小切手から取得される2値化画像データの一例を示す図。
【図5】 本発明により小切手の2値化画像データを取得する場合のイメージ取得処理手順の一例を示すフローチャート。
【図6】 本発明による2値化処理方法の判定処理手順の一例を示すフローチャート。
【図7】 2値化処理方法の判定に使用する仮走査領域の一例を示す模式図。
【図8】 図3に示す小切手40の仮走査領域TのMICR文字部74と背景部71〜73とを平均化処理した度数分布図(ヒストグラム)。
【図9】 図8のヒストグラムを構成するMICR文字部74のヒストグラム。
【図10】 図8のヒストグラムを構成する背景部71〜73のヒストグラム。
【図11】 本発明による閾値の算出処理手順の一例を示すフローチャート。
【図12】 エッジ画素判定を説明するための図。
【図13】 シャープネスフィルタ係数の一例を示す図。
【図14】 シャープネス変換前後のヒストグラムを示す図。
【図15】 MICR文字部の1ラインのシャープネス変換前後の濃度値を示す図。
【図16】 プリント機能等を有する複合処理装置110の斜視図。
【図17】 複合処理装置110の内部構造を示す側断面図。
【図18】 小切手の概略図。
【図19】 スキャナ及びスキャナ送りローラを示す側面図。
【符号の説明】
10 画像処理装置
15 画像読取部
20 2値化処理方法決定部
30 イメージ取得部
40 小切手表面
42 小切手番号
44 受取人
45 支払い金額
47 署名
48 磁気インク文字(MICR文字)
49 背景模様
50 2値化画像データ
110 複合処理装置
112 挿入口
113 排出口
115 搬送経路
117 MICRヘッド
118 第1送りローラ対
121 裏印刷ヘッド
122 第2送りローラ対
123 表印刷ヘッド
125 スキャナ
126 スキャナ送りローラ
130 ローラ支軸
132 ローラ退避機構
133 スキャナ送りローラ用ソレノイド
134 押えバー
135 押えバネ
136 第1ギア
137 第2ギア
138 スキャナ送り用モータ
140 制御部
P 小切手
T 仮走査領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method. In particular, the present invention relates to an image processing apparatus and an image processing method for acquiring an image necessary for specifying a securities used for settlement in settlement processing using securities such as checks and cash vouchers.
[0002]
[Prior art]
In commercial transactions, shopping at stores, payments at restaurants, etc., payments may be made using securities such as checks and cash vouchers. Hereinafter, these settlement processes will be described using checks as securities. In general, an account number or the like is printed as magnetic ink character data on the surface of the check, and the validity of the check is confirmed by referring to these data.
[0003]
Conventionally, when a check is received at a store or the like, after confirming the validity of the check, the date, amount, signature of the check maker, etc. are written and endorsed. These fronts and endorsements are often printed on printers except for signatures. Usually, a check that has been processed at a store or the like is brought into a settlement institution such as a bank and final settlement is performed. However, in recent years, check processing by electronic payment has been proposed to improve the efficiency of payment processing by transmitting electronic data of transaction contents, check image data, and the like to a payment organization.
[0004]
In addition, securities such as checks and cash vouchers usually have a background pattern on the surface. Therefore, when the image resolution is low, it may be difficult to distinguish important information such as account number, payment amount, payer, recipient, signature, and the like. On the other hand, when an image such as a check is acquired as high-resolution image data or color image data, the scanning speed for image acquisition is slow. In addition, since the amount of information of the image data increases, a load such as acquisition of image data and transmission to the storage device increases. Therefore, a lot of time is required for the image acquisition process. Therefore, as a method of acquiring image data of securities necessary for electronic payment with a small amount of information, binary image data obtained by scanning image of securities and binarizing image data acquired based on density is acquired. I thought about how to do it. For example, there is a method in which a threshold for binarizing image data based on density is a value that can be dynamically changed, and the threshold is calculated for each scanned image.
[0005]
[Problems to be solved by the invention]
However, when the threshold value is set to a value that can be dynamically changed and the threshold value is calculated for each scanned image, the threshold value is calculated from the background pattern of the temporarily scanned region. If it is not uniform, for example, if there is a background pattern area that is significantly different from the background pattern of the temporarily scanned area, important information such as account number, payment amount, payer, payee, signature, etc. in the binarized image data And background pattern could not be distinguished.
[0006]
Accordingly, an object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately acquiring image data of securities necessary for electronic settlement with a small amount of information. Furthermore, one of the objects of the present invention is to provide an image processing apparatus and an image processing method capable of determining a method for converting image data acquired by scanning into image data necessary for electronic payment for each image of securities to be acquired. Is to provide a method.
[0007]
Further, an object of the present invention is to provide an image processing apparatus and image processing capable of reading MICR characters, printing necessary information, and efficiently acquiring image data such as checks for electronic payment of check payments. Is to provide a method.
[0008]
[Means for Solving the Problems]
In the present invention, a binarization processing method for binarizing an image of the entire securities is determined by analyzing a part of the image of the securities at the time of settlement processing, and based on the determined binarization processing method. The above-mentioned problems have been solved by accurately acquiring important information such as account number, payment amount, payer, recipient, signature, etc. as image information with a small amount of information.
[0009]
One aspect of the image processing apparatus of the present invention includes an image acquisition unit that converts first image data acquired by scanning the entire securities into binarized image data, and a partial area of the securities. A binarization processing method determining unit that determines a binarization processing method for converting the first image data into binarized image data based on the acquired second image data; The image processing apparatus is characterized in that the region is a character region including magnetic ink characters preprinted on the securities and one or a plurality of background regions including at least part of a background pattern.
[0011]
Another aspect of the image processing apparatus of the present invention further includes an edge pixel detection unit that detects an edge pixel from the background region described above, and the binarization processing method determination unit is based on the number of detected edge pixels. An image processing apparatus characterized by defining the binarization processing method.
[0012]
According to another aspect of the image processing apparatus of the present invention, the binarization processing method determination unit described above is based on the density distribution of pixels indicating the background of characters in the character area and the density distribution of pixels constituting the background area. An image processing apparatus characterized by defining a binarization processing method.
[0013]
According to another aspect of the image processing apparatus of the present invention, the image acquisition unit described above binarizes the first image data based on the first threshold value calculated based on the density distribution of the second image data. First binarization processing means for converting to the converted image data, and the first image data is subjected to the sharpening process for enhancing the edge pixels, and then the first image data is obtained based on the predetermined second threshold value. An image processing apparatus comprising: a second binarization processing unit that converts the image data into binarized image data.
[0014]
One aspect of the image processing method of the present invention is (a) a step of analyzing an image of a partial area of securities and determining a binarization processing method, wherein the partial area is included in the securities. A step that is a character region including a preprinted magnetic ink character and one or a plurality of background regions including at least a part of a background pattern; and (b) an image of the entire securities defined in step (a) 2 And a step of converting to binarized image data based on the binarization processing method.
[0016]
According to another aspect of the image processing method of the present invention, there is further provided a binary value based on (c) a step of detecting edge pixels from the background region, and (d) the number of edge pixels detected in step (c). An image processing method characterized by comprising a step of determining an image processing method.
[0017]
According to another aspect of the image processing method of the present invention, (e) binarization processing is further performed based on the density distribution of pixels indicating the background of characters in the character area and the density distribution of pixels constituting the background area. An image processing method comprising a step of defining a method.
[0018]
Another aspect of the image processing method of the present invention is further characterized in that one of the following binarization processing steps (f) and (g) is performed based on the result of the step (a). This is an image processing method.
(F) calculating a first threshold value based on the density distribution of the image of the partial region, and converting an image of the entire securities into binarized image data based on the calculated first threshold value
(G) A step of performing sharpening processing for emphasizing edge pixels on an image of the entire securities and then converting the image of the entire securities into binary image data based on a predetermined second threshold value.
[0019]
One aspect of the information recording medium of the present invention is a computer-readable information recording medium characterized by recording a program for causing a computer to execute each step of the image processing method described above.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described with reference to the drawings. In addition, the embodiment described below is for explanation, and does not limit the scope of the present invention. Accordingly, those skilled in the art can employ embodiments in which each or all of these elements are replaced by equivalents thereof, and these embodiments are also included in the scope of the present invention.
[0021]
FIG. 1 is a functional block diagram for explaining the basic concept of the image processing apparatus of the present invention. Here, in order to explain the present invention in a concise manner, the characteristic portions are mainly shown, and the description of the transport unit for transporting securities is omitted. The present invention can be applied not only to checks but also to processing of cash vouchers such as gift certificates and other securities. Hereinafter, a description will be given using checks which are typical examples of securities. .
[0022]
As illustrated in FIG. 1, the image processing apparatus 10 includes an image reading unit 15, a binarization processing method determination unit 20, and an image acquisition unit 30. In addition, the binarization processing method determination unit 20 includes a provisional scanning control unit 22, a binarization processing determination unit 23, a threshold calculation unit 24, and a binarization processing control unit that comprehensively controls the units 22, 23, and 24. 21 is provided. The image acquisition unit 30 includes an image acquisition control unit 31, a scan control unit 32, a binarization processing unit 33, an image storage unit 34, and a communication unit 35. Since the binarization processing method determination unit 20 is a part that performs preprocessing for image acquisition, 20 may be referred to as a preprocessing unit, and 30 may be referred to as a main processing unit.
[0023]
When the customer wishes to pay by check, the check is set in a check insertion portion (not shown) of the image processing apparatus 10. When the check is set, the provisional scanning control unit 22 of the binarization processing method determination unit 20 drives a conveyance control unit (not shown) so that a part of the check is read by the image reading unit 15 and the image reading unit 15 A part of the image data of the check is output to the value processing determination unit 23. In the present embodiment, the image reading unit 15 is configured by a monochrome image sensor, and the output image data includes, for example, luminance (hereinafter referred to as “density”) in which each pixel value is represented by 0 to 255. ) Is grayscale data represented by The binarization processing determination unit 23 determines a binarization processing method for binarizing the image data of the entire check from the grayscale data of a part of the check acquired by provisional scanning. Here, the binarization processing method to be determined is one of the following two methods.
[0024]
One method is to calculate a threshold value for a part of grayscale data of a check acquired by provisional scanning by analyzing a density distribution of each pixel constituting the data, and based on the calculated threshold value, This is a “threshold calculation method” for binarizing image data. The other method is a “sharpness method” in which the image data of the entire check is subjected to a sharpening process for enhancing edge pixels, and the sharpened image data is binarized based on a predetermined threshold value set in advance. .
[0025]
When the binarization processing method determined by the binarization processing determination unit 23 is the “sharpness method”, the binarization processing method determined by the binarization processing determination unit 23 is changed to the image acquisition unit 30. This is transmitted to the binarization processing unit 33. When the binarization processing method determined by the binarization processing determination unit 23 is the “threshold calculation method”, the check acquired from the binarization processing determination unit 23 to the threshold calculation unit 24 by temporary scanning is used. Some grayscale data is output. The threshold calculation unit 24 calculates a threshold for binarizing the image data of the entire check. The threshold calculated by the threshold calculation unit 24 is transmitted to the binarization processing unit 33 of the image acquisition unit 30 together with the binarization processing method determined by the binarization processing determination unit 23. The binarization processing unit 33 stores the received threshold value for subsequent binarization processing. In addition, the binarization processing control unit 21 controls the provisional scanning control unit 22, the binarization processing determination unit 23, and the threshold value calculation unit 24 in association with each other.
[0026]
The image acquisition control unit 31 controls each unit 32, 33, 34, 35 of the image acquisition unit. The scanning control unit 32 controls the check scanning based on the scanning instruction from the image acquisition control unit 31. When there is a scanning instruction from the image acquisition control unit 31, the scanning control unit 32 controls the image reading unit 15 to acquire image data of the entire check. In the present embodiment, the image data of the entire check is also grayscale data, like the image data of a part of the check. The gray scale data of the entire check output from the image reading unit 15 is transmitted to the binarization processing unit 33. In the binarization processing unit 33, based on the binarization processing method determined by the binarization processing determination unit 23, the grayscale data of the entire check received from the image reading unit 15 is converted into binarized image data. To do.
[0027]
The binarized image data of the entire check converted by the binarization processing unit 33 is stored in the image storage unit 34 and transmitted to an image storage device (not shown) via the communication unit 35. The image acquisition unit 30 has shown an example in which the binarized image data is stored in the image storage unit 34. However, the image acquisition unit 30 may be directly transmitted to the image storage device without providing the image storage unit 34. The image storage device stores the received binarized image so as to be searchable. This makes it possible to read and refer to the image of the related check when confirming the settlement of the financial institution or in trouble with the payer. Moreover, it is also possible to transmit image data together with electronic settlement data to a settlement organization as necessary.
[0028]
The processes of the binarization processing method determination unit 20 and the image acquisition unit 30 will be described in more detail with reference to FIG. FIG. 2 is a block diagram illustrating an example of a binarization processing method determination process by the binarization processing method determination unit 20 and an image acquisition process by the image acquisition unit 30.
[0029]
A part of the image of the check is read by the image reading unit 15 by the provisional scanning, and gray scale data of the part of the check is output. In the present embodiment, the grayscale data of a part of the check includes three pieces of data, that is, edge determination area portion reading data 200, MICR character portion reading data 201, and background portion reading data 202, each acquired from a predetermined portion of the check. Consists of The edge determination area reading data 200 output from the image reading unit 15 is subjected to edge pixel detection processing 203 by the binarization processing determination unit 23. In the detection of the edge pixel, for each pixel of the read grayscale data, the density difference between the target pixel and the surrounding pixels is calculated, and a frequency distribution of the density difference is generated. When the frequency distribution of the generated density difference is biased toward the larger absolute value of the density difference, the target pixel is detected as an edge pixel. Here, the frequency represents the number of pixels.
[0030]
Next, an edge pixel number calculation process 204 for calculating the number of edge pixels detected by the edge pixel detection process 203 is executed. Next, edge pixel determination processing for determining whether the binarization processing method is the “threshold calculation method” or the “sharpness method” based on the number of edge pixels calculated by the edge pixel number calculation processing 204 205 is executed. The determination condition in the edge pixel determination process 205 is whether or not the number of edge pixels is larger than a predetermined value.
[0031]
Next, when the edge pixel determination processing 205 determines that the binarization processing method is “threshold calculation method”, the histogram generation processing 206 uses the MICR character portion reading data 201 and the background portion reading data 202 to execute the histogram generation processing 206. Executed. On the other hand, when it is determined that the binarization processing method is the “sharpness method”, the process proceeds to a process of acquiring an image of the entire check without performing the processes (206 to 209) after the histogram generation process 206.
[0032]
The histogram generation process 206 is an average process for counting the number of pixels for each density from the read gray scale data, calculating the density distribution, and further smoothing the frequency distribution by removing noise. . In the background density determination processing 207 executed after the histogram generation processing 206, it is determined again whether the binarization processing method is the “threshold calculation method” or the “sharpness method” in the MICR character portion read data 201. The determination is made based on the density of the background data of the background portion read data 202.
[0033]
When the binarization processing method is determined to be the “threshold calculation method” by the background density determination processing 207, the threshold value calculation unit 24 determines the upper limit value and the lower limit value for determining the basis range for determining the threshold value. 208, and an appropriate threshold value calculation process 209 is performed within this range. If the threshold cannot be calculated for some reason, such as when the background data is dark, the binarization processing method is set to the “sharpness method”, and the process proceeds to processing for obtaining an image of the entire check. The calculated threshold value is used for processing for binarizing gray scale data of the entire check described later.
[0034]
When the binarization processing method is determined, an image reading process 210 is performed to read the entire check with the payment amount, the payee's description, the payer's signature, and the like. Here, the binarization processing method is determined when it is determined as the “sharpness method” or when a threshold value is calculated.
[0035]
When the binarization processing method is the “threshold calculation method” by the binarization processing method distribution processing 211, the grayscale data of the entire check acquired by the image reading processing 210 is the threshold calculated by the threshold calculation unit 24. Based on the above, a binarization process 212 for binarizing each pixel is performed and converted into binarized image data. The converted binarized image data is temporarily stored as a binarized image of the check by the binarized image storage processing 213 and transmitted to the image storage device.
[0036]
When the binarization processing method is “sharpness method” by the binarization processing method distribution processing 211, the edge pixel is added to the grayscale data of the entire check acquired by the image reading processing 210 by the sharpening image processing 214. Apply enhanced sharpening processing (generate sharpened image data). The image data that has undergone the sharpening process is subjected to a binarization process 215 that binarizes each pixel based on a predetermined threshold value that is set in advance, and is converted into binarized image data. The converted binarized image data is temporarily stored as a binarized image of the check by the binarized image storage processing 213 and transmitted to the image storage device.
[0037]
The image processing apparatus 10 as described above can be realized by a CPU, various storage devices such as a memory, hardware including a scanner device, and various control programs.
[0038]
FIG. 3 is a plan view showing an example of a check 40 used for payment, and FIG. 4 is a diagram showing an example of binarized image data acquired from the check shown in FIG. On the check 40, a payer 41, a check number 42, an issue date 43, a payee 44, a payment amount 45, a payment name 46, a payer signature 47, an MICR character 48, etc. are printed or described. In the figure, “XXX” indicates a numeral, signature, character, or the like. These characters can be printed or signed after provisional scanning, except for the MICR characters 48. The check 40 is also dotted with many background patterns 49. There are many types of check background patterns, and their densities are also different. FIG. 3 shows an example of a background pattern, which is not clearly shown in the figure, but generally has a light gray as the base color of the background, and a slightly dark gray background pattern on the base color. It is assumed that 49 are scattered.
[0039]
In the binarized image data 50 of FIG. 4, each pixel data is binarized to white or black, and the background portion 49 and the light gray of the base are removed. 51 to 58 in the figure correspond to 41 to 48 in FIG. 3, respectively.
[0040]
FIG. 5 is a flowchart illustrating an example of an image acquisition process procedure when acquiring binary image data of a check.
[0041]
First, gray scale data is acquired from a part of a check by primary scanning (hereinafter referred to as “provisional scanning”) (S101). Next, a binarization processing method for converting the image data of the entire check into binarized image data is based on the number of edge pixels detected from a part of the grayscale data of the check acquired by the temporary scan, and the temporary scan. A determination is made based on the background density of the MICR character portion and the background printing portion calculated from the partial grayscale data of the acquired check (S102).
[0042]
Here, the area to be temporarily scanned is an area including the MICR character 48 and the background pattern 49 on the check. Since the print position in the width direction of the MICR character 48 is determined by the type of check, the image data of the MICR character portion can be specified based on the output from the image reading unit 15. FIG. 3 shows the MICR character print area as “c”. It can be determined that the MICR character is detected when scanning from the right side of the check 40 and a predetermined image output is obtained from the portion corresponding to the MICR print area c. In addition, the temporary scanning area can be a position further away from the initial detection position of the MICR character by a predetermined distance. Further, when the image processing apparatus 10 is a composite processing apparatus provided with a MICR character reader, the MICR character print position is confirmed based on the output of the MICR character reader, and the provisional scanning area is determined based on the print position. Is also possible.
[0043]
FIG. 3 illustrates the provisional scanning region T. The temporary scanning region T is a region where the width of “b” from the first MICR character is used as the temporary scanning region. FIG. 3 also shows a temporary scanning region T ′ as another example. The temporary scanning region T ′ has a position that is a predetermined distance from the first MICR character as the temporary scanning region. The temporary scan area preferably includes a background pattern that includes the MICR characters and best represents the features of the check. In addition, an area E having a width of “b” in which no MICR character exists in the MICR print area c can be added to the temporary scan area T as a temporary scan area.
[0044]
FIG. 7 is a schematic diagram illustrating an example of a temporary scanning region used for determination of the binarization processing method. FIG. 7A shows an example of the temporary scanning region T shown in FIG. 3 and a region selected for edge pixel detection (hereinafter referred to as “edge determination region”), and FIG. And a region (hereinafter referred to as “specific region”) selected for creating a histogram of the MICR character portion and the background printing portion. In the example of FIG. 7A, an area that does not include the MICR character area 74 is selected from the temporary scanning area T as the edge determination area 75. Since the MICR character portion always includes character information, the number of edge pixels increases. Therefore, the determination of the edge pixel in the region excluding the MICR character portion is an accurate determination for distinguishing the background pattern. Further, it is also possible to add the area E where no MICR characters exist in the MICR print area c of FIG. 3 to the edge determination area.
[0045]
In the example of FIG. 7B, the MICR character area 74 and the three background areas 71 to 73 are selected from the temporary scanning area T as the specific area. In this way, it is possible to select a non-continuous area in the temporary scanning area as a specific area for creating a histogram. It is arbitrary how much range is selected as the specific region. However, it is desirable to include a portion where the MICR character and the background print density are high, and that the number of pixels is the minimum number of pixels necessary to determine an appropriate threshold value. It is also possible to select a character printing portion such as the recipient 44 instead of the MICR character portion.
[0046]
Next, it is determined whether or not the determined binarization processing method is the “threshold value calculation method” (S103). When the determined binarization processing method is the “threshold value calculation method” (S103: Yes), the secondary scan (hereinafter, “main scan” is performed based on the grayscale data of a part of the check acquired by the temporary scan. The threshold value for binarizing the image data of the entire check obtained by “)” is calculated (S104). On the other hand, when the binarization processing method is the “sharpness method” (S103: No), the process proceeds to step S107.
[0047]
Next, it is determined whether or not a processing abnormality such as a calculation error has occurred in the threshold value calculation process (S105). When processing abnormality occurs in the threshold value calculation processing (S105: Yes), the binarization processing method is changed to “sharpness method” (S106). On the other hand, if no processing abnormality has occurred in the threshold calculation process (S105: No), that is, if the threshold calculation process ends normally and the threshold is calculated, the process proceeds to step S107.
[0048]
Next, a main scan of the check is executed (S107), and the determined binarization processing method is determined (S108). When the binarization processing method is the “threshold calculation method” (S108: “threshold calculation method”), the threshold value calculated in step S104 is acquired (S109), and the binarization processing based on the acquired threshold value is performed. Binarized image data is generated by applying the grayscale data of the entire check input from the image reading unit 15 (S112). The generated binarized image data is stored in the image storage unit 34 or transmitted to the image storage device (S113).
[0049]
When the binarization processing method is “sharpness method” (S108: “sharpness method”), sharpening processing in which edge pixels are emphasized is applied to the grayscale data of the entire check input from the image reading unit 15, Sharpened image data is generated (S110). Next, a predetermined threshold value set in advance for binarizing the image data of the entire check is acquired (S111), and binarization processing based on the acquired threshold value is applied to the sharpened image data. Binarized image data is generated (S112). The generated binarized image data is stored in the image storage unit 34 or transmitted to the image storage device (S113).
[0050]
The above-described sharpened image data is generated by applying a sharpness filter coefficient to grayscale data in order to enhance edge pixels. Hereinafter, conversion from grayscale data to sharpened image data is referred to as “sharpness conversion”. Also, the sharpness conversion process is called “sharpening image processing”. FIG. 13 shows an example of the sharpness filter coefficient. The value obtained by multiplying the density value of the target pixel by k1 and the density value of surrounding pixels by k2 is set as the density value of the target pixel. Similar processing is performed on each pixel constituting the grayscale data to obtain sharpened image data. For example, the surrounding pixels are surrounding pixels separated by k3 pixels in the vertical and horizontal directions. That is, the following sharpness conversion formula is obtained. In FIG. 13, k1 = 5, k2 = −1, and k3 = 5.
[0051]
Density of target pixel after sharpness conversion p =
(Target pixel density × k1)
+ (Density of surrounding pixel 1 × k2)
+ (Density of surrounding pixel 2 × k2)
+ (Density of surrounding pixel 3 × k2)
+ (Density of surrounding pixel 4 × k2)
Here, when the density p after sharpness conversion is p <0, p = 0, and when p> 255, p = 255.
[0052]
Using the above sharpness conversion formula, sharpening image processing is performed on all the pixels of the grayscale data acquired by the main scanning. FIG. 14 is a diagram showing a histogram before and after sharpness conversion. FIG. 14A is a diagram showing a histogram before sharpness conversion, and FIG. 14B is a diagram showing a histogram after sharpness conversion. As shown in FIG. 14, the density of the pixel after sharpness conversion is concentrated at “0” or “255”. Therefore, it can be seen that the sharpened image data may be binarized with a preset threshold value of 1 to 254.
[0053]
Here, the threshold value to be set is preferably a small value. For example, 30. This is to reduce error pixels (hereinafter referred to as “noise pixels”) due to the binarization process and further increase the compression efficiency after the binarization process. FIG. 15 is a diagram showing density values before and after sharpness conversion of one line of the MICR character part. The x-axis shows the number of dots and the y-axis shows the density.
[0054]
As shown in FIG. 15, in the sharpened image data after the sharpness conversion, the density value of the black part of the image changes to 0 and the density value of the white part of the image changes to 255, and the difference in light and shade is emphasized. Further, when there is a difference in density before sharpness conversion between adjacent pixels, the density difference after sharpness conversion is further increased and the density is enhanced. For example, the black ellipse 61 in the figure. Depending on the threshold value, this large density difference portion becomes a noise pixel. For example, when the threshold value is set to 100, in the elliptical part 61, before sharpness conversion, a part represented as white is represented as black after sharpness conversion and becomes a noise pixel. Therefore, in order to reduce this noise pixel, it is better to set the threshold value to a low value (for example, 30).
[0055]
FIG. 6 is a flowchart illustrating an example of the determination processing procedure of the binarization processing method.
[0056]
First, edge pixels in the edge pixel determination area 75 where the background pattern 49 exists and where the MICR character 48 does not exist are detected from a part of the grayscale data of the check acquired by provisional scanning, The edge pixel number Ne is calculated (S201). Here, the edge pixel is a pixel having a large absolute value of a density difference from surrounding pixels. For detection of edge pixels, as shown in FIG. 7, the edge pixel determination area 75 is divided into a plurality of blocks 76, and edge pixel determination is performed for each block.
[0057]
FIG. 12 is a diagram for explaining edge pixel determination. In the edge pixel determination, first, a density difference between a pixel to be determined (hereinafter referred to as “determination target pixel”) and surrounding pixels is calculated. FIG. 12A is a diagram illustrating determination target pixels for determining edge pixels in one block and peripheral pixels to be used for calculation of density difference for the determination. Assume that a set of m1 × m2 pixels is one block, a pixel at the center of the block is a determination target pixel A, and pixels other than the determination target pixel A are peripheral pixels. Here, m1 = 5 and m2 = 5 will be described as an example. Further, if all the peripheral pixels included in one block are subject to calculation, it takes a long time to calculate. For example, every other thinned pixel is a peripheral pixel to be calculated (hereinafter referred to as “calculation target peripheral pixel”). Said).
[0058]
Accordingly, as shown in FIG. 12A, the calculation target peripheral pixels for calculating the density difference from the determination target pixel are twelve. Next, the density difference between each of the 12 calculation target peripheral pixels and the determination target pixel is calculated, and the calculated density difference is classified into a range m3 of density differences divided into m3, and each range is determined. The number of pixels classified into (2) is integrated. Here, m3 = 5 will be described as an example. The density difference boundary values n1 and n2 (n1 and n2 are positive integers) are set in advance, and the range 1 is set when the density difference Pi is −255 <= Pi <−n2, and −n2 <= Pi <−n1. Is a range 2 when -n1 <= Pi <= n1, a range 4 when n1 <Pi <= n2, and a range 5 when n2 <Pi <= 255. As described above, the density difference between each of the twelve calculation target peripheral pixels and the determination target pixel is classified into the range 1 to the range 5 and integrated for each range. Here, for example, n1 = 10 and n2 = 50.
[0059]
12B and 12C are diagrams showing the frequency distribution of the density difference between the determination target pixel and the calculation target peripheral pixel. As shown in FIG. 12B, when the density difference distribution is biased toward the larger absolute value of the density difference, that is, when the density difference distribution is biased toward the range 1 or 5, the determination target. It can be determined that the density difference between the pixel and the calculation target peripheral pixel is large. Therefore, in this case, the determination target pixel is determined as an edge pixel. On the other hand, as shown in FIG. 12C, when the density difference distribution is not biased, it cannot be determined that the density difference between the determination target pixel and the calculation target peripheral pixel is large. Accordingly, in this case, it is determined that the determination target pixel is not an edge pixel. For example, the following conditions can be cited as conditions for determining whether the density difference distribution is biased toward the larger absolute value of the density difference. Here, Ci is the frequency in the range i, and Te is a preset value.
[0060]
(C5> Te and C1 = 0)
Or
(C1> Te and C5 = 0)
As described above, one edge pixel is determined with 5 × 5 pixels as one block. Therefore, when the number of blocks included in the edge pixel determination area 75 is Nb, the number Ne of detected edge pixels is 0 <= Ne <= Nb.
[0061]
Returning to FIG. 6, it is next determined whether or not the calculated edge pixel number Ne is larger than a predetermined value Ne0 (S202). That is, it is determined whether or not (Ne> Ne0). Here, the predetermined value Ne0 is a value derived from an experiment or the like and can be changed. For example, the value is 10% of the number of blocks in the edge pixel determination area. That is, Ne0 = Nb × 0.1.
[0062]
When the calculated edge pixel number Ne is larger than the predetermined value Ne0, that is, when (Ne> Ne0) (S202: Yes), the process proceeds to the next step S203. On the other hand, when the calculated edge pixel number Ne is equal to or less than the predetermined value Ne0, that is, when (Ne <= Ne0) (S202: No), the binarization processing method is set to “sharpness method” (S209). ).
[0063]
Next, a frequency distribution is generated for the pixels of the portion where the MICR character 48 exists from a part of the image data of the check acquired by the temporary scanning (S203). Next, a frequency distribution is generated for the pixels of the portion where the background pattern 49 exists from the image data of a part of the check acquired by the temporary scanning (S204). Next, in order to remove the noise portion of the frequency distribution from the frequency distribution of the generated MICR character portion and the frequency distribution of the background portion, each frequency distribution is averaged (S205). Here, the result of averaging the density distribution is called a histogram. The averaging process is, for example, a process in which an average value of a total of 9 points including a point i and 4 points before and after the point i is set as the value of the point i. That is, point (i-4), point (i-3), point (i-2), point (i-1), point i, point (i + 1), point (i + 2), point (i + 3) and point ( Let the average value of i + 4) be the value of point i.
[0064]
FIG. 8 shows a frequency distribution (histogram) obtained by averaging the MICR character portion 74 and the background portions 71 to 73 in the temporary scanning region T of the check 40 shown in FIG. The horizontal axis indicates density, and the vertical axis indicates frequency (number of pixels). The density (brightness) on the horizontal axis is represented by 0 to 255, and the smaller the number, the higher the density (the brightness is low: dark). A first peak 80 having a density of 20 to 60 in FIG. 8 is a set of pixels constituting the MICR character, and a second peak 81 having a density of 100 to 160 is a MICR character part 74 (FIG. 7). This is a set of pixels representing the background pattern 49. A third peak 82 having a density of 160 to 210 is a set of pixels representing the background pattern 49 of the background portions 71 to 73 (FIG. 7). The histogram of FIG. 8 is composed of a MICR character part 74 and background parts 71 to 73. FIG. 9 shows a histogram of the MICR character part 74, and FIG. 10 shows a histogram of the background parts 71 to 73, respectively.
[0065]
Next, the peak value density Pn1 and standard deviation σ1 of the background pattern 49 in the MICR character area 74 and the peak value density Pn2 and standard deviation σ2 of the background pattern 49 in the background areas 71 to 73 are calculated (S206). Next, based on the peak value density Pn1 and standard deviation σ1 in the MICR character area 74 and the peak value density Pn2 and standard deviation σ2 in the background areas 71 to 73, the background density and background areas 71 to 73 in the MICR character area 74 are displayed. It is determined whether the background density is substantially the same (S207). For example, it is determined whether or not the peak value concentration Pn1 and the peak value concentration Pn2 are substantially the same, and the standard deviation σ1 and the standard deviation σ are substantially the same.
[0066]
When the background density of the MICR character area 74 and the background density of the background areas 71 to 73 are substantially the same (S207: Yes), the binarization processing method is set as the “threshold value calculation method” (S208). On the other hand, when the background density of the MICR character area 74 and the background density of the background areas 71 to 73 are not substantially the same (S207: No), the binarization processing method is set to “sharpness method” (S209).
[0067]
FIG. 11 is a flowchart illustrating an example of a threshold value calculation processing procedure (“threshold value calculation method”). First, from the histogram of the MICR character portion 74, a minimum density limit value PMin (FIGS. 8 and 9) for calculating a threshold value is calculated (S301). Since the threshold value distinguishes the background and the character, the threshold value must be at least between the density of the MICR character and the background portion. Therefore, the minimum threshold value PMin of the threshold needs to be brighter than the MICR character. For this purpose, first, the minimum limit value PMin is calculated based on the density of the MICR characters. When the minimum limit value PMin cannot be obtained from the histogram of the MICR character portion 74 (S302: Yes), the binarization processing method is changed to “sharpness method” (S309).
[0068]
When the minimum limit value PMin is calculated (S302: No), the MICR maximum limit value PMMax (FIG. 9), which is the maximum limit value of the MICR character portion 74, is obtained (S303). The MICR maximum limit value PMMax is a brighter limit value obtained from the histogram of the MICR character part 74. If the threshold value is further increased, the background pattern 49 of the MICR character part 74 and the MICR character cannot be distinguished. This is the limit value. When the MICR maximum limit value PMMax cannot be obtained (S304: Yes), the binarization processing method is changed to “sharpness method” (S309).
[0069]
When the MICR maximum limit value PMMax is calculated (S304: No), the background maximum limit value PbMax (FIG. 10), which is the maximum limit value of the background portions 71 to 73, is obtained (S305). The maximum background limit value PbMax is the brighter limit value of the background portions 71 to 73. If the threshold value is further increased, the limit value cannot be distinguished from the background pattern 49 of the background portions 71 to 73 and the MICR characters. It will be. When the background maximum limit value PbMax cannot be obtained (S306: Yes), the binarization processing method is changed to “sharpness method” (S309). Accordingly, a threshold value cannot be calculated by the “threshold value calculation method”, and a check processed with an unreadable error can also obtain a binary image by changing the binarization processing method to “sharpness”.
[0070]
When the background maximum limit value PbMax is calculated (S306: No), the threshold maximum limit value PMax (FIG. 8) is obtained (S307). The maximum limit value PMax indicates the maximum limit value of the threshold for eliminating the background pattern 49 of the MICR character portion 74 and the background portions 71 to 73, and is a small value of the MICR maximum limit value PMMax and the background maximum limit value PbMax. Becomes the maximum limit value PMax. When the minimum limit value PMin and the maximum limit value PMax are obtained, the threshold value is calculated from these values (S308).
[0071]
(Embodiment applied to a composite processing apparatus)
Checks are also used for shopping at retail stores such as supermarkets. In a supermarket, a POS system is usually installed in a checkout counter. In the case of payment by check, in addition to conventional processing such as reading magnetic ink characters (MICR characters) on checks and printing necessary items, image data acquisition processing of printed surfaces such as checks, transaction details Or image data transmission processing is required. These operations are not only complicated for the operator, but also require a long time for processing. In addition, when the printer, the MICR reader, the scanner (image processing apparatus), and the like are separate apparatuses, a problem arises in that an installation space for each apparatus must be secured around the cash register (settlement counter). This problem can be solved by a composite processing apparatus having a printer and a MICR reader.
[0072]
That is, it is possible to continuously perform a series of processing such as checks from magnetic ink character reading processing to printing surface scanning processing by a composite processing apparatus provided with a MICR reader, scanner, and the like in a POS printer. As a result, it is possible to reduce the operation burden on the operator in payment by check, and to shorten the time required for processing.
[0073]
For this purpose, a composite processing apparatus having a printing function includes a conveyance path that guides a print medium such as a check, a magnetic head that is arranged along the conveyance path and reads magnetic ink characters recorded in advance on the print medium, and a conveyance path. A first print head disposed along the path and performing printing on the first surface of the print medium; and a second print head disposed along the transport path and performing printing on the second surface of the print medium; It is desirable to have a configuration including a scanner (image reading unit) that is arranged along the conveyance path and scans (scans) the first or second surface of the print medium. Such a composite processing apparatus can also be considered as a POS printer having a check processing function.
[0074]
A composite processing apparatus according to an embodiment of the present invention having a POS printer function and a MICR function will be described below with reference to the drawings.
[0075]
FIG. 16 is a perspective view of the composite processing apparatus 110 according to an embodiment of the present invention having a POS printer function and an MICR character reading function. As shown in this figure, the composite processing apparatus 110 is covered with a resin cover 111, and an insertion port 112 for manually inserting the check P is formed on the front surface portion thereof, while the upper surface portion thereof is formed. Is formed with a discharge port 113 through which the check P is discharged. Furthermore, the composite processing apparatus 110 of the present embodiment includes a roll paper storage unit (not shown) that stores roll paper at the rear part thereof, and the roll paper stored in the roll paper storage unit passes through the printing unit. It is pulled out from the roll paper discharge port 114 on the upper surface of the apparatus.
[0076]
FIG. 17 is a side sectional view showing the internal structure of the composite processing apparatus 110. As shown in this figure, a conveyance path 115 of a check P from the insertion port 112 to the discharge port 113 is formed inside the combined processing apparatus 110. The conveyance path 115 has the insertion port 112 side facing the horizontal direction, while the discharge port 113 side faces the vertical direction, and bends in an L shape in a side view. On the conveyance path 115, in order from the insertion port 112 side, a paper rear end detector 116, MICR head (magnetic head) 117, first feed roller pair 118, paper front end detector 119, paper positioning member 120, back print head A (second print head) 121, a second feed roller pair 122, a front print head (first print head) 123, a paper discharge detector 124, and a scanner 125 are arranged. A scanner feed roller (press feed roller) 126 is provided.
[0077]
The paper trailing edge detector 116, the paper leading edge detector 119, and the paper discharge detector 124 are configured by, for example, a transmissive or reflective photosensor, and the presence or absence of the check P is not contacted at each position in the conveyance path 115. To detect. The sheet positioning member 120 is used to temporarily stop the check P inserted from the insertion port 112 at a predetermined position. For example, the sheet positioning member 120 protrudes into the transport path 115 according to driving of an actuator such as a solenoid, and the transport path. It is configured to perform a transforming operation to a posture of retreating from 115. The first feed roller pair 118 and the second feed roller pair 122 are each composed of a pair of roller members facing each other with the transport path 115 interposed therebetween, and transport the check P in both forward and reverse directions by driving one of the rollers. Further, one of the roller members is configured to be movable back and forth with respect to the other roller member, and opens and closes the transport path 115 by an advance / retreat operation according to driving of an actuator such as a solenoid.
[0078]
The MICR head 117 is for reading magnetic ink characters recorded on the surface of the check P, and the validity / invalidity of the check P is determined based on the read data of the MICR head 117. As shown in FIG. 18, the magnetic ink characters are recorded in the MICR recording area 127 on the surface of the check P, and the recorded data includes the account number of the check P and the like. A pressing member 117a that presses the check P against the MICR head 117 during a reading operation is provided at a position opposite to the MICR head 117. However, the pressing member 117a is normally retracted from the MICR head 117, and the conveyance path 115 is opened.
[0079]
The front print head 123 is for printing a written item such as a payee, a date, and an amount of money on the surface of the check P, and this written item is printed in a written region 128 shown in FIG. The front print head 123 is a serial print head supported by a carriage, and realizes dot matrix printing in one or more columns while moving in the width direction of the check P. In this embodiment, a dot impact type print head for transferring the ink on the ink ribbon to the check P is used as the front print head 123, but another type of print head may be used.
[0080]
The back printing head 121 is for printing the endorsement items necessary for the store side such as the shopper's authentication number, date, and usage amount on the back side of the check P. The endorsement items are shown in FIG. Printed in the endorsement area 129. The back printing head 121 is of a shuttle type and includes a plurality of heads with a predetermined interval in the width direction of the check P, and one or a plurality of rows of dot matrix printing is performed by moving the head within the interval width. Realize. In this embodiment, a dot impact type print head that transfers the ink on the ink ribbon to the check P is employed as the back print head 121, but another type of print head may be employed.
[0081]
The scanner 125 corresponds to the image reading unit 15 shown in FIG. 1 and scans the surface of the printed check P to obtain image data. The read image data is stored in an image storage device ( (Not shown) and used for electronic settlement or transaction verification. The acquired image data may be stored in the image storage device after being compressed. In addition, as described in the above example, a temporary scan is first performed to calculate a threshold value, and image data such as a check acquired by the subsequent main scan is converted into binarized image data based on the threshold value. The In the present embodiment, a contact image sensor (CIS: Contact Image Sensor) is used as the scanner 125, and the scanning operation is performed with the check P in close contact with the reading surface 125a.
[0082]
The scanner feed roller 126 is for conveying the check P during the scanning operation, and conveys the check P to the discharge port 113 side while pressing the check P against the reading surface 125a of the scanner 125. At this time, as shown in FIG. 19, the scanner feed roller 126 presses the check P to a position slightly shifted from the scanner focus position A without pressing the check P to the focus position A of the scanner 125. That is, the scanner focal position A is offset to the upstream side or downstream side with respect to the scanner contact position B of the scanner feed roller 126. For example, in this embodiment, the scanner focus position A is offset from the scanner contact position B of the scanner feed roller 126. The scanner focal position A is set at a position offset by 0.8 mm on the downstream side of the conveyance (discharge port 113 side). Thereby, it is avoided that the pressing force of the scanner feed roller 126 acts directly on the scanner focal position. Therefore, when the check P is scanned immediately after printing, the amount of ink adhering to the scanner focal position A can be reduced, and it is possible to prevent the deterioration of the quality of the scanned image due to the ink adhering as much as possible. Further, in the present embodiment, as described above, the scanner focal position A is offset downstream of the scanner contact position B of the scanner feed roller 126, so that the scanable area on the front end side of the check P is widened. Is possible. When the scanner focal position A is largely offset with respect to the scanner contact position B of the scanner feed roller 126, the check P may float from the reading surface 125a at the scanner focal position A. However, as described above, Since the amount is about 0.8 mm, the float of the check P with respect to the reading surface 125a is suppressed to 0.2 mm or less, and there is no possibility that the quality of the scanned image is deteriorated.
[0083]
In the above scanning operation, first, provisional scanning (primary scanning) is performed, and part of the image data of the check is acquired for determination of the binarization processing method and / or calculation of the threshold value. When the binarization processing method is determined as the “sharpness method” from the image data acquired by the temporary scanning, or when the threshold value is calculated when the binarization processing method is the “threshold calculation method”, the main scanning is started. . In the main scan (secondary scan), an image is read while the check P is conveyed upward by the scan feed roller 126, and the check P is discharged as it is from the discharge port 113. At this time, the end portion of the discharged check P is held by the downstream conveyance path 115 of the scan feed roller 126. That is, the end portion of the conveyance path 115 (between the scan feed roller 126 and the discharge port 113) is oriented substantially vertically and has a length of about L / 6 (L: the length of the check P). Therefore, it is possible to hold the discharged check P, and the discharged check P does not fall from the combined processing apparatus 110.
[0084]
【The invention's effect】
As described above, the present invention determines a binarization processing method for binarizing the image data of the entire securities based on the image data acquired by temporarily scanning a part of the image of the securities. Based on the determined binarization processing method, important information such as account number, payment amount, payer, payee, signature, etc. can be obtained as image information accurately with a small amount of information. It has become possible to provide an image processing apparatus and an image processing method capable of accurately obtaining necessary securities image data with a small amount of information.
[0085]
In other words, the “threshold calculation method” can be acquired at high speed with a smaller amount of data, and the “sharpness method” can accurately read image information that could not be read.
[0086]
Further, according to the embodiment of the present invention, it is possible to read MICR characters, print necessary information, and efficiently acquire image data such as a check in order to electronically pay a check. As a result, a series of processes such as checks from the magnetic ink character reading process to the printing surface scanning process can be performed continuously, reducing the operational burden on the operator and reducing the time required for the process. it can.
[Brief description of the drawings]
FIG. 1 is a functional block diagram for explaining a basic concept of an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating an example of a binarization processing method determination process by a binarization processing method determination unit 20 and an image acquisition process by an image acquisition unit 30;
FIG. 3 is a plan view showing an example of a check.
FIG. 4 is a diagram showing an example of binarized image data acquired from the check shown in FIG.
FIG. 5 is a flowchart showing an example of an image acquisition process procedure when acquiring binary image data of a check according to the present invention.
FIG. 6 is a flowchart showing an example of a determination processing procedure of the binarization processing method according to the present invention.
FIG. 7 is a schematic diagram illustrating an example of a provisional scanning region used for determination of a binarization processing method.
8 is a frequency distribution diagram (histogram) obtained by averaging the MICR character portion 74 and the background portions 71 to 73 in the provisional scanning region T of the check 40 shown in FIG.
9 is a histogram of the MICR character part 74 constituting the histogram of FIG.
10 is a histogram of background portions 71 to 73 constituting the histogram of FIG. 8;
FIG. 11 is a flowchart showing an example of a threshold calculation processing procedure according to the present invention.
FIG. 12 is a diagram for explaining edge pixel determination.
FIG. 13 is a diagram illustrating an example of a sharpness filter coefficient.
FIG. 14 is a diagram showing a histogram before and after sharpness conversion.
FIG. 15 is a diagram showing density values before and after sharpness conversion of one line of a MICR character part.
FIG. 16 is a perspective view of a composite processing apparatus 110 having a print function and the like.
17 is a side sectional view showing the internal structure of the composite processing apparatus 110. FIG.
FIG. 18 is a schematic view of a check.
FIG. 19 is a side view showing a scanner and a scanner feed roller.
[Explanation of symbols]
10 Image processing device
15 Image reading unit
20 Binarization processing method determination unit
30 Image acquisition unit
40 Check surface
42 check number
44 Payee
45 Payment amount
47 Signature
48 Magnetic ink characters (MICR characters)
49 Background Pattern
50 Binary image data
110 Combined processing equipment
112 insertion slot
113 outlet
115 Transport route
117 MICR head
118 First feed roller pair
121 Back printing head
122 Second feed roller pair
123 Front print head
125 scanner
126 Scanner feed roller
130 Roller spindle
132 Roller retracting mechanism
133 Solenoid for scanner feed roller
134 Presser bar
135 Presser spring
136 1st gear
137 2nd gear
138 Scanner feed motor
140 Control unit
P check
T Temporary scanning area

Claims (10)

有価証券全体を走査することにより取得した第1の画像データを2値化画像データに変換するイメージ取得部と、
前記有価証券の一部領域から取得した第2の画像データに基づいて、前記第1の画像データを2値化画像データに変換するための2値化処理方法を定める2値化処理方法決定部とを備えるとともに、前記一部領域が、前記有価証券に予め印刷された磁気インク文字を含む文字領域及び背景模様を少なくとも一部に含む1個又は複数の背景領域であることを特徴とする画像処理装置。
An image acquisition unit that converts first image data acquired by scanning the entire securities into binary image data;
A binarization processing method determination unit that determines a binarization processing method for converting the first image data into binarized image data based on the second image data acquired from a partial area of the securities. And the partial area is a character area including magnetic ink characters preprinted on the securities and one or more background areas including at least a background pattern. Processing equipment.
さらに、前記背景領域からエッジ画素を検出するエッジ画素検出部を備え、前記2値化処理方法決定部は、検出されたエッジ画素の個数に基づいて、前記2値化処理方法を定めることを特徴とする、請求項1に記載の画像処理装置。  The image processing apparatus further includes an edge pixel detection unit that detects an edge pixel from the background area, and the binarization processing method determination unit determines the binarization processing method based on the number of detected edge pixels. The image processing apparatus according to claim 1. 前記2値化処理方法決定部は、前記文字領域の文字の背景を示す画素の濃度分布と、前記背景領域を構成する画素の濃度分布とに基づいて、前記2値化処理方法を定めることを特徴とする、請求項1に記載の画像処理装置。  The binarization processing method determining unit determines the binarization processing method based on a density distribution of pixels indicating the background of the character in the character area and a density distribution of pixels constituting the background area. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 前記イメージ取得部は、前記第2の画像データの濃度分布に基づいて算出された第1の閾値に基づいて、前記第1の画像データを2値化画像データに変換する第1の2値化処理手段を備えていることを特徴とする、請求項1に記載の画像処理装置。  The image acquisition unit converts a first binarized image data into a binarized image data based on a first threshold value calculated based on a density distribution of the second image data. The image processing apparatus according to claim 1, further comprising a processing unit. 前記イメージ取得部は、前記第1の画像データに、エッジ画素を強調させる鮮鋭化処理を施した後、予め定められた第2の閾値に基づいて、前記第1の画像データを2値化画像データに変換する第2の2値化処理手段を備えていることを特徴とする、請求項1に記載の画像処理装置。  The image acquisition unit performs a sharpening process for enhancing edge pixels on the first image data, and then converts the first image data into a binarized image based on a predetermined second threshold value. The image processing apparatus according to claim 1, further comprising second binarization processing means for converting into data. 下記の工程を備えていることを特徴とする画像処理方法。
(a)有価証券の一部領域の画像を解析し、2値化処理方法を定める工程であって、前記一部領域が、前記有価証券に予め印刷された磁気インク文字を含む文字領域及び背景模様を少なくとも一部に含む1個又は複数の背景領域である工程
(b)有価証券全体の画像を、前記工程(a)で定めた2値化処理方法に基づいて、2値化画像データに変換する工程
An image processing method comprising the following steps.
(A) Analyzing an image of a partial area of securities and determining a binarization processing method, wherein the partial area includes a character area and a background including magnetic ink characters printed in advance on the securities The image of the entire securities (step (b)), which is one or more background regions including at least a part of the pattern, is converted into binarized image data based on the binarization processing method defined in step (a). Process to convert
さらに、下記の工程を備えていることを特徴とする請求項6に記載の画像処理方法。
(c)前記背景領域からエッジ画素を検出する工程
(d)前記工程(c)で検出されたエッジ画素の個数に基づいて、前記2値化処理方法を定める工程
The image processing method according to claim 6, further comprising the following steps.
(C) detecting an edge pixel from the background region (d) determining the binarization processing method based on the number of edge pixels detected in the step (c)
さらに、下記の工程を備えていることを特徴とする請求項6に記載の画像処理方法。
(e)前記文字領域の文字の背景を示す画素の濃度分布と、前記背景領域を構成する画素の濃度分布とに基づいて、前記2値化処理方法を定める工程
The image processing method according to claim 6, further comprising the following steps.
(E) determining the binarization processing method based on a density distribution of pixels indicating the background of the character in the character area and a density distribution of pixels constituting the background area
前記工程(a)の結果に基づいて、下記の2値化処理工程(f)又は(g)のいずれか一方を行うことを特徴とする請求項6に記載の画像処理方法。
(f)前記一部領域の画像の濃度分布に基づいて第1の閾値を算出し、算出された第1の閾値に基づいて、前記有価証券全体の画像を2値化画像データに変換する工程
(g)前記有価証券全体の画像に、エッジ画素を強調させる鮮鋭化処理を施した後、予め定められた第2の閾値に基づいて、前記有価証券全体の画像を2値化画像データに変換する工程
The image processing method according to claim 6, wherein one of the following binarization processing steps (f) and (g) is performed based on the result of the step (a).
(F) calculating a first threshold value based on a density distribution of the image of the partial area, and converting an image of the entire securities into binarized image data based on the calculated first threshold value. (G) The image of the entire securities is subjected to a sharpening process for enhancing edge pixels, and then the entire image of the securities is converted into binary image data based on a predetermined second threshold. Process
請求項6乃至9項のいずれかに記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記録したことを特徴とするコンピュータに読み取り可能な情報記録媒体。  10. A computer-readable information recording medium on which a program for causing a computer to execute each step of the image processing method according to claim 6 is recorded.
JP2003201889A 2002-07-29 2003-07-25 Image processing apparatus and image processing method for securities Expired - Fee Related JP3885885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003201889A JP3885885B2 (en) 2002-07-29 2003-07-25 Image processing apparatus and image processing method for securities

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002220113 2002-07-29
JP2003201889A JP3885885B2 (en) 2002-07-29 2003-07-25 Image processing apparatus and image processing method for securities

Publications (2)

Publication Number Publication Date
JP2004127258A JP2004127258A (en) 2004-04-22
JP3885885B2 true JP3885885B2 (en) 2007-02-28

Family

ID=32300609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003201889A Expired - Fee Related JP3885885B2 (en) 2002-07-29 2003-07-25 Image processing apparatus and image processing method for securities

Country Status (1)

Country Link
JP (1) JP3885885B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243578B2 (en) * 2011-07-13 2013-07-24 キヤノン電子株式会社 Image processing apparatus, image processing method, and image processing system

Also Published As

Publication number Publication date
JP2004127258A (en) 2004-04-22

Similar Documents

Publication Publication Date Title
JP4003428B2 (en) Check processing apparatus and check processing method
US20040136586A1 (en) Apparatus and method for processing images of negotiable instruments
US7584148B2 (en) Apparatus and method for processing a check, and a computer-readable recording medium storing a check processing control program
US20200097933A1 (en) Method and system for resolution of deposit transaction exceptions
US20060282383A1 (en) Payment methods and systems enhanced with image comparison for detecting fraudulent checks
GB2486832A (en) Document processing system using blind balancing
US8300915B2 (en) Methods of operating an image-based self-service check depositing terminal to improve locating a pre-defined check field and an apparatus therefor
US9275525B2 (en) Automated banking machine that operates responsive to data bearing records
JP2002092682A (en) Method and system of detecting watermark
US20130182937A1 (en) Optical waveform generation and use based on print characteristics for micr data of paper documents
ITTO20121174A1 (en) DEVICE AND BINARIZATION METHOD FOR PAYMENT OR ACCOUNTING DOCUMENTS
KR101275645B1 (en) A method of recognizing checks using image data of magnetic ink character band
US10552901B2 (en) Method of operating an image-based self-service check depositing terminal
JP3885885B2 (en) Image processing apparatus and image processing method for securities
US8761487B2 (en) Methods of operating an image-based check processing system to detect a double feed condition of checks and an apparatus therefor
KR101385388B1 (en) Apparatus for media recognition and method for media kind distinction with the same
US20030126081A1 (en) Check processing method and apparatus, and a computer-readable recording medium storing a check processing control program
JP4151329B2 (en) Processing apparatus and processing method for securities such as checks
JP2006174498A (en) Recording medium processing method, recording medium processing apparatus, and recording medium processing program
JP3723707B2 (en) Securities processing method and apparatus
JP2003223602A (en) Check treating method, check treating device, and computer-readable recording medium having program recorded therein
JP2005269057A (en) Image reading apparatus and image reading method
JP2003150799A (en) Method and device for processing recording medium, method and device for controlling this device, program for executing this processing method on computer, and computer readable recording medium with this program recorded thereon
JP2008005380A (en) Image processor and image acquisition method for the same
JP5243578B2 (en) Image processing apparatus, image processing method, and image processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060705

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060925

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131201

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees