JP3715473B2 - Address reader - Google Patents
Address reader Download PDFInfo
- Publication number
- JP3715473B2 JP3715473B2 JP21715399A JP21715399A JP3715473B2 JP 3715473 B2 JP3715473 B2 JP 3715473B2 JP 21715399 A JP21715399 A JP 21715399A JP 21715399 A JP21715399 A JP 21715399A JP 3715473 B2 JP3715473 B2 JP 3715473B2
- Authority
- JP
- Japan
- Prior art keywords
- address
- cellophane window
- candidate
- area
- cellophane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Sorting Of Articles (AREA)
- Character Input (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、郵便物に記載された宛名住所を文字認識技術によって読み取って郵便物を宛先別に区分する郵便物宛名読取区分機に用いられる宛名読取装置に関する。
【0002】
【従来の技術】
郵便物に記載された宛名住所を文字認識技術によって読み取って郵便物を宛先別に区分する郵便物宛名読取区分機が実用化されている。
【0003】
この郵便物宛名読取区分機に用いられる宛名読取装置の処理の概要を以下に示す。
【0004】
まず、画像入力部において、郵便物の画像が入力される。次に、領域検出部において、郵便物の画像から宛名が記載されている領域の位置が検出される。次に、行検出部において、宛名領域から、宛名を構成する各行が検出される。次に、文字検出部において、行から各文字が検出される。次に、文字認識部において、各文字の画像を文字認識辞書と照合することにより文字認識が行なわれる。最後に住所認識部において、文字認識結果を住所辞書と照合することにより、宛先の住所が決定される。
【0005】
これらの処理の詳しい内容については、例えば、東芝レビュー、vo1.48,No.7,pp536−539(1993)などに記載されている。
【0006】
以上の処理の中で、領域検出部2においては、郵便物から高い精度で宛名領域を検出することが求められている。この理由としては、領域検出部で誤った領域を検出してしまうと、後の処理で、その誤りを回復する方法がないからである。
【0007】
特に、封筒にセロハン窓が開いていて、セロハンの窓から宛名を記載した書類が見えるようになっている郵便物(以下では「窓付き郵便物」と記載する。)Pは大量に流通しているため、このような郵便物に対して正しく領域を検出することはとりわけ重要である。
【0008】
このため、画像入力部1では複数の光学系を用意しており、文字認識のために用いる画像(以下では「主画像」と記述する。)だけでなく、セロハン窓の検出のために用いる画像(以下では「副画像」と記述する。)も入力する。
【0009】
副画像は、郵便物から正反射(鏡面反射)してくる光を撮像して得られるものである。窓付き郵便物のセロハン窓の部分では強い正反射が生じるため、副画像を用いればセロハン窓の位置を容易に求めることができる。
【0010】
領域検出部は、画像入力部から主画像と同時に副画像も取得し、副画像を用いてセロハン窓付き郵便物のセロハン窓の位置を求め、もしセロハン窓が見い出されれば、その位置を領域候補とする。
【0011】
以上のような方法により、従来の郵便物宛名読取区分機装置で用いられる宛名読取装置では、高い精度でセロハン窓の位置を検出し、宛名記載位置を検出する精度を高めることが可能となっていた。
【0012】
【発明が解決しようとする課題】
以上で述べたような従来の宛名読取装置では、主画像を得る光学系だけでなく、セロハン窓を検出するための副画像を得る光学系も必要となるため、装置全体としてのコストが高くなっていた。
【0013】
更に、別々の光学系を複数個使うには、それらの光学系の位置合わせが必要になり、機械を保守する手間がかかるという問題点もあった。
【0014】
この発明は、上記の欠点を除去するもので、宛名読取用の光学系だけを用いて、高い精度でセロハン窓、つまり宛名記載位置を検出することを可能とし、装置の性能を下げないで大幅にコストを低下させることが可能な宛名読取装置を提供することを目的としている。
【0015】
またこの発明は、セロハン窓の四隅およびセロハン窓の水平、垂直方向の縁を検出し、検出された四隅と縁の情報から複数のセロハン窓領域候補を生成し、セロハン窓領域候補の内側と外側の画素の濃度分布の違いや、セロハン窓の縁のエッジ強度などを評価することによって、最もセロハン窓の可能性の高い候補を選択することができる宛名読取装置を提供することを目的としている。
【0016】
【課題を解決するための手段】
この発明は、読取るべき媒体の宛名を読取る宛名読取装置において、上記媒体から画像を取込む取込手段と、この取込手段により取り込んだ画像からセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報をフィルタ処理によって検出する第1の検出手段と、この第1の検出手段により検出されたセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報によりセロハン窓候補領域を検出する第2の検出手段と、上記取込手段により取り込んだ画像における上記第2の検出手段により検出されたセロハン窓候補領域の内側と外側の濃度が異なっている場合に、上記媒体の紙質と上記媒体の内容物の紙質が異なっているものとして上記セロハン窓領域を決定する決定手段と、上記取込手段により取り込んだ画像内の上記決定手段により決定されたセロハン窓領域の画像により宛名を読取る読取手段とを有する。
【0017】
この発明は、読取るべき媒体の宛名を読取る宛名読取装置において、上記媒体から画像を取込む取込手段と、この取込手段により取り込んだ画像からセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報をフィルタ処理によって検出する第1の検出手段と、この第1の検出手段により検出されたセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報によりセロハン窓候補領域を検出する第2の検出手段と、上記取込手段により取り込んだ画像における上記第2の検出手段により検出されたセロハン窓候補領域の内側と外側のテキスチャが異なる場合、白から黒への変化数に基づいてセロハン窓領域を決定する決定手段と、上記取込手段により取り込んだ画像内の上記決定手段により決定されたセロハン窓領域の画像により宛名を読取る読取手段とを有する。
【0018】
この発明の宛名読取装置は、宛名が記載されている媒体の表面を光学的に読取り走査することにより、濃度データによるデジタル画像パターンを出力する画像読取手段と、この画像読取手段からのデジタル画像パターンに基づいて、宛名の記載領域を検出し、この宛名の記載領域のデジタル画像パターンに基づく2値化パターンを出力する領域検出手段と、この領域検出手段からの2値化パターンに基づいて斜影等により、宛名の記載領域内の宛名を構成する各行が検出される行検出手段と、この行検出手段により検出された各行ごとの2値化データに基づいて射影等により1文字ごとの文字パターンを切出す文字検出手段と、この文字検出手段から供給される1文字ずつの文字パターンを文字認識辞書内の英字、数字、漢字に対する基準パターンとのマッチング法などによって文字候補を認識する文字認識手段と、この文字認識手段から供給される文字認識結果と住所辞書とを照合することにより、宛名を認識する宛名認識手段とを具備し、上記領域検出手段が、上記画像読取手段からの1画面分の濃度データによるデジタル画像パターンに対して、4つのコーナ検出フィルタと水平方向エッジ検出フィルタと垂直方向エッジ検出フィルタのそれぞれを用いて、4つのコーナと水平方向エッジと垂直方向エッジの位置候補を検出し、これらの検出した位置候補を統合してセロハン窓領域候補を検出するセロハン窓領域候補検出手段と、このセロハン窓領域候補検出手段により検出されたセロハン窓領域候補に対して、上記各フィルタ出力、濃度差、位置、寸法等によりセロハン窓位置の候補を各々評価し、セロハン窓である可能性の高い候補だけを選択する選択手段とを有する。
【0021】
【発明の実施の形態】
以下、図面を参照してこの発明の実施形態の郵便物宛名読取区分機に用いられる宛名読取装置を説明する。
【0022】
図1は、この発明の宛名読取装置の概略構成と概略処理を示している。
【0023】
この宛名読取装置は、郵便物Pに記載されている宛名を読取るものであり、図1に示すように、画像入力部1、領域検出部2、行検出部3、文字検出部4、文字認識部5、文字認識辞書6、住所認識部7、住所辞書8により構成されている。
【0024】
まず、画像入力部1としての光電変換部は、図2のように、搬送路9上を搬送される郵便物Pとしての封筒に記載されている住所等(宛名)の文字を読取るために表面を光学的に読取り走査するものであり、郵便物Pに光を照射する光源、郵便物Pからの反射光を導くレンズ、このレンズを介して導かれる光による撮像像(原図形)に応じたデジタル画像パターンを出力する受光装置により構成されている。その読取り画像としてのデジタル画像パターンは領域検出部2へ供給される。デジタル画像パターンは濃度データによるマトリクスデータ(多値化パターン)となっている。
【0025】
郵便物Pとしての封筒には、セロハン窓Paが設けられ、内容物に記載されている宛名が空かして見えるようになっている。
【0026】
領域検出部2は、画像入力部1からの郵便物Pの画像としてマトリクスデータに基づいて、宛名が記載されている領域の位置を検出し、この宛名領域のマトリクスデータに基づくビットマップデータ(2値化パターン)に変換し、行検出部3へ供給される。
【0027】
行検出部3は、領域検出部2からのビットマップデータに基づいて射影等により宛名領域内の宛名を構成する各行が検出されるものである。
【0028】
文字検出部4において、行検出部3により検出された各行ごとのビットマップデータに基づいて射影等により1文字ごとの文字パターンに切出すものである。この切り出した1文字ごとの文字パターン(ビットマップデータ(2値化パターン)は文字認識部5に供給される。
【0029】
文字認識部5は、文字検出部4から供給される1文字ずつの文字パターンを文字認識辞書6内の英字、数字、漢字に対する基準パターンとのマッチング法などによって文字候補を認識するものであり、この認識結果は住所認識部7へ供給される。
【0030】
住所認識部7は、文字認識部14から供給される文字認識結果と住所辞書8と照合することにより、宛先の住所を認識するものであり、最終結果としての答えが、つまり住所の認識結果が出力されるものである。
【0031】
次に、領域検出部2における郵便物Pのセロハン窓Pa領域の検出について説明する。
【0032】
このセロハン窓Pa領域の検出は、以下のような特徴をとらえることにより、検出を行うものである。
【0033】
1.郵便物Pのマトリクスデータにおいて、セロハン窓Paの縁が見えることが多い。これは、封筒とセロハン窓Paの間にある段差の影が画像上に写ったものである(図3の(a)参照)。
【0034】
2.郵便物Pのマトリクスデータにおいて、セロハン窓Paの内側と外側は、異なった濃度を持っていることが多い。これは、封筒の紙質と内容物の紙質が異なっている場合に起こる(図3の(b)参照)。
【0035】
3.郵便物Pのマトリクスデータにおいて、セロハン窓Paの内側と外側は、異なったテキスチャを持っていることが多い。これは、封筒か内容物かに模様がある場合に起こる(図3の(c)参照)。たとえば、2値化パターンの1cm当たりの白から黒への変化数に基づいて、テキスチャの判別が行える。
【0036】
4.郵便物Pのマトリクスデータにおいて、封筒の内容物の位置がずれることによって、セロハン窓Paの内側の文字行の一部が隠れることがある。この場合には、文字行の端がセロハン窓Paの縁と揃っていることに特徴がある(図3の(d)参照)。たとえば、行検出部3での各行の開始点と終了点とで、文字行の端が揃っているか否かを検出できる。
【0037】
領域検出部2には、郵便物Pの1画面分のマトリクスデータを記憶するメモリと、種々の検出フィルタ(9×9画素)が記憶されている検出フィルタ記憶部と、メモリのマトリクスデータの対して検出フィルタ記憶部の各種検出フィルタで1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(コーナ、エッジの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値によりコーナ(セロハン窓Paの四隅の位置の候補)、水平エッジ(セロハン窓Paの水平方向の縁の位置)、垂直エッジ(セロハン窓Paの水平方向の縁の位置)を検出する検出部と、この検出部で検出したコーナ、水平エッジ、垂直エッジによりセロハン窓Pa領域候補を検出する検出部とこの検出したセロハン窓Pa領域候補を評価することによりセロハン窓Pa領域を選択する選択部とにより構成されている。
【0038】
検出フィルタ記憶部には、コーナ検出フィルタ、水平方向エッジ検出フィルタ、垂直方向エッジ検出フィルタが記憶されている。
【0039】
コーナ検出フィルタとしては、図4の(a)に示すような、右上コーナ検出フィルタ、図4の(b)に示すような、右下コーナ検出フィルタ、図4の(c)に示すような、左上コーナ検出フィルタ、図4の(d)に示すような、左下コーナ検出フィルタが記憶されている。
【0040】
水平方向エッジ検出フィルタとしては、図5に示すような、検出フィルタが記憶されている。垂直エッジ検出フィルタとしては、図6に示すような、検出フィルタが記憶されている。
【0041】
次に、領域検出部2における郵便物Pのセロハン窓Pa領域の検出について、図7に示すフローチャートを参照しつつ説明する。
【0042】
すなわち、郵便物Pの1画面分のマトリクスデータに対して右上コーナ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(コーナの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により右上コーナを検出する(ST1)。この右上コーナの検出結果は座標値(コーナの位置情報)で出力される。
【0043】
次に、郵便物Pの1画面分のマトリクスデータに対して右下コーナ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(コーナの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により右下コーナを検出する(ST2)。この右下コーナの検出結果は座標値(コーナの位置情報)で出力される。
【0044】
次に、郵便物Pの1画面分のマトリクスデータに対して左上コーナ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(コーナの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により左上コーナを検出する(ST3)。この左上コーナの検出結果は座標値(コーナの位置情報)で出力される。
【0045】
次に、郵便物Pの1画面分のマトリクスデータに対して左下コーナ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(コーナの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により左下コーナを検出する(ST4)。この左下コーナの検出結果は座標値(コーナの位置情報)で出力される。
【0046】
これにより、コーナ検出フィルタによって、セロハン窓Paの四隅の位置の候補を検出する。
【0047】
次に、郵便物Pの1画面分のマトリクスデータに対して水平方向エッジ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(水平方向エッジの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により水平方向エッジを検出する(ST5)。この水平方向エッジの検出結果は各エッジの2つの端部の座標値(エッジの位置情報)で出力される。
【0048】
これにより、水平方向エッジ検出フィルタによって、セロハン窓Paの水平方向の縁の位置を検出する。
【0049】
次に、郵便物Pの1画面分のマトリクスデータに対して垂直方向エッジ検出フィルタにより、1画素分ずつ移動して乗算することにより、フィルタ処理を全面に施し、ピーク値(垂直方向エッジの存在している可能性の高い位置に大きな出力が得られる)を求め、このピーク値により垂直方向エッジを検出する(ST6)。この垂直方向エッジの検出結果は各エッジの2つの端部の座標値(エッジの位置情報)で出力される。
【0050】
これにより、垂直方向エッジ検出フィルタによって、セロハン窓Paの垂直方向の縁の位置を検出する。
【0051】
次に、上記4種類のフィルタによるフィルタ処理の結果から得られたコーナおよびエッジの位置情報を統合して、セロハン窓位置の候補を検出する(ST7)。
【0052】
すなわち、セロハン窓位置候補を求めるには、以下のような方法をとる。
【0053】
(a)検出されたコーナと水平エッジと垂直エッジから、枠を決定できる最小限の組合せ(図8の(a)(b)(c)参照)を抽出し、これをセロハン窓候補とする。
【0054】
たとえば、図8の(a)に示す、2つのコーナ、図8の(b)に示す、1つのコーナ、1つの水平エッジ、1つの垂直エッジ、図8の(c)に示す、2つの水平エッジ、2つの垂直エッジにより、セロハン窓位置候補を求める。
【0055】
(b)得られたセロハン窓候補のうち、サイズが小さすぎるものや、大きすぎるものは削除する。
【0056】
(c)残ったセロハン窓候補どうしの重なりを調べ、重なりの大きいものは統合する(図9の(a)(b)参照)。
【0057】
たとえば、図9の(a)に示す、セロハン窓候補1、2を統合して、図9の(b)に示す、セロハン窓候補とする。
【0058】
次に、上記各フィルタ出力、濃度差、位置、寸法等によりセロハン窓位置の候補を各々評価し、セロハン窓Paである可能性の高い候補だけを選択する(ST8)。
【0059】
評価の基準としては以下のようなものを用いる。
【0060】
(1) コーナ検出フィルタおよびエッジ検出フィルタの出力値
この値が大きいほどセロハン窓の可能性が高い。
【0061】
(2) セロハン窓候補の内側と外側の濃度の平均値の差
この値が大きいほどセロハン窓の可能性が高い。
【0062】
(3) セロハン窓候補の内側と外側のテキスチャの差
これは公知のテキスチャ解析手法によって測定できる。差が大きいほどセロハン窓の可能性が高い。
【0063】
(4) セロハン窓候補の内側に含まれる文字行でセロハン窓の縁で途切れている物の数
この数が多いほどセロハン窓の可能性が高い。
【0064】
(5) セロハン窓候補の位置
郵便物Pの中央に存在するほどセロハン窓の可能性が高い。
【0065】
(6) セロハン窓候補の大きさ
基準寸法に近いほど、セロハン窓の可能性が高い。
【0066】
上記の複数の基準を総合して評価するには、以下のような方式が考えられる。
【0067】
(1) 各基準の得点のそれぞれを各々の閾値と比較し、閾値以上だった基準の数を総合得点とする。
【0068】
(2) 公知のニューロコンピュータの技術によって、総合得点を得る。
【0069】
(3) 公知の線形判別分析法によって総合得点を得る。
【0070】
このようにして、総合得点が得られれば、それを一定の閾値と比較し、閾値より大きければ、セロハン窓として採用すればよい。
【0071】
ところで、以上のような処理によって検出されたセロハン窓候補に、郵便物Pに事前印字された囲み枠の領域が含まれる場合がある。セロハン窓と違って、囲み枠の中に記載されている文字列は差出人住所である可能性が高い(図10参照)。そのため、セロハン窓と囲み枠の区別を付けることが重要になる。この区別は以下のような情報に基づいて行われる。
【0072】
1.線の太さが太い場合は囲み枠の可能性が高い。
【0073】
2.領域内外の濃度差が少ない場合は囲み枠の可能性が高い。
【0074】
3.領域の位置が郵便物Pの右下にある場合は囲み枠の可能性が高い。
【0075】
上記したように、セロハン窓を検出するための特殊な光学系が存在しなくても、文字認識用の光学系だけで、高い精度でセロハン窓を検出することが可能になり、装置のコストダウンが可能になる。
【0076】
更には、光学系の保守の手間が半分になる上に、複数の光学系の位置合わせが不要になるので、保守にかかる費用のコストダウンも可能になる、
【0077】
【発明の効果】
以上詳述したように、この発明によれば、宛名読取用の光学系だけを用いて、高い精度でセロハン窓、つまり宛名記載位置を検出することを可能とし、装置の性能を下げないで大幅にコストを低下させることを可能な宛名読取装置を提供できる。
【0078】
またこの発明は、セロハン窓の四隅およびセロハン窓の水平、垂直方向の縁を検出し、検出された四隅と縁の情報から複数のセロハン窓領域候補を生成し、セロハン窓領域候補の内側と外側の画素の濃度分布の違いや、セロハン窓の縁のエッジ強度などを評価することによって、最もセロハン窓の可能性の高い候補を選択することができる宛名読取装置を提供できる。
【図面の簡単な説明】
【図1】この発明の実施形態の宛名読取装置の概略構成を示す図。
【図2】郵便物と画像入力部とを説明するための図。
【図3】セロハン窓つき郵便物の特徴を説明するための図。
【図4】コーナ検出フィルタの例を示す図。
【図5】水平方向エッジ検出フィルタの例を示す図。
【図6】垂直方向エッジ検出フィルタの例を示す図。
【図7】領域検出部における郵便物のセロハン窓領域の検出を説明するためのフローチャート。
【図8】セロハン窓候補の位置を決定できる最小限組み合わせ例を説明するための図。
【図9】セロハン窓候補の統合を説明するための図。
【図10】セロハン窓と囲み枠の区別を説明するための図。
【符号の説明】
P…郵便物
Pa…セロハン窓
1…画像入力部
2…領域検出部
3…行検出部
4…文字検出部
5…文字認識部
6…文字認識辞書
7…住所認識部
8…住所辞書[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an address reading device used in a mail address reading / sorting machine that reads an address written on a mail by a character recognition technology and classifies the mail according to a destination.
[0002]
[Prior art]
A mail address reading and sorting machine has been put to practical use, which reads an address written on a mail by a character recognition technique and classifies the mail according to destination.
[0003]
An outline of the processing of the address reading device used in this mail address reading sorting machine is shown below.
[0004]
First, an image of a mail is input in the image input unit. Next, the area detection unit detects the position of the area where the address is described from the mail image. Next, each line constituting the address is detected from the address area in the line detection unit. Next, each character is detected from the line in the character detection unit. Next, in the character recognition unit, character recognition is performed by comparing each character image with a character recognition dictionary. Finally, in the address recognition unit, the address of the destination is determined by comparing the character recognition result with the address dictionary.
[0005]
For details of these processes, see, for example, Toshiba Review, vo 1.48, No. 7, pp 536-539 (1993).
[0006]
In the above processing, the
[0007]
In particular, mails with cellophane windows open on envelopes and documents with addresses can be seen through the cellophane windows (hereinafter referred to as "mail with windows") P are distributed in large quantities. Therefore, it is particularly important to detect the correct area for such mail pieces.
[0008]
For this reason, the
[0009]
The sub-image is obtained by imaging light that is specularly reflected (specularly reflected) from the postal matter. Since strong regular reflection occurs in the cellophane window portion of the mail with a window, the position of the cellophane window can be easily obtained by using the sub-image.
[0010]
The area detection unit obtains a sub-image at the same time as the main image from the image input unit, and uses the sub-image to determine the position of the cellophane window of the mail with cellophane window. And
[0011]
With the method as described above, the address reading device used in the conventional mail address reading sorter device can detect the position of the cellophane window with high accuracy and improve the accuracy of detecting the address description position. It was.
[0012]
[Problems to be solved by the invention]
In the conventional address reader as described above, not only the optical system for obtaining the main image but also the optical system for obtaining the sub-image for detecting the cellophane window is required, which increases the cost of the entire apparatus. It was.
[0013]
Further, in order to use a plurality of different optical systems, it is necessary to align the optical systems, and there is a problem that it takes time and labor to maintain the machine.
[0014]
The present invention eliminates the above-mentioned drawbacks, and enables the cellophane window, that is, the address description position to be detected with high accuracy using only the address reading optical system, and greatly reduces the performance of the apparatus. Another object of the present invention is to provide an address reader that can reduce costs.
[0015]
The present invention also detects the four corners of the cellophane window and the horizontal and vertical edges of the cellophane window, generates a plurality of cellophane window area candidates from the detected information of the four corners and edges, and the inside and outside of the cellophane window area candidates. It is an object of the present invention to provide an address reader capable of selecting a candidate having the highest possibility of a cellophane window by evaluating the difference in the density distribution of the pixels and the edge strength of the edge of the cellophane window.
[0016]
[Means for Solving the Problems]
According to the present invention, in an address reader for reading an address of a medium to be read, capturing means for capturing an image from the medium, information on four corners of a cellophane window candidate from the image captured by the capturing means, and horizontal of the cellophane window candidate First detection means for detecting vertical edge information by filtering, information on the four corners of the cellophane window candidate detected by the first detection means, and information on horizontal and vertical edges of the cellophane window candidate When the density of the inside and outside of the cellophane window candidate area detected by the second detecting means in the image captured by the capturing means is different from the second detecting means for detecting the cellophane window candidate area by Determining means for determining the cellophane window area on the assumption that the paper quality of the medium is different from the paper quality of the contents of the medium; And a reading means for reading the address by the image of the determined cellophane window region by said determining means in the elaborate images.
[0017]
According to the present invention, in an address reader for reading an address of a medium to be read, capturing means for capturing an image from the medium, information on four corners of a cellophane window candidate from the image captured by the capturing means, and horizontal of the cellophane window candidate First detection means for detecting vertical edge information by filtering, information on the four corners of the cellophane window candidate detected by the first detection means, and information on horizontal and vertical edges of the cellophane window candidate If the texture on the inside and outside of the cellophane window candidate area detected by the second detection means in the image captured by the capture means is different from the second detection means for detecting the cellophane window candidate area by white Determined by the determining means for determining the cellophane window area based on the number of changes to black and the determining means in the image captured by the capturing means. And a reading means for reading the address by the image of the cellophane window area.
[0018]
An address reading device according to the present invention includes an image reading means for outputting a digital image pattern based on density data by optically reading and scanning the surface of a medium on which the address is written, and a digital image pattern from the image reading means. And a region detection means for detecting a description area of the address and outputting a binarized pattern based on the digital image pattern of the address description area, and a bevel based on the binarization pattern from the area detection means. Thus, a line detection means for detecting each line constituting the address in the address description area, and a character pattern for each character by projection or the like based on the binarized data for each line detected by the line detection means. The character detection means to be cut out and the character pattern for each character supplied from the character detection means are used as a reference pattern for English letters, numbers, and Chinese characters in the character recognition dictionary. Character recognition means for recognizing a character candidate by a matching method with an address, and address recognition means for recognizing an address by collating a character recognition result supplied from the character recognition means with an address dictionary. The area detection unit uses four corner detection filters, a horizontal edge detection filter, and a vertical edge detection filter for the digital image pattern based on the density data for one screen from the image reading unit, respectively. Cellophane window area candidate detection means for detecting position candidates of four corners, horizontal edges, and vertical edges, and integrating the detected position candidates to detect a cellophane window area candidate; and this cellophane window area candidate detection means For the cellophane window area candidate detected by the above, the cellophane window is determined by the above filter output, density difference, position, size, etc. Each was evaluated candidate location, and a selection means for selecting only likely a cellophane window candidates.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an address reading device used in a mail address reading sorting machine according to an embodiment of the present invention will be described with reference to the drawings.
[0022]
FIG. 1 shows a schematic configuration and schematic processing of an address reader according to the present invention.
[0023]
This address reading device reads an address written on a postal matter P, and as shown in FIG. 1, an
[0024]
First, as shown in FIG. 2, the photoelectric conversion unit as the
[0025]
The envelope as the postal matter P is provided with a cellophane window Pa so that the address written on the contents is visible.
[0026]
The
[0027]
The
[0028]
In the
[0029]
The character recognizing unit 5 recognizes character candidates by matching a character pattern for each character supplied from the
[0030]
The address recognition unit 7 recognizes the address of the destination by collating the character recognition result supplied from the character recognition unit 14 with the address dictionary 8, and the answer as the final result, that is, the address recognition result is Is output.
[0031]
Next, detection of the cellophane window Pa area of the postal matter P in the
[0032]
The cellophane window Pa area is detected by detecting the following features.
[0033]
1. In the matrix data of the postal matter P, the edge of the cellophane window Pa is often visible. This is a shadow of the level difference between the envelope and the cellophane window Pa on the image (see FIG. 3A).
[0034]
2. In the matrix data of the postal matter P, the inside and outside of the cellophane window Pa often have different densities. This occurs when the paper quality of the envelope and the paper quality of the contents are different (see FIG. 3B).
[0035]
3. In the matrix data of the postal matter P, the inside and outside of the cellophane window Pa often have different textures. This occurs when there is a pattern on the envelope or the contents (see (c) of FIG. 3). For example, the texture can be determined based on the number of changes from white to black per 1 cm of the binarized pattern.
[0036]
4). In the matrix data of the postal matter P, a part of the character line inside the cellophane window Pa may be hidden by the position of the envelope contents being displaced. This case is characterized in that the end of the character line is aligned with the edge of the cellophane window Pa (see FIG. 3D). For example, it is possible to detect whether or not the end of the character line is aligned at the start point and end point of each line in the
[0037]
The
[0038]
The detection filter storage unit stores a corner detection filter, a horizontal edge detection filter, and a vertical edge detection filter.
[0039]
As the corner detection filter, as shown in FIG. 4A, the upper right corner detection filter, as shown in FIG. 4B, the lower right corner detection filter, as shown in FIG. The upper left corner detection filter, as shown in FIG. 4D, stores the lower left corner detection filter.
[0040]
As the horizontal edge detection filter, a detection filter as shown in FIG. 5 is stored. As the vertical edge detection filter, a detection filter as shown in FIG. 6 is stored.
[0041]
Next, detection of the cellophane window Pa area of the postal matter P in the
[0042]
That is, the matrix data for one screen of the postal matter P is moved by one pixel by the upper right corner detection filter and multiplied, so that the filtering process is performed on the entire surface, and the peak value (the presence of a corner may be present). A large output is obtained at a position having high characteristics), and the upper right corner is detected from this peak value (ST1). The detection result of the upper right corner is output as a coordinate value (corner position information).
[0043]
Next, the matrix data for one screen of the postal matter P is moved by one pixel at a time by the lower right corner detection filter and multiplied, so that the filter processing is performed on the entire surface, and the peak value (the presence of a corner exists). A large output is obtained at a position where there is a high possibility of being present), and the lower right corner is detected from this peak value (ST2). The detection result of the lower right corner is output as a coordinate value (corner position information).
[0044]
Next, the matrix data for one screen of the postal matter P is moved by one pixel at a time by the upper left corner detection filter and multiplied, so that the filter processing is performed on the entire surface, and the peak value (the presence of a corner exists). A large output is obtained at a highly likely position), and the upper left corner is detected from this peak value (ST3). The detection result of the upper left corner is output as a coordinate value (corner position information).
[0045]
Next, the matrix data for one screen of the postal matter P is moved by one pixel by the lower left corner detection filter and multiplied, so that the filter processing is performed on the entire surface, and the peak value (the presence of a corner exists). A large output is obtained at a highly likely position), and the lower left corner is detected from this peak value (ST4). The detection result of the lower left corner is output as a coordinate value (corner position information).
[0046]
Thereby, the candidate of the position of the four corners of the cellophane window Pa is detected by the corner detection filter.
[0047]
Next, the matrix data for one screen of the postal matter P is moved by one pixel by the horizontal direction edge detection filter and multiplied to perform the filtering process on the entire surface, and the peak value (existence of the horizontal direction edge) A large output is obtained at a position where there is a high possibility that the horizontal edge is detected), and a horizontal edge is detected from this peak value (ST5). The detection result of the horizontal edge is output as coordinate values (edge position information) of the two end portions of each edge.
[0048]
Accordingly, the position of the horizontal edge of the cellophane window Pa is detected by the horizontal edge detection filter.
[0049]
Next, the matrix data for one screen of the postal matter P is moved by one pixel by a vertical edge detection filter and multiplied, so that the filter processing is performed on the entire surface, and the peak value (existence of the vertical edge exists). A large output can be obtained at a position where there is a high possibility of being detected), and a vertical edge is detected from this peak value (ST6). The detection result of the vertical edge is output as the coordinate values (edge position information) of the two ends of each edge.
[0050]
Thereby, the position of the edge of the cellophane window Pa in the vertical direction is detected by the vertical edge detection filter.
[0051]
Next, the position information of the corners and edges obtained from the results of the filter processing by the four types of filters is integrated to detect cellophane window position candidates (ST7).
[0052]
That is, in order to obtain the cellophane window position candidate, the following method is used.
[0053]
(A) A minimum combination (see FIGS. 8A, 8B, and 8C) in which a frame can be determined is extracted from the detected corner, horizontal edge, and vertical edge, and this is set as a cellophane window candidate.
[0054]
For example, two corners shown in FIG. 8 (a), one corner shown in FIG. 8 (b), one horizontal edge, one vertical edge, two horizontals shown in FIG. 8 (c) A cellophane window position candidate is obtained by the edge and the two vertical edges.
[0055]
(B) Of the obtained cellophane window candidates, those that are too small or too large are deleted.
[0056]
(C) The overlapping of the remaining cellophane window candidates is examined, and those having a large overlap are integrated (see FIGS. 9A and 9B).
[0057]
For example, the
[0058]
Next, each candidate for the cellophane window position is evaluated by each filter output, density difference, position, size, etc., and only those candidates that are likely to be cellophane windows Pa are selected (ST8).
[0059]
The following are used as evaluation criteria.
[0060]
(1) Output values of corner detection filter and edge detection filter The larger this value, the more likely the cellophane window is.
[0061]
(2) Difference between average values of inside and outside cellophane window candidates The larger the value, the more likely the cellophane window is.
[0062]
(3) Difference in texture between the inside and outside of the cellophane window candidate This can be measured by a known texture analysis method. The greater the difference, the more likely the cellophane window is.
[0063]
(4) Number of text lines included inside the cellophane window candidate that are interrupted at the edge of the cellophane window The higher this number, the more likely the cellophane window is.
[0064]
(5) Location of the cellophane window candidate The possibility of a cellophane window increases as it exists in the center of the postal matter P.
[0065]
(6) The closer the cellophane window candidate is to the standard size, the more likely the cellophane window is.
[0066]
The following methods are conceivable for comprehensive evaluation of the above-mentioned plurality of criteria.
[0067]
(1) Each score of each criterion is compared with each threshold value, and the number of criteria that are equal to or greater than the threshold value is regarded as the total score.
[0068]
(2) A total score is obtained by a known neurocomputer technique.
[0069]
(3) A total score is obtained by a known linear discriminant analysis method.
[0070]
In this way, if an overall score is obtained, it is compared with a certain threshold value, and if it is larger than the threshold value, it may be adopted as a cellophane window.
[0071]
By the way, the cellophane window candidate detected by the processing as described above may include a frame area preprinted on the postal matter P. Unlike the cellophane window, there is a high possibility that the character string written in the box is a sender address (see FIG. 10). Therefore, it is important to distinguish between the cellophane window and the surrounding frame. This distinction is made based on the following information.
[0072]
1. If the line is thick, there is a high probability of a frame.
[0073]
2. If the density difference between the inside and outside of the area is small, the possibility of a surrounding frame is high.
[0074]
3. When the position of the area is at the lower right of the postal matter P, the possibility of a surrounding frame is high.
[0075]
As described above, even if there is no special optical system for detecting the cellophane window, it is possible to detect the cellophane window with high accuracy using only the optical system for character recognition, thereby reducing the cost of the apparatus. Is possible.
[0076]
Furthermore, the maintenance work of the optical system is halved and the alignment of a plurality of optical systems is not required, so that the cost of maintenance can be reduced.
[0077]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to detect the cellophane window, that is, the address description position with high accuracy by using only the address reading optical system, and without greatly degrading the performance of the apparatus. In addition, it is possible to provide an address reader that can reduce the cost.
[0078]
The present invention also detects the four corners of the cellophane window and the horizontal and vertical edges of the cellophane window, generates a plurality of cellophane window area candidates from the detected information of the four corners and edges, and the inside and outside of the cellophane window area candidates. It is possible to provide an address reader that can select a candidate having the highest possibility of the cellophane window by evaluating the difference in the density distribution of the pixels and the edge strength of the edge of the cellophane window.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an address reader according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a mail piece and an image input unit.
FIG. 3 is a view for explaining the characteristics of a mail piece with a cellophane window;
FIG. 4 is a diagram illustrating an example of a corner detection filter.
FIG. 5 is a diagram showing an example of a horizontal direction edge detection filter.
FIG. 6 is a diagram showing an example of a vertical edge detection filter.
FIG. 7 is a flowchart for explaining detection of a cellophane window area of a mail in the area detection unit.
FIG. 8 is a diagram for explaining a minimum combination example that can determine the position of a cellophane window candidate;
FIG. 9 is a diagram for explaining cellophane window candidate integration;
FIG. 10 is a diagram for explaining the distinction between a cellophane window and a surrounding frame.
[Explanation of symbols]
P ... Mail Pa ...
Claims (4)
上記媒体から画像を取込む取込手段と、 Capture means for capturing an image from the medium;
この取込手段により取り込んだ画像からセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報をフィルタ処理によって検出する第1の検出手段と、 First detection means for detecting information on the four corners of the cellophane window candidate and edge information in the horizontal and vertical directions of the cellophane window candidate from the image captured by the capture means;
この第1の検出手段により検出されたセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報によりセロハン窓候補領域を検出する第2の検出手段と、 Second detection means for detecting a cellophane window candidate region based on information on the four corners of the cellophane window candidate detected by the first detection means and information on horizontal and vertical edges of the cellophane window candidate;
上記取込手段により取り込んだ画像における上記第2の検出手段により検出されたセロハン窓候補領域の内側と外側の濃度が異なっている場合に、上記媒体の紙質と上記媒体の内容物の紙質が異なっているものとして上記セロハン窓領域を決定する決定手段と、 When the density inside and outside the cellophane window candidate area detected by the second detection means in the image captured by the capture means is different, the paper quality of the medium is different from the paper quality of the contents of the medium. Determining means for determining the cellophane window region as being,
上記取込手段により取り込んだ画像内の上記決定手段により決定されたセロハン窓領域の画像により宛名を読取る読取手段と、 Reading means for reading the address from the image of the cellophane window area determined by the determining means in the image captured by the capturing means;
を具備したことを特徴とする宛名読取装置。 An address reading device comprising:
上記媒体から画像を取込む取込手段と、 Capture means for capturing an image from the medium;
この取込手段により取り込んだ画像からセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報をフィルタ処理によって検出する第1の検出手段と、 First detection means for detecting information on the four corners of the cellophane window candidate and edge information in the horizontal and vertical directions of the cellophane window candidate from the image captured by the capture means;
この第1の検出手段により検出されたセロハン窓候補の四隅の情報およびセロハン窓候補の水平・垂直方向の縁の情報によりセロハン窓候補領域を検出する第2の検出手段と、 Second detection means for detecting a cellophane window candidate region based on information on the four corners of the cellophane window candidate detected by the first detection means and information on horizontal and vertical edges of the cellophane window candidate;
上記取込手段により取り込んだ画像における上記第2の検出手段により検出されたセロハン窓候補領域の内側と外側のテキスチャが異なる場合、白から黒への変化数に基づいてセロハン窓領域を決定する決定手段と、 Determination of determining the cellophane window area based on the number of changes from white to black when the inside and outside textures of the cellophane window candidate area detected by the second detection means in the image captured by the capture means are different. Means,
上記取込手段により取り込んだ画像内の上記決定手段により決定されたセロハン窓領域の画像により宛名を読取る読取手段と、 Reading means for reading the address from the image of the cellophane window area determined by the determining means in the image captured by the capturing means;
を具備したことを特徴とする宛名読取装置。 An address reading device comprising:
この画像読取手段からのデジタル画像パターンに基づいて、宛名の記載領域を検出し、この宛名の記載領域のデジタル画像パターンに基づく2値化パターンを出力する領域検出手段と、 Based on the digital image pattern from this image reading means, an area detecting means for detecting a description area of the address and outputting a binarized pattern based on the digital image pattern of the address description area;
この領域検出手段からの2値化パターンに基づいて斜影等により、宛名の記載領域内の宛名を構成する各行が検出される行検出手段と、 Line detection means for detecting each line constituting the address in the address description area based on the binarization pattern from the area detection means, by means of slanting, etc .;
この行検出手段により検出された各行ごとの2値化データに基づいて射影等により1文字ごとの文字パターンを切出す文字検出手段と、 Character detection means for cutting out a character pattern for each character by projection or the like based on the binarized data for each line detected by the line detection means;
この文字検出手段から供給される1文字ずつの文字パターンを文字認識辞書内の英字、数字、漢字に対する基準パターンとのマッチング法などによって文字候補を認識する文字認識手段と、 A character recognition means for recognizing a character candidate by matching a character pattern for each character supplied from the character detection means with a reference pattern for alphabets, numbers, and kanji in a character recognition dictionary;
この文字認識手段から供給される文字認識結果と住所辞書とを照合することにより、宛名を認識する宛名認識手段とを具備し、 Address recognition means for recognizing the address by collating the character recognition result supplied from the character recognition means with the address dictionary,
上記領域検出手段が、 The region detecting means is
上記画像読取手段からの1画面分の濃度データによるデジタル画像パターンに対して、4つのコーナ検出フィルタと水平方向エッジ検出フィルタと垂直方向エッジ検出フィルタのそれぞれを用いて、4つのコーナと水平方向エッジと垂直方向エッジの位置候補を検出し、これらの検出した位置候補を統合してセロハン窓領域候補を検出するセロハン窓領域候補検出手段と、 With respect to the digital image pattern based on the density data for one screen from the image reading means, four corner detection edges, horizontal edge detection filters, and vertical edge detection filters are used, respectively. And a cellophane window area candidate detecting means for detecting a position candidate of a vertical edge and detecting a cellophane window area candidate by integrating these detected position candidates,
このセロハン窓領域候補検出手段により検出されたセロハン窓領域候補に対して、上記 For the cellophane window area candidate detected by the cellophane window area candidate detection means, 各フィルタ出力、濃度差、位置、寸法等によりセロハン窓位置の候補を各々評価し、セロハン窓である可能性の高い候補だけを選択する選択手段とを有するSelection means for evaluating each cellophane window position candidate by each filter output, density difference, position, size, etc., and selecting only a candidate that is likely to be a cellophane window
ことを特徴とする宛名読取装置。 An address reader characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21715399A JP3715473B2 (en) | 1999-07-30 | 1999-07-30 | Address reader |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21715399A JP3715473B2 (en) | 1999-07-30 | 1999-07-30 | Address reader |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001038303A JP2001038303A (en) | 2001-02-13 |
JP3715473B2 true JP3715473B2 (en) | 2005-11-09 |
Family
ID=16699695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21715399A Expired - Fee Related JP3715473B2 (en) | 1999-07-30 | 1999-07-30 | Address reader |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3715473B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7406196B2 (en) | 2004-03-19 | 2008-07-29 | Lockheed Martin Corporation | Methods and systems for automatic detection of corners of a region |
CN111428688B (en) * | 2020-04-16 | 2022-07-26 | 成都旸谷信息技术有限公司 | Intelligent vehicle driving lane identification method and system based on mask matrix |
-
1999
- 1999-07-30 JP JP21715399A patent/JP3715473B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001038303A (en) | 2001-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aradhye | A generic method for determining up/down orientation of text in roman and non-roman scripts | |
US6014450A (en) | Method and apparatus for address block location | |
EP1061469B1 (en) | Method and apparatus for selecting text and/or non-text blocks in a stored document | |
US5444793A (en) | Method for detecting machine printed monetary amounts in binary images | |
EP1497787B1 (en) | System and method for identifying and extracting character strings from captured image data | |
US6408094B1 (en) | Document image assessment system and method | |
US5025475A (en) | Processing machine | |
US6466340B1 (en) | Image reading apparatus | |
US8462394B2 (en) | Document type classification for scanned bitmaps | |
CN114299528B (en) | Information extraction and structuring method for scanned document | |
US6687421B1 (en) | Skew detection of text in a noisy digitized image | |
JP4409702B2 (en) | Recognition device | |
JP3715473B2 (en) | Address reader | |
JP3268552B2 (en) | Area extraction method, destination area extraction method, destination area extraction apparatus, and image processing apparatus | |
JPH06318246A (en) | Paper sheets recognizing device | |
JP4630509B2 (en) | Destination recognition device, sorter, destination recognition method and sorting method | |
JPH04134578A (en) | Picture binarizing system | |
JP3105918B2 (en) | Character recognition device and character recognition method | |
JPS5949671A (en) | Optical character reader | |
JPH10162140A (en) | Recognition device for stamps or the like | |
JPH08305794A (en) | Address line extracting device | |
JP3580115B2 (en) | Customer barcode reading mail sorting equipment | |
GB2372808A (en) | Bank note location and discrimination | |
JPS63136181A (en) | Character reader | |
JPH08155397A (en) | Postal matter classifying device and bar code printer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050825 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080902 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090902 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090902 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100902 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110902 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |