JP6567384B2 - 情報認識装置、情報認識方法、およびプログラム - Google Patents

情報認識装置、情報認識方法、およびプログラム Download PDF

Info

Publication number
JP6567384B2
JP6567384B2 JP2015195940A JP2015195940A JP6567384B2 JP 6567384 B2 JP6567384 B2 JP 6567384B2 JP 2015195940 A JP2015195940 A JP 2015195940A JP 2015195940 A JP2015195940 A JP 2015195940A JP 6567384 B2 JP6567384 B2 JP 6567384B2
Authority
JP
Japan
Prior art keywords
recognition
address information
image
generation unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015195940A
Other languages
English (en)
Other versions
JP2017068747A (ja
Inventor
泰弘 大川
泰弘 大川
健二 君山
健二 君山
青木 泰浩
泰浩 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2015195940A priority Critical patent/JP6567384B2/ja
Publication of JP2017068747A publication Critical patent/JP2017068747A/ja
Application granted granted Critical
Publication of JP6567384B2 publication Critical patent/JP6567384B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Character Discrimination (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、情報認識装置、情報認識方法、およびプログラムに関する。
近年、物流分野においては、不定形の荷物パッケージに記載されている宛名をOCR装置により認識することが行われている。荷物パッケージのサイズや形状は様々であるため、宛名に対するカメラのフォーカスを、OCR装置の認識処理に適した範囲に保つことが困難である。これに起因して、OCR装置の認識エラーや認識不能が発生して、宛名の認識率が低下する場合がある。
上記に関連し、荷物パッケージに記載されている宛名を、ライトフィールドカメラで撮影する技術が知られている。例えば、ライトフィールドカメラの一種として、マイクロレンズアレイによって入射光を分光し、分光した複数の方向の光を、イメージセンサを用いて検出するカメラが知られている。ライトフィールドカメラによって検出された画像データ(ライトフィールドデータ)に基づき、広範囲でフォーカスが合っている画像を再構成することができる。
しかしながら、ライトフィールドカメラを物流分野に適用する場合において、宛名以外の領域にもフォーカスが合っている場合、宛名以外の領域に付与された文字を宛名であると誤検出する可能性がある。また、ライトフィールドカメラで再構成される画像は、ライトフィールドカメラの構造上解像度が低い。このため、OCR装置の認識エラーや認識不能が発生して、宛名の認識率が低下する場合がある。
特開2008−176716号公報 特開2014−16687号公報
上野梨紗子,他2名,「1ショットで2次元可視画像と距離画像を撮影可能な超小型複眼カメラモジュール」,東芝レビュー,Vol.69,No.6,2014,P.32〜35 山本琢麿,他2名,「多眼カメラを用いたデジタルリフォーカス技術」,東芝レビュー,Vol.69,No.11,2014,P.30〜33
本発明が解決しようとする課題は、対象物の誤検出を抑制するとともに、対象物に付与された対象情報の認識率を向上させることができる情報認識装置、情報認識方法、およびプログラムを提供することである。
実施形態の情報認識装置は、検出用画像生成部と、検出部と、認識用画像生成部と、認識部とを持つ。前記検出用画像生成部は、文字または記号による住所情報が付与された荷物を撮影することによって得られたライトフィールドデータに基づき、前記荷物において前記住所情報が存在する領域にフォーカスが合った検出用画像を生成する。前記検出部は、前記検出用画像生成部によって生成された前記検出用画像に基づき、前記住所情報が存在する領域を示す文字領域データを検出する。前記認識用画像生成部は、前記検出部によって検出された前記文字領域データに基づいて、前記住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。前記認識部は、前記認識用画像生成部によって生成された前記認識用画像に基づき、前記住所情報を認識し、前記住所情報を認識できた場合、認識結果を区分装置に送信する。
第1の実施形態に係る情報認識システム10の全体構成を示す図。 ライトフィールドカメラ100の詳細な構成を示す図。 マイクロレンズアレイ120の構造を示す図。 マイクロレンズアレイ120とイメージセンサ130との関係を示す図。 第1の実施形態に係る情報認識装置200のブロック図。 認識用画像生成部250の詳細な構成を示すブロック図。 再構成処理部253の詳細な構成を示すブロック図。 第1の実施形態に係る情報認識装置200の動作を示すフローチャート。 視差と対象物までの距離との関係を説明するための図。 第2の実施形態に係る情報認識装置700のブロック図。
以下、実施形態の情報認識装置、情報認識方法、およびプログラムを、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る情報認識システム10の全体構成を示す図である。図1に示されるように、本実施形態の情報認識システム10は、ライトフィールドカメラ100と、情報認識装置200と、ビデオコーディングシステム(以下、「VCS」と称する)500とを備える。
ライトフィールドカメラ100は、ベルトコンベア310上を移動する荷物(対象物の一例)400を撮影する。ライトフィールドカメラ100は、荷物400から反射されてカメラに到達した光線の位置情報だけでなく、光線の進む方向に関する情報についても検出する。ライトフィールドカメラ100によって検出された画像データ(ライトフィールドデータ)に対して所定の処理が行われることで、フォーカスを任意の位置に合わせたり、視点を変えたりした画像を再構成することができる。
ライトフィールドカメラ100は、荷物400の画像データ(ライトフィールドデータ)を情報認識装置200に送信する。情報認識装置200は、ライトフィールドカメラ100から受信したライトフィールドデータに基づき、OCR処理を行うことによって荷物400の宛名領域(対象情報が存在する領域)410に記載されている住所情報(対象情報)を認識する。情報認識装置200は、認識結果(住所情報)を区分装置300に送信する。住所情報は、例えば、数字によって記載された郵便番号、文字や数字、記号によって記載された住所、またはこれらの組み合わせである。
区分装置300は、例えば複数の段および複数の列に区画された複数の区分ポケット(不図示)、およびVCSポケット(不図示)を含む。区分装置300は、情報認識装置200から受信した認識結果(住所情報)に応じて、ベルトコンベア310によって搬送されてくる荷物400の区分先を切り替え、区分先の区分ポケットに荷物400を集積する。
情報認識装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、住所情報を認識できなかった旨の通知を区分装置300に送信する。区分装置300は、情報認識装置200から住所情報を認識できなかった旨の通知を受信すると、荷物400の区分先をVCSポケットに切り替える。
また、情報認識装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、荷物400の画像データおよびVC依頼を、ネットワークNWを介してVCS500に送信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等である。
VCS500は、情報認識装置200により住所情報を認識できなかった荷物400の画像を表示し、作業者の視認により住所情報の認識を補助するシステムである。VCS500の各端末は、荷物400の画像を表示装置によって表示し、キーボードやタッチパネル等の入力デバイスによって作業者による住所情報の入力を受け付ける。
VCS500は、作業者による住所情報の入力を受け付けると、入力された住所情報を、ネットワークNWを介して情報認識装置200に送信する。情報認識装置200は、VCS500から受信した住所情報を区分装置300に送信する。これによって、OCR処理によって住所情報を認識できなかった荷物400が、正しい区分先に区分される。
図2は、ライトフィールドカメラ100の詳細な構成を示す図である。ライトフィールドカメラ100は、メインレンズ110、マイクロレンズアレイ120、およびイメージセンサ130を備える。メインレンズ110は、被写体(荷物400)からの光が入射するレンズである。マイクロレンズアレイ120は、複数のマイクロレンズを備えるレンズアレイである。イメージセンサ130は、複数の画素を有する撮像素子であり、各画素にて光の強度を検出する。イメージセンサ130は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)等のセンサである。
図3は、マイクロレンズアレイ120の構造を示す図である。図3に示されるように、マイクロレンズアレイ120は、マイクロレンズが格子状に配列されたレンズアレイである。メインレンズ110から入射した光線群は、光線の方向にしたがって、マイクロレンズアレイ120によって分解される。
図4は、マイクロレンズアレイ120とイメージセンサ130との関係を示す図である。図4に示されるように、マイクロレンズアレイ120によって分解された光線は、円形の分解像150aおよび150bとして、イメージセンサ130上に投影される。ここでは、説明を簡単にするために2つの分解像150aおよび150bを示したが、実際には複数のマイクロレンズのそれぞれに対応する複数の分解像がイメージセンサ130上に投影される。
マイクロレンズアレイ120から投影された複数の分解像をイメージセンサ130の複数の画素が受光することで、光線の入射方向ごとの強度を検出することができる。イメージセンサ130によって検出された画像データ(ライトフィールドデータ)は、複数のマイクロレンズごとの分解像の集まりとなる。
図5は、第1の実施形態に係る情報認識装置200のブロック図である。情報認識装置200は、制御装置210と、ライトフィールドデータメモリ220と、検出用画像生成部230と、距離マップ生成部240と、認識用画像生成部250と、画像メモリ270と、検出部280と、認識部(OCR部)290とを備える。
制御装置210は、CPU(Central Processing Unit)等のプロセッサと、プロセッサが実行するプログラムを格納するプログラムメモリとを備える。なお、制御装置210は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアであってもよい。
ライトフィールドデータメモリ220および画像メモリ270は、制御装置210によって読出しおよび書込みが可能なメモリであり、例えばRAM(Random Access Memory)である。
検出用画像生成部230、距離マップ生成部240、認識用画像生成部250、検出部280、および認識部(OCR)290は、例えば、制御装置210のプロセッサが、プログラムメモリに格納されたプログラムを実行することにより実現される。画像メモリ管理情報260は、画像メモリ270に格納された画像を管理するための情報である。
ライトフィールドデータメモリ220は、ライトフィールドカメラ100から受信したライトフィールドデータを記憶する。距離マップ生成部240は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。距離マップ生成部240は、読み出したライトフィールドデータに基づき、被写体までの距離を画素ごとに算出することにより、距離マップを生成する。以下、距離マップの生成方法について説明する。
距離マップ生成部240は、ライトフィールドデータ中の各分解像(図4の150aおよび150b等)から同じ相対座標の画素を抽出して組み合わせることにより、第1のサブ画像を生成する。次に、距離マップ生成部240は、相対座標を変更し、ライトフィールドデータ中の各分解像から同じ相対座標の画素を抽出して組み合わせることにより、第2のサブ画像を生成する。第1のサブ画像と第2のサブ画像は、互いに視点の異なる画像である。
距離マップ生成部240は、第1のサブ画像中の注目画素の位置および第2のサブ画像中の注目画素の位置に基づいて、視差を算出する。例えば、距離マップ生成部240は、第1のサブ画像および第2のサブ画像に対してテンプレートマッチングを行うことによって、注目画素における視差を算出する。
次に、距離マップ生成部240は、算出した視差に基づき、注目画素における、ライトフィールドカメラ100から被写体までの距離を算出する。例えば、距離マップ生成部240は、ステレオ画像処理のアルゴリズムを用いて、ライトフィールドカメラ100から被写体までの距離を算出する。
これと同様に、距離マップ生成部240は、他の複数の画素についてもライトフィールドカメラ100から被写体までの距離を算出する。これによって、距離マップ生成部240は、各画素についてのライトフィールドカメラ100から被写体までの距離を示す距離マップを生成することができる。距離マップ生成部240は、生成した距離マップを検出用画像生成部230および認識用画像生成部250に出力する。
検出用画像生成部230は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。検出用画像生成部230は、読み出したライトフィールドデータおよび距離マップ生成部240から出力された距離マップに基づき、検出用画像を生成する。以下、検出用画像の生成方法について説明する。
検出用画像生成部230が、視差を補正するようにサブ画像を位置合わせして重ね合わせると、ぼけのないフォーカスが合った画像が得られる。ここで、「フォーカスが合った」とは、被写体の文字のエッジが立ってはっきり見える状態、または被写体のある1点で反射した光が、レンズによってセンサの1点(または十分小さな領域)に集光されている状態を意味する。一方、検出用画像生成部230が、位置合わせをせずに複数のサブ画像を重ね合わせると、ぼけたフォーカスの合っていない画像が得られる。検出用画像生成部230は、サブ画像を重ね合わせる際の位置ずらし量を制限することで、フォーカスの合う範囲を制限することができる。
検出用画像生成部230は、距離マップ生成部240によって生成された距離マップに基づき、複数のサブ画像を重ね合わせる際の位置ずらし量を制限することで、住所情報が存在する領域にフォーカスの合う範囲を制限する。これによって、検出用画像生成部230は、宛名領域410に付与された住所情報が存在する領域にフォーカスが合った検出用画像を生成することができる。
検出用画像生成部230は、生成した検出用画像を画像メモリ270に格納する。制御装置210は、画像メモリ270に格納された画像を、画像メモリ管理情報260を用いて管理する。画像メモリ管理情報260は、画像メモリ270に格納された画像の識別情報、種類(検出用画像または認識用画像を示す情報)、およびアドレス等の情報を含む。
検出部280は、画像メモリ270から検出用画像を読み出し、読み出した検出用画像に対して、2値化処理、エッジ強調、およびエッジ検出等の画像処理を施して、住所情報が記載されている領域を文字領域データとして検出する。検出部280は、検出した文字領域データを認識用画像生成部250および認識部290に出力する。
このように、検出用画像生成部230は、住所情報が存在する領域にフォーカスを合わせるとともに、それ以外の領域をぼかした検出用画像を生成する。これによって、住所情報が記載されている領域を検出部280が誤検出することを抑制することができる。なお、本実施形態においては、住所情報が存在する領域にフォーカスを合わせられるように、メインレンズ110のフォーカスを事前に調整しておく必要がある。
認識用画像生成部250は、検出部280によって検出された文字領域データに基づき、住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。このように、住所情報が存在する領域のみに対して高解像度化処理を行うことで、認識用画像生成部250の負荷を低減するとともに、認識用画像生成部250の認識処理を高速化することができる。
認識用画像生成部250は、高解像度化処理として超解像処理を行う。以下、認識用画像の生成方法について説明する。
図6は、認識用画像生成部250の詳細な構成を示すブロック図である。図6に示されるように、認識用画像生成部250は、サブ画像生成部251、位置合わせ処理部252、再構成処理部253、および補間拡大処理部254を備える。サブ画像生成部251は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。サブ画像生成部251は、読み出したライトフィールドデータと、検出部280から出力された文字領域データとに基づき、住所情報が存在する領域についての視点の異なる複数のサブ画像(サブ画像3およびサブ画像4)を生成する。
具体的に、サブ画像生成部251は、文字領域データに基づき、住所情報が存在する領域のライトフィールドデータを抽出する。サブ画像生成部251は、住所情報が存在する領域のライトフィールドデータ中の各分解像から同じ相対座標の画素を抽出して組み合わせることにより、第3のサブ画像を生成する。
次に、距離マップ生成部240は、相対座標を変更し、住所情報が存在する領域のライトフィールドデータ中の各分解像から同じ相対座標の画素を抽出して組み合わせることにより、第4のサブ画像を生成する。第3のサブ画像と第4のサブ画像は、互いに視点の異なる画像である。サブ画像生成部251は、生成した第3のサブ画像および第4のサブ画像を、位置合わせ処理部252、再構成処理部253、および補間拡大処理部254に出力する。
位置合わせ処理部252は、入力された第3のサブ画像および第4のサブ画像において同一部分と見なせる点である対応点を探索し、2つの点の移動量を動きベクトルとして算出する。位置合わせ処理部252は、算出した動きベクトルを再構成処理部253に出力する。
補間拡大処理部254は、バイリニアやバイキュービックアルゴリズム等の補間アルゴリズムによって、第1解像度の第3のサブ画像(基準画像)を、第1解像度よりも高解像である第2解像度を表すことが可能な画素数に増加して初期画像を生成する補間拡大処理を行う。ここで、解像度は画像がどれだけ細かな部分を表現しているかを示すパラメータであり、画素数はどれだけ詳細な部分を表現可能なフォーマットかを示すパラメータである。補間拡大処理では、画素数は増加するが、解像度は増加しない。補間拡大処理部254は、生成した初期画像を再構成処理部253に出力する。
再構成処理部253は、サブ画像生成部251から出力された第3および第4のサブ画像、位置合わせ処理部252から出力された動きベクトル、および補間拡大処理部254から出力された初期画像に基づき、認識用画像を生成する。
図7は、再構成処理部253の詳細な構成を示すブロック図である。図7に示されるように、再構成処理部253は、予測画像生成部255と、誤差計算部256と、誤差補正部257と、画像バッファ258とを備えている。
画像バッファ258は、補間拡大処理部254から出力された初期画像を一時的に格納する。予測画像生成部255は、画像バッファ258から初期画像を読み出す。予測画像生成部255は、読み出した初期画像と、位置合わせ処理部252から出力された動きベクトルとに基づき、予測画像を生成する。ここで、補間拡大処理の拡大率に応じて動きベクトルがスケーリングして用いられる。予測画像生成部255は、生成した予測画像を誤差計算部256に出力する。
誤差計算部256は、予測画像生成部255から出力された予測画像と、サブ画像生成部251から出力された第1解像度の第4のサブ画像との誤差を計算して誤差画像を生成する。誤差計算部256は、生成した誤差画像を誤差補正部257に出力する。
誤差補正部257は、誤差計算部256から出力された誤差画像に基づき、画像バッファ258に格納された初期画像を補正することにより、初期画像を高解像度化する。再構成処理部253は、誤差計算部256によって計算された誤差が所定の閾値以下になるまで上記の処理を繰り返すことによって、高解像度化された認識用画像を生成する。
図5に示されるように、認識用画像生成部250は、生成した認識用画像を画像メモリ270に格納する。認識部290は、画像メモリ270から認識用画像を読み出す。認識部290は、読み出した認識用画像に対してOCR処理を行うことにより、宛名領域410に付与された住所情報を認識する。
このように、認識部290は、認識用画像生成部250によって生成された高解像度の認識用画像に対してOCR処理を行う。これによって、宛名領域410に付与された住所情報の認識率を向上させることができる。
認識部290は、住所情報を認識できた場合、認識結果(住所情報)を区分装置300に送信する。一方、認識部290は、住所情報を認識できなかった場合、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する。
VCS500は、認識部290からVC依頼を受信すると、認識部290から受信した認識用画像を表示装置に表示する。作業者によって住所情報がVCS500に入力されると、VCS500は入力された住所情報を、ネットワークNWを介して認識部290に送信する。認識部290は、VCS500から受信した住所情報を区分装置300に送信する。これによって、認識部290によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
図8は、第1の実施形態に係る情報認識装置200の動作を示すフローチャートである。本フローチャートを実行するためのプログラムは、制御装置210のプログラムメモリに格納されている。
距離マップ生成部240は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す(ステップS1)。次に、距離マップ生成部240は、読み出したライトフィールドデータに基づき、距離マップを生成する(ステップS2)。
検出用画像生成部230は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。その後、検出用画像生成部230は、ライトフィールドデータおよび距離マップ生成部240によって生成された距離マップに基づき、検出用画像を生成する(ステップS3)。
検出部280は、検出用画像生成部230によって生成された検出用画像に基づき、住所情報が存在する領域を示す文字領域データを検出する(ステップS4)。その後、制御装置210は、検出部280によって文字領域データが検出されたか否かを判断する(ステップS5)。
検出部280によって文字領域データが検出されなかった場合(ステップS5:NO)、制御装置210は、本フローチャートによる処理を終了する。検出部280によって文字領域データが検出された場合(ステップS5:YES)、認識用画像生成部250は、検出部280によって検出された文字領域データを用いて、住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する(ステップS6)。
認識部290は、認識用画像生成部250によって生成された認識用画像に対してOCR処理を行うことにより、宛名領域410に付与された住所情報を認識する(ステップS7)。その後、認識部290は、住所情報を認識できたかどうかを判断する(ステップS8)。住所情報を認識できた場合(ステップS8:YES)、認識部290は、認識した住所情報を区分装置300に送信する(ステップS9)。
一方、住所情報を認識できなかった場合(ステップS8:NO)、認識部290は、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する(ステップS10)。その後、認識部290は、VCS500から住所情報を受信し(ステップS11)、受信した住所情報を区分装置300に送信する(ステップS9)。これによって、認識部290によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
以上説明したように、第1の実施形態に係る情報認識装置は、住所情報が存在する領域にフォーカスが合った検出用画像を生成する検出用画像生成部230と、検出用画像に基づき住所情報が存在する領域を検出する検出部280と、住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成部250と、認識用画像に基づき宛名領域410に付与された住所情報を認識する認識部290とを持つ。これにより、宛名領域410の誤検出を抑制するとともに、宛名領域410に付与された住所情報の認識率を向上させることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、距離マップ生成部240が、ライトフィールドデータを用いて複数のサブ画像を生成し、生成した複数のサブ画像に基づいて距離マップを生成していた。しかしながら、複数のサブ画像に基づいて算出される視差の絶対値は小さいため、その値を元に距離マップ生成部240によって算出される距離は誤差が大きい。以下、この理由を説明する。
図9は、視差と対象物までの距離との関係を説明するための図である。図9において、対象物600と、第1の視点601と、第2の視点602と、左サブ画像面611と、右サブ画像面612とが示されている。ここで、第1の視点601と第2の視点602との間の距離をB、焦点距離をF、対象物までの距離をZ、左サブ画像における対象物600の位置と左サブ画像の中心との差をDL、右サブ画像における対象物600の位置と右サブ画像の中心との差をDRとする。
この場合、視差d=DL−DRとなり、距離Z=FB/dとなる。このように、視差dと距離Zは反比例するため、視差dの絶対値が小さいほど距離Zの変化量は大きくなる。第1の実施形態においては、複数のサブ画像に基づいて算出される視差の絶対値が小さいため、算出される距離の誤差は大きくなってしまう。そこで、第2の実施形態においては、距離を測定するセンサを用いて距離マップを生成することとした。以下、第2の実施形態について詳細に説明する。
図10は、第2の実施形態に係る情報認識装置700のブロック図である。図10において、図5の各部に対応する部分には同一の符号を付し、説明を省略する。情報認識装置700は、制御装置210と、ライトフィールドデータメモリ220と、検出用画像生成部230と、認識用画像生成部250と、画像メモリ270と、検出部280と、認識部(OCR)290とを備える。なお、本実施形態に係る情報認識装置700は、距離マップ生成部240(図5)を有しない。
距離マップは、距離センサ(不図示)によって生成される。距離センサは、ライトフィールドカメラ100に取り付けられたセンサである。距離センサは、ライトフィールドカメラ100から荷物400までの距離を測定し、測定した距離に基づいて距離マップを生成する。
例えば、距離センサは、赤外線光源および赤外線検出器を備え、赤外線検出器付近に取り付けられた赤外線光源により対象物を照射し、対象物からの反射光を赤外線検出器により検出し、検出した反射光の強度に基づいて距離を測定してもよい。この場合、距離センサは、距離が遠くなるにつれて反射光が減衰する性質を利用して、反射光の強度に基づいて距離を算出する。また、距離センサは、レーザ光源により特定のパターンを対象物に投影し、距離に応じて荷物400の表面からの反射パターンが変化する性質を利用して距離を算出してもよい。
距離センサは、生成した距離マップを、検出用画像生成部230および認識用画像生成部250に出力する。距離マップの作成以降の処理は、第1の実施形態と同様であるので説明を省略する。
以上説明したように、第2の実施形態に係る情報認識装置700は、距離センサによって生成された距離マップを用いて検出用画像を生成する。これによって、ライトフィールドカメラ100から荷物400までの距離をより正確に求めることができ、宛名領域410の誤検出を抑制するとともに、宛名領域410に付与された住所情報の認識率を更に向上させることができる。
なお、第1および第2の実施形態において、検出部280は1つの宛名領域を検出することとしたが、複数の宛名領域を検出してもよい。宛名の配置パターンが既知の場合は、一定間隔で搬送される複数の荷物の宛名を同時に認識したり、荷物の宛名以外の位置に貼り付けられたバーコードを同時に読み取ったりしてもよい。
また、第1および第2の実施形態において、認識用画像生成部250は住所情報が存在する領域のみを高解像度化して認識用画像を生成したが、画像全体を高解像度化して認識用画像を生成してもよい。この場合、認識部290は、検出部280によって検出された文字領域データに基づいて、全体を高解像度化された認識用画像から住所情報が存在する領域の画像を抽出し、抽出した画像に対してOCR処理を行ってもよい。
また、第1および第2の実施形態において、認識用画像生成部250は、ライトフィールドデータに基づき互いに視点の異なる複数のサブ画像を生成し、生成した複数のサブ画像を用いて超解像処理を行うこととしたが、これに限らない。例えば、認識用画像生成部250は、ライトフィールドデータに基づき撮影タイミングの異なる複数のサブ画像を生成し、生成した複数のサブ画像を用いて超解像処理を行ってもよい。
(第3の実施形態)
上記第1の実施形態および第2の実施形態においては、宛名領域410に付与された住所情報を認識することとしたが、認識対象はこれに限られない。例えば、第3の実施形態において、認識部290は、道路を通行している車両のナンバープレートに対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれをナンバープレートの認識処理に適用してもよい。以下、第3の実施形態について詳細に説明する。
第3の実施形態において、ライトフィールドカメラ100は路側に設置されている。ライトフィールドカメラ100は、車両のナンバープレートを撮影することにより、ライトフィールドデータを取得する。検出用画像生成部230は、ナンバープレートのライトフィールドデータに基づき、ナンバープレートが存在する領域にフォーカスが合った検出用画像を生成する。
検出部280は、検出用画像に基づき、ナンバープレートが存在する領域を検出する。認識用画像生成部250は、ナンバープレートが存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。認識部290は、認識用画像に基づき、ナンバープレートに記載されているナンバー情報を認識する。
以上説明したように、第3の実施形態において、ライトフィールドカメラ100は、道路を通行している車両のナンバープレートのライトフィールドデータを取得する。情報認識装置200および700は、ナンバープレートのライトフィールドデータを用いて上述の認識処理を行うことにより、ナンバープレートの誤検出を抑制するとともに、ナンバープレートに付与されたナンバー情報の認識率を向上させることができる。
(第4の実施形態)
第4の実施形態において、認識部290は、路側に設置されている道路標識に対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれを道路標識の認識処理に適用してもよい。以下、第4の実施形態について詳細に説明する。
第4の実施形態において、ライトフィールドカメラ100は車両に搭載されている。ライトフィールドカメラ100は、道路標識を撮影してライトフィールドデータを取得する。検出用画像生成部230は、道路標識のライトフィールドデータに基づき、道路標識が存在する領域にフォーカスが合った検出用画像を生成する。
検出部280は、検出用画像に基づき、道路標識が存在する領域を検出する。認識用画像生成部250は、道路標識が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。認識部290は、認識用画像に基づき、道路標識に示される情報を認識する。
以上説明したように、第4の実施形態において、ライトフィールドカメラ100は、路側に設置されている道路標識のライトフィールドデータを取得する。情報認識装置200および700は、道路標識のライトフィールドデータを用いて上述の認識処理を行うことにより、道路標識の誤検出を抑制するとともに、道路標識に付与された情報の認識率を向上させることができる。
以上説明した少なくともひとつの実施形態によれば、対象物が存在する領域にフォーカスが合った検出用画像を生成する検出用画像生成部230と、検出用画像に基づき対象物が存在する領域を検出する検出部280と、対象物が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成部250と、認識用画像に基づき対象物の情報を認識する認識部290とを持つ。これにより、対象物の誤検出を抑制するとともに、対象物に付与された対象情報の認識率を向上させることができる。
なお、上記実施形態による情報認識装置200および700は、内部にコンピュータシステムを有している。そして、上述した情報認識装置200および700の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…情報認識システム、100…ライトフィールドカメラ、200…情報認識装置、210…制御装置、230…検出用画像生成部、240…距離マップ生成部、250…認識用画像生成部、280…検出部、290…認識部、300…区分装置、310…ベルトコンベア、400…荷物、410…宛名領域、500…ビデオコーディングシステム(VCS)、700…情報認識装置

Claims (8)

  1. 文字または記号による住所情報が付与された荷物を撮影することによって得られたライトフィールドデータに基づき、前記荷物において前記住所情報が存在する領域にフォーカスが合った検出用画像を生成する検出用画像生成部と、
    前記検出用画像生成部によって生成された前記検出用画像に基づき、前記住所情報が存在する領域を示す文字領域データを検出する検出部と、
    前記検出部によって検出された前記文字領域データに基づいて、前記住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成部と、
    前記認識用画像生成部によって生成された前記認識用画像に基づき、前記住所情報を認識し、前記住所情報を認識できた場合、認識結果を区分装置に送信する認識部と、
    を備える情報認識装置。
  2. 前記検出用画像生成部は、前記ライトフィールドデータに基づき互いに視点の異なる複数のサブ画像を生成し、前記複数のサブ画像の位置をずらして重ね合わせることで前記検出用画像を生成する
    請求項1記載の情報認識装置。
  3. 前記ライトフィールドデータに基づき、前記荷物までの距離を画素ごとに算出することにより、距離マップを生成する距離マップ生成部を更に備え、
    前記検出用画像生成部は、前記距離マップ生成部によって生成された前記距離マップに基づき、前記複数のサブ画像を重ね合わせる際の位置ずらし量を制限することで、前記住所情報が存在する領域にフォーカスの合う範囲を制限する
    請求項2記載の情報認識装置。
  4. 前記認識用画像生成部は、超解像処理を行うことにより前記認識用画像を生成する
    請求項1記載の情報認識装置。
  5. 前記認識用画像生成部は、前記ライトフィールドデータに基づき互いに視点の異なる複数のサブ画像を生成し、前記複数のサブ画像を用いて前記超解像処理を行う
    請求項4記載の情報認識装置。
  6. 前記認識用画像生成部は、前記ライトフィールドデータに基づき撮影タイミングの異なる複数のサブ画像を生成し、前記複数のサブ画像を用いて前記超解像処理を行う
    請求項4記載の情報認識装置。
  7. 文字または記号による住所情報が付与された荷物を撮影することによって得られたライトフィールドデータに基づき、前記荷物において前記住所情報が存在する領域にフォーカスが合った検出用画像を生成する検出用画像生成工程と、
    前記検出用画像生成工程で生成された前記検出用画像に基づき、前記住所情報が存在する領域を示す文字領域データを検出する検出工程と、
    前記検出工程で検出された前記文字領域データに基づいて、前記住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成工程と、
    前記認識用画像生成工程で生成された前記認識用画像に基づき、前記住所情報を認識し、前記住所情報を認識できた場合、認識結果を区分装置に送信する認識工程と、
    を備える情報認識方法。
  8. コンピュータを、
    文字または記号による住所情報が付与された荷物を撮影することによって得られたライトフィールドデータに基づき、前記荷物において前記住所情報が存在する領域にフォーカスが合った検出用画像を生成する検出用画像生成部、
    前記検出用画像生成部によって生成された前記検出用画像に基づき、前記住所情報が存在する領域を示す文字領域データを検出する検出部、
    前記検出部によって検出された前記文字領域データに基づいて、前記住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成部、
    前記認識用画像生成部によって生成された前記認識用画像に基づき、前記住所情報を認識し、前記住所情報を認識できた場合、認識結果を区分装置に送信する認識部、
    として機能させるためのプログラム。
JP2015195940A 2015-10-01 2015-10-01 情報認識装置、情報認識方法、およびプログラム Expired - Fee Related JP6567384B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195940A JP6567384B2 (ja) 2015-10-01 2015-10-01 情報認識装置、情報認識方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195940A JP6567384B2 (ja) 2015-10-01 2015-10-01 情報認識装置、情報認識方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2017068747A JP2017068747A (ja) 2017-04-06
JP6567384B2 true JP6567384B2 (ja) 2019-08-28

Family

ID=58492625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195940A Expired - Fee Related JP6567384B2 (ja) 2015-10-01 2015-10-01 情報認識装置、情報認識方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6567384B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102541559B1 (ko) 2017-08-04 2023-06-08 삼성전자주식회사 관심 객체를 검출하는 방법 및 장치
US20210350570A1 (en) * 2018-11-13 2021-11-11 Sony Corporation Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8628014B1 (en) * 2012-05-15 2014-01-14 John M. Hoffer, Jr. Light field instruction symbol identifier and method of use
JP2014132257A (ja) * 2012-12-03 2014-07-17 Ricoh Co Ltd 類似度判定システム及び類似度判定方法
JP6162971B2 (ja) * 2013-02-06 2017-07-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置及びその制御方法

Also Published As

Publication number Publication date
JP2017068747A (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6896044B2 (ja) 道路の垂直輪郭検出
JP5870273B2 (ja) 物体検出装置、物体検出方法及びプログラム
CN109751973B (zh) 三维测量装置、三维测量方法以及存储介质
WO2014061372A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
WO2011065738A2 (en) Image processing apparatus and method
CN104272323A (zh) 使用至少一个附加图像的图像增强和边缘验证方法和设备
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP5402625B2 (ja) ステレオ画像処理を用いた車両検出装置
JP2018088151A (ja) 境界線推定装置
JP7168077B2 (ja) 3次元計測システム及び3次元計測方法
JP2013174547A (ja) ステレオ3次元計測装置
US20200221064A1 (en) Combined stereoscopic and phase detection depth mapping in a dual aperture camera
JP6556675B2 (ja) 物体検出方法及びその装置
JP6567384B2 (ja) 情報認識装置、情報認識方法、およびプログラム
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
WO2018143277A1 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム
EP3494545B1 (en) Methods and apparatus for codeword boundary detection for generating depth maps
JP2018045464A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017216497A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
KR20200005818A (ko) 도로 지도 생성 시스템 및 도로 지도 생성 방법
JP6571492B2 (ja) 対応点探索方法、および距離測定装置
JP5587852B2 (ja) 画像処理装置及び画像処理方法
CN104637043B (zh) 支持像素选择方法、装置、视差值确定方法
KR101907852B1 (ko) 스테레오 영상 처리 방법 및 장치

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6567384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees