JP2017216497A - 画像処理装置、画像処理システム、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理システム、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2017216497A JP2017216497A JP2016107192A JP2016107192A JP2017216497A JP 2017216497 A JP2017216497 A JP 2017216497A JP 2016107192 A JP2016107192 A JP 2016107192A JP 2016107192 A JP2016107192 A JP 2016107192A JP 2017216497 A JP2017216497 A JP 2017216497A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light field
- unit
- micro
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Discrimination (AREA)
- Studio Devices (AREA)
Abstract
【課題】対象物を照射する照明の構成を簡易化するとともに、より確実に対象物を撮影することができる画像処理装置、画像処理システム、画像処理方法、およびプログラムを提供すること。【解決手段】実施形態の画像処理装置は、再構成部と、合成部とを持つ。前記再構成部は、文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する。前記合成部は、前記再構成部によって生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する。【選択図】図5
Description
本発明の実施形態は、画像処理装置、画像処理システム、画像処理方法、およびプログラムに関する。
近年、物流分野においては、不定形の荷物パッケージに記載されている宛名をOCR装置により認識することが行われている。荷物パッケージのサイズや形状は様々であるため、宛名に対するカメラのフォーカスを、OCR装置の認識処理に適した範囲に保つことが困難な場合がある。そして、これに起因して、OCR装置の認識エラーや認識不能が発生して、宛名の認識率が低下する場合がある。
上記に関連し、荷物パッケージに記載されている宛名を、ライトフィールドカメラで撮影する技術が知られている。例えば、ライトフィールドカメラの一種として、マイクロレンズアレイによって入射光を分光し、分光した複数の方向の光を、イメージセンサを用いて検出するカメラが知られている。ライトフィールドカメラによって検出された画像データ(ライトフィールドデータ)に基づき、広範囲でフォーカスが合っている画像を再構成することができる。
しかしながら、ライトフィールドカメラは、エリアセンサを用いて広い撮影範囲を一度に処理するため、シャッター速度を高速化することが難しい。このため、シャッタータイミングが適切なタイミングからずれてしまうと、搬送される荷物の宛名を撮影できない可能性がある。また、ライトフィールドカメラを用いる場合、広範囲を照らす照明が必要であるため、照明が大型化および高コスト化する場合がある。
本発明が解決しようとする課題は、対象物を照射する照明の構成を簡易化するとともに、より確実に対象物を撮影することができる画像処理装置、画像処理システム、画像処理方法、およびプログラムを提供することである。
実施形態の画像処理装置は、再構成部と、合成部とを持つ。前記再構成部は、文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する。前記合成部は、前記再構成部によって生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する。
以下、実施形態の画像処理装置、画像処理システム、画像処理方法、およびプログラムを、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理システム10の全体構成を示す図である。図1に示されるように、本実施形態の画像処理システム10は、ライトフィールドカメラ100と、画像処理装置200と、ビデオコーディングシステム(以下、「VCS」と称する)500とを備える。
図1は、第1の実施形態に係る画像処理システム10の全体構成を示す図である。図1に示されるように、本実施形態の画像処理システム10は、ライトフィールドカメラ100と、画像処理装置200と、ビデオコーディングシステム(以下、「VCS」と称する)500とを備える。
ライトフィールドカメラ100は、照明105から光を照射し、ベルトコンベア310上を移動する荷物(対象物の一例)400を撮影する。ライトフィールドカメラ100は、荷物400から反射されてライトフィールドカメラに到達した光線の位置情報だけでなく、光線の進む方向に関する情報についても取得する。ライトフィールドカメラ100によって取得された画像データ(ライトフィールドデータ)に対して所定の処理が行われることで、フォーカスを任意の位置に合わせたり、視点を変えたりした画像を再構成することができる。
ライトフィールドカメラ100は、荷物400の画像データ(ライトフィールドデータ)を画像処理装置200に送信する。画像処理装置200は、ライトフィールドカメラ100から受信したライトフィールドデータに基づき、OCR処理を行うことによって荷物400の宛名領域(対象情報が存在する領域)410に記載されている住所情報(対象情報)を認識する。画像処理装置200は、認識結果(住所情報)を区分装置300に送信する。住所情報は、例えば、数字によって記載された郵便番号、文字や数字、記号によって記載された住所、またはこれらの組み合わせである。
区分装置300は、例えば複数の段および複数の列に区画された複数の区分ポケット(不図示)、およびVCSポケット(不図示)を含む。区分装置300は、画像処理装置200から受信した認識結果(住所情報)に応じて、ベルトコンベア310によって搬送されてくる荷物400の区分先を切り替え、区分先の区分ポケットに荷物400を集積する。
画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、住所情報を認識できなかった旨の通知を区分装置300に送信する。区分装置300は、画像処理装置200から住所情報を認識できなかった旨の通知を受信すると、荷物400の区分先をVCSポケットに切り替える。
また、画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、荷物400の画像データおよびVC依頼を、ネットワークNWを介してVCS500に送信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等である。
VCS500は、画像処理装置200により住所情報を認識できなかった荷物400の画像を表示し、作業者の視認により住所情報の認識を補助するシステムである。VCS500の各端末は、荷物400の画像を表示装置によって表示し、キーボードやタッチパネル等の入力デバイスによって作業者による住所情報の入力を受け付ける。
VCS500は、作業者による住所情報の入力を受け付けると、入力された住所情報を、ネットワークNWを介して画像処理装置200に送信する。画像処理装置200は、VCS500から受信した住所情報を区分装置300に送信する。これによって、OCR処理によって住所情報を認識できなかった荷物400が、正しい区分先に区分される。
図2は、ライトフィールドカメラ100の詳細な構成を示す図である。ライトフィールドカメラ100は、メインレンズ110、マイクロレンズアレイ120、およびイメージセンサ130を備える。メインレンズ110は、被写体(荷物400)からの光が入射するレンズである。マイクロレンズアレイ120は、複数のマイクロレンズを備えるレンズアレイである。イメージセンサ130は、複数の画素を有する撮像素子であり、各画素にて光の強度を検出する。イメージセンサ130は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)等のセンサである。
図2に示されるライトフィールドカメラ100は複眼方式であるが、これに限られない。例えば、多眼方式等、他の方式のライトフィールドカメラであっても同等の効果が得られる。また、本実施形態のライトフィールドカメラ100は虚像光学系であるが、これに限られない。例えば、実像光学系であっても同等の効果が得られる。
図3は、マイクロレンズアレイ120の構造を示す図である。図3に示されるように、マイクロレンズアレイ120は、マイクロレンズが格子状に配列されたレンズアレイである。メインレンズ110から入射した光線群は、光線の方向にしたがって、マイクロレンズアレイ120によって分解される。
マイクロレンズアレイ120は、Y方向(短手方向)の長さよりも、X方向(長手方向)の長さの方が長い。ここで、Y方向は、ベルトコンベア310上を移動する荷物400の移動方向であり、X方向は、Y方向に直交する方向である。図3に示されるマイクロレンズアレイ120は、3行×15列=45個のマイクロレンズを有するが、マイクロレンズの個数はこれに限られない。
荷物400は、ライトフィールドカメラ100に対してY方向に相対的に移動しながら、ライトフィールドカメラ100によって撮影される。ライトフィールドカメラ100によって取得されたライトフィールドデータは、複数のマイクロレンズを介して得られた複数のマイクロ画像の集合であって、Y方向の画素数よりも、X方向の画素数の方が多い。
ライトフィールドカメラ100は、1回の撮影で1次元の画素値を出力する。ベルトコンベア310によって等速度で搬送される荷物400を、ライトフィールドカメラ100が連続して撮影することにより、荷物400の二次元画像が得られる。このため、図3に示されるように、1ラインの画像を得るために必要な範囲のみにマイクロレンズアレイ120とイメージセンサ130が配置される。
ライトフィールドカメラ100は、ライトフィールドカメラ100の長手方向(X方向)が荷物400の移動方向(Y方向)に対して直角となるように配置される。本実施形態においては、マイクロレンズは光軸から見た形状が円形であることとしたが、これに限られない。例えば、マイクロレンズは、多角形(例えば、四角形)であってもよい。また、本実施形態のライトフィールドカメラ100に代えて、従来のライトフィールドカメラからの出力の一部のみを用いることで代用してもよい。
本実施形態のライトフィールドカメラ100を用いることで、照明105によって照らされる範囲を、ライン形状の範囲に限定することができる。照明105は広い範囲を照らす必要が無いため、照明105を小型化および低コスト化することができる。また、荷物400が連続して重なりながら搬送される場合や、荷物400が移動方向に長い形状である場合であっても、ライトフィールドカメラ100は荷物400の全体を撮影することができる。なお、ライン形状の範囲を集中して照らすために、照明105と荷物400との間にレンズを配置してもよい。
図4は、マイクロレンズアレイ120とイメージセンサ130との関係を示す図である。図4に示されるように、マイクロレンズアレイ120によって分解された光線は、円形のマイクロ画像150aおよび150bとして、イメージセンサ130上に投影される。ここでは、説明を簡単にするために2つのマイクロ画像150aおよび150bを示したが、実際には複数のマイクロレンズのそれぞれに対応する複数のマイクロ画像がイメージセンサ130上に投影される。
マイクロレンズアレイ120から投影された複数のマイクロ画像をイメージセンサ130の複数の画素が受光することで、光線の入射方向ごとの強度を検出することができる。イメージセンサ130によって検出された画像データ(ライトフィールドデータ)は、複数のマイクロレンズごとのマイクロ画像の集まりとなる。
図5は、第1の実施形態に係る画像処理装置200のブロック図である。画像処理装置200は、制御装置210と、ライトフィールドデータメモリ220と、検出用画像生成部230と、距離マップ生成部240と、認識用画像生成部250と、画像メモリ270と、検出部280と、認識部(OCR部)290とを備える。
制御装置210は、CPU(Central Processing Unit)等のプロセッサと、プロセッサが実行するプログラムを格納するプログラムメモリとを備える。なお、制御装置210は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアであってもよい。
ライトフィールドデータメモリ220および画像メモリ270は、制御装置210によって読出しおよび書込みが可能なメモリであり、例えばRAM(Random Access Memory)である。
検出用画像生成部230、距離マップ生成部240、認識用画像生成部250、検出部280、および認識部(OCR部)290は、例えば、制御装置210のプロセッサが、プログラムメモリに格納されたプログラムを実行することにより実現される。画像メモリ管理情報260は、画像メモリ270に格納された画像を管理するための情報である。
ライトフィールドデータメモリ220は、ライトフィールドカメラ100から受信したライトフィールドデータを記憶する。距離マップ生成部240は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。距離マップ生成部240は、読み出したライトフィールドデータに基づき、距離マップを生成する。以下、距離マップの生成方法について説明する。
距離マップ生成部240は、ライトフィールドデータに基づき、マイクロレンズを介して得られるマイクロ画像ごとに、ライトフィールドカメラ100から被写体までの距離を算出することで、算出した距離がマップ化された距離マップを生成する。距離マップ生成部240は、隣接する複数のマイクロ画像に対してテンプレートマッチングを行うことにより視差を算出し、算出した視差に基づき、ステレオ画像処理のアルゴリズムを用いて距離を求める。
図6は、視差の計算を説明するための図である。中央のマイクロレンズ120aは、マイクロレンズ120bおよび120cと、Y方向において隣接している。また、中央のマイクロレンズ120aは、マイクロレンズ120dおよび120eと、X方向において隣接している。
以下、中央のマイクロレンズ120aを介して得られるマイクロ画像についての、ライトフィールドカメラ100から被写体までの距離の算出処理について具体的に説明する。距離マップ生成部240は、中央のマイクロレンズ120aを介して得られるマイクロ画像と、4つのマイクロレンズ120b〜120eを介して得られる4つのマイクロ画像のそれぞれに対してテンプレートマッチングを行うことにより、4つの視差を算出する。
具体的に、距離マップ生成部240は、マイクロレンズ120aを介して得られるマイクロ画像と、マイクロレンズ120bを介して得られるマイクロ画像とに基づき視差D1を算出する。また、距離マップ生成部240は、マイクロレンズ120aを介して得られるマイクロ画像と、マイクロレンズ120cを介して得られるマイクロ画像とに基づき視差D2を算出する。また、距離マップ生成部240は、マイクロレンズ120aを介して得られるマイクロ画像と、マイクロレンズ120dを介して得られるマイクロ画像とに基づき視差D3を算出する。また、距離マップ生成部240は、マイクロレンズ120aを介して得られるマイクロ画像と、マイクロレンズ120eを介して得られるマイクロ画像とに基づき視差D4を算出する。
次に、距離マップ生成部240は、4つの視差D1からD4の平均値Daveに基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ120aを介して得られるマイクロ画像についての被写体までの距離を算出する。距離マップ生成部240は、以上の処理を全てのマイクロレンズに対して行うことにより、距離マップを生成する。距離マップ生成部240は、生成した距離マップを検出用画像生成部230および認識用画像生成部250に出力する。
なお、距離マップ生成部240は、平均値Daveを用いて距離を算出することとしたが、これに限られない。例えば、距離マップ生成部240は、テンプレートマッチングの結果の信頼度に基づいて最良と推定できる視差を4つの視差D1からD4の中から選択し、選択した視差に基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ120aを介して得られるマイクロ画像についての被写体までの距離を算出してもよい。
図7は、検出用画像生成部230の詳細な構成を示すブロック図である。検出用画像生成部230は、再構成部231および合成部232を備える。再構成部231は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。再構成部231は、読み出したライトフィールドデータおよび距離マップ生成部240から出力された距離マップに基づき、検出用画像IMGを生成する。以下、検出用画像IMG(二次元画像)の生成方法について説明する。
再構成部231は、距離マップを用いてライトフィールドデータを再構成することで、荷物400において住所情報が存在する領域にフォーカスが合ったライン画像を生成する。具体的には、再構成部231は、マイクロレンズの中心を通過するX方向のライン上のライトフィールドデータの各マイクロ画像を、距離マップによって示される距離に応じた拡大率で拡大する。また、再構成部231は、各マイクロ画像が重なった個所については画素値の平均値を算出することで、荷物400にフォーカスの合ったライン画像を生成する。再構成部231は、生成したライン画像を合成部232に出力する。
再構成部231は、以上の処理を繰り返すことにより、複数のライン画像を合成部232に出力する。合成部232は、再構成部231によって生成された複数のライン画像を合成して、検出用画像IMG(二次元画像)を生成する。
図8は、検出用画像IMG(二次元画像)の生成処理を説明するための図である。再構成部231は、ライトフィールドカメラ100によって取得されたライトフィールドデータに基づき、荷物400において住所情報が存在する領域にフォーカスが合った複数のライン画像L1からLnを生成する。合成部232は、再構成部231によって生成された複数のライン画像L1からLnをY方向に並べることで、検出用画像IMGを生成する。これによって、合成部232は、荷物400において住所情報が存在する領域にフォーカスが合った検出用画像IMG(二次元画像)を生成することができる。
なお、再構成部231によるライン画像の生成方法は、これに限られない。例えば、再構成部231は、X方向に隣接するマイクロ画像のみならず、Y方向に隣接するマイクロ画像についても、距離マップによって示される距離に応じた拡大率で拡大してもよい。
具体的には、再構成部231は、マイクロレンズの中心を通過するX方向のライン上のライトフィールドデータの各マイクロ画像を、距離マップによって示される距離に応じた拡大率で拡大し、Y方向に隣接するマイクロ画像の全体を、距離マップによって示される距離に応じた拡大率で拡大してもよい。また、再構成部231は、各マイクロ画像が重なった個所については画素値の平均値を算出することで、荷物400にフォーカスの合ったライン画像を生成してもよい。
なお、再構成部231は、各マイクロ画像が重なった個所については、画素値の平均値を算出することとしたが、これに限られない。例えば、再構成部231は、各マイクロ画像が重なった個所については、固定サイズでクロッピングしてライン画像を生成してもよいし、計算の過程で導出される信頼度に基づいていずれか1つのマイクロ画像を選択してライン画像を生成してもよい。ここで、計算の過程で導出される信頼度とは、計算済みの前のライン画像に対する画像パターン(濃淡の幾何的パターン)の連続性、または距離マップ作成時に行われたテンプレートマッチングの類似度であってよい。
また、再構成部231は、1ライン毎にライン画像を再構成することとしたが、これに限られない。例えば、再構成部231は、数ライン分まとめて再構成処理を行ってもよい。これによって、スキャン速度が低速のライトフィールドカメラ100を用いることができるとともに、計算量を低減することが出来る。この場合、再構成部231は、スキャン毎の再構成結果がある程度オーバーラップするようにライン画像を再構成してもよい。また、合成部232は、計算済みの前のライン画像に対する画像パターン(濃淡の幾何的パターン)の連続性を考慮してライン画像を合成してもよい。
検出用画像生成部230は、合成部232によって生成された検出用画像IMGを画像メモリ270に格納する。制御装置210は、画像メモリ270に格納された画像を、画像メモリ管理情報260を用いて管理する。画像メモリ管理情報260は、画像メモリ270に格納された画像の識別情報、種類(検出用画像または認識用画像を示す情報)、およびアドレス等の情報を含む。
検出部280は、画像メモリ270から検出用画像IMGを読み出し、読み出した検出用画像IMGに対して、2値化処理、エッジ強調、およびエッジ検出等の画像処理を施して、住所情報が記載されている領域を文字領域データとして検出する。検出部280は、検出した文字領域データを認識用画像生成部250および認識部290に出力する。
認識用画像生成部250は、検出部280によって検出された文字領域データに基づき、住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。このように、住所情報が存在する領域のみに対して高解像度化処理を行うことで、認識用画像生成部250の負荷を低減するとともに、認識用画像生成部250の認識処理を高速化することができる。
認識用画像生成部250は、高解像度化処理として超解像処理を行う。以下、認識用画像の生成方法について説明する。
図9は、認識用画像生成部250の詳細な構成を示すブロック図である。図9に示されるように、認識用画像生成部250は、サブ画像生成部251、位置合わせ処理部252、再構成処理部253、および補間拡大処理部254を備える。サブ画像生成部251は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。サブ画像生成部251は、読み出したライトフィールドデータと、検出部280から出力された文字領域データとに基づき、住所情報が存在する領域についての視点の異なる複数のサブ画像(第1のサブ画像および第2のサブ画像)を生成する。
具体的に、サブ画像生成部251は、文字領域データに基づき、住所情報が存在する領域のライトフィールドデータを抽出する。サブ画像生成部251は、住所情報が存在する領域のライトフィールドデータ中の各マイクロ画像から同じ相対座標の画素を抽出して組み合わせることにより、第1のサブ画像を生成する。
次に、距離マップ生成部240は、相対座標を変更し、住所情報が存在する領域のライトフィールドデータ中の各マイクロ画像から同じ相対座標の画素を抽出して組み合わせることにより、第2のサブ画像を生成する。第1のサブ画像と第2のサブ画像は、互いに視点の異なる画像である。サブ画像生成部251は、生成した第1のサブ画像および第2のサブ画像を、位置合わせ処理部252、再構成処理部253、および補間拡大処理部254に出力する。
位置合わせ処理部252は、入力された第1のサブ画像および第2のサブ画像において同一部分と見なせる点である対応点を探索し、2つの点の移動量を動きベクトルとして算出する。位置合わせ処理部252は、算出した動きベクトルを再構成処理部253に出力する。
補間拡大処理部254は、バイリニアやバイキュービックアルゴリズム等の補間アルゴリズムによって、第1解像度の第1のサブ画像(基準画像)を、第1解像度よりも高解像である第2解像度を表すことが可能な画素数に増加して初期画像を生成する補間拡大処理を行う。ここで、解像度は画像がどれだけ細かな部分を表現しているかを示すパラメータであり、画素数はどれだけ詳細な部分を表現可能なフォーマットかを示すパラメータである。補間拡大処理では、画素数は増加するが、解像度は増加しない。補間拡大処理部254は、生成した初期画像を再構成処理部253に出力する。
再構成処理部253は、サブ画像生成部251から出力された第1および第2のサブ画像、位置合わせ処理部252から出力された動きベクトル、および補間拡大処理部254から出力された初期画像に基づき、認識用画像を生成する。
図10は、再構成処理部253の詳細な構成を示すブロック図である。図10に示されるように、再構成処理部253は、予測画像生成部255と、誤差計算部256と、誤差補正部257と、画像バッファ258とを備えている。
画像バッファ258は、補間拡大処理部254から入力された初期画像を一時的に格納する。予測画像生成部255は、画像バッファ258から初期画像を読み出す。予測画像生成部255は、読み出した初期画像と、位置合わせ処理部252から出力された動きベクトルとに基づき、予測画像を生成する。ここで、補間拡大処理の拡大率に応じて動きベクトルがスケーリングして用いられる。予測画像生成部255は、生成した予測画像を誤差計算部256に出力する。
誤差計算部256は、予測画像生成部255から出力された予測画像と、サブ画像生成部251から出力された第1解像度の第2のサブ画像との誤差を計算して誤差画像を生成する。誤差計算部256は、生成した誤差画像を誤差補正部257に出力する。
誤差補正部257は、誤差計算部256から出力された誤差画像に基づき、画像バッファ258に格納された初期画像を補正することにより、初期画像を高解像度化する。再構成処理部253は、誤差計算部256によって計算された誤差が所定の閾値以下になるまで上記の処理を繰り返すことによって、高解像度化された認識用画像を生成する。
認識用画像生成部250は、点拡がり関数PSF(Point Spread Function)を設定して補正量を計算する。このとき、認識用画像生成部250は、荷物400が搬送されることによる動きぼけを補正するために、ガウシアン分布を縦長にしたパターンを点拡がり関数PSFとして用いると、解像度を増加させることができる。
なお、本実施形態において、高解像度化処理として超解像処理を行うこととしたが、これに限られない。例えば、ライトフィールドカメラ100によって同じ部分が映っている複数枚のマイクロ画像が得られるため、認識用画像生成部250は、各マイクロ画像をサブピクセルの精度で位置合わせして再構成することで、住所情報が存在する領域の画像を高解像度化してもよい。また、認識用画像生成部250は、ライトフィールドカメラ100のスキャン速度を高めて、Y方向(荷物400の移動方向)におけるマイクロ画像の解像度を高めることで、住所情報が存在する領域の画像を高解像度化してもよい。
図5に示されるように、認識用画像生成部250は、生成した認識用画像を画像メモリ270に格納する。認識部290は、画像メモリ270から認識用画像を読み出す。認識部290は、読み出した認識用画像に対してOCR処理を行うことにより、宛名領域410に付与された住所情報を認識する。
このように、認識部290は、認識用画像生成部250によって生成された高解像度の認識用画像に対してOCR処理を行う。これによって、宛名領域410に付与された住所情報の認識率を向上させることができる。
認識部290は、住所情報を認識できた場合、認識結果(住所情報)を区分装置300に送信する。一方、認識部290は、住所情報を認識できなかった場合、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する。
VCS500は、認識部290からVC依頼を受信すると、認識部290から受信した認識用画像を表示装置に表示する。作業者によって住所情報がVCS500に入力されると、VCS500は入力された住所情報を、ネットワークNWを介して認識部290に送信する。認識部290は、VCS500から受信した住所情報を区分装置300に送信する。これによって、認識部290によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
図11は、第1の実施形態に係る画像処理装置200の動作を示すフローチャートである。本フローチャートを実行するためのプログラムは、制御装置210のプログラムメモリに格納されている。
距離マップ生成部240は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す(S1)。次に、距離マップ生成部240は、読み出したライトフィールドデータに基づき、距離マップを生成する(S2)。
検出用画像生成部230は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。その後、検出用画像生成部230に設けられた再構成部231は、ライトフィールドデータおよび距離マップ生成部240によって生成された距離マップに基づき、宛名領域410にフォーカスが合ったライン画像を生成する。また、検出用画像生成部230に設けられた合成部232は、再構成部231によって生成された複数のライン画像を合成することで、検出用画像IMG(二次元画像)を生成する(S3)。
検出部280は、検出用画像生成部230によって生成された検出用画像IMGに基づき、住所情報が存在する領域を示す文字領域データを検出する(S4)。その後、制御装置210は、検出部280によって文字領域データが検出されたか否かを判断する(S5)。
検出部280によって文字領域データが検出されなかった場合、制御装置210は、本フローチャートによる処理を終了する。一方、検出部280によって文字領域データが検出された場合、認識用画像生成部250は、検出部280によって検出された文字領域データを用いて、住所情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する(S6)。
認識部290は、認識用画像生成部250によって生成された認識用画像に対してOCR処理を行うことにより、宛名領域410に付与された住所情報を認識する(S7)。その後、認識部290は、住所情報を認識できたかどうかを判断する(S8)。住所情報を認識できた場合、認識部290は、認識した住所情報を区分装置300に送信し(S9)、制御装置210は、本フローチャートによる処理を終了する。
一方、住所情報を認識できなかった場合、認識部290は、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する(S10)。その後、認識部290は、VCS500から住所情報を受信し(S11)、受信した住所情報を区分装置300に送信する(S9)。これによって、認識部290によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
以上説明したように、第1の実施形態に係る画像処理装置200は、文字または記号による住所情報が付与された荷物400を撮影することによって得られたライトフィールドデータに基づき、荷物400において住所情報が存在する領域にフォーカスが合ったライン画像であって、長手方向(X方向)と短手方向(Y方向)を有するライン画像を生成する再構成部231と、再構成部231によって生成された複数のライン画像を短手方向(Y方向)に並べることで、検出用画像IMG(二次元画像)を生成する合成部232とを持つ。これによって、荷物400を照射する照明105の構成を簡易化するとともに、より確実に荷物400を撮影することができる。
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、距離マップ生成部240が、ライトフィールドデータに基づいて距離マップを生成していた。しかしながら、ライトフィールドデータに基づいて算出される距離は誤差が大きい。そこで、第2の実施形態においては、距離を測定するセンサを用いて距離マップを生成することとした。以下、第2の実施形態について詳細に説明する。
次に、第2の実施形態について説明する。第1の実施形態では、距離マップ生成部240が、ライトフィールドデータに基づいて距離マップを生成していた。しかしながら、ライトフィールドデータに基づいて算出される距離は誤差が大きい。そこで、第2の実施形態においては、距離を測定するセンサを用いて距離マップを生成することとした。以下、第2の実施形態について詳細に説明する。
図12は、第2の実施形態に係る画像処理装置700のブロック図である。図12において、図5の各部に対応する部分には同一の符号を付し、説明を省略する。画像処理装置700は、制御装置210と、ライトフィールドデータメモリ220と、検出用画像生成部230と、認識用画像生成部250と、画像メモリ270と、検出部280と、認識部(OCR部)290とを備える。なお、本実施形態に係る画像処理装置700は、距離マップ生成部240(図5)を有しない。
距離マップは、距離センサ(不図示)によって生成される。距離センサは、ライトフィールドカメラ100に取り付けられたセンサである。距離センサは、ライトフィールドカメラ100から荷物400までの距離を測定し、測定した距離に基づいて距離マップを生成する。
例えば、距離センサは、赤外線光源および赤外線検出器を備え、赤外線検出器付近に取り付けられた赤外線光源により対象物を照射し、対象物からの反射光を赤外線検出器により検出し、検出した反射光の強度に基づいて距離を測定してもよい。この場合、距離センサは、距離が遠くなるにつれて反射光が減衰する性質を利用して、反射光の強度に基づいて距離を算出する。また、距離センサは、レーザ光源により特定のパターンを対象物に投影し、距離に応じて荷物400の表面からの反射パターンが変化する性質を利用して距離を算出してもよい。
距離センサは、生成した距離マップを、検出用画像生成部230および認識用画像生成部250に出力する。距離マップの作成以降の処理は、第1の実施形態と同様であるので説明を省略する。
以上説明したように、第2の実施形態に係る画像処理装置700は、距離センサによって生成された距離マップを用いて検出用画像IMGを生成する。これによって、ライトフィールドカメラ100から荷物400までの距離をより正確に求めることができ、宛名領域410の誤検出を抑制するとともに、宛名領域410に付与された住所情報の認識率を更に向上させることができる。
なお、第1および第2の実施形態において、検出部280は1つの宛名領域を検出することとしたが、複数の宛名領域を検出してもよい。宛名の配置パターンが既知の場合は、一定間隔で搬送される複数の荷物の宛名を同時に認識したり、荷物の宛名以外の位置に貼り付けられたバーコードを同時に読み取ったりしてもよい。
また、第1および第2の実施形態において、認識用画像生成部250は住所情報が存在する領域のみを高解像度化して認識用画像を生成したが、画像全体を高解像度化して認識用画像を生成してもよい。この場合、認識部290は、検出部280によって検出された文字領域データに基づいて、全体を高解像度化された認識用画像から住所情報が存在する領域の画像を抽出し、抽出した画像に対してOCR処理を行ってもよい。
また、第1および第2の実施形態において、認識用画像生成部250は、ライトフィールドデータに基づき互いに視点の異なる複数のサブ画像を生成し、生成した複数のサブ画像を用いて超解像処理を行うこととしたが、これに限らない。例えば、認識用画像生成部250は、ライトフィールドデータに基づき撮影タイミングの異なる複数のサブ画像を生成し、生成した複数のサブ画像を用いて超解像処理を行ってもよい。
(第3の実施形態)
上記第1の実施形態および第2の実施形態においては、宛名領域410に付与された住所情報を認識することとしたが、認識対象はこれに限られない。例えば、第3の実施形態において、認識部290は、道路を通行している車両のナンバープレートに対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれをナンバープレートの認識処理に適用してもよい。以下、第3の実施形態について詳細に説明する。
上記第1の実施形態および第2の実施形態においては、宛名領域410に付与された住所情報を認識することとしたが、認識対象はこれに限られない。例えば、第3の実施形態において、認識部290は、道路を通行している車両のナンバープレートに対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれをナンバープレートの認識処理に適用してもよい。以下、第3の実施形態について詳細に説明する。
第3の実施形態において、ライトフィールドカメラ100は路側に設置されている。ライトフィールドカメラ100は、車両のナンバープレートを撮影することにより、ライトフィールドデータを取得する。検出用画像生成部230は、ナンバープレートのライトフィールドデータに基づき、ナンバープレートが存在する領域にフォーカスが合った検出用画像IMGを生成する。
検出部280は、検出用画像IMGに基づき、ナンバープレートが存在する領域を検出する。認識用画像生成部250は、ナンバープレートが存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。認識部290は、認識用画像に基づき、ナンバープレートに記載されているナンバー情報を認識する。
以上説明したように、第3の実施形態において、ライトフィールドカメラ100は、道路を通行している車両のナンバープレートのライトフィールドデータを取得する。画像処理装置200および700は、ナンバープレートのライトフィールドデータを用いて上述の認識処理を行うことにより、ナンバープレートの誤検出を抑制するとともに、ナンバープレートに付与されたナンバー情報の認識率を向上させることができる。
(第4の実施形態)
第4の実施形態において、認識部290は、路側に設置されている道路標識に対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれを道路標識の認識処理に適用してもよい。以下、第4の実施形態について詳細に説明する。
第4の実施形態において、認識部290は、路側に設置されている道路標識に対して認識処理を行う。認識部290は、第1の実施形態および第2の実施形態のいずれを道路標識の認識処理に適用してもよい。以下、第4の実施形態について詳細に説明する。
第4の実施形態において、ライトフィールドカメラ100は車両に搭載されている。ライトフィールドカメラ100は、道路標識を撮影してライトフィールドデータを取得する。検出用画像生成部230は、道路標識のライトフィールドデータに基づき、道路標識が存在する領域にフォーカスが合った検出用画像IMGを生成する。
検出部280は、検出用画像IMGに基づき、道路標識が存在する領域を検出する。認識用画像生成部250は、道路標識が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する。認識部290は、認識用画像に基づき、道路標識に示される情報を認識する。
以上説明したように、第4の実施形態において、ライトフィールドカメラ100は、路側に設置されている道路標識のライトフィールドデータを取得する。画像処理装置200および700は、道路標識のライトフィールドデータを用いて上述の認識処理を行うことにより、道路標識の誤検出を抑制するとともに、道路標識に付与された情報の認識率を向上させることができる。
なお、第1の実施形態から第4の実施形態において、ライトフィールドカメラ100の位置が固定され、対象物がライトフィールドカメラ100の撮影位置を通過することとしたが、これに限られない。例えば、対象物の位置が固定され、ライトフィールドカメラ100が移動して対象物を撮影してもよい。また、ライトフィールドカメラ100および対象物の両方が移動することにより、ライトフィールドカメラ100が対象物を撮影してもよい。
以上説明した少なくともひとつの実施形態によれば、画像処理装置200および700は、文字または記号による住所情報が付与された荷物400を撮影することによって得られたライトフィールドデータに基づき、荷物400において住所情報が存在する領域にフォーカスが合ったライン画像であって、長手方向(X方向)と短手方向(Y方向)を有するライン画像を生成する再構成部231と、再構成部231によって生成された複数のライン画像を短手方向(Y方向)に並べることで、検出用画像IMG(二次元画像)を生成する合成部232とを持つ。これによって、荷物400を照射する照明105の構成を簡易化するとともに、より確実に荷物400を撮影することができる。
なお、上記実施形態による画像処理装置200および700は、内部にコンピュータシステムを有している。そして、上述した画像処理装置200および700の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…画像処理システム、100…ライトフィールドカメラ、200…画像処理装置、210…制御装置、230…検出用画像生成部、231…再構成部、232…合成部、240…距離マップ生成部、250…認識用画像生成部、280…検出部、290…認識部、300…区分装置、310…ベルトコンベア、400…荷物、410…宛名領域、500…ビデオコーディングシステム(VCS)、700…画像処理装置、IMG…検出用画像
Claims (14)
- 文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する再構成部と、
前記再構成部によって生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する合成部と、
を備える画像処理装置。 - 前記合成部によって生成された前記二次元画像に基づき、前記対象情報が存在する領域を検出する検出部と、
前記検出部によって検出された前記対象情報が存在する領域に対して高解像度化処理を行うことにより、認識用画像を生成する認識用画像生成部と、
前記認識用画像生成部によって生成された前記認識用画像に基づき、前記対象情報を認識する認識部と、を更に備える、
請求項1記載の画像処理装置。 - 前記対象物は、前記ライトフィールドデータを取得するライトフィールドカメラに対して前記短手方向に相対的に移動しながら、前記ライトフィールドカメラによって撮影され、
前記ライトフィールドデータは、複数のマイクロレンズを介して得られた複数のマイクロ画像の集合であって、前記短手方向の画素数よりも、前記短手方向に直交する前記長手方向の画素数の方が多い、
請求項1または請求項2記載の画像処理装置。 - 前記ライトフィールドデータに基づき、前記ライトフィールドカメラから前記対象物までの距離を複数のマイクロ画像ごとに算出することにより、算出した距離がマップ化された距離マップを生成する距離マップ生成部を更に備え、
前記再構成部は、前記ライトフィールドデータおよび前記距離マップに基づき、前記画像を生成する
請求項3記載の画像処理装置。 - 前記再構成部は、前記マイクロレンズの中心を通過する前記長手方向のライン上の前記ライトフィールドデータの各マイクロ画像を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、各マイクロ画像が重なった個所については画素値の平均値を算出することで、前記画像を生成する
請求項4記載の画像処理装置。 - 前記再構成部は、前記マイクロレンズの中心を通過する前記長手方向のライン上の前記ライトフィールドデータの各マイクロ画像を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、各マイクロ画像が重なった個所については、計算の過程で導出される信頼度に基づいていずれか1つのマイクロ画像を選択することで、前記画像を生成する
請求項4記載の画像処理装置。 - 前記再構成部は、前記マイクロレンズの中心を通過する前記長手方向のライン上の前記ライトフィールドデータの各マイクロ画像を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、前記短手方向に隣接するマイクロ画像の全体を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、各マイクロ画像が重なった個所については画素値の平均値を算出することで、前記画像を生成する
請求項4記載の画像処理装置。 - 前記再構成部は、前記マイクロレンズの中心を通過する前記長手方向のライン上の前記ライトフィールドデータの各マイクロ画像を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、前記短手方向に隣接するマイクロ画像の全体を、前記距離マップ生成部によって生成された前記距離マップによって示される距離に応じた拡大率で拡大し、各マイクロ画像が重なった個所については計算の信頼度に基づいていずれか1つのマイクロ画像を選択することで、前記画像を生成する
請求項4記載の画像処理装置。 - 前記認識用画像生成部は、超解像処理を行うことにより前記認識用画像を生成する
請求項2記載の画像処理装置。 - 前記認識用画像生成部は、前記ライトフィールドデータに基づき互いに視点の異なる複数のサブ画像を生成し、前記複数のサブ画像を用いて前記超解像処理を行う
請求項9記載の画像処理装置。 - 前記認識用画像生成部は、前記ライトフィールドデータに基づき撮影タイミングの異なる複数のサブ画像を生成し、前記複数のサブ画像を用いて前記超解像処理を行う
請求項9記載の画像処理装置。 - 文字または記号による対象情報が付与された対象物を撮影することによって、ライトフィールドデータを取得するライトフィールドカメラと、
前記ライトフィールドカメラによって取得された前記ライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する再構成部と、前記再構成部によって生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する合成部と、を有する画像処理装置と、
を備える画像処理システム。 - 文字または記号による対象情報が付与された対象物を撮影することによって、ライトフィールドデータを取得する取得工程と、
前記取得工程で取得された前記ライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する再構成工程と、
前記再構成工程で生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する合成部と、
を備える画像処理方法。 - コンピュータを、
文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において前記対象情報が存在する領域にフォーカスが合った画像であって、長手方向と短手方向を有する画像を生成する再構成部、
前記再構成部によって生成された複数の前記画像を前記短手方向に並べることで、二次元画像を生成する合成部、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016107192A JP2017216497A (ja) | 2016-05-30 | 2016-05-30 | 画像処理装置、画像処理システム、画像処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016107192A JP2017216497A (ja) | 2016-05-30 | 2016-05-30 | 画像処理装置、画像処理システム、画像処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017216497A true JP2017216497A (ja) | 2017-12-07 |
Family
ID=60577286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016107192A Pending JP2017216497A (ja) | 2016-05-30 | 2016-05-30 | 画像処理装置、画像処理システム、画像処理方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017216497A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3376435A1 (en) * | 2017-03-15 | 2018-09-19 | Kabushiki Kaisha Toshiba | Image processing apparatus, image processing system, image processing method, and program |
WO2022190900A1 (ja) * | 2021-03-08 | 2022-09-15 | 株式会社 東芝 | 情報処理装置、プログラム及びシステム |
-
2016
- 2016-05-30 JP JP2016107192A patent/JP2017216497A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3376435A1 (en) * | 2017-03-15 | 2018-09-19 | Kabushiki Kaisha Toshiba | Image processing apparatus, image processing system, image processing method, and program |
US10579859B2 (en) | 2017-03-15 | 2020-03-03 | Kabushiki Kaisha Toshiba | Image processing apparatus, image processing system, image processing method, and program |
WO2022190900A1 (ja) * | 2021-03-08 | 2022-09-15 | 株式会社 東芝 | 情報処理装置、プログラム及びシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109997170B (zh) | 用于从视图中获得距离信息的设备和方法 | |
JP5870273B2 (ja) | 物体検出装置、物体検出方法及びプログラム | |
US8977035B2 (en) | System, method and computer program product for detection of defects within inspection images | |
CN109751973B (zh) | 三维测量装置、三维测量方法以及存储介质 | |
CN107248139B (zh) | 基于显著视觉和dmd阵列分区控制的压缩感知成像方法 | |
JP2011013064A (ja) | 位置検出装置 | |
JP2010091426A (ja) | 距離計測装置及びプログラム | |
JP2013174547A (ja) | ステレオ3次元計測装置 | |
JP7389729B2 (ja) | 障害物検知装置、障害物検知システム及び障害物検知方法 | |
JP6556675B2 (ja) | 物体検出方法及びその装置 | |
JP6254849B2 (ja) | 画像処理装置、画像処理方法 | |
KR101699014B1 (ko) | 스테레오 카메라를 이용한 객체 검출 방법 및 장치 | |
JP2022045947A5 (ja) | ||
JP2017216497A (ja) | 画像処理装置、画像処理システム、画像処理方法、およびプログラム | |
JP6567384B2 (ja) | 情報認識装置、情報認識方法、およびプログラム | |
JP2018045464A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR20200005818A (ko) | 도로 지도 생성 시스템 및 도로 지도 생성 방법 | |
JP2018137667A (ja) | カメラキャリブレーション方法、プログラムおよび装置 | |
EP3494545B1 (en) | Methods and apparatus for codeword boundary detection for generating depth maps | |
WO2018143277A1 (ja) | 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム | |
US10579859B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP2013114476A (ja) | 物体判別方法 | |
CN111862106A (zh) | 基于光场语义的图像处理方法、计算机装置、及存储介质 | |
JP2012231465A (ja) | 複数のイメージセンサーを有するスキャナーのイメージ生成方法及びイメージ生成システム | |
JP2019168767A (ja) | 隠蔽画像又は隠蔽情報を認証する認証システム、認証方法及び認証用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170912 Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170912 |