JP2018045464A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2018045464A
JP2018045464A JP2016179951A JP2016179951A JP2018045464A JP 2018045464 A JP2018045464 A JP 2018045464A JP 2016179951 A JP2016179951 A JP 2016179951A JP 2016179951 A JP2016179951 A JP 2016179951A JP 2018045464 A JP2018045464 A JP 2018045464A
Authority
JP
Japan
Prior art keywords
image
detection
specular reflection
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016179951A
Other languages
English (en)
Inventor
健二 君山
Kenji Kimiyama
健二 君山
橋谷 誠一
Seiichi Hashitani
誠一 橋谷
拓也 二神
Takuya Futagami
拓也 二神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016179951A priority Critical patent/JP2018045464A/ja
Publication of JP2018045464A publication Critical patent/JP2018045464A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Studio Devices (AREA)
  • Character Input (AREA)

Abstract

【課題】対象物に付与された対象情報の認識率を向上させることができる画像処理装置、画像処理方法、およびプログラムを提供すること。【解決手段】実施形態の画像処理装置は、鏡面反射領域検出部と、検出用画像生成部とを持つ。前記鏡面反射領域検出部は、文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において鏡面反射が生じている領域を検出する。前記検出用画像生成部は、前記鏡面反射領域検出部によって検出された前記領域における前記鏡面反射が抑制された画像を、前記対象情報の検出に用いられる検出用画像として生成する。【選択図】図5

Description

本発明の実施形態は、画像処理装置、画像処理方法、およびプログラムに関する。
近年、物流分野においては、不定形の荷物パッケージに記載されている宛名をOCR装置により認識することが行われている。荷物パッケージのサイズや形状は様々であるため、宛名に対するカメラのフォーカスを、OCR装置の認識処理に適した範囲に保つことが困難な場合がある。そして、これに起因して、OCR装置の認識エラーや認識不能が発生して、宛名の認識率が低下する場合がある。
上記に関連し、荷物パッケージに記載されている宛名を、ライトフィールドカメラで撮影する技術が知られている。例えば、ライトフィールドカメラの一種として、マイクロレンズアレイによって入射光を分光し、分光した複数の方向の光を、イメージセンサを用いて検出するカメラが知られている。ライトフィールドカメラによって検出された画像データ(ライトフィールドデータ)に基づき、広範囲でフォーカスが合っている画像を再構成することができる。
しかしながら、荷物パッケージにビニール等の光沢のある物質が使用されている場合は、照明の光が荷物パッケージの表面で鏡面反射してライトフィールドカメラに直接入ることで、撮影された画像に白とび(輝度値の飽和)が生じる。宛名領域に白とびが生じると、宛名(対象情報)の認識ができない場合がある。
特開2014−57231号公報
本発明が解決しようとする課題は、対象物に付与された対象情報の認識率を向上させることができる画像処理装置、画像処理方法、およびプログラムを提供することである。
実施形態の画像処理装置は、鏡面反射領域検出部と、検出用画像生成部とを持つ。前記鏡面反射領域検出部は、文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において鏡面反射が生じている領域を検出する。前記検出用画像生成部は、前記鏡面反射領域検出部によって検出された前記領域における前記鏡面反射が抑制された画像を、前記対象情報の検出に用いられる検出用画像として生成する。
第1の実施形態に係る画像処理システム10の全体構成を示す図。 ライトフィールドカメラ100の詳細な構成を示す図。 マイクロレンズアレイ120の構造を示す図。 マイクロレンズアレイ120とイメージセンサ130との関係を示す図。 第1の実施形態に係る画像処理装置200のブロック図。 視差の計算を説明するための図。 第1のタイミングT1において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図。 第1のタイミングT1より後の第2のタイミングT2において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図。 第2のタイミングT2より後の第3のタイミングT3において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図。 照明105から照射された光が荷物400の表面で鏡面反射した状況を示す図。 第1の実施形態に係る画像処理装置200の動作を示すフローチャート。 第2の実施形態に係る画像処理装置200のブロック図。 超解像処理部260の詳細な構成を示すブロック図。 再構成処理部263の詳細な構成を示すブロック図。
以下、実施形態の画像処理装置、画像処理方法、およびプログラムを、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理システム10の全体構成を示す図である。図1に示されるように、本実施形態の画像処理システム10は、ライトフィールドカメラ100と、画像処理装置200と、ビデオコーディングシステム(以下、「VCS」と称する)500とを備える。
ライトフィールドカメラ100は、照明105および照明106から光を照射し、ベルトコンベア310上を移動する荷物(対象物の一例)400を撮影する。ライトフィールドカメラ100は、荷物400から反射されてライトフィールドカメラ100に到達した光線の位置情報だけでなく、光線の進む方向に関する情報についても取得する。ライトフィールドカメラ100によって取得された画像データ(ライトフィールドデータ)に対して所定の処理が行われることで、フォーカスを任意の位置に合わせたり、視点を変えたりした画像を再構成することができる。
ライトフィールドカメラ100は、荷物400の画像データ(ライトフィールドデータ)を画像処理装置200に送信する。画像処理装置200は、ライトフィールドカメラ100から受信したライトフィールドデータに基づき、OCR処理を行うことによって荷物400の宛名領域(対象情報が存在する領域)410に記載されている住所情報(対象情報)を認識する。画像処理装置200は、認識結果(住所情報)を区分装置300に送信する。住所情報は、例えば、数字によって記載された郵便番号、文字や数字、記号によって記載された住所、またはこれらの組み合わせである。
区分装置300は、例えば複数の段および複数の列に区画された複数の区分ポケット(不図示)、およびVCSポケット(不図示)を含む。区分装置300は、画像処理装置200から受信した認識結果(住所情報)に応じて、ベルトコンベア310によって搬送されてくる荷物400の区分先を切り替え、区分先の区分ポケットに荷物400を集積する。
画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、住所情報を認識できなかった旨の通知を区分装置300に送信する。区分装置300は、画像処理装置200から住所情報を認識できなかった旨の通知を受信すると、荷物400の区分先をVCSポケットに切り替える。
また、画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、荷物400の画像データおよびVC依頼を、ネットワークNWを介してVCS500に送信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等である。
VCS500は、画像処理装置200により住所情報を認識できなかった荷物400の画像を表示し、作業者の視認により住所情報の認識を補助するシステムである。VCS500の各端末は、荷物400の画像を表示装置によって表示し、キーボードやタッチパネル等の入力デバイスによって作業者による住所情報の入力を受け付ける。
VCS500は、作業者による住所情報の入力を受け付けると、入力された住所情報を、ネットワークNWを介して画像処理装置200に送信する。画像処理装置200は、VCS500から受信した住所情報を区分装置300に送信する。これによって、OCR処理によって住所情報を認識できなかった荷物400が、正しい区分先に区分される。
図2は、ライトフィールドカメラ100の詳細な構成を示す図である。ライトフィールドカメラ100は、メインレンズ110、マイクロレンズアレイ120、およびイメージセンサ130を備える。メインレンズ110は、被写体(荷物400)からの光が入射するレンズである。マイクロレンズアレイ120は、複数のマイクロレンズを備えるレンズアレイである。イメージセンサ130は、複数の画素を有する撮像素子であり、各画素にて光の強度を検出する。イメージセンサ130は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)等のセンサである。
図2に示されるライトフィールドカメラ100は複眼方式であるが、これに限られない。例えば、多眼方式等、他の方式のライトフィールドカメラであっても同等の効果が得られる。また、本実施形態のライトフィールドカメラ100は虚像光学系であるが、これに限られない。例えば、実像光学系であっても同等の効果が得られる。
図3は、マイクロレンズアレイ120の構造を示す図である。図3に示されるように、マイクロレンズアレイ120は、マイクロレンズが格子状に配列されたレンズアレイである。メインレンズ110から入射した光線群は、光線の方向にしたがって、マイクロレンズアレイ120によって分解される。図3においては、13×13のマイクロレンズアレイ120が示されているが、マイクロレンズアレイの数はこれに限られない。
図4は、マイクロレンズアレイ120とイメージセンサ130との関係を示す図である。図4に示されるように、マイクロレンズアレイ120によって分解された光線は、円形のサブ画像150aおよび150bとして、イメージセンサ130上に投影される。ここでは、説明を簡単にするために2つのサブ画像150aおよび150bを示したが、実際には複数のマイクロレンズのそれぞれに対応する複数のサブ画像がイメージセンサ130上に投影される。
マイクロレンズアレイ120から投影された複数のサブ画像をイメージセンサ130の複数の画素が受光することで、光線の入射方向ごとの強度を検出することができる。イメージセンサ130によって検出された画像データ(ライトフィールドデータ)は、複数のマイクロレンズごとのサブ画像の集まりとなる。
図5は、第1の実施形態に係る画像処理装置200のブロック図である。画像処理装置200は、制御装置210と、ライトフィールドデータメモリ220と、距離マップ生成部225と、点群データ生成部230と、点群データ位置合わせ部235と、鏡面反射領域検出部240と、検出用画像生成部245と、文字領域検出部250と、認識部(OCR部)255とを備える。
制御装置210は、CPU(Central Processing Unit)等のプロセッサと、プロセッサが実行するプログラムを格納するプログラムメモリとを備える。なお、制御装置210は、プロセッサがプログラムを実行するのと同様の機能を有するLSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、およびFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよい。
ライトフィールドデータメモリ220は、制御装置210によって読出しおよび書込みが可能なメモリであり、例えばRAM(Random Access Memory)である。
距離マップ生成部225、点群データ生成部230、点群データ位置合わせ部235、鏡面反射領域検出部240、検出用画像生成部245、文字領域検出部250、および認識部(OCR部)255は、例えば、制御装置210のプロセッサが、プログラムメモリに格納されたプログラムを実行することにより実現される。メモリ管理情報215は、ライトフィールドデータメモリ220に格納された画像を管理するための情報を含む。
ライトフィールドデータメモリ220は、ライトフィールドカメラ100から受信したライトフィールドデータを記憶する。距離マップ生成部225は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。距離マップ生成部225は、読み出したライトフィールドデータに基づき、距離マップを生成する。以下、距離マップの生成方法について説明する。
距離マップ生成部225は、ライトフィールドデータに基づき、マイクロレンズを介して得られるサブ画像ごとに、ライトフィールドカメラ100から被写体までの距離を算出することで、算出した距離がマップ化された距離マップを生成する。距離マップ生成部225は、隣接する複数のサブ画像に対してテンプレートマッチングを行うことにより視差を算出し、算出した視差に基づき、ステレオ画像処理のアルゴリズムを用いて距離を求める。
図6は、視差の計算を説明するための図である。中央のマイクロレンズ120aは、マイクロレンズ120bおよび120cと、Y方向において隣接している。また、中央のマイクロレンズ120aは、マイクロレンズ120dおよび120eと、X方向において隣接している。
以下、中央のマイクロレンズ120aを介して得られるサブ画像についての、ライトフィールドカメラ100から被写体までの距離の算出処理について具体的に説明する。距離マップ生成部225は、中央のマイクロレンズ120aを介して得られるサブ画像と、4つのマイクロレンズ120b〜120eを介して得られる4つのサブ画像のそれぞれに対してテンプレートマッチングを行うことにより、4つの視差を算出する。
具体的に、距離マップ生成部225は、マイクロレンズ120aを介して得られるサブ画像と、マイクロレンズ120bを介して得られるサブ画像とに基づき視差D1を算出する。また、距離マップ生成部225は、マイクロレンズ120aを介して得られるサブ画像と、マイクロレンズ120cを介して得られるサブ画像とに基づき視差D2を算出する。また、距離マップ生成部225は、マイクロレンズ120aを介して得られるサブ画像と、マイクロレンズ120dを介して得られるサブ画像とに基づき視差D3を算出する。また、距離マップ生成部225は、マイクロレンズ120aを介して得られるサブ画像と、マイクロレンズ120eを介して得られるサブ画像とに基づき視差D4を算出する。
次に、距離マップ生成部225は、4つの視差D1からD4の平均値Daveに基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ120aを介して得られるサブ画像についての被写体までの距離を算出する。距離マップ生成部225は、以上の処理を全てのマイクロレンズに対して行うことにより、距離マップを生成する。距離マップ生成部225は、生成した距離マップを点群データ生成部230に出力する。
なお、距離マップ生成部225は、平均値Daveを用いて距離を算出することとしたが、これに限られない。例えば、距離マップ生成部225は、テンプレートマッチングの結果の信頼度に基づいて最良と推定できる視差を4つの視差D1からD4の中から選択し、選択した視差に基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ120aを介して得られるサブ画像についての被写体までの距離を算出してもよい。
点群データ生成部230は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。点群データ生成部230は、読み出したライトフィールドデータおよび距離マップ生成部225から出力された距離マップに基づき、空間上の点の座標(x,y,z)およびカラー輝度値(R,G,B)を持つ点の集まりである点群データを生成する。なお、xはX軸上の座標を示し、yはY軸上の座標を示し、zはZ軸上の座標を示す。また、Rは赤の輝度値を示し、Gは緑の輝度値を示し、Bは青の輝度値を示す。以下、点群データの生成方法について説明する。
点群データ生成部230が、視差に応じた倍率で拡大または縮小したサブ画像を重ね合わせると、ぼけのないフォーカスが合った画像が得られる。ここで、「フォーカスが合った」とは、被写体の文字のエッジが立ってはっきり見える状態、または被写体のある1点で反射した光が、レンズによってセンサの1点(または十分小さな領域)に集光されている状態を意味する。一方、点群データ生成部230が、位置合わせをせずに複数のサブ画像を重ね合わせると、ぼけたフォーカスの合っていない画像が得られる。点群データ生成部230は、サブ画像を重ね合わせる際の位置ずらし量を制限することで、フォーカスの合う範囲を制限することができる。
点群データ生成部230は、距離マップ生成部225によって生成された距離マップに基づき、複数のサブ画像を重ね合わせる際の位置ずらし量を制限することで、住所情報が存在する領域にフォーカスの合う範囲を制限する。これによって、点群データ生成部230は、宛名領域410に付与された住所情報が存在する領域にフォーカスが合ったフォーカス画像を生成することができる。
また、点群データ生成部230は、距離マップを参照して、生成したフォーカス画像の各画素のカラー輝度値(R,G,B)に、空間上の点の座標(x,y,z)を関連付けることにより、点群データを生成する。点群データ生成部230は、生成した点群データを点群データ位置合わせ部235に出力する。
なお、点群データは、座標(x,y,z)およびカラー輝度値(R,G,B)を持つ点の集まりであることとしたが、これに限られない。例えば、点群データは、座標(x,y,z)およびグレースケールの輝度値(Y)を持つ点の集まりであってもよい。
以上の処理によって、宛名領域410に付与された住所情報が存在する領域にフォーカスが合った点群データが生成される。しかしながら、宛名領域410に光沢のある物質が使用されている場合は、照明105または106の光が宛名領域410で鏡面反射してライトフィールドカメラ100に直接入ることで、点群データに白とびが生じる可能性がある。宛名領域に白とびが生じると、住所情報の認識ができない場合がある。これを防止するために、ライトフィールドカメラ100は、荷物400を異なるタイミングで複数回撮影して、白とびを抑制するための処理を行う。
図7は、第1のタイミングT1において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図である。図8は、第1のタイミングT1より後の第2のタイミングT2において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図である。図9は、第2のタイミングT2より後の第3のタイミングT3において、ライトフィールドカメラ100が荷物400を撮影している状況を示す図である。
点群データ生成部230は、第1のタイミングT1(図7)においてライトフィールドカメラ100によって撮影されたライトフィールドデータに基づき、第1の点群データPD1を生成する。また、点群データ生成部230は、第2のタイミングT2(図8)においてライトフィールドカメラ100によって撮影されたライトフィールドデータに基づき、第2の点群データPD2を生成する。さらに、点群データ生成部230は、第3のタイミングT3(図9)においてライトフィールドカメラ100によって撮影されたライトフィールドデータに基づき、第3の点群データPD3を生成する。点群データ生成部230は、生成した第1の点群データPD1、第2の点群データPD2、および第3の点群データPD3を、点群データ位置合わせ部235に出力する。
点群データ位置合わせ部235は、ベルトコンベア310による移動分だけ座標をずらすことにより、第1の点群データPD1、第2の点群データPD2、および第3の点群データPD3のそれぞれの位置を合わせる。また、点群データ位置合わせ部235は、より精密に位置を合わせる場合には、ICP(Iterative Closest Point)アルゴリズムを用いて位置合わせを行ってもよい。
具体的に、点群データ位置合わせ部235は、第1の点群データPD1、第2の点群データPD2、および第3の点群データPD3のそれぞれの画素の位置を合わせるように、第1の点群データPD1、第2の点群データPD2、および第3の点群データPD3のそれぞれの座標を修正する。点群データ位置合わせ部235は、位置合わせが行われた第1の点群データPD1、第2の点群データPD2、および第3の点群データPD3を、鏡面反射領域検出部240および検出用画像生成部245に出力する。
鏡面反射領域検出部240は、点群データに基づき、荷物400において鏡面反射が生じている領域を検出する。具体的に、鏡面反射領域検出部240は、点群データ位置合わせ部235によって位置合わせが行われた各点群データPD1からPD3の近傍点における輝度値の差分に基づき、鏡面反射が生じている領域の候補を抽出する。
例えば、近傍点における点群データPD1、PD2、およびPD3の輝度値を、それぞれB1、B2、およびB3とする。この場合、鏡面反射領域検出部240は、輝度値B1からB3のうちの最大値と最小値との差分が閾値TH1を超える画素を、鏡面反射が生じている領域の候補として抽出する。
なお、鏡面反射が生じている領域の候補の抽出方法は、これに限られない。例えば、鏡面反射領域検出部240は、点群データPD1、PD2、およびPD3のいずれかの輝度値が飽和している領域を、鏡面反射が生じている領域の候補として抽出してもよい。
次に、鏡面反射領域検出部240は、照明105および106と、ライトフィールドカメラ100との位置関係に基づき、抽出した候補の中から鏡面反射が生じている領域を特定する。以下、鏡面反射領域の特定処理について詳細に説明する。
図10は、照明105から照射された光が荷物400の表面で鏡面反射した状況を示す図である。図10において、照明105から照射した光は、荷物400上の点Pにおいて反射している。ここで、ベクトルV0は点Pにおける荷物400の表面に対する法線ベクトルであり、ベクトルV1は照明105から点Pに照射された光のベクトルであり、ベクトルV2は点Pから反射された光のベクトルである。
ライトフィールドカメラ100と照明105との位置関係は既知であり、これらのXYZ空間上の座標は予め制御装置210のメモリに格納されている。また、荷物400の外形は、点群データ位置合わせ部235から出力された点群データによって表される。したがって、鏡面反射領域検出部240は、ライトフィールドカメラ100の座標と、照明105の座標と、点群データ位置合わせ部235から出力された点群データとに基づき、ベクトルV0からV2を算出することができる。
鏡面反射領域検出部240は、照明105から照射された光の入射角θ1を、ベクトルV0とV1に基づいて算出する。また、鏡面反射領域検出部240は、点Pから反射された光の反射角θ2を、ベクトルV0とV2に基づいて算出する。
照明105から照射された光が点Pにおいて鏡面反射された場合、入射角θ1=反射角θ2となる。このため、鏡面反射領域検出部240は、入射角θ1と反射角θ2との差分が閾値TH2未満である場合、照明105から照射された光が点Pにおいて鏡面反射されたと判定する。
点群データに含まれる全ての画素に対して上記の鏡面反射領域の特定処理を行うと、処理に時間がかかってしまう。このため、鏡面反射領域検出部240は、鏡面反射が生じている領域の候補を抽出し、抽出した領域のみに対して鏡面反射領域の特定処理を行う。これによって、鏡面反射領域検出部240は、鏡面反射領域を短時間で検出することができる。
鏡面反射領域検出部240は、照明106から照射された光についても同様に、上記と同様の手法で鏡面反射領域を検出する。具体的に、鏡面反射領域検出部240は、ライトフィールドカメラ100の座標と、照明106の座標と、点群データ位置合わせ部235から出力された点群データとに基づき、鏡面反射領域を検出する。
鏡面反射領域検出部240は、検出した鏡面反射領域を示すデータ(以下、鏡面反射領域データと称する)を、検出用画像生成部245に出力する。検出用画像生成部245は、鏡面反射領域検出部240から出力された鏡面反射領域データと、点群データ位置合わせ部235から出力された点群データとに基づき、鏡面反射が抑制された検出用画像を生成する。
具体的に、検出用画像生成部245は、点群データ位置合わせ部235から出力された点群データをXY平面上に射影することにより、点群データ(3Dデータ)を検出用画像(2Dデータ)に変換する。なお、検出用画像生成部245は、ライトフィールドカメラ100からの距離に応じて、検出用画像の各画素を拡大または縮小してもよい。
このとき、検出用画像生成部245は、鏡面反射領域検出部240から出力された鏡面反射領域データを参照し、点群データに発生している白とびを抑制する処理を行う。例えば、点群データPD1に白とびが発生している場合、鏡面反射領域については点群データPD1を用いず、白とびが発生していない点群データPD2またはPD3を用いて検出用画像を生成する。
点群データPD1からPD3はそれぞれ視点の異なるデータである。このため、ある点群データに白とびが発生したとしても、他の点群データには白とびが発生していない場合がある。したがって、検出用画像生成部245は、白とびが発生した点群データを用いず、他の点群データを用いて鏡面反射が抑制された検出用画像を生成することができる。
このように、検出用画像生成部245は、鏡面反射領域検出部240によって検出された鏡面反射領域を除外して検出用画像を生成する。なお、検出用画像生成部245は、鏡面反射領域検出部240によって検出された鏡面反射領域の輝度値に乗ずる重みを小さくした上で、複数の点群データPD1からD3を合成することにより検出用画像を生成してもよい。
また、検出用画像生成部245は、鏡面反射領域検出部240の検出結果の確からしさに基づき、鏡面反射領域を除外して検出用画像を生成するか、鏡面反射領域の輝度値に乗ずる重みを小さくした上で、複数の点群データPD1からD3を合成することにより検出用画像を生成するかを切り替えてもよい。鏡面反射領域検出部240の検出結果の確からしさとは、例えば、各点群データPD1からPD3の近傍点における輝度値の差分、または入射角θ1と反射角θ2との差分であってよい。
なお、検出用画像生成部245は、検出用画像における宛名領域以外の領域を周囲の画素で埋める穴埋め処理を行ってもよい。これによって、検出用画像生成部245は、宛名領域以外の領域を単純化することができ、後述する文字領域検出処理における誤検出を防止することができる。
検出用画像生成部245は、生成した検出用画像を文字領域検出部250および認識部(OCR部)255に出力する。文字領域検出部(対象情報検出部)250は、検出用画像生成部245から出力された検出用画像に対して、2値化処理、エッジ強調、およびエッジ検出等の画像処理を施して、住所情報が存在する領域を文字領域データとして検出する。文字領域検出部250は、検出した文字領域データを認識部255に出力する。
認識部255は、文字領域検出部250から出力された文字領域データを参照し、検出用画像生成部245から出力された検出用画像における文字領域(住所情報が存在する領域)に対してOCR処理を行う。これにより、認識部255は、宛名領域410に付与された住所情報を認識する。
認識部255は、住所情報を認識できた場合、認識結果(住所情報)を区分装置300に送信する。一方、認識部255は、住所情報を認識できなかった場合、VC依頼および文字領域画像を、ネットワークNWを介してVCS500に送信する。
VCS500は、認識部255からVC依頼を受信すると、認識部255から受信した文字領域画像を表示装置に表示する。作業者によって住所情報がVCS500に入力されると、VCS500は入力された住所情報を、ネットワークNWを介して認識部255に送信する。認識部255は、VCS500から受信した住所情報を区分装置300に送信する。これによって、認識部255によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
なお、点群データ、鏡面反射領域データ、検出用画像、および文字領域データは、制御装置210に設けられた不図示のメモリに格納される。制御装置210は、メモリに格納されたデータを、メモリ管理情報215を用いて管理する。メモリ管理情報215は、メモリに格納されたデータを特定するための識別情報、データの種類を示す種類情報、およびアドレス等の情報を含む。
図11は、第1の実施形態に係る画像処理装置200の動作を示すフローチャートである。本フローチャートを実行するためのプログラムは、制御装置210のプログラムメモリに格納されている。
距離マップ生成部225は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す(S1)。次に、距離マップ生成部225は、読み出したライトフィールドデータに基づき、距離マップを生成する(S2)。
点群データ生成部230は、ライトフィールドデータメモリ220からライトフィールドデータを読み出す。その後、点群データ生成部230は、ライトフィールドデータおよび距離マップ生成部225によって生成された距離マップに基づき、点群データを生成する(S3)。ここで、点群データ生成部230は、視点の異なる複数のライトフィールドデータ毎に、宛名領域にフォーカスが合った点群データを生成する。
点群データ位置合わせ部235は、点群データ生成部230により生成された複数の点群データに対して位置合わせを行う(S4)。鏡面反射領域検出部240は、点群データ位置合わせ部235によって位置合わせが行われた点群データに基づき、鏡面反射が生じている領域を示す鏡面反射領域データを検出する(S5)。
検出用画像生成部245は、鏡面反射領域検出部240によって検出された鏡面反射領域データおよび点群データ位置合わせ部235によって位置合わせが行われた点群データに基づき、鏡面反射領域における鏡面反射が抑制された検出用画像を生成する(S6)。
文字領域検出部250は、検出用画像生成部245によって生成された検出用画像に基づき、文字領域(住所情報が存在する領域)を示す文字領域データを検出する(S7)。その後、制御装置210は、文字領域検出部250によって文字領域データが検出されたか否かを判断する(S8)。
文字領域検出部250によって文字領域データが検出されなかった場合、認識部255は、VC依頼および文字領域画像を、ネットワークNWを介してVCS500に送信する(S11)。ここで、認識部255は、検出用画像を文字領域画像として送信する。一方、文字領域検出部250によって文字領域データが検出された場合、認識部255は、文字領域検出部250によって検出された文字領域データに基づき、検出用画像における文字領域に対してOCR処理を行う。これによって、認識部255は、宛名領域410に付与された住所情報を認識する(S9)。
その後、認識部255は、住所情報を認識できたかどうかを判断する(S10)。住所情報を認識できた場合、認識部255は、認識した住所情報を区分装置300に送信し(S13)、本フローチャートによる処理を終了する。
一方、住所情報を認識できなかった場合、認識部255は、VC依頼および文字領域画像を、ネットワークNWを介してVCS500に送信する(S11)。その後、認識部255は、VCS500から住所情報を受信し(S12)、受信した住所情報を区分装置300に送信する(S13)。これによって、認識部255によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
以上説明したように、点群データ生成部230は、異なるタイミングで撮影された複数のライトフィールドデータ毎に、住所情報が存在する領域にフォーカスが合った点群データを生成する。点群データ位置合わせ部235は、点群データ生成部230により生成された複数のライトフィールドデータ毎の点群データに対して位置合わせを行う。鏡面反射領域検出部240は、荷物400において鏡面反射が生じている領域を検出する。検出用画像生成部245は、鏡面反射領域検出部240によって検出された領域における鏡面反射が抑制された画像を、住所情報の検出に用いられる検出用画像として生成する。これによって、本実施形態の画像処理装置200は、荷物400に付与された住所情報の認識率を向上させることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態の認識部255は、検出用画像生成部245から出力された検出用画像に基づいて、荷物400に付与された住所情報を認識することとした。これに対し、第2の実施形態の画像処理装置200は、検出用画像における文字領域に対して、解像度を高めるための超解像処理を行う超解像処理部260を更に備える。第2の実施形態の認識部255は、超解像処理部260から出力された検出用画像に基づいて、荷物400に付与された住所情報を認識する。これによって、第2の実施形態の画像処理装置200は、認識部255による住所情報の認識率を更に向上させることができる。以下、第2の実施形態について詳細に説明する。
図12は、第2の実施形態に係る画像処理装置200のブロック図である。図12において、図5の各部に対応する部分には同一の符号を付し、説明を省略する。画像処理装置200は、制御装置210と、ライトフィールドデータメモリ220と、距離マップ生成部225と、点群データ生成部230と、点群データ位置合わせ部235と、鏡面反射領域検出部240と、検出用画像生成部245と、文字領域検出部250と、認識部(OCR部)255とに加えて、超解像処理部260を備える。
検出用画像生成部245は、点群データPD1〜PD3ごとに個別に生成した検出用画像IMG1〜IMG3を文字領域検出部250および超解像処理部260に出力する。文字領域検出部(対象情報検出部)250は、検出用画像生成部245から出力された検出用画像IMG2に対して、2値化処理、エッジ強調、およびエッジ検出等の画像処理を施して、住所情報が存在する領域を文字領域データとして検出する。ここで、検出用画像IMG2は、荷物400がライトフィールドカメラ100の真下にある状態(図8)において生成された検出用画像である。文字領域検出部250は、検出した文字領域データを超解像処理部260に出力する。
超解像処理部260は、文字領域検出部250によって検出された文字領域データに基づき、住所情報が存在する領域に対して高解像度化処理を行う。このように、住所情報が存在する領域のみに対して高解像度化処理を行うことで、超解像処理部260の負荷を低減することができる。以下、超解像処理の詳細について説明する。
図13は、超解像処理部260の詳細な構成を示すブロック図である。図13に示されるように、超解像処理部260は、文字領域画像生成部261、位置合わせ処理部262、再構成処理部263、および補間拡大処理部264を備える。検出用画像生成部245は、視点の異なる複数の点群データを用いて、視点の異なる複数の検出用画像IMG1〜IMG3を生成する。文字領域画像生成部261は、検出用画像生成部245から互いに視点の異なる検出用画像IMG1〜IMG3を取得する。文字領域画像生成部261は、取得した検出用画像IMG1〜IMG3と、文字領域検出部250から出力された文字領域データとに基づき、住所情報が存在する領域についての視点の異なる複数の文字領域画像(第1の文字領域画像、第2の文字領域画像、および第3の文字領域画像)を生成する。
具体的に、文字領域画像生成部261は、文字領域データに基づき、検出用画像IMG2から住所情報が存在する領域を抽出することで、第2の文字領域画像を生成する。また、文字領域画像生成部261は、文字領域データに基づき、検出用画像IMG1から住所情報が存在する領域を抽出することで、第1の文字領域画像を生成する。また、文字領域画像生成部261は、文字領域データに基づき、検出用画像IMG3から住所情報が存在する領域を抽出することで、第3の文字領域画像を生成する。
第1の文字領域画像から第3の文字領域画像は、互いに視点の異なる画像である。文字領域画像生成部261は、生成した第1の文字領域画像から第3の文字領域画像を、位置合わせ処理部262、再構成処理部263に出力する。また、文字領域画像生成部261は、第2の文字領域画像を補間拡大処理部264に出力する。
位置合わせ処理部262は、入力された第1の文字領域画像および第2の文字領域画像において同一部分と見なせる点である対応点を探索し、2つの点の移動量を動きベクトルとして算出する。同様に、入力された第3の文字領域画像および第2の文字領域画像において同一部分と見なせる点である対応点を探索し、2つの点の移動量を動きベクトルとして算出する。位置合わせ処理部262は、算出した動きベクトルを再構成処理部263に出力する。
補間拡大処理部264は、バイリニアやバイキュービックアルゴリズム等の補間アルゴリズムによって、第1解像度の第2の文字領域画像(基準画像)を、第1解像度よりも高解像である第2解像度を表すことが可能な画素数に増加して初期画像を生成する補間拡大処理を行う。ここで、解像度は画像がどれだけ細かな部分を表現しているかを示すパラメータであり、画素数はどれだけ詳細な部分を表現可能なフォーマットかを示すパラメータである。補間拡大処理では、画素数は増加するが、解像度は増加しない。補間拡大処理部264は、生成した初期画像を再構成処理部263に出力する。
再構成処理部263は、文字領域画像生成部261から出力された第1から第3の文字領域画像、位置合わせ処理部262から出力された動きベクトル、および補間拡大処理部264から出力された初期画像に基づき、超解像処理を行う。
図14は、再構成処理部263の詳細な構成を示すブロック図である。図14に示されるように、再構成処理部263は、予測画像生成部265と、誤差計算部266と、誤差補正部267と、画像バッファ268とを備えている。
画像バッファ268は、補間拡大処理部264から入力された初期画像を一時的に格納する。予測画像生成部265は、画像バッファ268から初期画像を読み出す。予測画像生成部265は、読み出した初期画像と、位置合わせ処理部262から出力された動きベクトルとに基づき、予測画像を生成する。ここで、補間拡大処理の拡大率に応じて動きベクトルがスケーリングして用いられる。予測画像生成部265は、生成した予測画像を誤差計算部266に出力する。
誤差計算部266は、予測画像生成部265から出力された予測画像と、文字領域画像生成部261から出力された第1解像度の第2の文字領域画像との誤差を計算して誤差画像を生成する。第1の文字領域画像および第3の文字領域画像についても同様に、誤差計算部266は、誤差を計算して誤差画像を生成する。誤差計算部266は、生成した誤差画像を誤差補正部267に出力する。
誤差補正部267は、誤差計算部266から出力された誤差画像に基づき、画像バッファ268に格納された初期画像を補正することにより、初期画像を高解像度化する。再構成処理部263は、誤差計算部266によって計算された誤差が所定の閾値以下になるまで上記の処理を繰り返すことによって、高解像度化された認識用画像を生成する。
超解像処理部260は、点拡がり関数PSF(Point Spread Function)を設定して補正量を計算する。このとき、超解像処理部260は、荷物400が搬送されることによる動きぼけを補正するために、ガウシアン分布を縦長にしたパターンを点拡がり関数PSFとして用いると、解像度を増加させることができる。
なお、本実施形態において、高解像度化処理として超解像処理を行うこととしたが、これに限られない。例えば、ライトフィールドカメラ100によって同じ部分が映っている複数枚の住所領域画像が得られるため、超解像処理部260は、各住所領域画像をサブピクセルの精度で位置合わせして再構成することで、住所情報が存在する領域の画像を高解像度化してもよい。また、超解像処理部260は、ライトフィールドカメラ100のスキャン速度を高めて、X方向(荷物400の移動方向)におけるサブ画像の解像度を高めることで、住所情報が存在する領域の画像を高解像度化してもよい。
超解像処理部260は、高解像度化した検出用画像を認識部(OCR部)255に出力する。認識部255は、文字領域検出部250から出力された文字領域データを参照し、超解像処理部260から出力された検出用画像における文字領域(住所情報が存在する領域)に対してOCR処理を行う。これにより、認識部255は、宛名領域410に付与された住所情報を認識する。
以上説明したように、文字領域検出部250は、検出用画像生成部245によって生成された検出用画像から、宛名領域410(住所情報が存在する領域)を検出する。超解像処理部260は、文字領域検出部250によって検出された宛名領域410に対して、解像度を高めるための超解像処理を行う。認識部255は、超解像処理部260によって超解像処理が行われた宛名領域410の画像に基づき、住所情報を認識する。これによって、第2の実施形態の画像処理装置200は、認識部255による住所情報の認識率を更に向上させることができる。
なお、第1および第2の実施形態において、文字領域検出部250は1つの宛名領域を検出することとしたが、複数の宛名領域を検出してもよい。宛名の配置パターンが既知の場合は、一定間隔で搬送される複数の荷物の宛名を同時に認識したり、荷物の宛名以外の位置に貼り付けられたバーコードを同時に読み取ったりしてもよい。
また、第2の実施形態において、超解像処理部260は住所情報が存在する領域のみを高解像度化することとしたが、画像全体を高解像度化してもよい。この場合、認識部255は、文字領域検出部250によって検出された文字領域データに基づいて、全体を高解像度化された画像から住所情報が存在する領域の画像を抽出し、抽出した画像に対してOCR処理を行ってもよい。
(第3の実施形態)
上記第1の実施形態および第2の実施形態においては、宛名領域410に付与された住所情報を認識することとしたが、認識対象はこれに限られない。例えば、第3の実施形態において、認識部255は、道路を通行している車両のナンバープレートに対して認識処理を行う。認識部255は、第1の実施形態および第2の実施形態のいずれをナンバープレートの認識処理に適用してもよい。以下、第3の実施形態について詳細に説明する。
第3の実施形態において、ライトフィールドカメラ100は路側に設置されている。ライトフィールドカメラ100は、車両のナンバープレートを撮影することにより、ライトフィールドデータを取得する。点群データ生成部230は、異なるタイミングで撮影された複数のライトフィールドデータに基づき、ナンバープレートが存在する領域にフォーカスが合った視点の異なる複数の点群データを生成する。
点群データ位置合わせ部235は、点群データ生成部230により生成された複数の点群データに対して位置合わせを行う。鏡面反射領域検出部240は、ナンバープレートにおいて鏡面反射が生じている領域を検出する。検出用画像生成部245は、鏡面反射が抑制された画像を、車両のナンバーの検出に用いられる検出用画像として生成する。
文字領域検出部250は、検出用画像生成部245によって生成された検出用画像に基づき、ナンバープレートが存在する領域を検出する。認識部255は、検出された領域の画像に基づきナンバープレートに記載されているナンバー情報を認識する。
以上説明したように、第3の実施形態において、ライトフィールドカメラ100は、道路を通行している車両のナンバープレートのライトフィールドデータを取得する。画像処理装置200は、ナンバープレートのライトフィールドデータを用いて上述の認識処理を行うことにより、鏡面反射によるナンバープレートの誤検出を抑制するとともに、ナンバープレートに付与されたナンバー情報の認識率を向上させることができる。
(第4の実施形態)
第4の実施形態において、認識部255は、路側に設置されている道路標識に対して認識処理を行う。認識部255は、第1の実施形態および第2の実施形態のいずれを道路標識の認識処理に適用してもよい。以下、第4の実施形態について詳細に説明する。
第4の実施形態において、ライトフィールドカメラ100は車両に搭載されている。ライトフィールドカメラ100は、道路標識を撮影してライトフィールドデータを取得する。点群データ生成部230は、異なるタイミングで撮影された複数のライトフィールドデータに基づき、道路標識が存在する領域にフォーカスが合った視点の異なる複数の点群データを生成する。
点群データ位置合わせ部235は、点群データ生成部230により生成された複数の点群データに対して位置合わせを行う。鏡面反射領域検出部240は、道路標識において鏡面反射が生じている領域を検出する。検出用画像生成部245は、鏡面反射が抑制された画像を、道路標識の検出に用いられる検出用画像として生成する。
文字領域検出部250は、検出用画像生成部245によって生成された検出用画像に基づき、道路標識が存在する領域を検出する。認識部255は、検出された領域の画像に基づき道路標識に示される情報を認識する。
以上説明したように、第4の実施形態において、ライトフィールドカメラ100は、路側に設置されている道路標識のライトフィールドデータを取得する。画像処理装置200は、道路標識のライトフィールドデータを用いて上述の認識処理を行うことにより、鏡面反射による道路標識の誤検出を抑制するとともに、道路標識に付与された情報の認識率を向上させることができる。
(第5の実施形態)
第5の実施形態において、認識部255は、人間の顔に対して認識処理を行う。認識部255は、第1の実施形態および第2の実施形態のいずれを顔認識処理に適用してもよい。以下、第5の実施形態について詳細に説明する。
第5の実施形態において、ライトフィールドカメラ100は、人間を撮影してライトフィールドデータを取得する。点群データ生成部230は、異なるタイミングで撮影された複数のライトフィールドデータに基づき、顔が存在する領域にフォーカスが合った視点の異なる複数の点群データを生成する。
点群データ位置合わせ部235は、点群データ生成部230により生成された複数の点群データに対して位置合わせを行う。鏡面反射領域検出部240は、顔において鏡面反射が生じている領域(例えば、眼鏡によって鏡面反射が生じている領域)を検出する。検出用画像生成部245は、鏡面反射が抑制された画像を、顔の検出に用いられる検出用画像として生成する。
文字領域検出部250は、検出用画像生成部245によって生成された検出用画像に基づき、顔が存在する領域を検出する。認識部255は、検出された領域の画像に基づき顔を認識する。
以上説明したように、第5の実施形態において、ライトフィールドカメラ100は、人間の顔のライトフィールドデータを取得する。画像処理装置200は、顔のライトフィールドデータを用いて上述の認識処理を行うことにより、鏡面反射による顔の誤検出を抑制するとともに、顔の認識率を向上させることができる。
なお、第1の実施形態から第5の実施形態において、距離マップ生成部225がライトフィールドデータに基づいて距離マップを生成することとしたが、これに限られない。例えば、ライトフィールドカメラ100に取り付けられた距離センサが、ライトフィールドカメラ100から荷物400までの距離を測定し、測定した距離に基づいて距離マップを生成してもよい。
また、第1の実施形態から第5の実施形態において、ライトフィールドカメラ100の位置が固定され、対象物がライトフィールドカメラ100の撮影位置を通過することとしたが、これに限られない。例えば、対象物の位置が固定され、ライトフィールドカメラ100が移動して対象物を撮影してもよい。また、ライトフィールドカメラ100および対象物の両方が移動することにより、ライトフィールドカメラ100が対象物を撮影してもよい。
また、第1の実施形態から第5の実施形態において、画像処理装置200は文字領域検出部250および認識部255を備えることとしたが、これに限られない。例えば、文字領域検出部250および認識部255は、画像処理装置200と通信可能なOCR装置に設けられてもよい。
以上説明した少なくともひとつの実施形態によれば、鏡面反射領域検出部240は、文字または記号による住所情報が付与された荷物400を撮影することによって得られたライトフィールドデータに基づき、荷物400において鏡面反射が生じている領域を検出する。検出用画像生成部245は、鏡面反射領域検出部240によって検出された領域における鏡面反射が抑制された画像を、住所情報の検出に用いられる検出用画像として生成する。これによって、対象物に付与された対象情報の認識率を向上させることができる。
なお、上記実施形態による画像処理装置200は、内部にコンピュータシステムを有している。そして、上述した画像処理装置200の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…画像処理システム、100…ライトフィールドカメラ、105…照明、106…照明、200…画像処理装置、210…制御装置、215…メモリ管理情報、220…ライトフィールドデータメモリ、225…距離マップ生成部、230…点群データ生成部、235…点群データ位置合わせ部、240…鏡面反射領域検出部、245…検出用画像生成部、250…文字領域検出部、255…認識部、260…超解像処理部、300…区分装置、310…ベルトコンベア、400…荷物、500…ビデオコーディングシステム

Claims (13)

  1. 文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において鏡面反射が生じている領域を検出する鏡面反射領域検出部と、
    前記鏡面反射領域検出部によって検出された前記領域における前記鏡面反射が抑制された画像を、前記対象情報の検出に用いられる検出用画像として生成する検出用画像生成部と、
    を備える画像処理装置。
  2. 異なるタイミングで撮影された複数のライトフィールドデータ毎に、前記対象情報にフォーカスが合った点群データを生成する点群データ生成部と、
    前記点群データ生成部により生成された前記複数のライトフィールドデータ毎の前記点群データに対して位置合わせを行う点群データ位置合わせ部と、を更に備える、
    請求項1記載の画像処理装置。
  3. 前記鏡面反射領域検出部は、前記点群データ位置合わせ部によって位置合わせが行われた前記複数のライトフィールドデータ毎の前記点群データの近傍点における輝度値の差分に基づき、前記鏡面反射が生じている領域の候補を抽出する
    請求項2記載の画像処理装置。
  4. 前記鏡面反射領域検出部は、前記点群データにおける輝度値が飽和している領域を、前記鏡面反射が生じている領域の候補として抽出する
    請求項2記載の画像処理装置。
  5. 前記鏡面反射領域検出部は、前記対象物に光を照射する照明と、前記対象物を撮影するライトフィールドカメラとの位置関係に基づき、前記候補の中から前記鏡面反射が生じている領域を特定する
    請求項3または4記載の画像処理装置。
  6. 前記検出用画像生成部は、前記鏡面反射領域検出部によって検出された前記鏡面反射が生じている領域を除外して前記検出用画像を生成する
    請求項1記載の画像処理装置。
  7. 前記検出用画像生成部は、前記鏡面反射領域検出部によって検出された前記鏡面反射が生じている領域の輝度値に乗ずる重みを小さくして前記検出用画像を生成する
    請求項1記載の画像処理装置。
  8. 前記検出用画像生成部は、前記鏡面反射領域検出部の検出結果の確からしさに基づき、前記鏡面反射領域検出部によって検出された前記鏡面反射が生じている領域を除外して前記検出用画像を生成するか、前記鏡面反射領域検出部によって検出された前記鏡面反射が生じている領域の輝度値に乗ずる重みを小さくして前記検出用画像を生成するかを切り替える
    請求項1記載の画像処理装置。
  9. 前記検出用画像生成部によって生成された前記検出用画像から、前記対象情報が存在する領域を検出する対象情報検出部と、
    前記対象情報検出部によって検出された領域の画像に基づき、前記対象情報を認識する認識部と、を更に備える
    請求項1記載の画像処理装置。
  10. 前記検出用画像生成部によって生成された前記検出用画像から、前記対象情報が存在する領域を検出する対象情報検出部と、
    前記対象情報検出部によって検出された領域に対して、解像度を高めるための超解像処理を行う超解像処理部と、
    前記超解像処理部によって前記超解像処理が行われた領域の画像に基づき、前記対象情報を認識する認識部と、を更に備える
    請求項1記載の画像処理装置。
  11. 前記検出用画像生成部は、前記検出用画像における前記対象情報以外の領域を周囲の画素で埋める穴埋め処理を行う
    請求項1記載の画像処理装置。
  12. 文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において鏡面反射が生じている領域を検出する鏡面反射領域検出工程と、
    前記鏡面反射領域検出工程で検出された前記領域における前記鏡面反射が抑制された画像を、前記対象情報の検出に用いられる検出用画像として生成する検出用画像生成工程と、
    を備える画像処理方法。
  13. コンピュータを、
    文字または記号による対象情報が付与された対象物を撮影することによって得られたライトフィールドデータに基づき、前記対象物において鏡面反射が生じている領域を検出する鏡面反射領域検出部、
    前記鏡面反射領域検出部によって検出された前記領域における前記鏡面反射が抑制された画像を、前記対象情報の検出に用いられる検出用画像として生成する検出用画像生成部、
    として機能させるためのプログラム。
JP2016179951A 2016-09-14 2016-09-14 画像処理装置、画像処理方法、およびプログラム Pending JP2018045464A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016179951A JP2018045464A (ja) 2016-09-14 2016-09-14 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016179951A JP2018045464A (ja) 2016-09-14 2016-09-14 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2018045464A true JP2018045464A (ja) 2018-03-22

Family

ID=61694872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016179951A Pending JP2018045464A (ja) 2016-09-14 2016-09-14 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2018045464A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020050296A1 (ja) * 2018-09-06 2020-03-12 株式会社資生堂 画像解析装置、画像解析方法およびプログラム
JP2023502942A (ja) * 2019-11-26 2023-01-26 中国科学院上海微系統与信息技術研究所 複眼カメラ装置および複眼システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020050296A1 (ja) * 2018-09-06 2020-03-12 株式会社資生堂 画像解析装置、画像解析方法およびプログラム
JPWO2020050296A1 (ja) * 2018-09-06 2021-09-30 株式会社 資生堂 画像解析装置、画像解析方法およびプログラム
JP7289309B2 (ja) 2018-09-06 2023-06-09 株式会社 資生堂 画像解析装置、画像解析方法およびプログラム
US11816873B2 (en) 2018-09-06 2023-11-14 Shiseido Company, Ltd. Image analysis device, image analysis method, and program
JP2023502942A (ja) * 2019-11-26 2023-01-26 中国科学院上海微系統与信息技術研究所 複眼カメラ装置および複眼システム
JP7393542B2 (ja) 2019-11-26 2023-12-06 中国科学院上海微系統与信息技術研究所 複眼カメラ装置および複眼システム

Similar Documents

Publication Publication Date Title
CN109997170B (zh) 用于从视图中获得距离信息的设备和方法
CN109751973B (zh) 三维测量装置、三维测量方法以及存储介质
JP5870273B2 (ja) 物体検出装置、物体検出方法及びプログラム
US20170116461A1 (en) Image processing device and image processing method
CN110298281B (zh) 视频结构化方法、装置、电子设备及存储介质
WO2019082797A1 (ja) 再構成方法および再構成装置
JP2011013064A (ja) 位置検出装置
JP2018045691A (ja) 画像視点変換装置及び方法
JP7168077B2 (ja) 3次元計測システム及び3次元計測方法
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN117036641A (zh) 一种基于双目视觉的公路场景三维重建与缺陷检测方法
EP3944183A1 (en) Method and system for enhancing images using machine learning
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
JP2011096216A (ja) ステレオ画像処理を用いた車両検出装置
CN109708627A (zh) 一种动平台下空间动态点目标快速检测方法
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
JP2018045464A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6567384B2 (ja) 情報認識装置、情報認識方法、およびプログラム
JP2017216497A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
KR20200005818A (ko) 도로 지도 생성 시스템 및 도로 지도 생성 방법
JP2018137667A (ja) カメラキャリブレーション方法、プログラムおよび装置
EP3494545B1 (en) Methods and apparatus for codeword boundary detection for generating depth maps
KR101797028B1 (ko) Ir 및 sar 영상을 이용한 표적 탐지 장치 및 방법
JP6837880B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2013114381A (ja) 対象物識別装置および対象物識別方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170913

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170913