JP2011198130A - 画像処理装置及び画像処理プログラム - Google Patents

画像処理装置及び画像処理プログラム Download PDF

Info

Publication number
JP2011198130A
JP2011198130A JP2010065103A JP2010065103A JP2011198130A JP 2011198130 A JP2011198130 A JP 2011198130A JP 2010065103 A JP2010065103 A JP 2010065103A JP 2010065103 A JP2010065103 A JP 2010065103A JP 2011198130 A JP2011198130 A JP 2011198130A
Authority
JP
Japan
Prior art keywords
dimensional feature
image
feature
dimensional
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010065103A
Other languages
English (en)
Other versions
JP5521676B2 (ja
Inventor
Hiroaki Okamoto
浩明 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010065103A priority Critical patent/JP5521676B2/ja
Publication of JP2011198130A publication Critical patent/JP2011198130A/ja
Application granted granted Critical
Publication of JP5521676B2 publication Critical patent/JP5521676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像探索のロバスト性を向上させることを課題とする。
【解決手段】画像処理装置1は、同一の物体が異なる視点で画像内に収められた複数の画像を取得する画像取得部2を有する。さらに、画像処理装置1は、画像取得部2によって取得された画像のうち少なくとも1つの画像から得られる特徴点の周辺領域を局所特徴領域とし、当該局所特徴領域の画像から2次元特徴量を導出する2次元特徴量導出部3を有する。さらに、画像処理装置1は、画像取得部2によって取得された複数の画像から局所特徴領域における物体の視差に基づく3次元特徴量を導出する3次元特徴量導出部4を有する。さらに、画像処理装置1は、2次元特徴量導出部3によって導出された2次元特徴量および3次元特徴量導出部4によって導出された3次元特徴量を用いて、特徴点間のマッチングを行うマッチング処理部5を有する。
【選択図】図1

Description

本発明は、画像処理装置及び画像処理プログラムに関する。
画像マッチング(matching)技術として、1つの画像から抽出した特徴点の周辺領域を局所特徴領域として特徴量を求め、その特徴量の類似度を計算することにより、特徴点同士のマッチングを判定する手法が知られている。このように、複数の特徴点のマッチング結果を統合して画像間または画像領域間の類似度を求めることにより、画像から所望の物体を探索あるいは検出することができる。
特開平7−287762号公報 特開2006−195758号公報
しかしながら、上記の従来技術では、以下に説明するように、画像探索のロバスト性が低下するという問題がある。
すなわち、マッチングに使用される画像は2次元のものであっても実際に画像から探索する対象物は3次元の物体である。このため、対象物が画像に収まる向きや大きさ、照明の当たり方などが変われば局所的な画像も変化し、局所特徴領域から得られる特徴量も変化する。このような画像に対する対象物の収まり方の変化により、マッチングに特徴点の検出漏れや誤検出が生じるので、画像探索のロバスト性が低下してしまう。
開示の技術は、上記に鑑みてなされたものであって、画像探索のロバスト性を向上させることができる画像処理装置及び画像処理プログラムを提供することを目的とする。
本願の開示する画像処理装置は、同一の物体が異なる視点で画像内に収められた複数の画像を取得する画像取得部を有する。さらに、前記画像処理装置は、前記画像取得部によって取得された画像のうち少なくとも1つの画像から得られる特徴点の周辺領域を局所特徴領域とし、当該局所特徴領域の画像から2次元特徴量を導出する2次元特徴量導出部を有する。さらに、前記画像処理装置は、前記画像取得部によって取得された複数の画像から前記局所特徴領域における物体の視差に基づく3次元特徴量を導出する3次元特徴量導出部を有する。さらに、前記画像処理装置は、前記2次元特徴量導出部によって導出された2次元特徴量および前記3次元特徴量導出部によって導出された3次元特徴量を用いて、特徴点間のマッチングを行うマッチング処理部を有する。
本願の開示する画像処理装置の一つの態様によれば、画像探索のロバスト性を向上させることができるという効果を奏する。
図1は、実施例1に係る画像処理装置の構成を示すブロック図である。 図2は、実施例2に係る画像処理装置の構成を示すブロック図である。 図3は、探索対象とされる3次元物体の一例を示す図である。 図4Aは、2次元特徴量の一例を示す図である。 図4Bは、2次元特徴量の一例を示す図である。 図5は、部分領域間における視差の検出要領を示す図である。 図6Aは、3次元特徴量の一例を示す図である。 図6Bは、3次元特徴量の一例を示す図である。 図7Aは、2次元特徴量の一例を示す図である。 図7Bは、3次元特徴量の一例を示す図である。 図8は、実施例2に係る局所特徴量の事前登録処理の手順を示すフローチャートである。 図9は、実施例2に係る対象物探索処理の手順を示すフローチャートである。 図10は、実施例2に係る効果を説明するための図である。 図11Aは、色ヒストグラムの一例を示す図である。 図11Bは、色ヒストグラムの一例を示す図である。 図11Cは、相対視差のヒストグラムの一例を示す図である。 図11Dは、相対視差のヒストグラムの一例を示す図である。 図12は、色別の相対視差を導出する導出要領を説明するための図である。 図13Aは、エッジ方位が垂直方向である場合における視差の現れ方を示す図である。 図13Bは、エッジ方位が水平方向である場合における視差の現れ方を示す図である。 図14は、エッジ方位の検出例を示す図である。 図15Aは、2次元特徴量の一例を示す図である。 図15Bは、3次元特徴量の一例を示す図である。 図16は、実施例3に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。
以下に、本願の開示する画像処理装置及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
図1は、実施例1に係る画像処理装置の構成を示すブロック図である。図1に示す画像処理装置1は、画像取得部2と、2次元特徴量導出部3と、3次元特徴量導出部4と、マッチング処理部5とを有する。
このうち、画像取得部2は、同一の物体が異なる視点で画像内に収められた複数の画像を取得する。また、2次元特徴量導出部3は、画像取得部2によって取得された画像のうち少なくとも1つの画像から得られる特徴点の周辺領域を局所特徴領域とし、当該局所特徴領域の画像から2次元特徴量を導出する。また、3次元特徴量導出部4は、画像取得部2によって取得された複数の画像から局所特徴領域における物体の視差に基づく3次元特徴量を導出する。
マッチング処理部5は、2次元特徴量導出部3によって導出された2次元特徴量および3次元特徴量導出部4によって導出された3次元特徴量を用いて、特徴点間のマッチングを行う。
このように、本実施例に係る画像処理装置1は、1つの画像から得られる2次元特徴量だけでなく、複数の画像間の視差から対象物の局所的な凹凸の特徴を3次元特徴量として導出した上でマッチングを行う。かかる3次元特徴量は、対象物が画像に収まる向きや大きさ、照明の当たり方などが変化しても平面的な特徴だけを表現する2次元特徴量に比較してその変化は少ない。それゆえ、本実施例に係る画像処理装置1では、画像に対する対象物の収まり方が変化しても、2次元特徴量を用いただけでは誤った特徴点同士がマッチング結果とされる誤対応を3次元特徴量の使用により防止できる。したがって、本実施例に係る画像処理装置1によれば、画像探索のロバスト性を向上させることが可能になる。
一例として、本実施例に係る画像処理装置1は、画像処理装置1に予め登録された画像を用いて、画像取得部2によって取得された複数の画像の中から探索対象とする3次元物体を探索することができる。かかる画像探索の他にも、画像検出や画像認証などのようにマッチング処理を行う画像処理全般に好適に適用できる。
続いて、実施例2に係る画像処理装置について説明する。図2は、実施例2に係る画像処理装置の構成を示すブロック図である。図2に示すように、画像処理装置10は、表示部11と、カメラ12Lと、カメラ12Rと、記憶部13と、制御部14とを有する。
表示部11は、モニタ、ディスプレイやタッチパネルなどの表示デバイスである。一例としては、表示部11は、予め登録されていた3次元物体の画像がカメラ12L及びカメラ12Rによって撮像された画像中から検出されたか否かの検出結果などを表示する。
カメラ12L及びカメラ12Rは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像デバイスである。一例としては、所定の被写体に正対して左側にカメラ12Lが設けられるとともに右側にカメラ12Rが設けられる。これらカメラ12L及びカメラ12Rは、被写体とする物体に対して視差が生じる程度に互いの位置が隔てて配設されるものとする。
なお、ここでは、カメラ12Lから入力される画像を「入力画像L」と呼び、カメラ12Rから入力される画像を「入力画像R」と呼び、また、カメラ12L及びカメラ12Rによって撮像された2つの画像を総称する場合に「ステレオ画像」と呼ぶこととする。また、カメラ12L及びカメラ12Rの両者を区別せずに総称する場合にはカメラ12と表記する。
記憶部13は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部13は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。
記憶部13は、制御部14で実行される各種プログラム、例えばOS(Operating System)などの基本ソフトや画像処理の動作が規定されたプログラムを記憶する。さらに、記憶部13は、先に述べたプログラムの実行に必要なデータ、例えばマッチングに使用する閾値などを記憶する。このほか、記憶部13は、局所特徴量データ13aを併せて記憶する。
局所特徴量データ13aは、カメラ12L及びカメラ12Rから入力されるステレオ画像から所望の物体を対象物として探索するために事前登録される局所特徴量を含むデータである。
かかる局所特徴量データ13aの一例としては、入力画像Lまたは入力画像Rから導出された2次元特徴量と、ステレオ画像間の視差から導出された3次元特徴量とが局所特徴量として後述の局所特徴量登録部18により登録される。なお、ここでは、後述の2次元特徴量導出部16及び後述の3次元特徴量導出部17により導出された2次元特徴量及び3次元特徴量が局所特徴量データ13aとして登録される場合を想定するが、外部装置から取得した局所特徴量を登録してもかまわない。また、ここでは、2次元特徴量及び3次元特徴量を局所特徴量として登録することとしたが、ステレオ画像そのものを登録することとしてもよい。
また、局所特徴量データ13aの一例としては、局所特徴領域ごとにその局所特徴領域から分割された複数の部分領域のうち後述の3次元特徴量導出部17により3次元特徴量の導出対象または導出除外対象とされた部分領域が登録される。ここで言う局所特徴領域とは、後述の特徴点抽出部15により入力画像Lまたは入力画像Rから抽出された特徴点を基点として規定される特徴点の周辺領域を指す。なお、局所特徴領域ごとに異なる分割がなされる場合には、局所特徴領域の分割態様も併せて登録される。
このように、本実施例に係る画像処理装置10では、局所特徴量データ13aを事前登録する段階で3次元特徴量の導出対象または導出除外対象とされた部分領域を保持しておく。これによって、カメラ12により入力された探索用のステレオ画像から3次元特徴量を導出する段階で後述の3次元特徴量導出部17に導出対象または導出除外対象を改めて特定させる処理手順を不要化させることができる。なお、探索用のステレオ画像とは、事前登録された局所特徴量データを用いて探索対象とする3次元物体を探索するステレオ画像である。
制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路、または、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。
制御部14は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部14は、図2に示すように、特徴点抽出部15と、2次元特徴量導出部16と、3次元特徴量導出部17と、局所特徴量登録部18と、マッチング処理部19とを有する。
このうち、特徴点抽出部15は、カメラ12から入力されるステレオ画像のうち一方の入力画像Lまたは入力画像Rから特徴点を抽出する処理部である。なお、ここでは、入力画像Lから特徴点を抽出する場合を想定して以下の説明を行うが、入力画像Rから特徴点を抽出することとしてもかまわない。
一例としては、特徴点抽出部15は、コーナー検出フィルタなどを使用することにより、入力画像Lから探索対象とする3次元物体の画像を特徴付ける特徴点群を検出する。このとき、特徴点抽出部15は、入力画像Lに探索対象物以外の物が映っている場合に、探索対象物に属する特徴点のみが切り分けられるように前処理を行う。かかる前処理の一例としては、特徴点抽出部15は、画像処理装置10の管理者から入力デバイスを介して探索対象物の画像が存在する範囲を指定する操作や探索対象物の画像を切り出す操作を受け付けたりする。なお、ここでは、コーナー検出フィルタを使用する場合を例示したが、これ以外にも公知の技術を用いて特徴点を抽出することができる。
また、特徴点抽出部15は、先に抽出した特徴点に局所特徴領域を設定する。かかる局所特徴領域には、特徴点を基点として固定のサイズを規定してもよく、また、所定の基準により可変サイズを規定してもかまわない。一例としては、特徴点周辺の空間周波数が高いほど局所特徴領域のサイズを小さくし、また、特徴点周辺の空間周波数が低いほど局所特徴領域のサイズを大きく設定する。これによって、特徴点のマッチングの難易度に応じて局所特徴領域のサイズを規定できる。
2次元特徴量導出部16は、局所特徴領域の2次元特徴量を導出する処理部である。これを説明すると、2次元特徴量導出部16は、局所特徴領域を所定数の部分領域に分割した上で各部分領域ごとに探索対象物の画像を特徴付ける指標を算出して並べることにより得られる特徴ベクトル(vector)を2次元特徴量として導出する。かかる部分領域ごとの特徴量の一例としては、平均輝度、輝度分散、あるいは色ヒストグラムや勾配ヒストグラムなどが挙げられる。なお、2次元特徴量には、照明や向きや大きさなどに対して可及的に不変な指標を使用するのが好ましい。
この2次元特徴量の導出要領について説明する。図3は、探索対象とされる3次元物体の一例を示す図である。図3に示す符号30は、探索対象物である3次元物体を示す。図3に示す符号30Aは、3次元物体30において手前に向かって出っ張った凸部分を示す。図3に示す符号30Bは、3次元物体30において奥に向かって凹んでいる凹部分を指す。図3に示す符号31A及び符号31Bは、カメラ12Lにより3次元物体30が撮像された場合に特徴点抽出部15により特徴点から規定される局所特徴領域を示す。なお、図3に示す例では、特徴点抽出部15により局所特徴領域の形状として円形が規定される場合を示す。
図3に示す3次元物体30がカメラ12Lにより撮像されると、入力画像Lには、低輝度の四角形が2つ映ることになる。このとき、入力画像Lに対するコーナー検出処理を通じて2つの四角形の4隅のコーナーが特徴点群として特徴点抽出部15により抽出されるとともに図中丸印の領域が特徴点抽出部15により局所特徴領域として設定される。
図4A及び図4Bは、2次元特徴量の一例を示す図である。これら図4A及び図4Bの例では、2次元特徴量導出部16が局所特徴領域を4つの部分領域に分割して部分領域別の平均輝度を導出する場合を想定している。なお、ここでは、局所特徴領域31A及び局所特徴領域31Bの右上の部分領域を(1)、左上の部分領域を(2)、左下の部分領域を(3)、右下の部分領域を(4)と表記して以下の説明を行う。
ここで、3次元物体30の白部分の輝度値が255、網掛け部分の輝度値が0であるとしたとき、局所特徴領域31Aおよび局所特徴領域31Bの部分領域(1)、(2)及び(4)は白部分のみで形成される。このため、部分領域(1)、(2)及び(4)の平均輝度は2次元特徴量導出部16により「255」と算出される。一方、局所特徴領域31Aおよび局所特徴領域31Bの部分領域(3)は網掛け部分のみで形成される。このため、部分領域(3)の平均輝度は2次元特徴量導出部16により「0」と算出される。このため、局所特徴領域31Aの特徴ベクトル32Aおよび局所特徴領域31Bの特徴ベクトル32Bはいずれも(255,255,0,255)と導出される。なお、ここでは、2次元特徴量として平均輝度を導出する場合を説明したが、公知の技術を用いて輝度分散、色ヒストグラムや勾配ヒストグラムなども導出できる。
このようにして2次元特徴量導出部16により算出された局所特徴領域における部分領域別の2次元特徴量が後述の局所特徴量登録部18により局所特徴量データ13aとして記憶部13へ登録される。なお、ここでは、局所特徴量を事前登録する段階で2次元特徴量を導出する場合を説明したが、局所特徴量データ13aを用いて対象物を探索する段階でも同様にして2次元特徴量が導出される。
図2の説明に戻り、3次元特徴量導出部17は、ステレオ画像間で対応する局所特徴領域の3次元特徴量を導出する処理部であり、対応点検出部17aと、視差検出部17bとをさらに有する。
対応点検出部17aは、入力画像Lの特徴点に対応する入力画像Rにおける特徴点位置を対応点として検出する処理部である。かかる対応点の検出には、テンプレートマッチングなどの公知の技術を任意に選択して適用できる。
視差検出部17bは、ステレオ画像間で対応する特徴点を対象にその局所特徴領域に含まれる部分領域間の視差を検出する処理部である。図5は、部分領域間における視差の検出要領を示す図である。図5に示す符号40Lは、カメラ12Lから入力された入力画像である。図5に示す符号40Rは、カメラ12Rから入力された入力画像である。図5に示す符号41Lは、入力画像Lに映る3次元物体の凸部分を示す。図5に示す符号41Rは、入力画像Rに映る3次元物体の凸部分を示す。図5に示す符号42Lは、凸部分41Lの右上コーナーの部分領域を示す。図5に示す符号42Rは、凸部分41Rの右上コーナーの部分領域を示す。図5に示す符号Pは、部分領域42L及び部分領域42Rの相対視差を示す。
図5に示す例で言えば、視差検出部17bは、一方の入力画像Lの部分領域42Lをテンプレートとして他方の入力画像Rの局所特徴領域の近傍をテンプレートマッチングすることにより入力画像Rの部分領域42Rを探索する。このとき、視差検出部17bは、先のテンプレートマッチングにより得たマッチング結果のうち最も類似度が高いものを入力画像Lの部分領域42Lに対応する部分領域とみなす。そして、視差検出部17bは、部分領域Lと部分領域Rとの間における左右のズレ量を視差Pとして算出する。
このように、部分領域Lと部分領域Rとの視差は、必ずしも実寸の距離である必要はなく、上述のように画像間のズレという相対的な距離を用いることができる。さらに、部分領域Lと部分領域Rとの視差は、局所的に求めているだけであるため、3次元形状の正確なモデリングとマッチングのような複雑な処理が不要とできる。
かかる視差検出部17bによる視差の検出後に、3次元特徴量導出部17は、視差検出部17bによって検出された部分領域間の視差を正規化することにより相対視差を導出する。ここで言う「相対視差」とは、一例として、部分領域間の視差からステレオ画像の全部分領域間の視差の平均値または全部分領域間で最も頻度の高い視差を差し引く演算を行うことにより正規化された視差を指す。このようにして3次元特徴量導出部17により算出された局所特徴領域における部分領域別の相対視差が3次元特徴量とされ、3次元特徴量が後述の局所特徴量登録部18により局所特徴量データ13aとして記憶部13へ登録される。なお、ここでは、局所特徴量を事前登録する段階で3次元特徴量を導出する場合を説明したが、局所特徴量データ13aを用いて対象物を探索する段階でも同様にして3次元特徴量が導出される。
図6A及び図6Bは、3次元特徴量の一例を示す図である。これら図6A及び図6Bの例では、図3に示した探索対象の3次元物体から導出された相対視差を示す。なお、ステレオ画像の部分領域間で視差が無い場合における相対視差の値はゼロとみなす。また、入力画像Lの部分領域が入力画像Rの部分領域よりも右にズレる場合、すなわち3次元物体30の局所的な形状が凸形状である場合における相対視差の値を正と規定する。また、入力画像Lの部分領域が入力画像Rの部分領域よりも左にズレる場合、すなわち3次元物体30の局所的な形状が凹形状である場合に相対視差の値を負と規定する。
ここで、図4Aに示した局所特徴領域31Aの2次元特徴量32Aおよび図4Bに示した局所特徴領域31Bの2次元特徴量32Bは、2次元特徴量導出部16の説明で述べたように、いずれも(255,255,0,255)と導出されている。一方、局所特徴領域31Aの部分領域(3)は凸部分30Aに含まれるので、図6Aに示すように、局所特徴領域31Aの3次元特徴量33Aは(0,0,10,0)と算出される。さらに、局所特徴領域31Bの部分領域(3)は凹部分30Bに含まれるので、図6Bに示すように、局所特徴領域31Bの3次元特徴量33Bは(0,0,−10,0)と算出される。
このように、2次元特徴量だけでは殆ど違いが現れないような場合でも、3次元特徴量では明確な差異が現れることになる。それゆえ、2次元特徴量及び3次元特徴量を用いて特徴点のマッチングを行う場合には、図3に示した凸部分30Aにおける右上コーナーの特徴点と、凹部分30Bにおける右上コーナーの特徴点とが対応すると判定されることを防止できる。
また、3次元特徴量導出部17は、局所特徴領域に含まれる全ての部分領域の3次元特徴量を画一的に導出することはしない。なぜなら、3次元特徴量を画一的に導出したのでは、3次元特徴量の計算コストが増大するからである。
このため、3次元特徴量導出部17は、2次元特徴量導出部16によって導出された局所特徴領域の2次元特徴量を用いて、複数の部分領域のうち3次元特徴量の導出対象とする部分領域を限定した上で3次元特徴量を導出する。
一例としては、3次元特徴量導出部17は、2次元特徴量導出部16によって部分領域ごとに導出された輝度分散が所定の除外閾値よりも小さい部分領域を3次元特徴量の導出対象から除外する。すなわち、輝度分散が極端に小さいケースでは、その部分領域内の輝度の変化が殆ど無い、すなわちマッチングに利用できる模様が殆ど無いことを意味する。このような部分領域の視差を検出したとしても信頼できる正しい値が得られる可能性は低い。それゆえ、輝度分散が極端に小さい部分領域は、3次元特徴量の導出対象から除外することにより3次元特徴量の演算量を削減する。なお、部分領域の輝度分散自体は、2次元特徴量としては類似度算出において十分に有用な情報であり、2次元特徴量として輝度分散を保持することを妨げるものではない。
図7Aは、2次元特徴量の一例を示す図である。また、図7Bは、3次元特徴量の一例を示す図である。図7A及び図7Bに示す符号50は、局所特徴領域を示す。図7Aに示す符号51は、局所特徴領域50における部分領域別の輝度分散を示している。また、図7Bに示す符号52は、局所特徴領域50における部分領域別の相対視差を示している。なお、ここでは、輝度分散と比較する除外閾値が5であるものとして以下の説明を行う。
図7Aに示すように、3次元特徴量導出部17は、局所特徴領域50における部分領域(1)〜(4)の輝度分散が除外閾値「5」以上であるか否を判定する。このとき、部分領域(1)〜(3)の輝度分散は、除外閾値「5」以上であり、マッチングに利用できる模様が存在することが判明する。一方、部分領域(4)の輝度分散は、除外閾値「5」未満であり、マッチングに利用できる模様に乏しいことが判明する。この場合には、3次元特徴量導出部17は、3次元特徴量の導出対象から部分領域(4)を除外する。その上で、3次元特徴量導出部17は、ステレオ画像の部分領域間で部分領域(1)〜(3)の相対視差を算出する。
このようにして、局所特徴領域50における相対視差として(0,0,10,×)が得られる。このとき、3次元特徴量の導出対象から除外した部分領域または導出対象とした部分領域は、後述の局所特徴量登録部18により局所特徴量データ13aとして記憶部14へ登録される。これにより、カメラ12から入力された探索用のステレオ画像から3次元特徴量を導出する段階で部分領域の輝度分散と除外閾値との比較を改めて行うことを不要化できる。
図2の説明に戻り、局所特徴量登録部18は、ステレオ画像から導出された2次元特徴量及び3次元特徴量を含む局所特徴量を局所特徴量データ13aとして記憶部13へ事前登録する処理部である。なお、局所特徴量データ13aの事前登録は、図示しない入力デバイスを介して局所特徴量の事前登録操作を受け付けた場合に実行される。
マッチング処理部19は、記憶部13に局所特徴量データ13aとして事前登録された特徴点の局所特徴量と、探索用のステレオ画像から導出された局所特徴量とのマッチングを行う処理部である。
これを説明すると、マッチング処理部19は、局所特徴量データ13aとして事前登録された特徴点群の中から1つ特徴点を選択する。そして、マッチング処理部19は、特徴点群の中から選択した特徴点の局所特徴量と、探索用のステレオ画像の入力に応答して導出した特徴点の局所特徴量との類似度を算出する。これらの2次元特徴量および3次元特徴量を合わせた局所特徴量について、類似度としてベクトル間の相関係数を用いることとした場合には、類似度が最大の場合に相関係数が1を取る。なお、類似度の算出においては、2次元特徴量および3次元特徴量の類似度を個別に求めた後で両者を合算することとしてもよい。
このような処理を探索側の全ての特徴点に対して繰り返す。そして、探索側の全ての特徴点との間で類似度を算出した後に、マッチング処理部19は、類似度が所定の閾値以上である特徴点が存在するか否かを判定する。
このとき、類似度が所定の閾値以上である特徴点が存在する場合には、マッチング処理部19は、探索用のステレオ画像の特徴点群のうち、類似度が最大である特徴点同士が対応すると判定する。一方、類似度が所定の閾値以上である特徴点が1つも存在しない場合には、マッチング処理部19は、事前登録された特徴点群から選択した特徴点に対応するものが探索用のステレオ画像中に存在しないものと判定する。なお、ここでは、探索側の全ての特徴点との間で類似度を算出する場合を説明したが、閾値以上の特徴点を見つけた時点でマッチング処理を打ち切ることとしてもよい。この場合には、マッチング処理を打ち切らない場合よりも閾値を高く設定するのが好ましい。
その後、マッチング処理部19は、事前登録された特徴点群の中から別の特徴点を1つ選択し、上記と同様に、探索用のステレオ画像の中に今回選択した特徴点に対応する特徴点があるか否かを探索し続ける。なお、探索用のステレオ画像の特徴点は、一度選択した時に導出された局所特徴量を図示しない作業記憶領域に保存しておけば、二回目以降に選択した場合における2次元特徴量及び3次元特徴量の導出処理を省略することもできる。
また、マッチング処理部19は、事前登録された全ての特徴点群の局所特徴量を対象にマッチング結果が得られるまで上記のマッチング処理を繰り返し行う。その後、マッチング処理部19は、探索対象物として事前登録していた3次元物体が探索用のステレオ画像中に存在するか否かを判定する。この探索対象物の有無は、マッチング結果として特徴点同士が対応すると判定された特徴点のペアの数が所定の閾値を超えた場合に、探索対象として事前登録していた3次元物体が画像中に存在すると判定する。なお、マッチした特徴点についてその位置関係を判定の条件に加えることも可能である。
なお、図2に示す2次元特徴量導出部16、3次元特徴量導出部17及びマッチング処理部19は、図1に示した2次元特徴量導出部3、3次元特徴量導出部4及びマッチング処理部5にそれぞれ対応する。また、図2に示すカメラ12L及びカメラ12Rは、図1に示した画像取得部2に対応する。先の図1に示した画像取得部2は、図2に示すカメラ12L及びカメラ12Rにも対応するが、ステレオ画像を取得するための機能部の一態様に過ぎない。他の一例としては、所定のインタフェースまたはネットワークを介して接続された外部装置からステレオ画像を取得する機能部に置き換えることとしてもよい。
[処理の流れ]
次に、本実施例に係る画像処理装置の処理の流れについて説明する。なお、ここでは、画像処理装置10によって実行される(1)局所特徴量の事前登録処理を説明してから、(2)対象物探索処理を説明することとする。
(1)局所特徴量の事前登録処理
図8は、実施例2に係る局所特徴量の事前登録処理の手順を示すフローチャートである。この処理は、図示しない入力デバイスを介して局所特徴量の事前登録操作を受け付けた場合に起動する。
図8に示すように、カメラ12からステレオ画像を受け付けると(ステップS101)、特徴点抽出部15は、カメラ12から入力されるステレオ画像のうち入力画像Lから特徴点群を抽出する(ステップS102)。
その後、対応点検出部17aは、ステップS102で抽出した特徴点群の中から特徴点を1つ選択する(ステップS103)。続いて、2次元特徴量導出部16は、局所特徴領域の2次元特徴量を導出する(ステップS104)。
そして、対応点検出部17aは、入力画像Lの特徴点に対応する入力画像Rにおける特徴点位置を対応点として検出する(ステップS105)。続いて、視差検出部17bは、ステレオ画像間で対応する特徴点を対象にその局所特徴領域に含まれる部分領域間の視差を検出する(ステップS106)。そして、3次元特徴量導出部17は、視差検出部17bによって検出された部分領域間の視差を正規化することにより3次元特徴量を導出する(ステップS107)。
その後、入力画像Lの特徴点群に対して2次元特徴量及び3次元特徴量の導出を実行するまで(ステップS108否定)、上記のステップS103〜ステップS107までの処理を繰り返し行う。
そして、入力画像Lの特徴点群に対して2次元特徴量及び3次元特徴量の導出を実行すると(ステップS108肯定)、局所特徴量登録部18は、次のような処理を行う。すなわち、局所特徴量登録部18は、ステレオ画像から導出された2次元特徴量及び3次元特徴量を含む局所特徴量を局所特徴量データ13aとして記憶部13へ登録し(ステップS109)、処理を終了する。
(2)対象物探索処理
図9は、実施例2に係る対象物探索処理の手順を示すフローチャートである。この処理は、図示しない入力デバイスを介して局所特徴量の事前登録操作を受け付けるとなく、カメラ12からステレオ画像が入力された場合に、ステレオ画像が探索用であるものと判断して起動する。
図9に示すように、カメラ12から探索用のステレオ画像を受け付けると(ステップS301)、特徴点抽出部15は、探索用のステレオ画像のうち入力画像Lから特徴点群を抽出する(ステップS302)。
そして、マッチング処理部19は、局所特徴量データ13aとして事前登録された特徴点群の中から1つ特徴点を選択する(ステップS303)。その後、対応点検出部17aは、ステップS302で抽出した探索用のステレオ画像の特徴点群の中から特徴点を1つ選択する(ステップS304)。続いて、2次元特徴量導出部16は、局所特徴領域の2次元特徴量を導出する(ステップS305)。
その後、対応点検出部17aは、入力画像Lの特徴点に対応する入力画像Rにおける特徴点位置を対応点として検出する(ステップS306)。続いて、視差検出部17bは、ステレオ画像間で対応する特徴点を対象にその局所特徴領域に含まれる部分領域間の視差を検出する(ステップS307)。そして、3次元特徴量導出部17は、視差検出部17bによって検出された部分領域間の視差を正規化することにより3次元特徴量を導出する(ステップS308)。
ここで、マッチング処理部19は、事前登録された特徴点の局所特徴量と、探索用のステレオ画像の特徴点の局所特徴量との類似度を算出する(ステップS309)。そして、探索側の全ての特徴点との間で類似度を算出するまで(ステップS310否定)、上記のステップS304〜ステップS309までの処理を繰り返し行う。
その後、探索側の全ての特徴点との間で類似度を算出すると(ステップS310肯定)、マッチング処理部19は、類似度が所定の閾値以上である特徴点が存在するか否かを判定する(ステップS311)。
このとき、類似度が所定の閾値以上である特徴点が存在する場合(ステップS311肯定)には、マッチング処理部19は、探索用のステレオ画像の特徴点群のうち、類似度が最大である特徴点同士が対応すると判定する(ステップS312)。一方、類似度が所定の閾値以上である特徴点が存在しない場合(ステップS311否定)には、マッチング処理部19は、事前登録された特徴点群から選択した特徴点に対応するものが探索用のステレオ画像中に存在しないものと判定する(ステップS313)。
その後、事前登録された全ての特徴点群の局所特徴量を対象にマッチング結果が得られるまで(ステップS314否定)、上記のステップS303〜ステップS313までの処理を繰り返し行う。
そして、事前登録された全ての特徴点群の局所特徴量を対象にマッチング結果が得られると(ステップS314肯定)、マッチング処理部19は、次のような処理を行う。すなわち、マッチング処理部19は、探索対象物として事前登録していた3次元物体が探索用のステレオ画像中に存在するか否かを判定し(ステップS315)、処理を終了する。なお、探索対象とする3次元物体が複数ある場合には、上記のフローチャートの処理を再度実行する。
[実施例2の効果]
上述してきたように、本実施例に係る画像処理装置10は、1つの画像から得られる2次元特徴量だけでなく、ステレオ画像間の視差から対象物の局所的な凹凸の特徴を3次元特徴量として導出した上でマッチングを行う。かかる3次元特徴量は、対象物が画像に収まる向きや大きさ、照明の当たり方などが変化しても平面的な特徴だけを表現する2次元特徴量に比較してその変化は少ない。
それゆえ、本実施例に係る画像処理装置10では、画像に対する対象物の収まり方が変化しても、2次元特徴量を用いただけでは誤った特徴点同士がマッチング結果とされる誤対応を3次元特徴量の使用により防止できる。したがって、本実施例に係る画像処理装置10によれば、画像探索のロバスト性を向上させることが可能になる。一例として、本実施例に係る画像処理装置10は、3次元特徴量を用いて特徴点間のマッチングを行うので、探索用のステレオ画像中の対象物が実際の物体なのか印刷された絵なのかを明確に区別する場合に有用である。
図10は、実施例2に係る効果を説明するための図である。図10に示す符号60は、探索対象物である3次元物体を示す。図10に示す符号60Aは、3次元物体30において手前に向かって出っ張った白塗り凸部分を示す。図10に示す符号60Bは、3次元物体30において手前に向かって出っ張った網掛け凸部分を示す。図10に示す符号60Cは、3次元物体30上において凹凸なしの平坦網掛け部分を指す。図10に示す符号61A、符号61B及び符号61Cは、カメラ12Lにより3次元物体30が撮像された場合に特徴点抽出部15により特徴点から規定される局所特徴領域を示す。なお、図10に示す例では、特徴点抽出部15により局所特徴領域の形状として円形が規定される場合を示す。
図10に示す3次元物体60がカメラ12Lにより撮像されると、入力画像Lには、凸部分を有する四角形が2つ映るとともに低輝度の四角形が2つ映ることになる。このとき、入力画像Lに対するコーナー検出処理を通じて3つの四角形の4隅のコーナーが特徴点群として特徴点抽出部15により抽出されるとともに図中丸印の領域が特徴点抽出部15により局所特徴領域として設定される。
ここで、2次元特徴量だけを用いて局所特徴量のマッチングを行った場合には、局所特徴領域61Bと局所特徴量61Cとの間でマッチングの誤対応が生じるおそれがある。さらに、3次元特徴量だけを用いて局所特徴量のマッチングを行った場合にも、局所特徴領域61Aと局所特徴量61Bとの間でマッチングの誤対応が生じるおそれがある。しかしながら、本実施例に係る画像処理装置10のように、2次元特徴量及び3次元特徴量を用いて局所特徴量のマッチングを行った場合には、局所特徴量61A、局所特徴領域61B及び局所特徴量61Cの間でマッチングの誤対応が生じるおそれはない。
このため、2次元特徴量と3次元特徴量を組み合わせた局所特徴量によって、類似度演算に基づく識別能力を向上させ、誤検出を減少させることが可能となる。また、局所的な凹凸は照明や向きやサイズ変化によって変化し難いため、ロバストなマッチングが実現できる。
また、本実施例に係る画像処理装置10は、局所特徴領域の2次元特徴量を用いて、局所特徴領域から分割される複数の部分領域のうち3次元特徴量の導出対象とする部分領域を限定した上で3次元特徴量を導出する。このため、本実施例に係る画像処理装置10によれば、3次元特徴量の演算量を削減することが可能になる。
さらに、本実施例に係る画像処理装置10は、複数の画像間で対応する局所特徴領域の画像を比較することにより物体に対する視点の相違から得られる相対視差を3次元特徴量として導出する。それゆえ、本実施例に係る画像処理装置10によれば、部分領域の絶対的な距離を実測せずとも視差演算により3次元特徴量を導出することが可能になる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
(1)色ごとの相対視差
上記の実施例2に係る画像処理装置10では、局所特徴領域の画像に含まれる色ごとに3次元特徴量を導出することもできる。一例として、2次元特徴量として色ヒストグラムを用いるとともに3次元特徴量として色ごとの相対視差を用いる場合を想定する。色ヒストグラムは色相ごとの度数(画素数)を数えて特徴量としたものである。ある局所特徴領域が複数の色の領域に分割される場合には、色に応じた奥行きの違いを局所的な特徴として利用できる。
図11A及び図11Bは、色ヒストグラムの一例を示す図である。図11C及び図11Dは、相対視差のヒストグラムの一例を示す図である。図11A及び図11Bのグラフにおける縦軸は画素の度数であり、また、横軸は色相である。図11C及び図11Dのグラフに示す縦軸は相対視差であり、また、横軸は色相である。
このように、図11A及び図11Bに示す2次元特徴量だけでは殆ど違いが現れないような場合でも、図11C及び図11Dに示す3次元特徴量では明確な差異が現れることになる。例えば、人の顔全体を局所特徴領域と見た場合には、顔の肌色に比べて唇の赤色が手前側となり、目などの黒色が奥側に位置するといった色と相対視差の関係、すなわち手前から順に赤色、肌色、黒色という関係を不変な3次元的特徴として捉えられる。
図12は、相対視差のヒストグラムの一例を示す図である。図12に示す左側のグラフは、赤色における視差のヒストグラムである。この左側のグラフは、縦軸が度数を示し、横軸が視差を示す。図12に示す右側のグラフは、図11Cに示した色別の相対視差のヒストグラムと同じものであり、一番左の赤色のヒストグラム以外は点線で表記している。ここで、赤色の相対視差を導出する場合には、図12の左側の赤色における視差のヒストグラムのうち最大度数の相対視差を代表値として採用する。この赤色の代表値から赤色の(1)〜(6)の視差の度数の平均を差し引くことにより正規化したものが一番左の赤色の相対視差となる。このようにして他の色についても色別に相対視差を導出できる。なお、相対視差を導出する際には、色ヒストグラムにおいて度数が所定の閾値よりも少ない色についてはノイズの可能性もあることから、相対視差を導出しないようにしてもよい。
このように、局所特徴領域の画像に含まれる色ごとに3次元特徴量を導出することで、特徴点間でより繊細なマッチングを実現でき、マッチング処理の精度を向上させることができる。
(2)エッジ方位に基づく導出対象の限定
上記の実施例2に係る画像処理装置10は、局所特徴領域の2次元特徴量として、局所特徴領域の画像から検出されるエッジの方位または輝度の勾配を部分領域ごとに導出する。その上で、画像処理装置10は、部分領域ごとに導出したエッジの方位または輝度の勾配が所定の除外条件を満たす部分領域を3次元特徴量の導出対象から除外した上で3次元特徴量を導出するようにしてもよい。
図13Aは、エッジ方位が垂直方向である場合における視差の現れ方を示す図である。また、図13Aに示す符号70は、垂線を示す。図13Aに示す符号71は、視差ゼロの距離を示す。図13Aに示す符号70Lは、カメラ画像Lに映る垂線の画像を示す。図13Aに示す符号70Rは、カメラ画像Rに映る垂線の画像を示す。図13Bに示す符号71は、視差ゼロの距離における垂線を示す。図13Bは、エッジ方位が水平方向である場合における視差の現れ方を示す図である。図13Bに示す符号80は、水平直線を示す。図13Bに示す符号80Lは、カメラ画像Lに映る水平直線の画像を示す。図13Bに示す符号80Rは、カメラ画像Rに映る水平直線の画像を示す。
図13Aに示す例では、カメラ画像Lに映る垂線の画像70L及びカメラ画像Rに映る垂線の画像70Rの視差は、視差ゼロの距離における垂線71をはさんで線対称に顕在化することがわかる。一方、図13Bに示す例では、カメラ画像Lに映る水平直線の画像80及びカメラ画像Rに映る水平直線の画像80Rの間では、左右にカメラを配設した場合には視差が生じない。このように、エッジ方位が水平方向である場合には、原理的に不可能であるので、部分領域ごとに導出されたエッジ方位が水平方向である部分領域を3次元特徴量の導出対象から除外する。
図14は、エッジ方位の検出例を示す図である。図15Aは、2次元特徴量の一例を示す図である。また、図15Bは、3次元特徴量の一例を示す図である。図14に示す符号90は、カメラ画像Rを示す。図14に示す符号91は、3次元物体において手前に向かって出っ張った凸部分を示す。図14に示す符号91Aは、カメラ12Lにより3次元物体が撮像された場合に特徴点抽出部15により特徴点から規定される局所特徴領域を示す。図15A及び図15Bに示す符号91Aは、局所特徴領域を示す。図15Aに示す符号92Aは、局所特徴領域91Aにおける部分領域別のエッジ方位を示している。また、図15Bに示す符号93Aは、局所特徴領域91Aにおける部分領域別の相対視差を示している。なお、ここでは、エッジ方位と比較する除外角度が0°(水平方向)であるものとして以下の説明を行う。
図15Aに示すように、3次元特徴量導出部17は、局所特徴領域91Aにおける部分領域(1)〜(4)のエッジ方位が除外角度「0°」であるか否を判定する。このとき、部分領域(1)、(2)及び(4)のエッジ方位は、除外角度「0°」から離れておりマッチングに利用できる模様が存在することが判明する。一方、部分領域(3)のエッジ方位は、除外角度「0°」であり、マッチングに利用できないことが判明する。この場合には、3次元特徴量導出部17は、3次元特徴量の導出対象から部分領域(3)を除外する。その上で、3次元特徴量導出部17は、ステレオ画像の部分領域間で部分領域(1)、(2)及び(4)の相対視差を算出する。
このようにして、局所特徴領域91Aにおける相対視差として(5,5,×,−5)が得られる。このとき、3次元特徴量の導出対象から除外した部分領域または導出対象とした部分領域は、後述の局所特徴量登録部18により局所特徴量データ13aとして記憶部14へ登録される。これにより、カメラ12から入力された探索用のステレオ画像から3次元特徴量を導出する段階で部分領域のエッジ方位と除外角度との比較を改めて行うことを不要化できる。
このように、部分領域ごとに導出されたエッジ方位が水平方向である部分領域を3次元特徴量の導出対象から除外することで、3次元特徴量の演算量を削減することが可能になる。
なお、上記の(1)及び(2)の組合せ、局所特徴量として色ヒストグラムとエッジ方位の両方を利用することもできる。いずれか一方だけでは区別できない局所特徴領域も、色と視差、および、エッジ方位と視差の2種類の3次元特徴量により、十分に識別することが可能になる。さらに、色−エッジ方位の2次元特徴量も加えることができ、識別能力を更に高めることができる。
(3)相対視差における符号のみの使用
上記の実施例2に係る画像処理装置10は、3次元特徴量の相対視差の利用方法として、遠近の符合のみを用いることもできる。局所領域の平均的な奥行きよりも近ければ+1、遠ければ−1として簡略化して類似度を求める。マッチングのロバスト性を保ったままリソースの削減が可能である。
(4)対応点の予測
上記の実施例2に係る画像処理装置10は、ステレオ画像間で特徴点の対応を求める際に、一方の画像で既に求めた2次元特徴量を利用する方法も可能である。一方の画像の特徴点に対応すると思われる予測範囲をもう一方の画像で推定する。その対応予測範囲内で少しずつずらしながら局所領域を設定し、それぞれの2次元特徴量を求める。ステレオ画像間で2次元特徴量の類似度を計算し、最も類似度の高い位置をステレオ対応点として決定する。
この方法では、対応点探索を行う複数の位置で2次元特徴量を求めるため、その分の計算コストが増加するが、単純なテンプレートマッチングではなく不変的な特徴量に変換した後での対応点検出となるのでロバスト性が向上する。左右カメラの間隔が広い場合などステレオ画像間で見え方の違いが大きい場合には、この方法によってステレオ対応点の検出精度を高めることができる。
[その他]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、画像処理装置10がカメラ12L及びカメラ12Rを有する場合を説明したが、ネットワークを介して接続される外部装置、外部記録媒体からステレオ画像を取得することとしてもかまわない。
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図16を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。なお、図16は、実施例3に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。
図16に示すように、実施例3におけるコンピュータ100は、操作部110aと、カメラ110bと、スピーカ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD(Hard Disk Drive)170と、RAM(Random Access Memory)180と有する。これら110〜180の各部はバス140を介して接続される。
ROM160には、上記の実施例2で示した特徴点抽出部15と、2次元特徴量導出部16と、3次元特徴量導出部17と、局所特徴量登録部18と、マッチング処理部19と同様の機能を発揮する制御プログラムが予め記憶される。つまり、ROM160には、図16に示すように、特徴点抽出プログラム160aと、2次元特徴量導出プログラム160bと、3次元特徴量導出プログラム160cと、局所特徴量登録プログラム160dと、マッチング処理プログラム160eとが記憶される。なお、これらのプログラム160a〜160eについては、図2に示した画像処理装置の各構成要素と同様、適宜統合又は分離しても良い。
そして、CPU150が、これらのプログラム160a〜160eをROM160から読み出して実行する。これによって、CPU150は、図16に示すように、各プログラム160a〜160eについては、特徴点抽出プロセス150a、2次元特徴量導出プロセス150b及び3次元特徴量導出プロセス150cとして機能するようになる。さらに、CPU150は、局所特徴量登録プロセス150d及びマッチング処理プロセス150eとして機能するようになる。なお、各プロセス150a〜150eは、図2に示した特徴点抽出部15と、2次元特徴量導出部16と、3次元特徴量導出部17と、局所特徴量登録部18と、マッチング処理部19とにそれぞれ対応する。
そして、HDD170には、局所特徴量データ170aが設けられる。なお、この局所特徴量データ170aは、図2に示した局所特徴量データ13aに対応する。
そして、CPU150は、局所特徴量データ170aを読み出してRAM180に格納する。さらに、CPU150は、RAM180に格納された局所特徴量データ180aを用いて、画像処理プログラムを実行する。
なお、上記したデータ再現プログラムについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
1 画像処理装置
2 画像取得部
3 2次元特徴量導出部
4 3次元特徴量導出部
5 マッチング処理部
10 画像処理装置
11 表示部
12L,12R カメラ
13 記憶部
13a 局所特徴量データ
14 制御部
15 特徴点抽出部
16 2次元特徴量導出部
17 3次元特徴量導出部
17a 対応点検出部
17b 視差検出部
18 局所特徴量登録部
19 マッチング処理部

Claims (6)

  1. 同一の物体が異なる視点で画像内に収められた複数の画像を取得する画像取得部と、
    前記画像取得部によって取得された画像のうち少なくとも1つの画像から得られる特徴点の周辺領域を局所特徴領域とし、当該局所特徴領域の画像から2次元特徴量を導出する2次元特徴量導出部と、
    前記画像取得部によって取得された複数の画像から前記局所特徴領域における物体の視差に基づく3次元特徴量を導出する3次元特徴量導出部と、
    前記2次元特徴量導出部によって導出された2次元特徴量および前記3次元特徴量導出部によって導出された3次元特徴量を用いて、特徴点間のマッチングを行うマッチング処理部と
    を有することを特徴とする画像処理装置。
  2. 前記3次元特徴量導出部は、前記2次元特徴量導出部によって導出された局所特徴領域の2次元特徴量を用いて、前記局所特徴領域から分割される複数の部分領域のうち前記3次元特徴量の導出対象とする部分領域を限定した上で前記3次元特徴量を導出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記2次元特徴量導出部は、前記2次元特徴量導出部によって導出された局所特徴領域の2次元特徴量として、前記局所特徴領域の画像から検出されるエッジの方位または輝度の勾配を前記部分領域ごとに導出し、
    前記3次元特徴量導出部は、前記2次元特徴量導出部によって部分領域ごとに導出されたエッジの方位または輝度の勾配が所定の除外条件を満たす部分領域を前記3次元特徴量の導出対象から除外した上で前記3次元特徴量を導出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記3次元特徴量導出部は、複数の画像間で対応する局所特徴領域の画像を比較することにより前記物体に対する視点の相違から得られる相対視差を前記3次元特徴量として導出することを特徴とする請求項1、2または3に記載の画像処理装置。
  5. 前記3次元特徴量導出部は、前記局所特徴領域の画像に含まれる色ごとに前記3次元特徴量を導出することを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
  6. コンピュータに、
    同一の物体が異なる視点で画像内に収められた複数の画像を取得する画像取得手順と、
    前記画像取得手順によって取得された画像のうち少なくとも1つの画像から得られる特徴点の周辺領域を局所特徴領域とし、当該局所特徴領域の画像から2次元特徴量を導出する2次元特徴量導出手順と、
    前記画像取得手順によって取得された複数の画像から前記局所特徴領域における物体の視差に基づく3次元特徴量を導出する3次元特徴量導出手順と、
    前記2次元特徴量導出手順によって導出された2次元特徴量および前記3次元特徴量導出手順によって導出された3次元特徴量を用いて、特徴点間のマッチングを行うマッチング処理手順と
    を実行させることを特徴とする画像処理プログラム。
JP2010065103A 2010-03-19 2010-03-19 画像処理装置及び画像処理プログラム Expired - Fee Related JP5521676B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065103A JP5521676B2 (ja) 2010-03-19 2010-03-19 画像処理装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065103A JP5521676B2 (ja) 2010-03-19 2010-03-19 画像処理装置及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2011198130A true JP2011198130A (ja) 2011-10-06
JP5521676B2 JP5521676B2 (ja) 2014-06-18

Family

ID=44876222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065103A Expired - Fee Related JP5521676B2 (ja) 2010-03-19 2010-03-19 画像処理装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP5521676B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089146A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、通信端末およびその制御方法と制御プログラム
WO2013088994A1 (ja) * 2011-12-14 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
WO2013089145A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、および情報処理プログラム
WO2013089041A1 (ja) * 2011-12-15 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
WO2013089042A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013089004A1 (ja) * 2011-12-15 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
WO2013115202A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013115092A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 映像処理システム、映像処理方法、映像処理装置およびその制御方法と制御プログラム
WO2013115203A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013115204A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013115093A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
JP2015026310A (ja) * 2013-07-29 2015-02-05 株式会社リコー オブジェクト認識装置及びそのオブジェクト認識装置に用いるオブジェクト認識用プログラム及び移動体制御システム
JP2015225453A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 物体認識装置及び物体認識方法
CN110070626A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 一种基于多视角分类的三维物体检索方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331160A (ja) * 1999-05-24 2000-11-30 Nec Corp 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331160A (ja) * 1999-05-24 2000-11-30 Nec Corp 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088994A1 (ja) * 2011-12-14 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
US9355317B2 (en) 2011-12-14 2016-05-31 Nec Corporation Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof
WO2013089041A1 (ja) * 2011-12-15 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
WO2013089004A1 (ja) * 2011-12-15 2013-06-20 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
WO2013089146A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、通信端末およびその制御方法と制御プログラム
WO2013089145A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、および情報処理プログラム
WO2013089042A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US10115127B2 (en) 2011-12-16 2018-10-30 Nec Corporation Information processing system, information processing method, communications terminals and control method and control program thereof
US9754169B2 (en) 2011-12-16 2017-09-05 Nec Corporation Information processing system, information processing method, information processing device and control method and control program thereof, and communication terminal and control method and control program thereof
JPWO2013089145A1 (ja) * 2011-12-16 2015-04-27 日本電気株式会社 情報処理システム、情報処理方法、および情報処理プログラム
WO2013115093A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013115204A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
WO2013115203A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US9418314B2 (en) 2012-01-30 2016-08-16 Nec Corporation Information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
WO2013115092A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 映像処理システム、映像処理方法、映像処理装置およびその制御方法と制御プログラム
US9792528B2 (en) 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
WO2013115202A1 (ja) * 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
JP2015026310A (ja) * 2013-07-29 2015-02-05 株式会社リコー オブジェクト認識装置及びそのオブジェクト認識装置に用いるオブジェクト認識用プログラム及び移動体制御システム
JP2015225453A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 物体認識装置及び物体認識方法
CN110070626A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 一种基于多视角分类的三维物体检索方法
CN110070626B (zh) * 2019-03-15 2023-08-11 西安电子科技大学 一种基于多视角分类的三维物体检索方法

Also Published As

Publication number Publication date
JP5521676B2 (ja) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5521676B2 (ja) 画像処理装置及び画像処理プログラム
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
JP6248533B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US7554575B2 (en) Fast imaging system calibration
WO2017181899A1 (zh) 一种人脸活体验证方法及装置
CN106326832B (zh) 基于物体区域处理图像的装置及方法
US10006762B2 (en) Information processing apparatus, information processing method, and storage medium
CN111194449A (zh) 用于人脸活体检测的系统和方法
US20140192158A1 (en) Stereo Image Matching
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2014084181A1 (ja) 画像計測装置
US20130170756A1 (en) Edge detection apparatus, program and method for edge detection
US20160245641A1 (en) Projection transformations for depth estimation
JP2012209895A (ja) ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
TW202022802A (zh) 辨識影像中前景物件的方法與電子裝置
JPWO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
KR101916460B1 (ko) 깊이 정보를 이용한 물체 인식 방법 및 장치
US20150178927A1 (en) Method and system for determining a transformation associated with a capturing device
JP6452361B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2017084065A (ja) なりすまし検出装置
CN105190689A (zh) 包括基于毗连特征的对象检测和/或双边对称对象分段的图像处理
US10915772B2 (en) Apparatus and method for registering face pose for face recognition
KR101877816B1 (ko) 단일 가시광 카메라를 이용한 복합 사진 동영상 위조 얼굴 판단방법 및 이를 이용한 위조 얼굴 판단 시스템
CN110674817B (zh) 一种基于双目摄像头的车牌防伪的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5521676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees