JP6668228B2 - 被写体識別装置、方法、及びプログラム - Google Patents

被写体識別装置、方法、及びプログラム Download PDF

Info

Publication number
JP6668228B2
JP6668228B2 JP2016251758A JP2016251758A JP6668228B2 JP 6668228 B2 JP6668228 B2 JP 6668228B2 JP 2016251758 A JP2016251758 A JP 2016251758A JP 2016251758 A JP2016251758 A JP 2016251758A JP 6668228 B2 JP6668228 B2 JP 6668228B2
Authority
JP
Japan
Prior art keywords
image
unit
reliability
pair
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016251758A
Other languages
English (en)
Other versions
JP2018106413A (ja
Inventor
周平 田良島
周平 田良島
峻司 細野
峻司 細野
之人 渡邉
之人 渡邉
勇 五十嵐
勇 五十嵐
豪 入江
豪 入江
隆行 黒住
隆行 黒住
杵渕 哲也
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016251758A priority Critical patent/JP6668228B2/ja
Publication of JP2018106413A publication Critical patent/JP2018106413A/ja
Application granted granted Critical
Publication of JP6668228B2 publication Critical patent/JP6668228B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体識別装置、方法、及びプログラムに係り、特に、画像に写る被写体を識別するための被写体識別装置、方法、及びプログラムに関する。
スマートフォンやウェアラブルデバイス、ロボットに搭載されたカメラ等で撮影されたテスト画像の中に写る被写体が、予め用意した訓練画像群で登録された被写体のうちどれに該当するのか、あるいはどれにも該当しない(登録されていない)のかを推定する被写体識別技術は、ユーザへの情報提示やナビゲーション、ロボットの自律的な空間認識を実現させるための必須要素技術であり、その産業応用性は極めて高い。被写体識別を実現する手段として、例えば非特許文献1では、まずテスト画像と各訓練画像からそれぞれ抽出される局所特徴量(非特許文献1では、SIFT)の暫定対応付けを行い、得られた結果からロバスト推定により画像間の2次元アフィン変換を推定することで誤対応を除去し、残った対応点の数に基づいて訓練画像をスコアリングする方法が開示されている。非特許文献1では立体的な構造を持つ被写体の見えの変化に頑健ではないという問題があるため、これを解決する手段として、特許文献1では、局所特徴量の属性情報(スケールや回転方向とその量)と同じ数の次元を持つ投票空間を構築し、所定の数以上の対応点を持つ投票空間中のセル単位で画像間の幾何モデルを推定することで、より精度よく誤対応を除去する方法が開示されている。
特開2015−201123号公報
D. G. Lowe, Distinctive Image Features from Scale-Invariant Keypoints, IJCV, 2004. K. E. A. van de Sande, et al, Evaluation of Color Descriptors for Object and Scene Recognition, TPAMI, 2010.
ところで、非特許文献1や特許文献1で開示されている技術で用いられる局所特徴量は、多くの場合グレースケールに変換された画像を入力として、その局所的な輝度勾配の方向とその量から算出される。すなわち、画像間の類似性を評価する際に画像が持つ色情報を用いてはいないため、色情報を用いないと見分けることが難しい被写体、例えば図8に示すような色違いの被写体を精度よく見分けることができないという問題がある。この課題を解決する最も単純な方法は、画像から抽出される局所特徴量に色情報を含ませるというものである。非特許文献2では、カラー画像の複数チャネル(RGB、YUV、HSなど)各々からSIFT等の局所特徴量を抽出し、それらを連結させることで色情報も含んだ局所特徴量を抽出する手法を実現している。しかし、このような手法を用いた場合、局所特徴ベクトルのサイズは考慮したチャネル数に比例して大きくなるため、画像間の局所特徴集合の暫定対応付けの計算コストが増大してしまうという問題がある。暫定対応付けを高速化するために、局所特徴の低次元空間への写像をPCAなどで事前に学習しておき、対応付けの前に各局所特徴を次元圧縮するという方法も考えられるが、写像関数を格納しておくための追加の計算資源(メモリ、ハードディスク)が必要となったり、精度のよい対応付けを実現する写像関数の学習には膨大なデータを追加しなくてはならないといった問題がある。
以上のように、公知の技術およびその組み合わせでは、追加の学習データを用いずに、色違いの被写体を精度良くかつ高速に識別することができない、という問題があった。
本発明は、上記問題点を解決するために成されたものであり、精度よく、かつ、高速に被写体を識別できる被写体識別装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る被写体識別装置は、テスト画像に写る対象物体である被写体を、複数の訓練画像を用いて自動で識別する被写体識別装置であって、テスト画像から局所特徴と、前記局所特徴の属性を示す属性情報とを抽出する局所特徴抽出部と、前記テスト画像と前記複数の訓練画像とのペアの各々について、前記ペアの前記テスト画像から抽出された局所特徴と、前記訓練画像から予め抽出された局所特徴とを比較して、前記ペアの前記テスト画像と前記訓練画像とにおける、暫定的な対応点である暫定対応点を決定する暫定対応点決定部と、前記ペアの各々について、前記決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、前記幾何モデルの変換値である幾何変換パラメータを推定し、前記幾何変換パラメータを用いて、前記暫定対応点のうち外れ値でないインライア対応点を求める幾何検証部と、前記ペアの各々について、前記インライア対応点に基づいて前記ペアの前記訓練画像の信頼度を算出する信頼度算出部と、前記信頼度算出部で得られた信頼度が上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記インライア対応点で定義される画像部分領域から前記被写体の色に関する色特徴を抽出する色特徴抽出部と、前記上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記色特徴抽出部で抽出された前記色特徴を比較して、前記上位の訓練画像の信頼度を更新する信頼度更新部と、を含んで構成されている。
また、第1の発明に係る被写体識別装置において、前記色特徴抽出部は、前記幾何検証部で得られた前記インライア対応点における前記属性情報で定義される画像部分領域から前記色特徴を抽出してもよい。
また、第1の発明に係る被写体識別装置において、前記色特徴抽出部は、前記幾何検証部で得られた前記インライア対応点を用いた凸包領域で定義される画像部分領域から前記色特徴を抽出してもよい。
また、第1の発明に係る被写体識別装置において、前記信頼度算出部で算出された前記信頼度が上位の訓練画像と前記テスト画像とのペアの各々について、前記インライア対応点に基づいて、前記訓練画像の座標から前記テスト画像の座標へ変換することについての幾何変換行列を推定する幾何変換行列推定部を更に含み、前記色特徴抽出部は、前記信頼度が上位の訓練画像と前記テスト画像とのペアの各々について、前記訓練画像から前記色特徴を抽出し、前記テスト画像のうち、前記幾何変換行列推定部で推定された前記幾何変換行列を用いて前記訓練画像を変換して得られる画像部分領域から、前記色特徴を抽出してもよい。
第2の発明に係る被写体識別方法は、テスト画像に写る対象物体である被写体を、複数の訓練画像を用いて自動で識別する被写体識別装置における被写体識別方法であって、局所特徴抽出部が、テスト画像から局所特徴と、前記局所特徴の属性を示す属性情報とを抽出するステップと、暫定対応点決定部が、前記テスト画像と前記複数の訓練画像とのペアの各々について、前記ペアの前記テスト画像から抽出された局所特徴と、前記訓練画像から予め抽出された局所特徴とを比較して、前記ペアの前記テスト画像と前記訓練画像とにおける、暫定的な対応点である暫定対応点を決定するステップと、幾何検証部が、前記ペアの各々について、前記決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、前記幾何モデルの変換値である幾何変換パラメータを推定し、前記幾何変換パラメータを用いて、前記暫定対応点のうち外れ値でないインライア対応点を求めるステップと、信頼度算出部が、前記ペアの各々について、前記インライア対応点に基づいて前記ペアの前記訓練画像の信頼度を算出するステップと、色特徴抽出部が、前記信頼度算出部で得られた信頼度が上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記インライア対応点で定義される画像部分領域から前記被写体の色に関する色特徴を抽出するステップと、信頼度更新部が、前記上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記色特徴抽出部で抽出された前記色特徴を比較して、前記上位の訓練画像の信頼度を更新するステップと、を含んで実行することを特徴とする。
また、第3の発明に係るプログラムは、コンピュータを、第1の発明に係る被写体識別装置の各部として機能させるためのプログラムである。
本発明の被写体識別装置、方法、及びプログラムによれば、テスト画像から局所特徴と、局所特徴の属性を示す属性情報とを抽出し、テスト画像と複数の訓練画像とのペアの各々について、ペアのテスト画像から抽出された局所特徴と、訓練画像から予め抽出された局所特徴とを比較して、ペアのテスト画像と訓練画像とにおける、暫定的な対応点である暫定対応点を決定し、決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、幾何モデルの変換値である幾何変換パラメータを推定し、幾何変換パラメータを用いて、暫定対応点のうち外れ値でないインライア対応点を求め、ペアの各々について、インライア対応点に基づいてペアの訓練画像の信頼度を算出し、信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、インライア対応点で定義される画像部分領域から被写体の色に関する色特徴を抽出し、上位の訓練画像の各々と、テスト画像とのペアの各々について、色特徴を比較して、上位の訓練画像の信頼度を更新することにより、精度よく、かつ、高速に被写体を識別できる、という効果が得られる。
本発明の実施の形態に係る学習装置の構成を示すブロック図である。 本発明の実施の形態に係る学習装置における学習処理ルーチンを示すフローチャートである。 本発明の第1の実施の形態に係る被写体識別装置の構成を示すブロック図である。 色特徴を抽出する画像部分領域の定義の手法の例を示す図である。 本発明の第1の実施の形態に係る被写体識別装置における被写体識別処理ルーチンを示すフローチャートである。 本発明の第2の実施の形態に係る被写体識別装置の構成を示すブロック図である。 本発明の第2の実施の形態に係る被写体識別装置における被写体識別処理ルーチンを示すフローチャートである。 色違いの被写体の識別において、テスト画像と訓練画像群とをグレースケール変換した場合の一例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の第1の実施の形態に係る学習装置の構成>
まず、本発明の第1の実施の形態に係る学習装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係る学習装置100は、CPUと、RAMと、後述する学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この学習装置100は、機能的には図1に示すように入力部10と、演算部20と、特徴DB50とを備えている。
入力部10は、写る被写体を示すラベルが付与された複数の訓練画像を受け付ける。
演算部20は、前処理部30と、局所特徴抽出部32と、特徴属性情報保存部34とを含んで構成されている。
前処理部30は、入力部10で受け付けた複数の訓練画像の各々を、所定のサイズに拡大縮小する前処理を行う。前処理部30では、この他にも、例えば訓練画像のノイズを軽減するために平滑化処理を行ってもよい。
局所特徴抽出部32は、前処理部30で前処理された複数の訓練画像の各々から、複数の局所特徴点の局所特徴と、複数の局所特徴点の局所特徴の属性を示す属性情報を抽出する。抽出する局所特徴として、任意の公知の技術の局所特徴量を用いることが可能であり、例えば非特許文献1で開示されているSIFTや、他にもSURF、BEIEF、BRISK、ORB、FREAK、AKAZE等を用いることができる。また属性情報としては、非特許文献1と同様に、位置(x,y)、スケール、回転量の4つの情報を取得してもよいし、参考文献1で開示されている方法を用いて位置(x,y)、スケール、回転(ロー、ピッチ、ヨー)の6つの情報を取得してもよい。
参考文献1:J. Morel et al., ASIFT: A New Framework for Fully Affine Invariant Image Comparison, SIAM Journal on Image Sciences, 2009.
特徴属性情報保存部34は、前処理部30で前処理された訓練画像の各々と、局所特徴抽出部32で抽出された訓練画像の各々の局所特徴、及び属性情報とを、特徴DB50に格納する。
<本発明の第1の実施の形態に係る学習装置の作用>
次に、本発明の第1の実施の形態に係る学習装置100の作用について説明する。入力部10において被写体が写る複数の訓練画像を受け付けると、学習装置100は、図2に示す学習処理ルーチンを実行する。
まず、ステップS100では、入力部10で受け付けた複数の訓練画像の各々を、所定のサイズに拡大縮小する前処理を行う。
次に、ステップS102では、ステップS102で前処理された複数の訓練画像の各々から、複数の局所特徴点の局所特徴と、複数の局所特徴点の局所特徴の属性を示す属性情報を抽出する。
ステップS104では、前処理された訓練画像の各々、訓練画像の各々の局所特徴、及び属性情報を、特徴DB50に格納し、処理を終了する。
<本発明の第1の実施の形態に係る被写体識別装置の構成>
次に、本発明の第1の実施の形態に係る被写体識別装置の構成について説明する。図3に示すように、本発明の第1の実施の形態に係る被写体識別装置200は、CPUと、RAMと、後述する被写体識別処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この被写体識別装置200は、機能的には図3に示すように入力部210と、演算部220と、特徴DB250と、出力部252とを備えている。
入力部210は、テスト画像を受け付ける。
特徴DB250には、学習装置100で学習された特徴DB50に格納されたものと同じ訓練画像の各々と、訓練画像の各々の局所特徴、及び属性情報が格納されている。
演算部220は、前処理部230と、局所特徴抽出部232と、暫定対応点決定部234と、幾何検証部236と、信頼度算出部238と、色特徴抽出部240と、信頼度更新部242とを含んで構成されている。
前処理部230は、入力部210で受け付けたテスト画像に対し、上記学習装置100の前処理部30と同様に、所定のサイズに拡大縮小する前処理を行う。
局所特徴抽出部232は、前処理部230で前処理されたテスト画像から局所特徴と、局所特徴の属性を示す属性情報とを抽出する。具体的な処理は上記学習装置100の局所特徴抽出部32と同様である。
暫定対応点決定部234は、前処理部230で前処理されたテスト画像と、特徴DB250に格納されている複数の訓練画像とのペアの各々について、当該ペアのテスト画像から抽出された局所特徴と、訓練画像から予め抽出された局所特徴とを比較して、当該ペアのテスト画像と訓練画像とにおける、暫定的な対応点である暫定対応点を決定する。局所特徴の比較の方法は任意であり、例えば、局所特徴を表す局所特徴ベクトル間のL2ノルムを計算し、その値が最も小さい画像間局所特徴ペアを暫定対応点として対応付けるなどすればよい。
幾何検証部236は、テスト画像と複数の訓練画像とのペアの各々について、暫定対応点決定部234で決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、幾何モデルの変換値である幾何変換パラメータを推定し、幾何変換パラメータを用いて、局所特徴点の座標を変換し、暫定対応点のうち外れ値でないインライア対応点を求める。所定の幾何モデルは任意であり、例えばアフィン変換やホモグラフィ変換を用いることができる。また特許文献1で開示されている方法を用いて、局所特徴抽出部232で得られた属性情報を用いて投票空間を構築し、投票数の多いセル単位で幾何モデルのパラメータを推定し誤対応となる暫定対応点を除去してもよい。
信頼度算出部238は、テスト画像と複数の訓練画像とのペアの各々について、インライア対応点に基づいて当該ペアの訓練画像の信頼度を算出する。信頼度算出部238では、テスト画像と訓練画像とで幾何的な整合性がとれているかを評価するが、信頼度の算出方法は任意であり、例えば非特許文献1のように、推定した幾何変換パラメータを用いてテスト画像を訓練画像上にマッピングし、当該マッピング領域内の局所特徴点数に応じて誤対応が生じる確率を算出するといった方法を用いることができる。
色特徴抽出部240は、信頼度算出部238で得られた信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、インライア対応点で定義される画像部分領域から被写体の色に関する色特徴を抽出する。
色特徴抽出部240で抽出する色に関連する特徴量は任意であり、例えばLabカラーヒストグラム等を用いればよい。また、抽出対象とする画像部分領域は、図4(A)に示すようなインライア対応点の属性情報で定義される画像部分領域の集合で定義し、定義された画像部分領域の集合から色特徴を抽出する。例えばSIFT等の特徴点検出手法では、特徴点のスケールが推定できるため、推定したスケールを利用して各対応点における近傍領域を画像部分領域として定義すればよい。また、インライア対応点から画像部分領域を定義する他の方法として、図4(B)に示すように、インライア対応点を結ぶことで得られる凸包領域で画像部分領域を定義し、画像部分領域から色特徴を抽出することもできる。上記のような手法を用いることによって、画像中に写り込む認識対象以外の領域の情報の影響を抑えつつ、認識対象をよく捉えた色特徴を抽出することができる。
信頼度更新部242は、信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、色特徴抽出部240で抽出された色特徴を比較して、上位の訓練画像の信頼度を更新し、識別結果を出力部252に出力する。
このように色特徴抽出部240で得られた色の特徴量を信頼度更新部242で比較することで信頼度を更新し、信頼度算出部238で特に信頼度が高かった訓練画像の中から、色特徴の観点で類似している訓練画像ほど信頼度が高くなるようスコアリングする。信頼度更新部242で色特徴を比較する方法は任意であり、例えばLabカラーヒストグラムなどのヒストグラム特徴を用いるのであれば、コサイン類似度等を用いることができる。また信頼度の更新方法も任意であり、色特徴の比較で得られる値をそのまま信頼度として用いてもよいし、あるいは信頼度算出部238で得られた信頼度との重み付け線形和で信頼度を更新してもよい。以上の処理から、テスト画像に対する信頼度が上位の訓練画像のスコアが出力として得られ、この値が特に高い訓練画像に写る物体のラベルを出力したり、信頼度を閾値処理したりすることによって、テスト画像に写る被写体を識別したり、あるいはテスト画像には認識対象の被写体は写っていないと判定したりすることができる。
<本発明の実施の第1の形態に係る被写体識別装置の作用>
次に、本発明の第1の実施の形態に係る被写体識別装置200の作用について説明する。入力部210においてテスト画像を受け付けると、被写体識別装置200は、図5に示す被写体識別処理ルーチンを実行する。
まず、ステップS200では、入力部210で受け付けたテスト画像に対し、所定のサイズに拡大縮小する前処理を行う。
次に、ステップS202では、ステップS200で前処理されたテスト画像から局所特徴と、局所特徴の属性を示す属性情報とを抽出する。
ステップS204では、ステップS200で前処理されたテスト画像と、特徴DB250に格納されている複数の訓練画像とのペアの各々について、当該ペアのテスト画像から抽出された局所特徴と、訓練画像から予め抽出された局所特徴とを比較して、当該ペアのテスト画像と訓練画像とにおける、暫定的な対応点である暫定対応点を決定する。
ステップS206では、テスト画像と複数の訓練画像とのペアの各々について、暫定対応点決定部234で決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、幾何モデルの変換値である幾何変換パラメータを推定し、幾何変換パラメータを用いて、局所特徴点の座標を変換し、暫定対応点のうち外れ値でないインライア対応点を求める。
ステップS208では、テスト画像と複数の訓練画像とのペアの各々について、ステップS206で求められたインライア対応点に基づいて当該ペアの訓練画像の信頼度を算出する。
ステップS210では、ステップS208で得られた信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、インライア対応点で定義される画像部分領域から被写体の色に関する色特徴を抽出する。
ステップS212では、信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、ステップS210で抽出された色特徴を比較して、上位の訓練画像の信頼度を更新し、識別結果を出力部252に出力し、処理を終了する。
以上説明したように、第1の実施の形態に係る被写体識別装置によれば、テスト画像から局所特徴と、局所特徴の属性を示す属性情報とを抽出し、テスト画像と複数の訓練画像とのペアの各々について、ペアのテスト画像から抽出された局所特徴と、訓練画像から予め抽出された局所特徴とを比較して、ペアのテスト画像と訓練画像とにおける、暫定的な対応点である暫定対応点を決定し、決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、幾何モデルの変換値である幾何変換パラメータを推定し、幾何変換パラメータを用いて、暫定対応点のうち外れ値でないインライア対応点を求め、ペアの各々について、インライア対応点に基づいてペアの訓練画像の信頼度を算出し、信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、インライア対応点で定義される画像部分領域から被写体の色に関する色特徴を抽出し、上位の訓練画像の各々と、テスト画像とのペアの各々について、色特徴を比較して、上位の訓練画像の信頼度を更新することにより、精度よく、かつ、高速に被写体を識別できる。
<本発明の第2の実施の形態に係る学習装置の構成>
本発明の第2の実施の形態の学習装置は、第1の実施の形態と同様であるため説明を省略する。
<本発明の第2の実施の形態に係る被写体識別装置の構成>
次に、本発明の第2の実施の形態に係る被写体識別装置の構成について説明する。第2の実施の形態では、幾何変換行列を推定する点が第1の実施の形態と異なっている。なお、第1の実施の形態と同様となる構成については同一符号を付して説明を省略する。
図6に示すように、本発明の第2の実施の形態に係る被写体識別装置300は、入力部210と、演算部320と、特徴DB250と、出力部252とを備えている。
演算部320は、前処理部230と、局所特徴抽出部232と、暫定対応点決定部234と、幾何検証部236と、信頼度算出部238と、幾何変換行列推定部338と、色特徴抽出部340と、信頼度更新部242とを含んで構成されている。
幾何変換行列推定部338は、信頼度算出部238で算出された信頼度が上位の訓練画像とテスト画像とのペアの各々について、インライア対応点に基づいて、訓練画像の座標からテスト画像の座標へ変換することについての幾何変換行列を推定する。
仮定する幾何変換行列の幾何モデルは任意であり、例えばアフィン変換やホモグラフィ変換を用いることができる。幾何変換行列により、テスト画像中のどの位置に被写体が写り込んでいるのかを推定することも可能になる。
色特徴抽出部340は、信頼度が上位の訓練画像とテスト画像とのペアの各々について、訓練画像から色特徴を抽出し、テスト画像のうち、幾何変換行列推定部338で推定された幾何変換行列を用いて訓練画像を変換して得られる画像部分領域から、色特徴を抽出する。図4(C)に、訓練画像に対応するテスト画像の画像部分領域から色特徴を抽出する例を示す。このような手法により、図4(A)、図4(B)同様、画像中に写り込む認識対象以外の領域の情報の影響を抑えつつ、認識対象をよく捉えた色特徴を抽出することができる。
なお、第2の実施の形態の他の構成については第1の実施の形態と同様であるため、詳細な説明を省略する。
<本発明の実施の第2の形態に係る被写体識別装置の作用>
次に、本発明の第2の実施の形態に係る被写体識別装置300の作用について説明する。なお、第1の実施の形態と同様の作用となる箇所については説明を省略する。
入力部210においてテスト画像を受け付けると、被写体識別装置300は、図7に示す被写体識別処理ルーチンを実行する。
ステップS300では、ステップS208で算出された信頼度が上位の訓練画像とテスト画像とのペアの各々について、インライア対応点に基づいて、訓練画像の座標からテスト画像の座標へ変換することについての幾何変換行列を推定する。
ステップS302では、頼度が上位の訓練画像とテスト画像とのペアの各々について、訓練画像から色特徴を抽出し、テスト画像のうち、ステップS300で推定された幾何変換行列を用いて訓練画像を変換して得られる画像部分領域から、色特徴を抽出する。
なお、第2の実施の形態の他の作用については第1の実施の形態と同様であるため、詳細な説明を省略する。
以上説明したように、第2の実施の形態に係る被写体識別装置によれば、テスト画像から局所特徴と、局所特徴の属性を示す属性情報とを抽出し、テスト画像と複数の訓練画像とのペアの各々について、ペアのテスト画像から抽出された局所特徴と、訓練画像から予め抽出された局所特徴とを比較して、ペアのテスト画像と訓練画像とにおける、暫定的な対応点である暫定対応点を決定し、決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、幾何モデルの変換値である幾何変換パラメータを推定し、幾何変換パラメータを用いて、暫定対応点のうち外れ値でないインライア対応点を求め、ペアの各々について、インライア対応点に基づいてペアの訓練画像の信頼度を算出し、インライア対応点に基づいて、訓練画像の座標からテスト画像の座標へ変換することについての幾何変換行列を推定し、信頼度が上位の訓練画像の各々と、テスト画像とのペアの各々について、幾何変換行列を用いて訓練画像を変換して得られる画像部分領域から被写体の色に関する色特徴を抽出し、上位の訓練画像の各々と、テスト画像とのペアの各々について、色特徴を比較して、上位の訓練画像の信頼度を更新することにより、精度よく、かつ、高速に被写体を識別できる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、学習装置と被写体識別装置とに分けて構成する場合について説明したが、これに限定されるものではなく、一つの装置によって学習と被写体識別とを行うようにしてもよい。
10、210 入力部
20、220、320 演算部
30、230 前処理部
32、232 局所特徴抽出部
34 特徴属性情報保存部
100 学習装置
200、300 被写体識別装置
234 暫定対応点決定部
236 幾何検証部
238 信頼度算出部
240、340 色特徴抽出部
242 信頼度更新部
252 出力部
338 幾何変換行列推定部

Claims (6)

  1. テスト画像に写る対象物体である被写体を、複数の訓練画像を用いて自動で識別する被写体識別装置であって、
    テスト画像から局所特徴と、前記局所特徴の属性を示す属性情報とを抽出する局所特徴抽出部と、
    前記テスト画像と前記複数の訓練画像とのペアの各々について、前記ペアの前記テスト画像から抽出された局所特徴と、前記訓練画像から予め抽出された局所特徴とを比較して、前記ペアの前記テスト画像と前記訓練画像とにおける、暫定的な対応点である暫定対応点を決定する暫定対応点決定部と、
    前記ペアの各々について、前記決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、前記幾何モデルの変換値である幾何変換パラメータを推定し、前記幾何変換パラメータを用いて、前記暫定対応点のうち外れ値でないインライア対応点を求める幾何検証部と、
    前記ペアの各々について、前記インライア対応点に基づいて前記ペアの前記訓練画像の信頼度を算出する信頼度算出部と、
    前記信頼度算出部で得られた信頼度が上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記インライア対応点で定義される画像部分領域から前記被写体の色に関する色特徴を抽出する色特徴抽出部と、
    前記上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記色特徴抽出部で抽出された前記色特徴を比較して、前記上位の訓練画像の信頼度を更新する信頼度更新部と、
    を含む被写体識別装置。
  2. 前記色特徴抽出部は、前記幾何検証部で得られた前記インライア対応点における前記属性情報で定義される画像部分領域から前記色特徴を抽出する請求項1に記載の被写体識別装置。
  3. 前記色特徴抽出部は、前記幾何検証部で得られた前記インライア対応点を用いた凸包領域で定義される画像部分領域から前記色特徴を抽出する請求項1に記載の被写体識別装置。
  4. 前記信頼度算出部で算出された前記信頼度が上位の訓練画像と前記テスト画像とのペアの各々について、前記インライア対応点に基づいて、前記訓練画像の座標から前記テスト画像の座標へ変換することについての幾何変換行列を推定する幾何変換行列推定部を更に含み、
    前記色特徴抽出部は、前記信頼度が上位の訓練画像と前記テスト画像とのペアの各々について、前記訓練画像から前記色特徴を抽出し、前記テスト画像のうち、前記幾何変換行列推定部で推定された前記幾何変換行列を用いて前記訓練画像を変換して得られる画像部分領域から、前記色特徴を抽出する請求項1に記載の被写体識別装置。
  5. テスト画像に写る対象物体である被写体を、複数の訓練画像を用いて自動で識別する被写体識別装置における被写体識別方法であって、
    局所特徴抽出部が、テスト画像から局所特徴と、前記局所特徴の属性を示す属性情報とを抽出するステップと、
    暫定対応点決定部が、前記テスト画像と前記複数の訓練画像とのペアの各々について、前記ペアの前記テスト画像から抽出された局所特徴と、前記訓練画像から予め抽出された局所特徴とを比較して、前記ペアの前記テスト画像と前記訓練画像とにおける、暫定的な対応点である暫定対応点を決定するステップと、
    幾何検証部が、前記ペアの各々について、前記決定された暫定対応点に対して、画像上の線形変換を表す幾何モデルにあてはめ、前記幾何モデルの変換値である幾何変換パラメータを推定し、前記幾何変換パラメータを用いて、前記暫定対応点のうち外れ値でないインライア対応点を求めるステップと、
    信頼度算出部が、前記ペアの各々について、前記インライア対応点に基づいて前記ペアの前記訓練画像の信頼度を算出するステップと、
    色特徴抽出部が、前記信頼度算出部で得られた信頼度が上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記インライア対応点で定義される画像部分領域から前記被写体の色に関する色特徴を抽出するステップと、
    信頼度更新部が、前記上位の訓練画像の各々と、前記テスト画像とのペアの各々について、前記色特徴抽出部で抽出された前記色特徴を比較して、前記上位の訓練画像の信頼度を更新するステップと、
    を含む被写体識別方法。
  6. コンピュータを、請求項1〜請求項4のいずれか1項に記載の被写体識別装置の各部として機能させるためのプログラム。
JP2016251758A 2016-12-26 2016-12-26 被写体識別装置、方法、及びプログラム Active JP6668228B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251758A JP6668228B2 (ja) 2016-12-26 2016-12-26 被写体識別装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251758A JP6668228B2 (ja) 2016-12-26 2016-12-26 被写体識別装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018106413A JP2018106413A (ja) 2018-07-05
JP6668228B2 true JP6668228B2 (ja) 2020-03-18

Family

ID=62788005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251758A Active JP6668228B2 (ja) 2016-12-26 2016-12-26 被写体識別装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6668228B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013077296A (ja) * 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム
JP6055435B2 (ja) * 2014-04-10 2016-12-27 日本電信電話株式会社 被写体認識装置、被写体認識方法及び被写体認識プログラム
JP6012819B1 (ja) * 2015-07-03 2016-10-25 日本電信電話株式会社 類似画像取得装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2018106413A (ja) 2018-07-05

Similar Documents

Publication Publication Date Title
US20190295266A1 (en) Point cloud matching method
JP5451302B2 (ja) 画像処理装置及び方法、プログラム及び記憶媒体
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN105009170A (zh) 物体识别设备、方法和存储介质
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
CN114155365B (zh) 模型训练方法、图像处理方法及相关装置
WO2016170965A1 (ja) オブジェクト検出方法及び画像検索システム
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6492746B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
KR101478709B1 (ko) Rgb-d 영상 특징점 추출 및 특징 기술자 생성 방법 및 장치
JP6713162B2 (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
JP5500245B2 (ja) トレーニング方法及び装置並びに画像における対象の姿勢視角を推定する方法及び装置
JP6202938B2 (ja) 画像認識装置および画像認識方法
US20160292529A1 (en) Image collation system, image collation method, and program
JP5337252B2 (ja) 特徴抽出装置
JP6668228B2 (ja) 被写体識別装置、方法、及びプログラム
JP6151908B2 (ja) 学習装置、識別装置、およびそのプログラム
WO2017179728A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP6448036B2 (ja) 物体領域特定方法、装置、及びプログラム
JP2016081472A (ja) 画像処理装置、画像処理方法及びプログラム
JP2017138743A (ja) 画像処理装置、画像処理方法及びプログラム
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP5719277B2 (ja) 物体座標系変換行列推定成否判定装置および物体座標系変換行列推定成否判定方法ならびにそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200226

R150 Certificate of patent or registration of utility model

Ref document number: 6668228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150