JP6092012B2 - 物体識別システムおよび物体識別方法 - Google Patents

物体識別システムおよび物体識別方法 Download PDF

Info

Publication number
JP6092012B2
JP6092012B2 JP2013127557A JP2013127557A JP6092012B2 JP 6092012 B2 JP6092012 B2 JP 6092012B2 JP 2013127557 A JP2013127557 A JP 2013127557A JP 2013127557 A JP2013127557 A JP 2013127557A JP 6092012 B2 JP6092012 B2 JP 6092012B2
Authority
JP
Japan
Prior art keywords
feature
geometric
identification
vector
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013127557A
Other languages
English (en)
Other versions
JP2015001941A (ja
Inventor
磯 俊樹
俊樹 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013127557A priority Critical patent/JP6092012B2/ja
Publication of JP2015001941A publication Critical patent/JP2015001941A/ja
Application granted granted Critical
Publication of JP6092012B2 publication Critical patent/JP6092012B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体識別システムおよび物体識別方法に関する。本発明に係る物体識別システムおよび物体識別方法は、複数視点の画像を撮影できるステレオカメラを搭載した携帯電話機を用いて実世界の物体を識別すること、取り込んだ画像の情報を解析することで個人の状況(コンテキスト)を識別すること等に利用されるものであり、コンテキスト通信やコンテキストに基づくサービスナビゲーションなどのコンテキストアウェアサービスの分野に関わっている。
物体識別は、実世界やユーザ状況を理解する上で重要な手掛かりになるので、さまざまなサービス分野でのニーズがある。物体を識別するには、タグを用いることが一般的であるが、タグを識別対象の物体に付けたり、タグの読み取り装置を設置する等の手間が掛っていた。
画像データに基づいて物体識別を行う場合、大別すると、物体に付けたバーコード等のタグに基づいて識別する方法、物体の物理モデルに基づいて識別する方法、画像から抽出した局所特徴量に基づいて識別する方法があった。
H. Bay, A. Ess, T. Tuytelaars, and L. J. V. Gool. Speeded-up robust features (surf). Computer Vision and Image Understanding, 110(3): pages 346_359, 2008 A. Bosch, A. Zisserman, and X. Munoz. Image classification using random forests and ferns. ICCV, pages 1_8, 2007 R. Fergus, P. Perona, and A. Zisserman. Object class recognition by unsupervised scale-invariant learning. CVPR, pages 264_271, 2003
前述したような従来の物体識別方法には、例えば以下のような課題がある。即ち、タグに基づいて識別する方法では、原則、物体に平面タグを装着することが必要となる。また、視点方向が異なる画像で物体を識別するためには、物体の三次元(3D)モデル化や複数視点からの画像データが必要となる。
特に一般画像認識では、SIFT特徴量をはじめとする局所特徴量から抽出できるBag-of-keypointsを識別特徴量として物体識別する方法が提案されているが(非特許文献1参照)、基本的には局所特徴量の位置関係は利用していないので、必ずしも物体形状を考慮した特徴量にはなっていない。また、視点方向にロバストな点を考慮したアプローチではなく、視点方向の変化に対する評価がほとんどされていない。
局所特徴量の位置関係を考慮したアプローチとしてConstellation Model(局所特徴量および位置の出現確率を用いた方法)があるが(非特許文献3参照)、多様な種類のデータを用意する必要がある。また、Bag-of-keypoint(局所特徴量のヒストグラム)から規定パターンを抽出するとともに言語モデルやコンテキストモデルや関心領域を自動的に抽出し、random pyramid表現を用いてSVM random forestで80%という高精度で物体を識別する方法もある(非特許文献2参照)。
ところが、上述した従来の方法は、そもそも単一カメラ画像を対象にしたものがほとんどであり、複数視点からのカメラ画像を対象にしたものはほとんどない。
本発明は、上記の課題を解決するために成されたものであり、物体にタグを装着することなく、複数視点からのカメラ画像を対象にしつつ、カメラの視点方向等に依存しないロバストな物体識別を行うことができる物体識別システムおよび物体識別方法を提供することを目的とする。
本発明に係る物体識別システムは、複数視点から学習用物体を撮影した画像データから、学習用物体の複数の特徴点を抽出する学習用特徴点抽出手段と、抽出された学習用物体の複数の特徴点から、学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する学習用特徴点選択手段と、選択された学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、学習用物体についての複数の幾何学的不変量を取得する学習用幾何学的不変量算出手段と、取得された学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、学習用物体についての複数の幾何学的不変量特徴ベクトルを取得する学習用幾何学的不変量特徴ベクトル算出手段と、取得された前記学習用物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する学習用幾何学的不変量ベース特徴点分布ベクトル算出手段と、抽出された学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する学習用局所特徴量ベース特徴点分布ベクトル算出手段と、学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として学習用物体を機械学習させることで、学習済み識別情報データを取得する識別情報データ取得手段と、複数視点から識別対象物体を撮影した画像データから、識別対象物体の複数の特徴点を抽出する識別用特徴点抽出手段と、抽出された識別対象物体の複数の特徴点から、識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する識別用特徴点選択手段と、選択された識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、識別対象物体についての複数の幾何学的不変量を取得する識別用幾何学的不変量算出手段と、取得された識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得する識別用幾何学的不変量特徴ベクトル算出手段と、取得された前記識別対象物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する識別用幾何学的不変量ベース特徴点分布ベクトル算出手段と、抽出された識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する識別用局所特徴量ベース特徴点分布ベクトル算出手段と、識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、学習済み識別情報データを用いて識別対象物体を識別する物体識別手段と、を備える。
なお、本件において「識別対象物体」とは、識別対象とされる物体、即ち、識別したい物体を意味し、「学習用物体」とは、識別対象物体の識別にて用いられる学習済み識別情報データを事前に取得するために使用される物体を意味する。
このような物体識別システムでは、複数視点から学習用物体を撮影した画像データから、学習用物体の複数の特徴点が抽出され、抽出された学習用物体の複数の特徴点から、学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群が複数組選択され、学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、学習用物体についての複数の幾何学的不変量が取得され、学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、学習用物体についての複数の幾何学的不変量特徴ベクトルが取得される。そして、学習用物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルが算出されるとともに、学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルが算出される。さらに、学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として学習用物体を機械学習させることで、学習済み識別情報データが取得される。
そして、同様に、複数視点から識別対象物体を撮影した画像データから、識別対象物体の複数の特徴点が抽出され、抽出された識別対象物体の複数の特徴点から、識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群が複数組選択され、識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、識別対象物体についての複数の幾何学的不変量が取得され、識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、識別対象物体についての複数の幾何学的不変量特徴ベクトルが取得される。そして、識別対象物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルが算出されるとともに、識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルが算出される。さらに、識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、学習済み識別情報データを用いて、識別対象物体が識別される。
上記のように、学習用物体についての局所特徴量ベース特徴点分布ベクトルとともに学習用物体についての複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、学習用物体を機械学習させることで学習済み識別情報データを取得する。さらに、学習済み識別情報データと、識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルとに基づいて、識別対象物体を識別することで、物体にタグを装着することなく、複数視点からのカメラ画像を対象にしつつ、カメラの視点方向等に依存しないロバストな物体識別を行うことができる。
なお、上記の物体識別システムは、学習用物体および識別対象物体を複数視点から撮影した画像データを取得する画像データ取得手段と、物体識別手段による識別結果を出力する出力手段と、をさらに備えてもよい。また、上記の物体識別システムは、学習用物体についての学習済み識別情報データを格納するための識別情報データベースと、識別情報データ取得手段により取得された学習用物体についての学習済み識別情報データを識別情報データベースに格納する格納手段と、をさらに備えてもよい。
上記の物体識別システムに係る発明は、物体識別方法に係る発明として捉えることもでき、以下のように記述することができる。即ち、本発明に係る物体識別方法は、物体識別システムによって実行される物体識別方法であって、複数視点から学習用物体を撮影した画像データから、学習用物体の複数の特徴点を抽出するステップと、抽出された学習用物体の複数の特徴点から、学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、選択された学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、学習用物体についての複数の幾何学的不変量を取得するステップと、取得された学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、学習用物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、取得された学習用物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、抽出された学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として学習用物体を機械学習させることで、学習済み識別情報データを取得するステップと、複数視点から識別対象物体を撮影した画像データから、識別対象物体の複数の特徴点を抽出するステップと、抽出された識別対象物体の複数の特徴点から、識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、選択された識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、識別対象物体についての複数の幾何学的不変量を取得するステップと、取得された識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、取得された識別対象物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、抽出された識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、学習済み識別情報データを用いて識別対象物体を識別するステップと、を備える。
本発明によれば、物体にタグを装着することなく、複数視点からのカメラ画像を対象にしつつ、カメラの視点方向等に依存しないロバストな物体識別を行うことができる。
発明の実施形態に係る物体識別システム構成図である。 識別情報データベースの作成に係る処理のフロー図である。 識別対象物体の物体識別に係る処理のフロー図である。 物体識別サーバのハードウェア構成例を示す図である。
以下、図面を用いて発明の実施形態を説明する。以下では、複数視点からのカメラ画像を対象としてカメラの視点方向に依存しない物体識別を行う物体識別システムおよび物体識別方法に関する一実施形態を説明する。なお、以下では、複数視点数が2である場合を例にとって説明するが、複数視点数が3以上の場合も同様に適用できる。
[物体識別システムの構成]
図1には、物体識別システム1の一構成例を示す。図1に示すように、物体識別システム1は、識別対象物体および学習用物体(これらを以下では「物体」と総称する)を複数視点から撮影した画像データを取得するステレオカメラ10と、画像データからの特徴点位置の抽出、幾何学的不変量の算出、Bag_of_Feature(BoF)ベースの特徴量ベクトルの算出、機械学習、物体識別などを行う物体識別サーバ20と、学習用物体についての学習済み識別情報データを格納するための識別情報データベース40と、物体識別の結果を表示するための表示装置50(出力手段)と、を備えている。
ステレオカメラ10には、ステレオカメラ間のキャリブレーションを実行する前処理部11と、物体を複数視点から撮影する撮影部12と、撮影で得られた複数視点(一例として2つの視点)からの画像(以下「ステレオ画像」という)の画像データを物体識別サーバ20へ送信する画像データ送信部13とが搭載されている。
物体識別サーバ20は、ステレオ画像の画像データをステレオカメラ10から受信する画像データ受信部21と、ステレオ画像の画像データから物体の複数の特徴点を抽出する特徴点抽出部22(学習用特徴点抽出手段、識別用特徴点抽出手段)と、後述の特徴点マッチングを行う特徴点マッチング部23と、後述のテンプレートマッチングを行うテンプレートマッチング部24と、幾何学的不変量を算出可能な特徴点候補を抽出する特徴点候補抽出部25a、25bと、後述の特徴点配置チェックを行う特徴点配置チェック部26a、26bと、複数の特徴点候補に基づいて幾何学的不変量を算出する幾何学的不変量算出部27a、27bと、算出された幾何学的不変量の一致性チェックを行う一致性チェック部28a、28bと、幾何学的不変量から物体識別用の幾何学的不変量特徴ベクトルを算出する特徴量ベクトル算出部29a、29bと、幾何学的不変量特徴ベクトルから後述の手順でBoF用特徴点候補を抽出するBoF用特徴点候補抽出部30a、30bと、幾何学的不変量特徴ベクトルに基づく特徴基底ベクトル(Bag_of_VisualWords(BoVW))を抽出する特徴基底ベクトル抽出部31a、31bと、後述の手順で幾何学的不変量特徴ベクトルに基づく特徴基底ベクトル(BoVW)から幾何学的不変量特徴ベクトルに基づくBoFベースの特徴量ベクトルを算出するBoFベース特徴量ベクトル算出部32a、32bと、物体の複数の特徴点の各々に関する局所特徴量(ここでは一例としてSURF特徴量)から後述の手順でBoF用特徴点候補を抽出するBoF用特徴点候補抽出部30cと、局所特徴量に基づく特徴基底ベクトルを抽出する特徴基底ベクトル抽出部31cと、後述の手順で局所特徴量に基づく特徴基底ベクトルから局所特徴量に基づくBoFベースの特徴量ベクトルを算出するBoFベース特徴量ベクトル算出部32cと、学習用物体についての局所特徴量に基づくBoFベースの特徴量ベクトルおよび幾何学的不変量特徴ベクトルに基づく複数のBoFベースの特徴量ベクトルを入力として学習用物体を機械学習(一例としてSVM(Support Vector Machine)学習)させることで学習済み識別情報データを取得する機械学習部33(識別情報データ取得手段)と、取得された学習済み識別情報データを識別情報データベース40に格納する格納部34(格納手段)と、識別対象物体についての局所特徴量に基づくBoFベースの特徴量ベクトルおよび幾何学的不変量特徴ベクトルに基づく複数のBoFベースの特徴量ベクトルを入力として上記学習済み識別情報データを用いて識別対象物体を識別する物体識別部35(物体識別手段)と、を備える。
なお、本実施形態では、機械学習の方法として、SVMに基づく機械学習の例を示すが、これに限定されるものではなく、他の機械学習の方法(例えば、AdaBoost(Adaptive Boosting)に基づく機械学習など)を採用してもよい。
本実施形態では、複数の幾何学的不変量特徴ベクトルとして2つの幾何学的不変量特徴ベクトルを算出する例を示すが、これに限定されるものではない。2つの幾何学的不変量特徴ベクトルとは、後述する7つの特徴点に基づく幾何学的不変量特徴ベクトル、および5つの特徴点に基づく幾何学的不変量特徴ベクトルである。なお、特徴点候補抽出部25a、特徴点配置チェック部26a、幾何学的不変量算出部27a、一致性チェック部28a、特徴量ベクトル算出部29a、BoF用特徴点候補抽出部30a、特徴基底ベクトル抽出部31a、および、BoFベース特徴量ベクトル算出部32aは、後述する7つの特徴点に基づく幾何学的不変量特徴ベクトルの算出および当該幾何学的不変量特徴ベクトルに基づくBoFベースの特徴量ベクトルの算出に係る一連のステップA6a〜A13aの処理群を実行するものであり、一方、特徴点候補抽出部25b、特徴点配置チェック部26b、幾何学的不変量算出部27b、一致性チェック部28b、特徴量ベクトル算出部29b、BoF用特徴点候補抽出部30b、特徴基底ベクトル抽出部31b、および、BoFベース特徴量ベクトル算出部32bは、後述する5つの特徴点に基づく幾何学的不変量特徴ベクトルの算出および当該幾何学的不変量特徴ベクトルに基づくBoFベースの特徴量ベクトルの算出に係る一連のステップA6b〜A13bの処理群を実行するものである。
なお、図1に示すように、ステレオカメラ10および画像データ受信部21は特許請求の範囲における「画像データ取得手段」に対応し、特徴点マッチング部23、テンプレートマッチング部24および特徴点候補抽出部25a、25bは「学習用特徴点選択手段、識別用特徴点選択手段」に対応し、さらに、特徴点配置チェック部26a、26bおよび幾何学的不変量算出部27a、27bは「学習用幾何学的不変量算出手段、識別用幾何学的不変量算出手段」に対応する。また、一致性チェック部28a、28bおよび特徴量ベクトル算出部29a、29bは「学習用幾何学的不変量特徴ベクトル算出手段、識別用幾何学的不変量特徴ベクトル算出手段」に対応し、BoF用特徴点候補抽出部30a、30b、特徴基底ベクトル抽出部31a、31b、およびBoFベース特徴量ベクトル算出部32a、32bは「学習用幾何学的不変量ベース特徴点分布ベクトル算出手段、識別用幾何学的不変量ベース特徴点分布ベクトル算出手段」に対応する。さらに、BoF用特徴点候補抽出部30c、特徴基底ベクトル抽出部31cおよびBoFベース特徴量ベクトル算出部32cは「学習用局所特徴量ベース特徴点分布ベクトル算出手段、識別用局所特徴量ベース特徴点分布ベクトル算出手段」に対応する。また、本実施形態における「幾何学的不変量特徴ベクトルに基づくBoFベースの特徴量ベクトル」が特許請求の範囲に記載の「幾何学的不変量ベース特徴点分布ベクトル」に相当し、本実施形態における「局所特徴量に基づくBoFベースの特徴量ベクトル」が特許請求の範囲に記載の「局所特徴量ベース特徴点分布ベクトル」に相当する。
ところで、図1には、識別情報データベース40および表示装置50が物体識別サーバ20とは別体である構成例を示したが、識別情報データベース40と表示装置50のうち一方又は両方は物体識別サーバ20と一体であってもよい。
また、物体識別サーバ20は、ハードウェアとしては通常の情報処理装置の基本構成と同様であり、特別なハードウェア構成を必要とするものではない。例えば、図4に示すように、物体識別サーバ20は、CPU20A、RAM20B、ROM20C、キーボードやマウス等の入力装置20D、外部との通信を行う通信装置20E、ハードディスク等の補助記憶装置20F、および、ディスプレイやプリンタ等の出力装置20Gを備える。図1の識別情報データベース40と表示装置50を物体識別サーバ20と一体に構成する場合、補助記憶装置20Fにより識別情報データベース40を構成し、出力装置20Gにより表示装置50を構成してもよい。
[物体識別方法に係る処理]
以下、物体識別方法に係る処理として、「識別情報データベースの作成に係る処理(図2)」と、「識別対象物体の物体識別に係る処理(図3)」とを順に説明する。後者の「識別対象物体の物体識別に係る処理」は、前者の「識別情報データベースの作成に係る処理」により識別情報データベース40が作成された後に実行される。なお、これら処理の開始トリガーは特定のものに限定されず、例えばステレオカメラ10による物体撮影時の所定のオペレータ操作などを開始トリガーとしてもよい。
[識別情報データベースの作成に係る処理]
(A1)ステレオカメラキャリブレーション
図2に示すように、識別情報データベースの作成に係る処理はステップA1〜A12を備えており、まず、ステップA1では、ステレオカメラ10の前処理部11が、事前に既知の方法で、カメラキャリブレーションならびに画像データにおけるエピポーララインの位置合わせをする。ここで、得られたステレオ画像をそれぞれI(x,y)、I(x,y)と表現する。
(A2)ステレオ画像取り込み
ステップA2では、学習用物体が撮影部12により任意の複数の(ここでは一例として2つの)視点から撮影され、画像データ送信部13が、得られたステレオ画像I(x,y)、I(x,y)を物体識別サーバ20へ送信する。
(A3)特徴点抽出
ステップA3では、物体識別サーバ20の画像データ受信部21が学習用物体のステレオ画像の画像データをステレオカメラ10から受信し、特徴点抽出部22が、以下のようにしてステレオ画像の画像データから学習用物体の特徴点情報(例えば後述のSURF特徴量)を抽出する。
特徴点抽出部22は、ステレオ画像I(x,y)、I(x,y)のそれぞれに対してエッジ特徴抽出処理を実施する。エッジ特徴抽出処理の方法は問わないが、ここでは既知の方法であるSURF特徴抽出法を利用する。抽出された128次元ベクトルであるSURF特徴量を、それぞれ、
Figure 0006092012

とおく(ただし、i=(x,y)、j=(x,y))。
また、この時のヘッセ行列式Det(j)、Det(i)も算出する。
ここで、
Figure 0006092012

である。ここで、Dxxはx方向のラプラシアンガウシアンを、Dyyはy方向のラプラシアンガウシアンを、Dxyはガウス関数をx方向とy方向のそれぞれに一次微分したものを、kは正の定数を、それぞれ表す。そして、ヘッセ行列式(Det(j)とDet(i))の大きいもの順に、それぞれをソートする。
(A4)特徴点マッチング
ステップA4では、特徴点マッチング部23が、ステレオ画像におけるSURF特徴量が近いものを選択するためにベクトル
Figure 0006092012

との差分ベクトルのユークリッド距離
Figure 0006092012

を算出する。そして、dist(i,j)を最小にする
Figure 0006092012

なる組(imin,jmin)を探索する。
(A5)エピポーラ線上のテンプレートマッチング
ステップA5では、テンプレートマッチング部24が、上記で得られた組(imin,jmin)について、SURF特徴量が抽出されたステレオ画像のそれぞれの点の局所領域LA(i)とLA(j)とのエピポーラ線上のテンプレートマッチングを実施する。テンプレートマッチングにあたっては、下記の類似度
Figure 0006092012

を算出する。ここで、
Figure 0006092012

は、局所領域i∈δならびにj∈δでの画素値の平均を表す。この類似度が最大になるときの
Figure 0006092012

を抽出する。
図2において、ステップA6a〜A10aの処理群、ステップA6b〜A10bの処理群、およびステップA6c〜A8cの処理群は、互いに独立しており、同時並行で実行される。もちろん、これら処理群を順次に実行しても構わない。
(A6a)特徴点候補抽出(7点)
ステップA6aでは、特徴点候補抽出部25aが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
Figure 0006092012

を満たした7点を、幾何学的不変量算出用の特徴点候補Pとして抽出する。
また、上記の条件を満たした点が7点に満たない場合は、ヘッセ行列式Det(j)とDet(i)の大きいものから順に選択し、LA(i)もしくはLA(j)を用いてエピポーラライン上をテンプレートマッチングすることで対応する局所領域の中心点を探索する。その時、算出されたCorr(i,j)は、Corr(i,j)>Thcorrという条件を満たせば、幾何学的不変量算出用の特徴点候補Pとして抽出される。
(A7a)特徴点配置チェック(7点)
ステップA7aでは、特徴点配置チェック部26aが、上記で得られた幾何学的不変量算出用特徴点から7点の全ての組み合わせを抽出するために、7組の組み合わせを作成する。はじめに、7点P(k=1,2,…,7)の重心Oを算出する。そして、ベクトル
Figure 0006092012

と画像の水平ベクトル(1,0)とのなす角の大きさ順に点をソートする。次に、重心Oに最も距離の近い点をCとする。そして、残りの点をなす角の小さい順からA,B,D,E,F,Kと名付ける。
ここで、各点を頂点とする多角形ABCDEFKを考えると、3つの面ABDC、DFEC、CEKAが同一平面にある条件、即ち下記の条件、を満たすものを幾何学的不変量が算出可能な7点の組として選択する。
Figure 0006092012

ただし、
Figure 0006092012

は、それぞれ直線ADとBCの交点、直線DEとFCの交点、直線CKとEAの交点を表し、tは正の定数を表す。
(A8a)7点に基づく幾何学的不変量の算出
ステップA8aでは、幾何学的不変量算出部27aが、上記の処理で特徴点候補として残った7点の組み合わせごとに、既知である以下の3つの不変量をステレオ画像ごとに算出する。
Figure 0006092012

また、Gは、
Figure 0006092012

であり、Hは、
Figure 0006092012

である。
ただし、detPABCは、点A、B、Cの画像面内での座標をそれぞれ(x,y)、(x,y)、(x,y)である時、下記のように計算される。
Figure 0006092012
(A9a)ステレオ画像の幾何学的不変量一致性チェック(7点)
この時、7点の組み合わせが左右画像のそれぞれで適切に対応関係がとれていれば、上記3つの幾何学的不変量は一致するはずである。そこで、ステップA9aでは、一致性チェック部28aが、下記の条件を満たすか否かをチェックすることで、上記3つの幾何学的不変量の一致性をチェックする。
Figure 0006092012

ここで、Thεは誤差の閾値を表す。
なお、このとき、上記で抽出された3つの幾何学的不変量それぞれについて、以下のように左右画像それぞれの幾何学的不変量の平均が算出され、得られた平均値は、後述の幾何学的不変量特徴量ベクトルを算出するために利用される。
Figure 0006092012
(A10a)特徴量ベクトル算出(7点)
ステップA10aでは、特徴量ベクトル算出部29aが、上記で算出された3つの特徴量ベクトル算出用の平均値を、例えば以下のように規格化することで、幾何学的不変量特徴量ベクトル
Figure 0006092012

を算出する。規格化の方法は、特定の方法に限定されないが、ここでは、それぞれ底が10の対数をとり事前に作成されたデータベースで用いた閾値を用いて0.1から0.9の間で規格化する例を示す。
Figure 0006092012
(A11a)BoF用特徴点候補抽出(7点に基づく幾何学的不変量)
さらに、以下のステップA11a〜A13aの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA11aでは、BoF用特徴点候補抽出部30aが、ステップA10aの規格化により算出されたBag_of_Feature(7点に基づく幾何学的不変量)用特徴量VCf(kC)(1≦kC≦NC)をBoF用特徴点候補として抽出する。
(A12a)特徴基底ベクトル抽出(7点に基づく幾何学的不変量)
ステップA12aでは、特徴基底ベクトル抽出部31aが、全ての学習用物体の画像の7点に基づく幾何学的不変量特徴ベクトルに対し、公知のクラスタリング手法であるk-means法を実行し、得られたMC個のクラスターのセントロイドから、7点に基づく幾何学的不変量によるMC個の特徴基底ベクトル
Figure 0006092012

を抽出する。
(A13a)BoFベースの特徴量ベクトル算出(7点に基づく幾何学的不変量)
ステップA13aでは、BoFベース特徴量ベクトル算出部32aが、ステップA12aで抽出されたMC個の特徴基底ベクトルを用いて、例えば以下のようにして7点に基づく幾何学的不変量による特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
すなわち、BoFベース特徴量ベクトル算出部32aは、ステレオ画像で得られる7点に基づく幾何学的不変量特徴量ベクトルVCf(kC)に対して、どの特徴基底ベクトル
Figure 0006092012

に最も近いかにより、
Figure 0006092012

を算出する。
ここで、nearest(BVC(m))は、BVC(m)の中で最もVCf(kC) とのユークリッド距離が近いBVC(mc)を表す。
次に、算出した
Figure 0006092012

についての投票(Voting)によって、当該学習用物体の画像に対する、7点に基づく幾何学的不変量による特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12aで抽出されたMC個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13aの処理でも用いるため、BoFベース特徴量ベクトル算出部32aは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11a〜A13aでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM:Gaussian Mixture Model)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
(A6b)特徴点候補抽出(5点)
一方、ステップA6bでは、特徴点候補抽出部25bが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
Figure 0006092012

を満たした5点を、幾何学的不変量算出用の特徴点候補Pとして抽出する。
また、上記の条件を満たした点が5点に満たない場合は、ヘッセ行列式Det(j)とDet(i)の大きいものから順に選択し、LA(i)もしくはLA(j)を用いてエピポーラライン上をテンプレートマッチングすることで対応する局所領域の中心点を探索する。その時、算出されたCorr(i,j)は、Corr(i,j)>Thcorrという条件を満たせば、幾何学的不変量算出用の特徴点候補Pとして抽出される。
(A7b)特徴点配置チェック(5点)
ステップA7bでは、特徴点配置チェック部26bが、ステップA6bで得られた幾何学的不変量算出用特徴点から5点の全ての組み合わせを抽出するために、5組の組み合わせを作成する。なお、ステップA6bで得られた5点を、P(k=1,2,…,5)とする。次に、特徴点配置チェック部26bは、これら5点の並び順(順列)を全て作成する。例えば、各点の並び順をそれぞれA、B、C、D、Eとすると、以下の5!=120通りの順列が作成できる。
Figure 0006092012

そして、特徴点配置チェック部26bは、A、B、C、D、Eの5点のうち、どの3点も同一直線状になく、また、頂点を座標原点で3点からできる三角形を底にする三角錐の体積が存在するか否かを調べるために、下記の条件を満たす順列を選択する。
Figure 0006092012

ただし、detPABCは、点A、B、Cの画像面内での座標をそれぞれ(x,y)、(x,y)、(x,y)である時、下記のように計算される。
Figure 0006092012
(A8b)5点に基づく幾何学的不変量の算出
ステップA8bでは、幾何学的不変量算出部27bが、上記の処理で特徴点候補として残った5点の組み合わせごとに、既知である以下の2つの不変量をステレオ画像ごとに算出する。
Figure 0006092012
(A9b)ステレオ画像の幾何学的不変量一致性チェック(5点)
この時、5点の組み合わせが左右画像のそれぞれで適切に対応関係がとれていれば、上記2つの幾何学的不変量は一致するはずである。そこで、ステップA9bでは、一致性チェック部28bが、下記の条件を満たすか否かをチェックすることで、上記2つの幾何学的不変量の一致性をチェックする。
Figure 0006092012

ここで、Thεは誤差の閾値を表す。
なお、このとき、上記で抽出された2つの幾何学的不変量それぞれについて、以下のように左右画像それぞれの幾何学的不変量の平均が算出され、得られた平均値は、後述の幾何学的不変量特徴量ベクトルを算出するために利用される。
Figure 0006092012
(A10b)特徴量ベクトル算出(5点)
ステップA10bでは、特徴量ベクトル算出部29bが、上記で算出された2つの特徴量ベクトル算出用の平均値を、例えば以下のように規格化することで、幾何学的不変量特徴量ベクトル
Figure 0006092012

を算出する。規格化の方法は、特定の方法に限定されないが、ここでは、それぞれ底が10の対数をとり事前に作成されたデータベースで用いた閾値を用いて0.1から0.9の間で規格化する例を示す。
Figure 0006092012
(A11b)BoF用特徴点候補抽出(5点に基づく幾何学的不変量)
さらに、以下のステップA11b〜A13bの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA11bでは、BoF用特徴点候補抽出部30bがステップA10bの規格化により算出されたBag_of_Feature(5点に基づく幾何学的不変量)用特徴量VPf(kP)(1≦kP≦NP)をBoF用特徴点候補として抽出する。
(A12b)特徴基底ベクトル抽出(5点に基づく幾何学的不変量)
ステップA12aでは、特徴基底ベクトル抽出部31bが、全ての学習用物体の画像の5点に基づく幾何学的不変量特徴ベクトルに対し、公知のクラスタリング手法であるk-means法を実行し、得られたMP個のクラスターのセントロイドから、5点に基づく幾何学的不変量によるMP個の特徴基底ベクトル
Figure 0006092012

を抽出する。
(A13b)BoFベースの特徴量ベクトル算出(5点に基づく幾何学的不変量)
ステップA13bでは、BoFベース特徴量ベクトル算出部32bが、ステップA12bで抽出されたMP個の特徴基底ベクトルを用いて、例えば以下のようにして5点に基づく幾何学的不変量による特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
すなわち、BoFベース特徴量ベクトル算出部32bは、ステレオ画像で得られる5点に基づく幾何学的不変量特徴量ベクトルVPf(kP)に対して、どの特徴基底ベクトル
Figure 0006092012

に最も近いかにより、
Figure 0006092012

を算出する。
ここで、nearest(BVP(mP))は、BVP(mP)の中で最もVPf(kP) とのユークリッド距離が近いBVP(mP)を表す。
次に、算出した
Figure 0006092012

についての投票(Voting)によって、当該学習用物体の画像に対する、5点に基づく幾何学的不変量による特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12bで抽出されたMP個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13bの処理でも用いるため、BoFベース特徴量ベクトル算出部32bは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11b〜A13bでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
(A11c)BoF用特徴点候補抽出(SURF特徴量)
さらに、以下のステップA6c〜A8cの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA6cでは、BoF用特徴点候補抽出部30cが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
Figure 0006092012

を満たした点を、Bag_of_Feature(BoF)用特徴点候補P(1≦k≦N)として抽出する。
(A12c)特徴基底ベクトル抽出(SURF特徴量)
ステップA7cでは、特徴基底ベクトル抽出部31cが、全ての学習用物体の画像のBoF用特徴点候補Pが持つSURF特徴量に対し、公知のクラスタリング手法であるk-means法を実行し、得られたMN個のクラスターのセントロイドから、局所特徴量に基づくMN個の特徴基底ベクトル
Figure 0006092012

を抽出する。
(A13c)BoFベースの特徴量ベクトル算出(SURF特徴量)
ステップA8cでは、BoFベース特徴量ベクトル算出部32cが、ステップA7cで抽出されたMN個の特徴基底ベクトルを用いて、例えば以下のようにして局所特徴量に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
すなわち、BoFベース特徴量ベクトル算出部32cは、ステレオ画像ごとに得られるSURF特徴量
Figure 0006092012

それぞれに対して、どの特徴基底ベクトル
Figure 0006092012

に最も近いかにより、
Figure 0006092012

を算出する。
ここで、nearest(BVN(mN))は、BVN(mN)の中で、SURF特徴量
Figure 0006092012

とのユークリッド距離が最も近いBVN(mN)を表す。
次に、算出した
Figure 0006092012

についての投票(Voting)によって、当該学習用物体の画像に対する、特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
Figure 0006092012

を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12cで抽出されたMN個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13cの処理でも用いるため、BoFベース特徴量ベクトル算出部32cは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11c〜A13cでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
(A14)物体識別のための機械学習
以上説明したステップA6a〜A13aの処理群、ステップA6b〜A13bの処理群、およびステップA11c〜A13cの処理群が実行された後、次のステップA14では、機械学習部33が、ステップA13aで得られたBoFベースの特徴量ベクトル(7点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)
Figure 0006092012

と、ステップA13bで得られたBoFベースの特徴量ベクトル(5点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)
Figure 0006092012

と、ステップA13cで得られたBoFベースの特徴量ベクトル(局所特徴量に基づくBoFベースの特徴量ベクトル)
Figure 0006092012

をそれぞれ用いて、機械学習により物体識別器を生成する。
上記の機械学習の方法や構成は特に限定されないが、ここでは、公知の技術であるSVMを用いたマルチカーネル学習を使った例を示す。即ち、機械学習部33は、上記のBoFベースの特徴量ベクトルXCf、XPfおよびXNfをそれぞれ入力データにしてカーネルSVMを使って、学習用物体がどのカテゴリに識別できるかを学習させる。この学習により得られるカーネルをそれぞれKXCf、KXPf、KXNfとすると、これらを線形結合して得られる合成カーネルKallは、合成係数α、β、γ(0≦α、0≦β、0≦γ)を用いて、
all=αKXCf+βKXPf+γKXNf (α+β+γ=1)
と表せる。機械学習部33は、学習用物体がどのカテゴリに識別できるかを、合成カーネルKallを用いたSVMで学習させる。そして、学習して得られる識別機
Figure 0006092012

により、学習用物体がどのカテゴリに識別できるかを学習させる。
(A15)SVM識別情報の格納
そして、ステップA15で格納部34が、上記学習で得られたSVM識別情報を識別情報データベース40へ格納する。以上で、図2に示す識別情報データベースの作成に係る処理を終了する。
[識別対象物体の物体識別に係る処理]
次に、図3に示す識別対象物体の物体識別に係る処理を説明する。図3に示すように、識別対象物体の物体識別に係る処理はステップB1〜B15を備える。このうちステップB1〜B5、B6a〜B10a、B6b〜B10bでは、処理対象を「識別対象物体」として、前述した図2のステップA1〜A5、A6a〜A10a、A6b〜A10bと同様の処理を行う。ここでは、重複した説明を省くため、ステップB1〜B5、B6a〜B10a、B6b〜B10bの説明を省略する。
ステップB11aでは、BoF用特徴点候補抽出部30aが、ステップA11aと同様の手順で、7点に基づく幾何学的不変量特徴ベクトルVCf(kC)(1≦kC≦NC)を抽出し、その後、ステップA12aのような特徴基底ベクトルの抽出は実行せずに、ステップB13aへ進む。ステップB13aでは、BoFベース特徴量ベクトル算出部32aが、ステップB11aで抽出されたBoF用特徴点候補VCf(kC)(1≦kC≦NC)およびステップA12aで既に抽出されたMC個の特徴基底ベクトルを用いて、ステップA13aと同様の手順で、BoFベースの特徴量ベクトル(7点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)XCf(kC)を算出する。
同様に、ステップB11bでは、BoF用特徴点候補抽出部30bが、ステップA11bと同様の手順で、5点に基づく幾何学的不変量特徴ベクトルVPf(kP)(1≦kP≦NP)を抽出し、その後、ステップA12bのような特徴基底ベクトルの抽出は実行せずに、ステップB13bへ進む。ステップB13bでは、BoFベース特徴量ベクトル算出部32bが、ステップB11bで抽出されたBoF用特徴点候補VPf(kP)(1≦kP≦NP)およびステップA12bで既に抽出されたMP個の特徴基底ベクトルを用いて、ステップA13bと同様の手順で、BoFベースの特徴量ベクトル(5点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)XPf(kP)を算出する。
一方、ステップB11cでは、BoF用特徴点候補抽出部30cが、ステップA11cと同様の手順で、BoF用特徴点候補P(1≦k≦N)を抽出し、その後、ステップA12cのような局所特徴量に基づく特徴基底ベクトルの抽出は実行せずに、ステップB13cへ進む。ステップB13cでは、BoFベース特徴量ベクトル算出部32cが、ステップB11cで抽出されたBoF用特徴点候補P(1≦k≦N)およびステップA12cで既に抽出されたMN個の特徴基底ベクトルを用いて、ステップA13cと同様の手順で、局所特徴量に基づくBoFベースの特徴量ベクトルXNf(kN)を算出する。
そして、ステップB6a〜B13aの処理群、ステップB6b〜B13bの処理群、およびステップB11c、B13cの処理群が実行された後、次のステップB14では、物体識別部35が、ステップB13aで得られたBoFベースの特徴量ベクトル(7点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)XCf、ステップB13bで得られたBoFベースの特徴量ベクトル(5点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)XPf、およびステップB13cで得られたBoFベースの特徴量ベクトル(局所特徴量に基づくBoFベースの特徴量ベクトル)XNfを入力として、ステップA15で識別情報データベース40に格納された学習済のSVM識別情報を用いて、識別対象物体がどのカテゴリに入るかを判定することで、識別対象物体を識別する。このときの判定では、例えば下記の式のように、最も多くの判定結果を得たカテゴリnmaxを、対象物体が属するカテゴリとして判定する。
Figure 0006092012
そして、ステップB15で物体識別部35が、ステップB14での識別結果を表示装置50に送信する。これにより、識別対象物体の識別結果が表示装置50に表示され、当該識別結果を確認することができる。以上で、図3に示す識別対象物体の物体識別に係る処理を終了する。
以上説明した本実施形態によれば、複数視点からのカメラ画像情報ならびに幾何学的不変量の拘束条件(例えばステップA7a、A7b、B7a、B7bの特徴点配置チェックにおける条件)を用いることで,物体形状の固有な情報であるエッジ特徴量を精度良く抽出することができる。また、上記で抽出された特徴点の組み合わせの中で、特徴点を頂点とする多面体が構成できるもののみを抽出しているので、BoFベースの特徴量ベクトルXCf、XPfおよびXNfを安定して算出することができる。また、視点方向に不依存な幾何学的不変量を物体識別のための特徴量とすることで、カメラの視点方向等に依存しないロバストな物体識別が可能となる。
1…物体識別システム、10…ステレオカメラ、11…前処理部、12…撮影部、13…画像データ送信部、20…物体識別サーバ、20A…CPU、20B…RAM、20C…ROM、20D…入力装置、20E…通信装置、20F…補助記憶装置、20G…出力装置、21…画像データ受信部、22…特徴点抽出部、23…特徴点マッチング部、24…テンプレートマッチング部、25a、25b…特徴点候補抽出部、26a、26b…特徴点配置チェック部、27a、27b…幾何学的不変量算出部、28a、28b…一致性チェック部、29a、29b…特徴量ベクトル算出部、30a、30b、30c…BoF用特徴点候補抽出部、31a、31b、31c…特徴基底ベクトル抽出部、32a、32b、32c…BoFベース特徴量ベクトル算出部、33…機械学習部、34…格納部、35…物体識別部、40…識別情報データベース、50…表示装置。

Claims (4)

  1. 複数視点から学習用物体を撮影した画像データから、前記学習用物体の複数の特徴点を抽出する学習用特徴点抽出手段と、
    抽出された前記学習用物体の複数の特徴点から、前記学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する学習用特徴点選択手段と、
    選択された前記学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記学習用物体についての複数の幾何学的不変量を取得する学習用幾何学的不変量算出手段と、
    取得された前記学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記学習用物体についての複数の幾何学的不変量特徴ベクトルを取得する学習用幾何学的不変量特徴ベクトル算出手段と、
    取得された前記学習用物体についての複数の幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する学習用幾何学的不変量ベース特徴点分布ベクトル算出手段と、
    前記抽出された前記学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する学習用局所特徴量ベース特徴点分布ベクトル算出手段と、
    前記学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として前記学習用物体を機械学習させることで、学習済み識別情報データを取得する識別情報データ取得手段と、
    複数視点から識別対象物体を撮影した画像データから、前記識別対象物体の複数の特徴点を抽出する識別用特徴点抽出手段と、
    抽出された前記識別対象物体の複数の特徴点から、前記識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する識別用特徴点選択手段と、
    選択された前記識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記識別対象物体についての複数の幾何学的不変量を取得する識別用幾何学的不変量算出手段と、
    取得された前記識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得する識別用幾何学的不変量特徴ベクトル算出手段と、
    取得された前記識別対象物体についての複数の幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する識別用幾何学的不変量ベース特徴点分布ベクトル算出手段と、
    前記抽出された前記識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する識別用局所特徴量ベース特徴点分布ベクトル算出手段と、
    前記識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、前記学習済み識別情報データを用いて前記識別対象物体を識別する物体識別手段と、
    を備える物体識別システム。
  2. 前記学習用物体および前記識別対象物体を複数視点から撮影した画像データを取得する画像データ取得手段と、
    前記物体識別手段による識別結果を出力する出力手段と、
    をさらに備える請求項1に記載の物体識別システム。
  3. 前記学習用物体についての学習済み識別情報データを格納するための識別情報データベースと、
    前記識別情報データ取得手段により取得された前記学習用物体についての学習済み識別情報データを前記識別情報データベースに格納する格納手段と、
    をさらに備える請求項1又は2に記載の物体識別システム。
  4. 物体識別システムによって実行される物体識別方法であって、
    複数視点から学習用物体を撮影した画像データから、前記学習用物体の複数の特徴点を抽出するステップと、
    抽出された前記学習用物体の複数の特徴点から、前記学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、
    選択された前記学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記学習用物体についての複数の幾何学的不変量を取得するステップと、
    取得された前記学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記学習用物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、
    取得された前記学習用物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、
    前記抽出された前記学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、
    前記学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として前記学習用物体を機械学習させることで、学習済み識別情報データを取得するステップと、
    複数視点から識別対象物体を撮影した画像データから、前記識別対象物体の複数の特徴点を抽出するステップと、
    抽出された前記識別対象物体の複数の特徴点から、前記識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、
    選択された前記識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記識別対象物体についての複数の幾何学的不変量を取得するステップと、
    取得された前記識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、
    取得された前記識別対象物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、
    前記抽出された前記識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、
    前記識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、前記学習済み識別情報データを用いて前記識別対象物体を識別するステップと、
    を備える物体識別方法。
JP2013127557A 2013-06-18 2013-06-18 物体識別システムおよび物体識別方法 Active JP6092012B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013127557A JP6092012B2 (ja) 2013-06-18 2013-06-18 物体識別システムおよび物体識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013127557A JP6092012B2 (ja) 2013-06-18 2013-06-18 物体識別システムおよび物体識別方法

Publications (2)

Publication Number Publication Date
JP2015001941A JP2015001941A (ja) 2015-01-05
JP6092012B2 true JP6092012B2 (ja) 2017-03-08

Family

ID=52296408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013127557A Active JP6092012B2 (ja) 2013-06-18 2013-06-18 物体識別システムおよび物体識別方法

Country Status (1)

Country Link
JP (1) JP6092012B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101739897B1 (ko) * 2016-01-04 2017-05-25 현대삼호중공업 주식회사 프레스용 펀칭기구
US10878278B1 (en) * 2015-05-16 2020-12-29 Sturfee, Inc. Geo-localization based on remotely sensed visual features

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5734000B2 (ja) * 2011-01-31 2015-06-10 株式会社Nttドコモ 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878278B1 (en) * 2015-05-16 2020-12-29 Sturfee, Inc. Geo-localization based on remotely sensed visual features
KR101739897B1 (ko) * 2016-01-04 2017-05-25 현대삼호중공업 주식회사 프레스용 펀칭기구

Also Published As

Publication number Publication date
JP2015001941A (ja) 2015-01-05

Similar Documents

Publication Publication Date Title
Aldoma et al. OUR-CVFH–oriented, unique and repeatable clustered viewpoint feature histogram for object recognition and 6DOF pose estimation
Smeets et al. meshSIFT: Local surface features for 3D face recognition under expression variations and partial data
US8994723B2 (en) Recognition and pose determination of 3D objects in multimodal scenes
Creusot et al. A machine-learning approach to keypoint detection and landmarking on 3D meshes
US8406532B2 (en) Image matching using line signature
US8379986B2 (en) Device, method, and computer-readable storage medium for recognizing an object in an image
WO2015161816A1 (en) Three-dimensional facial recognition method and system
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
JP5818327B2 (ja) 三次元物体認識用画像データベースの作成方法および作成装置
Mian et al. Automatic 3d face detection, normalization and recognition
Kim et al. 3D object recognition in range images using visibility context
US20130226532A1 (en) Computer vision cad model
US10204284B2 (en) Object recognition utilizing feature alignment
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
Guo et al. 3D free form object recognition using rotational projection statistics
EP3404583A1 (en) System and method for model adaptation
JP5734000B2 (ja) 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法
JPWO2019069617A1 (ja) 個体識別装置
Garcia-Garcia et al. Interactive 3D object recognition pipeline on mobile GPGPU computing platforms using low-cost RGB-D sensors
Lin et al. Scale invariant point feature (SIPF) for 3D point clouds and 3D multi-scale object detection
Sahin et al. A learning-based variable size part extraction architecture for 6D object pose recovery in depth images
JP6092012B2 (ja) 物体識別システムおよび物体識別方法
WO2015068417A1 (ja) 画像照合システム、画像照合方法およびプログラム
Kordelas et al. Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms
JP7231165B2 (ja) 検証システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170208

R150 Certificate of patent or registration of utility model

Ref document number: 6092012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250