JP6092012B2 - 物体識別システムおよび物体識別方法 - Google Patents
物体識別システムおよび物体識別方法 Download PDFInfo
- Publication number
- JP6092012B2 JP6092012B2 JP2013127557A JP2013127557A JP6092012B2 JP 6092012 B2 JP6092012 B2 JP 6092012B2 JP 2013127557 A JP2013127557 A JP 2013127557A JP 2013127557 A JP2013127557 A JP 2013127557A JP 6092012 B2 JP6092012 B2 JP 6092012B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- geometric
- identification
- vector
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
図1には、物体識別システム1の一構成例を示す。図1に示すように、物体識別システム1は、識別対象物体および学習用物体(これらを以下では「物体」と総称する)を複数視点から撮影した画像データを取得するステレオカメラ10と、画像データからの特徴点位置の抽出、幾何学的不変量の算出、Bag_of_Feature(BoF)ベースの特徴量ベクトルの算出、機械学習、物体識別などを行う物体識別サーバ20と、学習用物体についての学習済み識別情報データを格納するための識別情報データベース40と、物体識別の結果を表示するための表示装置50(出力手段)と、を備えている。
以下、物体識別方法に係る処理として、「識別情報データベースの作成に係る処理(図2)」と、「識別対象物体の物体識別に係る処理(図3)」とを順に説明する。後者の「識別対象物体の物体識別に係る処理」は、前者の「識別情報データベースの作成に係る処理」により識別情報データベース40が作成された後に実行される。なお、これら処理の開始トリガーは特定のものに限定されず、例えばステレオカメラ10による物体撮影時の所定のオペレータ操作などを開始トリガーとしてもよい。
(A1)ステレオカメラキャリブレーション
図2に示すように、識別情報データベースの作成に係る処理はステップA1〜A12を備えており、まず、ステップA1では、ステレオカメラ10の前処理部11が、事前に既知の方法で、カメラキャリブレーションならびに画像データにおけるエピポーララインの位置合わせをする。ここで、得られたステレオ画像をそれぞれIL(xL,yL)、IR(xR,yR)と表現する。
ステップA2では、学習用物体が撮影部12により任意の複数の(ここでは一例として2つの)視点から撮影され、画像データ送信部13が、得られたステレオ画像IL(xL,yL)、IR(xR,yR)を物体識別サーバ20へ送信する。
ステップA3では、物体識別サーバ20の画像データ受信部21が学習用物体のステレオ画像の画像データをステレオカメラ10から受信し、特徴点抽出部22が、以下のようにしてステレオ画像の画像データから学習用物体の特徴点情報(例えば後述のSURF特徴量)を抽出する。
とおく(ただし、i=(xR,yR)、j=(xL,yL))。
また、この時のヘッセ行列式DetL(j)、DetR(i)も算出する。
ここで、
である。ここで、Dxxはx方向のラプラシアンガウシアンを、Dyyはy方向のラプラシアンガウシアンを、Dxyはガウス関数をx方向とy方向のそれぞれに一次微分したものを、kは正の定数を、それぞれ表す。そして、ヘッセ行列式(DetL(j)とDetR(i))の大きいもの順に、それぞれをソートする。
ステップA4では、特徴点マッチング部23が、ステレオ画像におけるSURF特徴量が近いものを選択するためにベクトル
との差分ベクトルのユークリッド距離
を算出する。そして、dist(i,j)を最小にする
なる組(imin,jmin)を探索する。
ステップA5では、テンプレートマッチング部24が、上記で得られた組(imin,jmin)について、SURF特徴量が抽出されたステレオ画像のそれぞれの点の局所領域LAR(i)とLAL(j)とのエピポーラ線上のテンプレートマッチングを実施する。テンプレートマッチングにあたっては、下記の類似度
を算出する。ここで、
は、局所領域i∈δiならびにj∈δjでの画素値の平均を表す。この類似度が最大になるときの
を抽出する。
ステップA6aでは、特徴点候補抽出部25aが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
を満たした7点を、幾何学的不変量算出用の特徴点候補Pkとして抽出する。
ステップA7aでは、特徴点配置チェック部26aが、上記で得られた幾何学的不変量算出用特徴点から7点の全ての組み合わせを抽出するために、7組の組み合わせを作成する。はじめに、7点Pk(k=1,2,…,7)の重心Oを算出する。そして、ベクトル
と画像の水平ベクトル(1,0)とのなす角の大きさ順に点をソートする。次に、重心Oに最も距離の近い点をCとする。そして、残りの点をなす角の小さい順からA,B,D,E,F,Kと名付ける。
ここで、各点を頂点とする多角形ABCDEFKを考えると、3つの面ABDC、DFEC、CEKAが同一平面にある条件、即ち下記の条件、を満たすものを幾何学的不変量が算出可能な7点の組として選択する。
ただし、
は、それぞれ直線ADとBCの交点、直線DEとFCの交点、直線CKとEAの交点を表し、tは正の定数を表す。
ステップA8aでは、幾何学的不変量算出部27aが、上記の処理で特徴点候補として残った7点の組み合わせごとに、既知である以下の3つの不変量をステレオ画像ごとに算出する。
また、Gは、
であり、Hは、
である。
ただし、detPABCは、点A、B、Cの画像面内での座標をそれぞれ(xA,yA)、(xB,yB)、(xC,yC)である時、下記のように計算される。
この時、7点の組み合わせが左右画像のそれぞれで適切に対応関係がとれていれば、上記3つの幾何学的不変量は一致するはずである。そこで、ステップA9aでは、一致性チェック部28aが、下記の条件を満たすか否かをチェックすることで、上記3つの幾何学的不変量の一致性をチェックする。
ここで、Thεは誤差の閾値を表す。
なお、このとき、上記で抽出された3つの幾何学的不変量それぞれについて、以下のように左右画像それぞれの幾何学的不変量の平均が算出され、得られた平均値は、後述の幾何学的不変量特徴量ベクトルを算出するために利用される。
ステップA10aでは、特徴量ベクトル算出部29aが、上記で算出された3つの特徴量ベクトル算出用の平均値を、例えば以下のように規格化することで、幾何学的不変量特徴量ベクトル
を算出する。規格化の方法は、特定の方法に限定されないが、ここでは、それぞれ底が10の対数をとり事前に作成されたデータベースで用いた閾値を用いて0.1から0.9の間で規格化する例を示す。
さらに、以下のステップA11a〜A13aの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA11aでは、BoF用特徴点候補抽出部30aが、ステップA10aの規格化により算出されたBag_of_Feature(7点に基づく幾何学的不変量)用特徴量VCf(kC)(1≦kC≦NC)をBoF用特徴点候補として抽出する。
ステップA12aでは、特徴基底ベクトル抽出部31aが、全ての学習用物体の画像の7点に基づく幾何学的不変量特徴ベクトルに対し、公知のクラスタリング手法であるk-means法を実行し、得られたMC個のクラスターのセントロイドから、7点に基づく幾何学的不変量によるMC個の特徴基底ベクトル
を抽出する。
ステップA13aでは、BoFベース特徴量ベクトル算出部32aが、ステップA12aで抽出されたMC個の特徴基底ベクトルを用いて、例えば以下のようにして7点に基づく幾何学的不変量による特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
を算出する。
すなわち、BoFベース特徴量ベクトル算出部32aは、ステレオ画像で得られる7点に基づく幾何学的不変量特徴量ベクトルVCf(kC)に対して、どの特徴基底ベクトル
に最も近いかにより、
を算出する。
ここで、nearest(BVC(mc))は、BVC(mc)の中で最もVCf(kC) とのユークリッド距離が近いBVC(mc)を表す。
次に、算出した
についての投票(Voting)によって、当該学習用物体の画像に対する、7点に基づく幾何学的不変量による特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12aで抽出されたMC個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13aの処理でも用いるため、BoFベース特徴量ベクトル算出部32aは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11a〜A13aでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM:Gaussian Mixture Model)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
一方、ステップA6bでは、特徴点候補抽出部25bが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
を満たした5点を、幾何学的不変量算出用の特徴点候補Pkとして抽出する。
ステップA7bでは、特徴点配置チェック部26bが、ステップA6bで得られた幾何学的不変量算出用特徴点から5点の全ての組み合わせを抽出するために、5組の組み合わせを作成する。なお、ステップA6bで得られた5点を、Pk(k=1,2,…,5)とする。次に、特徴点配置チェック部26bは、これら5点の並び順(順列)を全て作成する。例えば、各点の並び順をそれぞれA、B、C、D、Eとすると、以下の5!=120通りの順列が作成できる。
そして、特徴点配置チェック部26bは、A、B、C、D、Eの5点のうち、どの3点も同一直線状になく、また、頂点を座標原点で3点からできる三角形を底にする三角錐の体積が存在するか否かを調べるために、下記の条件を満たす順列を選択する。
ただし、detPABCは、点A、B、Cの画像面内での座標をそれぞれ(xA,yA)、(xB,yB)、(xC,yC)である時、下記のように計算される。
ステップA8bでは、幾何学的不変量算出部27bが、上記の処理で特徴点候補として残った5点の組み合わせごとに、既知である以下の2つの不変量をステレオ画像ごとに算出する。
この時、5点の組み合わせが左右画像のそれぞれで適切に対応関係がとれていれば、上記2つの幾何学的不変量は一致するはずである。そこで、ステップA9bでは、一致性チェック部28bが、下記の条件を満たすか否かをチェックすることで、上記2つの幾何学的不変量の一致性をチェックする。
ここで、Thεは誤差の閾値を表す。
なお、このとき、上記で抽出された2つの幾何学的不変量それぞれについて、以下のように左右画像それぞれの幾何学的不変量の平均が算出され、得られた平均値は、後述の幾何学的不変量特徴量ベクトルを算出するために利用される。
ステップA10bでは、特徴量ベクトル算出部29bが、上記で算出された2つの特徴量ベクトル算出用の平均値を、例えば以下のように規格化することで、幾何学的不変量特徴量ベクトル
を算出する。規格化の方法は、特定の方法に限定されないが、ここでは、それぞれ底が10の対数をとり事前に作成されたデータベースで用いた閾値を用いて0.1から0.9の間で規格化する例を示す。
さらに、以下のステップA11b〜A13bの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA11bでは、BoF用特徴点候補抽出部30bがステップA10bの規格化により算出されたBag_of_Feature(5点に基づく幾何学的不変量)用特徴量VPf(kP)(1≦kP≦NP)をBoF用特徴点候補として抽出する。
ステップA12aでは、特徴基底ベクトル抽出部31bが、全ての学習用物体の画像の5点に基づく幾何学的不変量特徴ベクトルに対し、公知のクラスタリング手法であるk-means法を実行し、得られたMP個のクラスターのセントロイドから、5点に基づく幾何学的不変量によるMP個の特徴基底ベクトル
を抽出する。
ステップA13bでは、BoFベース特徴量ベクトル算出部32bが、ステップA12bで抽出されたMP個の特徴基底ベクトルを用いて、例えば以下のようにして5点に基づく幾何学的不変量による特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
を算出する。
すなわち、BoFベース特徴量ベクトル算出部32bは、ステレオ画像で得られる5点に基づく幾何学的不変量特徴量ベクトルVPf(kP)に対して、どの特徴基底ベクトル
に最も近いかにより、
を算出する。
ここで、nearest(BVP(mP))は、BVP(mP)の中で最もVPf(kP) とのユークリッド距離が近いBVP(mP)を表す。
次に、算出した
についての投票(Voting)によって、当該学習用物体の画像に対する、5点に基づく幾何学的不変量による特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12bで抽出されたMP個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13bの処理でも用いるため、BoFベース特徴量ベクトル算出部32bは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11b〜A13bでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
さらに、以下のステップA6c〜A8cの処理群によって、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルが算出される。即ち、ステップA6cでは、BoF用特徴点候補抽出部30cが、ステップA5で求めた(imin,jmin)と(imax,jmax)とが同一であり、かつ、SURF特徴量の差分dist(imin,jmin)およびテンプレートマッチングの類似度Corr(imax,jmax)が閾値ThdistおよびThcorrに対して下記の条件
を満たした点を、Bag_of_Feature(BoF)用特徴点候補Pk(1≦k≦N)として抽出する。
ステップA7cでは、特徴基底ベクトル抽出部31cが、全ての学習用物体の画像のBoF用特徴点候補Pkが持つSURF特徴量に対し、公知のクラスタリング手法であるk-means法を実行し、得られたMN個のクラスターのセントロイドから、局所特徴量に基づくMN個の特徴基底ベクトル
を抽出する。
ステップA8cでは、BoFベース特徴量ベクトル算出部32cが、ステップA7cで抽出されたMN個の特徴基底ベクトルを用いて、例えば以下のようにして局所特徴量に基づくBoFベースの特徴量ベクトル
を算出する。
すなわち、BoFベース特徴量ベクトル算出部32cは、ステレオ画像ごとに得られるSURF特徴量
それぞれに対して、どの特徴基底ベクトル
に最も近いかにより、
を算出する。
ここで、nearest(BVN(mN))は、BVN(mN)の中で、SURF特徴量
とのユークリッド距離が最も近いBVN(mN)を表す。
次に、算出した
についての投票(Voting)によって、当該学習用物体の画像に対する、特徴基底ベクトルのヒストグラムを生成する。その時の各頻度分布の成分をベクトル要素に割り当てることで、特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトル
を算出する。
なお、上記処理で用いた特徴基底ベクトル(ステップA12cで抽出されたMN個の特徴基底ベクトル)は、後述する識別対象物体を対象とする図3のステップB13cの処理でも用いるため、BoFベース特徴量ベクトル算出部32cは、図示しない内蔵メモリ等に特徴基底ベクトルを記憶しておく。また、上記ステップA11c〜A13cでは、k-means法を用いて特徴基底ベクトル(BoVW)に基づくBoFベースの特徴量ベクトルを算出する例を示したが、k-means法を用いた手法に限定されるものではなく、混合ガウスモデル(GMM)を用いた手法や、フィッシャー情報量ベクトルを用いた手法等を採用してもよい。
以上説明したステップA6a〜A13aの処理群、ステップA6b〜A13bの処理群、およびステップA11c〜A13cの処理群が実行された後、次のステップA14では、機械学習部33が、ステップA13aで得られたBoFベースの特徴量ベクトル(7点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)
と、ステップA13bで得られたBoFベースの特徴量ベクトル(5点に基づく幾何学的不変量から得られたBoFベースの特徴量ベクトル)
と、ステップA13cで得られたBoFベースの特徴量ベクトル(局所特徴量に基づくBoFベースの特徴量ベクトル)
をそれぞれ用いて、機械学習により物体識別器を生成する。
Kall=αKXCf+βKXPf+γKXNf (α+β+γ=1)
と表せる。機械学習部33は、学習用物体がどのカテゴリに識別できるかを、合成カーネルKallを用いたSVMで学習させる。そして、学習して得られる識別機
により、学習用物体がどのカテゴリに識別できるかを学習させる。
そして、ステップA15で格納部34が、上記学習で得られたSVM識別情報を識別情報データベース40へ格納する。以上で、図2に示す識別情報データベースの作成に係る処理を終了する。
次に、図3に示す識別対象物体の物体識別に係る処理を説明する。図3に示すように、識別対象物体の物体識別に係る処理はステップB1〜B15を備える。このうちステップB1〜B5、B6a〜B10a、B6b〜B10bでは、処理対象を「識別対象物体」として、前述した図2のステップA1〜A5、A6a〜A10a、A6b〜A10bと同様の処理を行う。ここでは、重複した説明を省くため、ステップB1〜B5、B6a〜B10a、B6b〜B10bの説明を省略する。
Claims (4)
- 複数視点から学習用物体を撮影した画像データから、前記学習用物体の複数の特徴点を抽出する学習用特徴点抽出手段と、
抽出された前記学習用物体の複数の特徴点から、前記学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する学習用特徴点選択手段と、
選択された前記学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記学習用物体についての複数の幾何学的不変量を取得する学習用幾何学的不変量算出手段と、
取得された前記学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記学習用物体についての複数の幾何学的不変量特徴ベクトルを取得する学習用幾何学的不変量特徴ベクトル算出手段と、
取得された前記学習用物体についての複数の幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する学習用幾何学的不変量ベース特徴点分布ベクトル算出手段と、
前記抽出された前記学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する学習用局所特徴量ベース特徴点分布ベクトル算出手段と、
前記学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として前記学習用物体を機械学習させることで、学習済み識別情報データを取得する識別情報データ取得手段と、
複数視点から識別対象物体を撮影した画像データから、前記識別対象物体の複数の特徴点を抽出する識別用特徴点抽出手段と、
抽出された前記識別対象物体の複数の特徴点から、前記識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択する識別用特徴点選択手段と、
選択された前記識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記識別対象物体についての複数の幾何学的不変量を取得する識別用幾何学的不変量算出手段と、
取得された前記識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得する識別用幾何学的不変量特徴ベクトル算出手段と、
取得された前記識別対象物体についての複数の幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出する識別用幾何学的不変量ベース特徴点分布ベクトル算出手段と、
前記抽出された前記識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出する識別用局所特徴量ベース特徴点分布ベクトル算出手段と、
前記識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、前記学習済み識別情報データを用いて前記識別対象物体を識別する物体識別手段と、
を備える物体識別システム。 - 前記学習用物体および前記識別対象物体を複数視点から撮影した画像データを取得する画像データ取得手段と、
前記物体識別手段による識別結果を出力する出力手段と、
をさらに備える請求項1に記載の物体識別システム。 - 前記学習用物体についての学習済み識別情報データを格納するための識別情報データベースと、
前記識別情報データ取得手段により取得された前記学習用物体についての学習済み識別情報データを前記識別情報データベースに格納する格納手段と、
をさらに備える請求項1又は2に記載の物体識別システム。 - 物体識別システムによって実行される物体識別方法であって、
複数視点から学習用物体を撮影した画像データから、前記学習用物体の複数の特徴点を抽出するステップと、
抽出された前記学習用物体の複数の特徴点から、前記学習用物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、
選択された前記学習用物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記学習用物体についての複数の幾何学的不変量を取得するステップと、
取得された前記学習用物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記学習用物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、
取得された前記学習用物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、
前記抽出された前記学習用物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、
前記学習用物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として前記学習用物体を機械学習させることで、学習済み識別情報データを取得するステップと、
複数視点から識別対象物体を撮影した画像データから、前記識別対象物体の複数の特徴点を抽出するステップと、
抽出された前記識別対象物体の複数の特徴点から、前記識別対象物体についての幾何学的不変量が算出可能な複数の特徴点から成る特徴点群を複数組選択するステップと、
選択された前記識別対象物体についての各組の特徴点群の位置から幾何学的不変量を算出することで、前記識別対象物体についての複数の幾何学的不変量を取得するステップと、
取得された前記識別対象物体についての幾何学的不変量の各々から幾何学的不変量特徴ベクトルを算出することで、前記識別対象物体についての複数の幾何学的不変量特徴ベクトルを取得するステップと、
取得された前記識別対象物体についての幾何学的不変量特徴ベクトルの各々について、当該幾何学的不変量特徴ベクトルの多次元分布から幾何学的不変量ベース特徴点分布ベクトルを算出するステップと、
前記抽出された前記識別対象物体の複数の特徴点の各々に関する局所特徴量に基づく当該複数の特徴点の多次元分布から、局所特徴量ベース特徴点分布ベクトルを算出するステップと、
前記識別対象物体についての局所特徴量ベース特徴点分布ベクトルおよび複数の幾何学的不変量ベース特徴点分布ベクトルを入力として、前記学習済み識別情報データを用いて前記識別対象物体を識別するステップと、
を備える物体識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013127557A JP6092012B2 (ja) | 2013-06-18 | 2013-06-18 | 物体識別システムおよび物体識別方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013127557A JP6092012B2 (ja) | 2013-06-18 | 2013-06-18 | 物体識別システムおよび物体識別方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015001941A JP2015001941A (ja) | 2015-01-05 |
JP6092012B2 true JP6092012B2 (ja) | 2017-03-08 |
Family
ID=52296408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013127557A Active JP6092012B2 (ja) | 2013-06-18 | 2013-06-18 | 物体識別システムおよび物体識別方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6092012B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101739897B1 (ko) * | 2016-01-04 | 2017-05-25 | 현대삼호중공업 주식회사 | 프레스용 펀칭기구 |
US10878278B1 (en) * | 2015-05-16 | 2020-12-29 | Sturfee, Inc. | Geo-localization based on remotely sensed visual features |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5734000B2 (ja) * | 2011-01-31 | 2015-06-10 | 株式会社Nttドコモ | 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法 |
-
2013
- 2013-06-18 JP JP2013127557A patent/JP6092012B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878278B1 (en) * | 2015-05-16 | 2020-12-29 | Sturfee, Inc. | Geo-localization based on remotely sensed visual features |
KR101739897B1 (ko) * | 2016-01-04 | 2017-05-25 | 현대삼호중공업 주식회사 | 프레스용 펀칭기구 |
Also Published As
Publication number | Publication date |
---|---|
JP2015001941A (ja) | 2015-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aldoma et al. | OUR-CVFH–oriented, unique and repeatable clustered viewpoint feature histogram for object recognition and 6DOF pose estimation | |
Smeets et al. | meshSIFT: Local surface features for 3D face recognition under expression variations and partial data | |
US8994723B2 (en) | Recognition and pose determination of 3D objects in multimodal scenes | |
Creusot et al. | A machine-learning approach to keypoint detection and landmarking on 3D meshes | |
US8406532B2 (en) | Image matching using line signature | |
US8379986B2 (en) | Device, method, and computer-readable storage medium for recognizing an object in an image | |
WO2015161816A1 (en) | Three-dimensional facial recognition method and system | |
US8830229B2 (en) | Recognition and pose determination of 3D objects in 3D scenes | |
JP5818327B2 (ja) | 三次元物体認識用画像データベースの作成方法および作成装置 | |
Mian et al. | Automatic 3d face detection, normalization and recognition | |
Kim et al. | 3D object recognition in range images using visibility context | |
US20130226532A1 (en) | Computer vision cad model | |
US10204284B2 (en) | Object recognition utilizing feature alignment | |
CN108573471B (zh) | 图像处理装置、图像处理方法以及记录介质 | |
Guo et al. | 3D free form object recognition using rotational projection statistics | |
EP3404583A1 (en) | System and method for model adaptation | |
JP5734000B2 (ja) | 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法 | |
JPWO2019069617A1 (ja) | 個体識別装置 | |
Garcia-Garcia et al. | Interactive 3D object recognition pipeline on mobile GPGPU computing platforms using low-cost RGB-D sensors | |
Lin et al. | Scale invariant point feature (SIPF) for 3D point clouds and 3D multi-scale object detection | |
Sahin et al. | A learning-based variable size part extraction architecture for 6D object pose recovery in depth images | |
JP6092012B2 (ja) | 物体識別システムおよび物体識別方法 | |
WO2015068417A1 (ja) | 画像照合システム、画像照合方法およびプログラム | |
Kordelas et al. | Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms | |
JP7231165B2 (ja) | 検証システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6092012 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |