JP2012168941A - 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 - Google Patents

記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 Download PDF

Info

Publication number
JP2012168941A
JP2012168941A JP2012022028A JP2012022028A JP2012168941A JP 2012168941 A JP2012168941 A JP 2012168941A JP 2012022028 A JP2012022028 A JP 2012022028A JP 2012022028 A JP2012022028 A JP 2012022028A JP 2012168941 A JP2012168941 A JP 2012168941A
Authority
JP
Japan
Prior art keywords
descriptor
point
distance
grid
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012022028A
Other languages
English (en)
Other versions
JP5705147B2 (ja
Inventor
Fatih Porikli
ファティー・ポリクリ
Hien Nguyen
ヒエン・グイェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2012168941A publication Critical patent/JP2012168941A/ja
Application granted granted Critical
Publication of JP5705147B2 publication Critical patent/JP5705147B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】オブジェクトの3Dモデルのデータベースを用いて、3Dシーンのスキャナーによって取得されるクエリ2.5D距離画像においてオブジェクトを検出する方法を提供する。
【解決手段】3Dオブジェクトが記述子によって表され、3Dオブジェクトのモデルは、3D点群である。3D点群における各点pの局所サポートの位置が特定され、局所サポートの基準x軸、y軸及びz軸が生成される。基準x軸、y軸及びz軸に従って、点pを中心とするxy平面上の方位角方向及び動径方向に沿って、極座標格子が、この格子上の各パッチが2Dヒストグラムのビンであるように適用され、2Dヒストグラムは、格子上の2D行列Fであり、2D行列Fの各係数は、格子上のパッチに対応する。各格子位置(k,l)に対して、仰角値F(k,l)が、パッチ内の3D点の仰角値を補間することにより推定され、点pの記述子が生成される。
【選択図】図1

Description

本発明は、記述子を用いてオブジェクトを表すことに関し、より詳細には、記述子を用いて2.5D距離(range:レンジ)画像においてオブジェクトを検出することに関する。
オブジェクトの3Dモデルのデータベースを用いて、3Dシーンのスキャナーによって取得されるクエリ2.5D距離画像においてオブジェクトを検出する方法を提供することが望まれている。2.5D距離画像では、オブジェクトのサーフェスにおける全てのスキャン点(ピクセル)(x,y)は、1つの深さ値zに関連しており、すなわち、zは、スキャナーからその点までの距離である。
オブジェクト検出
本明細書において定義するとき、オブジェクト検出は、概して、オブジェクト形状マッチング、オブジェクト認識及びオブジェクトレジストレーションを含む。
点群(point cloud:ポイントクラウド)
点群は、3次元座標系における頂点の集合である。頂点は、通常、(x,y,z)座標によって定義され、一般に、オブジェクトの外側サーフェスを表す。本明細書で用いる点群は、スキャナーによって生成される。スキャナーは、オブジェクトのサーフェス上の多数の点までの距離を自動的に測定し、点群をデータファイルとして出力する。点群は、スキャナーによって測定される点の集合を表す。点群は、本明細書で定義するようなオブジェクト検出を含む多くの目的に用いられる。
従来技術によるオブジェクト検出方法は、概して、3Dサーフェスメッシュ及び完全な3Dモデルが利用可能であることを前提としており、したがって、それらの方法を2.5D距離画像には容易に拡張することはできない。2.5D距離画像において3Dオブジェクトを検出することは、以下の理由で困難である。
オブジェクトのパーツは、自己遮蔽(self−occlusion)により、又は他のオブジェクトによる遮蔽により不明瞭となる場合がある。スキャナーは、最大でも、360度3Dシーンの180度ビューしか取得することができず、すなわち、最大でも、距離画像では、シーンの半分しか見えない。
隣接するオブジェクトもまた、検出方法を妨げる背景クラッターとして作用する可能性がある。視点及びスケールの変化により、高い外観の変動及び曖昧さが現れる。この変動は、クラス間変化を大きく超えて、不正確な検出の原因となる場合もある。
距離画像
レンジスキャナーは、サーフェスが離散点でしかスキャンされず、オブジェクトの微細な詳細が通常喪失するか又はぼやけるため、空間分解能が限られている。スキャナーによっては、サンプリング分解能が種々の軸に沿って大きく変化し、3D点群の再サンプリングが困難であって、場合によっては、サーフェストポロジーが歪むことになる。
高速レンジスキャナーは、距離測定において著しい雑音をもたらし、シーンの一部が不完全な観測値を有することになる。
上記問題にかかわらず、スキャナーが生成する点群の使用は、従来のカメラ等の従来の光学的対応物を上回る多くの利点があるため、ますます普及してきた。一般に、2.5D距離画像に対する方法は、幾何学的距離のみが問題であるため、概して照明不変である。
特徴記述子
オブジェクト検出方法のための最も普及しているオブジェクト記述子は、特徴ベースのものであり、コンパクトかつ有効な3D記述子を必要とする。それらの方法の有効性は、識別力、回転不変性、雑音に対する非感受性及び計算効率を含むいくつかの基準に基づく。
特徴ベースの方法を、サポート領域のサイズに応じて以下のカテゴリー、すなわち、グローバル記述子、リージョナル(regional)記述子及びローカル記述子に分割することができる。しかしながら、ローカル記述子は、サーフェス法線、又は離散サンプル点の集合からの曲率等、局所的特性の推定が非常に不安定であるため、離散的にスキャンされる点からの認識及び検出には有用ではない。
グローバル記述子
拡張ガウス像(EGI:extended Gaussian image)は、最も普及しているグローバル記述子の1つである。EGIは、重み付きサーフェス法線をガウス球にマッピングし、2D画像を形成する。この記述子が簡潔であることには、局所的な幾何学情報を喪失するという犠牲が伴う。
形状分布方法は、ペアでの点の距離をランダムにサンプリングし、形状全体を表すヒストグラムを形成する。この記述子は、迅速に確定することができ、姿勢正規化、特徴対応又はモデルのあてはめを必要としないため有利である。
他のグローバル形状特徴には、超二次、球上属性イメージ(spherical attribute image)、並びにMPEG−4オブジェクト及びストリームに基づく協調システム(COSMO:collaborative system based on MPEG−4 objects and streams)がある。グローバル形状記述子は、概して、モデル全体を用いることに起因して識別力が高い。一方で、これらのモデルは、クラッター又は遮蔽の影響を非常に受けやすい。
リージョナル記述子
リージョナル記述子の中で特に、スピンイメージが、多くの3D応用において有効である。スピンイメージは、中心が基準点pにあり、かつその北極点が点pにおけるサーフェス法線推定に合わせて配向される、円筒状サポート領域を考慮する。2つの円筒座標は、動径座標α、すなわち中心に対する垂直距離、及び仰角座標β、すなわち点pを通る接平面に対する垂直符号付き距離である。スピンイメージは、(α,β)でインデックス付けされた体積内の点を累積することによって構成される。他のリージョナル記述子には、サーフェススプラッシュ(surface splash)及びスーパーセグメント(super segment)がある。
3D形状コンテキストは、サポート領域が球である以外は、スピンイメージに類似している。球は、その球を方位角次元及び仰角次元に沿って均一にかつ動径次元において対数的に分割することによって、部分体積に区分される。各部分体積に対する重みの累積が1つのヒストグラムビンに寄与する。方位角方向における自由度は、特徴マッチングを実行する前に取り除かれる。形状コンテキストに対して球面調和関数を適用することにより、回転不変とすることができる。その方法は、球形状コンテキストと呼ばれる。
点シグネチャ(PS:point signature)は、3D曲線から平面までの距離によって局所トポロジーを表す。この1D記述子は、スピンイメージ又は形状コンテキストよりも識別能力が低いが、確定が迅速でありかつマッチングが容易であるという意味で有利である。この1D記述子は、点密度が不十分である場合に誤りをもたらす可能性があるスピンイメージのような法線推定を必要としない。また、形状コンテキストのように姿勢によって変化しない。加えて、種々のスケールにわたるシグネチャの組合せによって、より完全な記述子を得ることができる。
多数の利用可能な3D記述子が与えられると、用途に最もよく適合する特徴を有する記述子を選択することに意味がある。種々のタイプの特徴を結合し、各特徴が用途の異なる段階で寄与することができるようにすることがより効率的である場合がある。
例えば、スピンイメージ及びEGIは、トップダウン式にかつボトムアップ式に結合されてきた。その方法は、まず、スピンイメージを用いて点をオブジェクト又は背景として分類する。そして、隣接するオブジェクト点の連結成分を抽出する。一連のEGIは、高速な整列と、連結成分のEGIのモデルデータベースへのマッチングとを容易にする。これにより、大きいデータセットにおける車及び他のオブジェクトを検出する効率と精度との優れたトレードオフが提供される。3D顔認識のために、主曲率及び点シグネチャもまた結合されている。
検出及び認識のカスケードに沿った特徴の配置は、主に発見的規則によって決定される。各クエリ画像に対して、何十万もの点がある可能性がある。大量のデータには、モデルデータベースから最良の一致を検索する効率的な技法が必要である。一方法は、主成分分析(PCA:principle component analysis)を用いてスピンイメージの部分空間を確定する。
別の方法は、量子化を用いて特徴空間をクラスター化する。その方法は、k個の代表的なクラスターを用いて、高速d次元特徴検索を容易にする。ここで、kは実質的にdよりも小さい。その方法は、クエリヒストグラムをオブジェクト部分空間に投影することによってオブジェクトを部分的にマッチングすることができる。粗密(coarse−to−fine)手法は、計算量を更に低減することができる。データベースのモデルと比較するために、クエリ画像から特徴の僅かな部分のみが選択される。選択を、曲率若しくは法線方向等の局所トポロジーに基づいてランダムとするか、又はデータ駆動とすることができる。モデルに対する特徴のマッチング品質は、候補位置のショートリストを決定する。粗密チェーンの最後には、候補オブジェクトはより少なくなり、したがって、より複雑な探索及び幾何学的制約を実施することができる。
特徴検索の別の方法は、ハッシュ法、幾何学的ハッシュ法を用いる。その方法は、不変座標表現を幾何学的座標ハッシュ法と結合して、単純な幾何学的制約を用いてモデルデータベースを簡潔にする。その方法は、特徴点の数の多項式である。準線形特徴検索方法は、局所性検知可能ハッシュ(LSH:locality sensitive hashing)を用い、それは、確率的最近傍探索である。その方法では、特徴がサーフェス上の角点において確定される。LSHは、衝突の確率に基づいて特徴をビンにハッシングし、それにより、同様の特徴が同じバケットにハッシングする。
点シグネチャ
点シグネチャ(PS)は、中心点を中心とする球とオブジェクトのサーフェスとの交差部によって形成される3D空間曲線に基づく形状記述子である。PSは、確定が高速であり、モデルとのマッチングが容易である。しかしながら、PSには、信頼性の高いマッチングに十分な識別力が欠けている。
多く応用では、スピンイメージ、形状コンテキスト及びそれらの球面調和関数等の形状記述子の他の組合せが有効である。PSの過度な単純化とは対照的に、それらの記述子は、所与の体積における点の数に比例する重みを格納する。それらの記述子を、体積ベースの記述子として分類することができ、それにより、必然的に疎である距離画像の性質に起因して不可避的に高い冗長性が生じる。加えて、スピン画像及び形状コンテキストには、局所点において法線ベクトルの推定が必要であり、それにより、空間分解能が低い場合に間違いが発生しやすい可能性がある。
3Dオブジェクトは、記述子によって表され、3Dオブジェクトのモデルは、3D点群である。
3D点群における各点pに対する局所サポートの位置が特定され、局所サポートの基準x軸、y軸及びz軸が生成される。
基準x軸、y軸及びz軸に従って、点pを中心とするxy平面上の方位角方向及び動径方向に沿って、極座標格子が、この格子上の各パッチが2Dヒストグラムのビンとなるように適用され、2Dヒストグラムは、格子上の2D行列Fであり、2D行列Fの各係数は、格子上のパッチに対応する。
各格子位置(k,l)に対して、仰角値F(k,l)が、パッチ内の3D点の仰角値を補間することにより推定され、点pの記述子が生成される。
本発明は、高い識別力を有するとともに3D形状を表現するのに有効な同心円シグネチャ(CORS:concentric ring signature)を提供する。
本発明は、点群を用いてオブジェクトを認識しレジストレーションする粗密方法も提供する。
本発明の実施の形態による、オブジェクトの記述子として同心円シグネチャ(CORS)によりオブジェクトを表す方法のフロー図である。 本発明の実施の形態による、2つのCORS記述子の間の距離を確定する方法のフロー図である。 本発明の実施の形態による、CORSを用いてオブジェクトをマッチングする方法のフロー図である。 本発明の実施の形態による、投影平面を確定し、面に対して基準方位を確定する、3Dデータ点の球状クラウドの概略図である。 本発明の実施の形態によるオブジェクトの周縁部に対する平面の概略図である。 本発明の実施の形態によるスライス面における局所近傍結果に対するあてはめの概略図である。 人間の顔の3Dデータクラウドにおける種々の位置において確定されるCORSの概略図であり、CORSが小さい方の矩形形状を有し、従来技術によるスピンイメージが大きい方の矩形形状を有する、図である。
本発明の実施の形態は、3Dオブジェクトを記述子で表し、その記述子を用いてクエリ2.5D距離画像において同様のオブジェクトを検出する方法を提供する。2.5D距離画像を、スキャナーによって取得することができる。3Dオブジェクトは、3D点群によってモデル化される。本明細書で定義するオブジェクト検出は、概して、オブジェクト形状マッチング、オブジェクト認識及びオブジェクトレジストレーションを含み、点群は、オブジェクトの外面を表すように意図されている3次元座標系(x,y,z)における頂点の集合として定義される。より詳細には、点群は疎であり、米国特許第7,605,81号、同第7,856,125号及び米国特許出願公開第2008/0310757号を参照されたい。
本発明者らは、局所データ点から投影平面までの距離により、折り返された同心円のセット内の局所トポロジーを表す3D記述子について述べる。本発明者らは、この記述子を同心円シグネチャ(CORS)と呼ぶ。CORSは、データベースに格納され、対応する3Dモデルと関連付けられる。
スピンイメージとは対照的に、本発明者らによるCORSは、点法線を推定する必要がない。したがって、CORSは、離散的にサンプリングされる点の疎クラウドに、特にそのクラウドにおける点の密度が従来の検出方法の距離画像の場合のように不十分に低い場合、直接適用可能である。さらに、本発明者らによるCORSは、点シグネチャ(PS)及びスピンイメージよりもコンパクトかつ密な記述子ベクトルを生成し、それにより、CORSは、雑音、不完全なデータ及び遮蔽に対してよりロバストとなる。
本発明者らによるCORSの識別力は、点シグネチャに対して優れており、正しい一致のスコアの割合を39%から88%まで改善向上させた、約2倍の優れた推定をもたらす。この品質はまた、3Dオブジェクト検出及び2.5D画像におけるレジストレーションに対しても観察される。
CORSにより、オブジェクトスケールを適切に推定することができ、したがって種々のスケールにわたる探索がなくなる。さらに、本発明者らによる3Dモデルは、カラー画像検出に対して異なるビューにおける複数のスナップショットが不要である。オブジェクトの各クラスに対して、データベースに僅かな数のモデルのみを格納すればよい。これにより、システムは、クエリ画像において複数のオブジェクトを検出することが望まれる場合に、クラスの数によりスケールアップすることができる。
本発明者らによる方法は、以下の基本ステップを含む。本発明者らは、オブジェクトを含むシーンのクエリ2.5D距離画像において均一に分散している点の部分集合に対して、同心円シグネチャ(CORS)を確定する。本発明者らは、クエリ画像から抽出されるCORSと、データベースの3Dモデルに格納されているCORSとの対応を確定する。このステップを、形状表現によって加速させることができる。そして、オブジェクトは、幾何学的制約を用いて検出される。
同心円シグネチャ
図1は、以下に詳細に説明する、本発明の実施の形態による、オブジェクトの記述子としてCORSを構成する方法を示す。
まず、図3においてCORSの全体的な概念を概略的に説明する。
本方法への入力は、オブジェクトのモデルである、3Dデータ点p101の球状「クラウド」である。各点pの局所サポートSは、半径rで点pを中心とする点pの球状体積である。本発明者らは、局所サポート領域S内で2Dデータ点の位置を特定する。そして、投影平面301を確定し、その平面における基準方位302を確定する。最後に、行列形態に配列されるパッチ応答(patch response)を確定する。平面Pは、局所近傍にあてはめられ、点pまで並進する(135)。他の変数は、本明細書に示す通りである。
法線方向は、z軸302となるように取られる。次に、基準方位が、x軸に対して選択され、対応するパッチ内にサーフェスから平面までの距離を投影する。
局所サポート
pを、3D点群101におけるデータ点とする。各点pを中心とし点pの半径r内にある点pの球状体積Sが、以下の式に従って点pの局所サポートとして定義される。
Figure 2012168941
半径rは、データによって決まる。例えば、滑らかかつ剛性の形状には、より大きい半径が好ましく、関節又は構造的変動がある形状には、より小さい半径が好ましい。rが増大するほど、CORSは識別力が高くなるが、遮蔽に対してより脆弱になる。半径rの適切な選択により、2つの要素のバランスがとられる。
投影平面及び基準軸
接平面P301が、局所サポートSにあてはめられる(120)。平面あてはめに対して2つの選択肢があり得る。1つは、局所サポート内の全ての点Pを使用し(110)、系が略常に過剰決定であるため最小二乗によって平面をあてはめ、点pにおける平面Pの原点を法線方向に沿って並進させる(135)ことができる。代替的に、図1に示すように、例えば球状サポートをオブジェクトサーフェスと交差させて、局所サポートの周縁部に沿った点の部分集合を選択する(115)ことが可能である。
図4A及び図4Bに示すように、平面301を周縁部にあてはめることは、特に山(ridge)401に沿った点に対してより適している。特別な場合、平面は、局所サポートにあてはめられ、それは、平面をその周縁部にあてはめることとは異なる。図4Aには、接平面における周縁部へのあてはめの結果を示し、図4Bには、スライス面402における局所近傍全体へのあてはめの結果を示す。本発明者らの記述子が点の仰角に基づくため、投影平面がサーフェスをスライスするのではなくサーフェスに対して接平面であることがより意味がある。投影平面がサーフェスをスライスする場合、結果としての記述子はゼロとなる。
本発明者らは、局所サポートの記述子がカメラの視角の不変量であるように局所基準座標を定義する(130)。cをカルヒャー平均とし、それは、以下のように局所サポートにおける他の点に対して全体の距離が最小である座標である。
Figure 2012168941
並進動作135は、あてはめられた平面Pの原点を、その平面を平面Pの法線方向に沿ってシフト、すなわち平行移動させることによって、点pに移動する。言い換えれば、平面Pの(0,0)座標は、pに一致する。
基準軸を生成する(140)ために、本発明者らは、z軸を平面Pに直交するように設定する。z軸は、単位ベクトルzのベクトルcpとのドット積が正であるような方向を指す。ベクトルcpは、カルヒャー平均点cを局所サポート内の点pに連結する。
本発明者らは、ローカル記述子が視角の不変量であるように局所基準軸(x軸)を生成する(140)。x軸は、pから離れる方向に、局所サポートS内のあてはめられた平面Pから最大距離である3D点の投影まで指している。y軸は、クロス積zxによって定義される。こうした割当により、平面Pは、点pを通るxy平面に対応する。これらの2つの条件は、いかなる曖昧さもなくx軸を定義する。
平面Pからxy平面までの投影距離が2つ以上のピークを超える場合、複数の基準軸を生成することができる。この状況が訓練段階で発生する場合、各々が1つのピークに対応する複数のCORS記述子が確定され、データベース160に格納され3Dモデルと関連付けられる。
本方法のステップを、本技術分野において既知であるようにメモリ及び入出力インターフェースに接続されたプロセッサで実行することができる。
マッチングの間(200)、投影距離が複数の同様に大きいピークを有する場合であっても、2.5Dクエリ画像における各クエリ点に対して、最大ピークに対応する1つの記述子のみが必要である。それは、クエリ記述子103は、複数の記述子がピークの曖昧さを考慮するように生成された場合に、モデルデータベースにおける正しい一致を常に確定することができるためである。本発明者らは、この状況が点のうちの約1%のみで発生し、複数のピークを含むことにより記述子のマッチングが改善されることに注目する。
パッチのポピュレート
再び図3を参照して平面をあてはめ基準軸を生成した後、局所近傍Sにおける各3D点pは、ここでは、数の多次元配列の形態であるテンソルp(x,y,z)によって表される。テンソルは、カメラの視角の不変量である。z座標p(z)は、このテンソルにおける平面からの距離に対応し、xy平面座標p(x,y)は、平面P上の投影に対応する。
次に、本発明者らは、基準x軸、y軸及びz軸を用いて格子上に定義されるパッチをポピュレートする(150)。本発明者らは、以下のように、格子上のパッチ内の所与のデータ点の代表的な仰角値を推定する。
1)本発明者らは、点pを中心とするxy平面上の方位角方向及び動径方向に沿って極座標格子を適用する。格子上の各パッチは、2Dヒストグラム用のビンである。{(k,l)}を、k=1,...,K及びl=1,...,Lのサンプリングされた格子位置の集合とし、ここでは、K及びLは、それぞれ、方位角方向及び動径方向に沿ったサンプリング間隔の数である。言い換えれば、本発明者らは、この格子上の2D行列Fを抽出し、行列の各係数fは、格子上のパッチに対応する。
2)各格子位置(k,l)に対し、本発明者らは、仰角値F(k,l)を推定してその点の記述子を生成する。
代表的な仰角値F(k,l)は、以下のように推定される。
Figure 2012168941
式中、pは、(k,l)のビンの隣接する近傍ビン内の3D点であり、重みは以下のように求められる。
Figure 2012168941
及び
Figure 2012168941
仰角値F(k,l)は、格子位置(k,l)を包囲する点の仰角の重み付き平均である。各包囲点の仰角の代表的な仰角の推定に対する寄与は、(k,l)までの距離に対して反比例する重みwによって制御される。
パラメータαは、記述子の平滑性を制御する。α値が高くなると記述子は平滑になり、αが小さくなると記述子は位置的並進に影響を受けやすくなる。パラメータαは、方位角方向及び動径方向に沿ったサンプリング間隔によって決まる。本発明者らは、ビン中心とそれらの隣接するビンとの間の平均ユークリッド距離が十分な値であることを確認した。固定パラメータαを用いることにより、ビンは、極座標系において原点に近いビンの方が遠いビンより類似するようになる。パラメータαを、この問題を克服する適応的な方法で設定することができる。また、形状の僅かな差が中心の近くにある場合、最小距離制約を課すことによって精度が向上する。
SからPまでの平均直交距離に加えて、投影距離の標準偏差及び各ビンに入る点の密度もまた、補完する識別力を有し、同様の行列に組み込まれ得る。平均距離の利点は、点密度推定及び正規化を必要としないということである。
図5は、人間の顔500の3Dデータクラウド上の種々の位置において確定されるCORSの視覚図を提供し、ここでは、本発明の実施の形態によるCORSは、2D行列を表す小さい方の矩形形状501であり、従来技術によるスピンイメージは、大きい方の矩形形状502である。
サポート領域の半径は、両記述子に対して15に設定される。CORSの方位角量子化の数及び動径量子化の数は、それぞれ10及び5である。スピンイメージのビンサイズは、スキャナーの分解能に等しいように設定される。CORSの寸法は、従来技術によるスピンイメージの6.5分の1であることに留意されたい。こうした寸法の低減により、記述子マッチング効率が向上するが、識別力は損なわれない。
CORSの高速近似
実際には、局所基準枠のz軸として、利用可能な場合は、いつでも局所サポートの法線のみを使用する(116)ことにより、CORSの計算時間を大幅に低減することができる。これにより、全ての位置において平面を近傍にあてはめる必要がなくなる。
CORS記述子の大きいデータベース(何十万ものシグネチャ)へのマッチングを高速化するために、粗密手法を適合させることができる。各CORS記述子に対し、本発明者らは、K*L行列の全ての要素、すなわち下位シグネチャを生成するために同じ円に位置する要素を行合計する。これを、候補の可能性が低いものを迅速に取り除くために用いることができる。
マッチング
図2A及び図2Bにマッチングプロセスを示す。まず、図2Aにおいて、2つのCORS記述子F201及びF202の間の相違点が、行列距離によって測定される(210)。CORS記述子のマッチングは、ユークリッド距離には限定されない。記述子に多様体埋込み220を適用することができる。CORSの表現が行列形態であるため、それを、多様体構造を有するものと考えることができ、そこでは、マッチングスコアは、多様体における2つのCORS記述子を連結する測地線距離221として定義される。さらに、多様体を、Isomapを用いて平坦化することができる(220)。Isomapは、既知の低次元埋込み方法であり、重み付きグラフにおける測地線距離が従来のスケーリングとともに組み込まれている。Isomapは、多様体上の各データ点の隣接するデータ点の概算に基づいてデータ多様体の固有の幾何学を推定する単純な方法を提供する。
好ましい実施の形態では、本発明者らは、いくつかの距離ノルムを使用することができる。
ユークリッド距離211計量は、以下のように定義され、
Figure 2012168941
ここで、加算は、全ての行列係数にわたりk、lに関係する。ユークリッド距離は、対応する要素間の二乗差の平方根である。これは、恐らくは最も一般的に使用されている距離計量である。
マハラノビス距離212は、以下のように定義され、
Figure 2012168941
式中、V−1はF−Fの共分散行列の逆数である。マハラノビス距離は、有効に重み付きユークリッド距離であり、重み付けは、サンプル共分散行列によって確定される。
ミンコフスキー距離213は、以下のように定義される。
Figure 2012168941
和は、k,l=1から係数の数までである。ミンコフスキー距離は、対応する要素間の絶対差をu乗したものの和のu乗根である。ユークリッド距離は、u=2の特別な場合である。
チェビシェフ距離214は、以下のように定義される。
Figure 2012168941
相違点の尺度は、本発明が用いられる応用によって主に決定され、種々のビンの寄与をそれに従って変更することができる。例えば、応用が相称的な局所構造を強調表示することである場合、方位角次元に沿って同様のビン値を有するCORSは、他のCORSより大幅に高く重み付けされる。
クエリ記述子の最良一致を、k次元ツリー及びボックス分解ツリーベースの探索等、近似最近傍技法を用いて効率的に抽出することができる。
CORSの正しいマッチングの率は、点シグネチャよりおよそ2.5倍高い。誤り率は、スピンイメージの場合の18%からCORSの場合の12%まで低減し、それは33%を超える改善である。
識別率
記述子対応を見つけることは、多くの認識問題及び検索問題に対して本質的である。潜在的に誤りのある一致をフィルタリングで除去し、更なる処理のために有用なもののみを維持する正確でロバストなメカニズムがあることが望ましい。大きいデータベースで記述子を探索するか又は雑音の多い観察結果において対応を見つける場合、最近傍マッチングにより大量の不正確な対がもたらされる。
この問題に対処するために、記述子のユークリッド距離に対するグローバル閾値をそれらの最も近い一致に課すことが可能である。しかしながら、閾値を適用することは、識別能力の低い記述子の大部分が小さい距離のみで複数の一致を有する傾向があるため機能しない。
図2Bに示すように、CORS記述子の2つのセット、すなわちセットA203及びセットB204が与えられると、本発明者らは、図2Aに対して上述した距離計量のうちの1つを用いて全てのペアのCORS記述子距離を確定する(230)。
本発明者らは、最良の近傍の距離を2番目に良い近傍の距離と比較する(240)。本発明者らは、この比較のための尺度として以下のように識別比drを確定し(250)、
Figure 2012168941
ここで、dist及びdistは、クエリオブジェクトの記述子のセットと、データベースにおける別のオブジェクトの記述子のセットのそれぞれ最良の一致及び2番目に良い一致との間のユークリッド距離である。識別比が高いためには、正しい一致が、最も近い正しくない一致より大幅に近い最も近い近傍を有していることが必要である。その結果、識別比の高い一致は、はるかにより信頼性が高い傾向にある。間違った一致の場合、特徴空間の高い次元数のために、同様の距離内に複数の他の間違った一致がある可能性がある。本発明者らは、信頼性閾値261より識別スコアが低い記述子の対を除去する(260)。残りの記述子を用いて、信頼性の高い一致が得られる(209)。
識別比に対して制限を課すことにより、正しい対応率が劇的に増大する。
形状検出及びオブジェクトレジストレーション
2.5Dレンジスキャンクエリシーンが与えられると、タスクは、シーンが関心オブジェクトを含むか否かの信頼性の高い判断を行うということである。完全であるか又は部分的に遮蔽されているターゲットのインスタンスが検出されると、本方法は、シーンのターゲットに完全なモデルをレジストレーションする変換を推定する。この問題は、いくつかの理由で困難である。第1に、レンジスキャン画像は、通常、効率よいが信頼性の高い方法で処理される必要のある何十万もの点を含む。第2に、ターゲットは、自己遮蔽及びクラッタリング効果のために部分的にしか見えず、多くのグローバル形状記述子が無用になる。
そして、CORSを用いる本発明者らの検出方法の3つの主なステップを以下のように列挙することができる。
1)シーンのランダムに分散した点の部分集合に対してCORSを確定する、
2)ランダムに分散している点のクエリ記述子とオフラインで確定されたモデル記述子との間の対応を見つける、及び
3)ランダムサンプルコンセンサス(RANSAC:RANdom SAmple Consensus)フレームワーク内の幾何学的制約を用いて動きパラメータを反復的に推定することにより、未知のオブジェクトの位置を特定しその姿勢を求める。
まず、本発明者らは、クエリクラウドから点のランダムな部分集合においてCORS行列を確定する。これらのCORS行列は、所定のモデルCORS行列と比較されて、最良の一致と2番目に良い一致とが見つけられる。識別比が確定され、この尺度が1.5未満である対応が除去される(260)。次に、本発明者らは、一致した位置の3つの対をサンプリングし、それらが以下のような全ての幾何学的制約を満足させるか否かを検査する。
Figure 2012168941
式中、mはオブジェクトモデル上の点であり、qはクエリシーンにおけるその対応点である。
最後の制約は、有効に、三角形の面積を閾値Aminよりも大きくする。三角形から離れる方向に更に移動するとレジストレーション誤差が増幅するため、本発明者らは、この誤差源を制限するために面積が十分大きい三角形を選択する必要がある。
ここで、本発明者らは、3つの適切な対応を見つけたと考えて、回転行列R及び並進ベクトルtをいかに計算するかを簡単に述べる。剛体変換式は、以下の通りである。
Figure 2012168941
表記上便宜的に、2つの追加の頂点m及びqが導入される。
Figure 2012168941
R及びtは、以下のように推定される。
Figure 2012168941
式中、
Figure 2012168941
本発明者らは、高い雑音によって生成される誤検出及び他のタイプの誤りを防止する検証ステップを組み込む。このステップでは、モデルクラウド全体が、推定された回転パラメータ及び並進パラメータを用いて変換される。クエリとモデルとの間のオーバーラップする点の数が閾値を超える場合、アルゴリズムは、ターゲットの存在を確認し、R及びtを用いてモデル全体をシーンにレジストレーションする。
点は、他のクラウドにおけるその最近傍まで距離が、スキャナーの分解能の2倍であるeを下回る場合、オーバーラップされていると分類される。実際には、本発明者らは、点群のランダムな部分集合を検査して、オーバーラップの程度の適切な推定を行うだけでよい。選択された頂点から離れすぎている領域は、他のオブジェクトに属している可能性があるため、無視することもまたより実際的である。
本発明者らは、シーンの総数に対する正しい検出の数として定義される認識率を評価することに関心がある。グランドトゥルースに比較した並進及び姿勢推定の結果としての誤差が、それぞれオブジェクトの直径の1/10及び12度より小さい場合、オブジェクトは、正しく検出されたと言われる。
本発明者らの方法は、平均して3回のみのRANSAC反復の後に収束する。いかなる更なる処理もなしに、R及びtの十分な推定値がもたらされる。
発明の効果
本発明は、高い識別力を有するとともに3D形状を表現するのに有効な同心円シグネチャを提供する。
本発明は、点群を用いてオブジェクトを認識しレジストレーションする粗密方法も提供する。

Claims (20)

  1. 記述子を用いて3Dオブジェクトを表す方法であって、前記3Dオブジェクトのモデルが3D点群であり、前記方法は、
    前記3D点群における各点pの局所サポートの位置を特定するステップであって、前記局所サポートは、
    Figure 2012168941
    に従って、前記点pを中心とし前記点pの半径r内にある点pの球状体積Sである、位置を特定するステップと、
    前記局所サポートの基準x軸、y軸及びz軸を生成するステップと、
    前記基準x軸、y軸及びz軸に従って、前記点pを中心とするxy平面上の方位角方向及び動径方向に沿って、極座標格子を、前記格子上の各パッチが2Dヒストグラムのビンとなるように適用するステップであって、前記2Dヒストグラムは、前記格子上の2D行列Fであり、前記2D行列Fの各係数は、前記格子上の前記パッチに対応する、適用するステップと、
    前記各格子位置(k,l)に対して、仰角値F(k,l)を、前記パッチ内の前記3D点の前記仰角値を補間することにより推定し、前記点pの前記記述子を生成する、推定するステップと、を含み、
    前記ステップは、プロセッサで実行される
    記述子を用いて3Dオブジェクトを表す方法。
  2. 接平面Pを、前記接平面Pが前記z軸に直交するように、最小二乗によって前記局所サポートにあてはめるステップと、
    前記接平面の局所基準座標を定義するステップであって、前記局所サポートの前記記述子が視角の不変量であるように、前記局所サポートの前記基準x軸、y軸及びz軸を生成する、定義するステップと、
    を更に含む請求項1に記載の方法。
  3. 前記局所基準座標を定義する前に前記点pにおける前記平面Pの原点を法線方向に沿って並進させるステップ
    を更に含む請求項2に記載の方法。
  4. 前記局所サポートの周縁部に沿って前記接平面にあてはめるように点の部分集合を選択するステップ
    を更に含む請求項2に記載の方法。
  5. 前記z軸は、前記局所サポートの法線である請求項1に記載の方法。
  6. 行列距離を用いて、既知のオブジェクトの第1の記述子を未知のオブジェクトの第2の記述子とマッチングするステップ
    を更に含む請求項1に記載の方法。
  7. 前記行列距離は、ユークリッド距離である請求項6に記載の方法。
  8. 前記行列距離は、マハラノビスユークリッド距離である請求項6に記載の方法。
  9. 前記行列距離は、ミンコフスキー距離である請求項6に記載の方法。
  10. 前記行列距離は、チェビシェフ距離である請求項6に記載の方法。
  11. 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の仰角の重み付き平均である請求項1に記載の方法。
  12. 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の数である請求項1に記載の方法。
  13. 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の勾配値の重み付き平均である請求項1に記載の方法。
  14. 前記マッチングするステップは、
    前記第1の記述子及び前記第2の記述子を多様体に埋め込むステップを更に含み、マッチングスコアは、前記第1の記述子及び前記第2の記述子を連結する測地線距離である
    請求項6に記載の方法。
  15. 前記多様体が平坦化される請求項14に記載の方法。
  16. 識別比を用いて、クエリオブジェクトの記述子のセットを別のオブジェクトの前記記述子のセットとマッチングするステップ
    を更に含む請求項1に記載の方法。
  17. 第1の記述子と第2の記述子との間の距離を求めるステップであって、前記第1の記述子は、クエリセットからのものであり、前記第2の記述子は、データベースセットからのものである、求めるステップと、
    前記クエリセットにおける前記各記述子に対して最も小さい距離及び2番目に小さい距離を見つけるステップと、
    前記クエリセットにおける前記記述子に対して前記識別比を求めるステップと、
    前記識別比が信頼性閾値より小さい前記記述子を前記クエリセットから除去するステップと、
    残っている識別子を用いて、前記クエリセットの前記記述子と前記データベースセットの前記記述子との距離を求めるステップと、
    を更に含む請求項16に記載の方法。
  18. 前記記述子は、オブジェクトレジストレーションに用いられる請求項1に記載の方法。
  19. 前記記述子は、未知のオブジェクトの位置を特定し前記オブジェクトの姿勢を求めるために用いられる請求項1に記載の方法。
  20. 記述子を用いてオブジェクトを表す方法であって、
    前記オブジェクトを表す点群における各点の局所サポートの位置を特定するステップと、
    前記局所サポートの基準軸を生成するステップと、
    前記基準に従って、前記点を中心とする平面上の方位角方向及び動径方向に沿って、極座標格子を、前記格子上の各パッチがヒストグラムのビンであるように適用するステップであって、前記ヒストグラムは、前記格子上の行列であり、前記行列の各係数は、前記格子上の前記パッチに対応する、適用するステップと、
    前記各格子位置に対して、仰角値を、前記パッチ内の前記点の前記仰角値を補間することにより推定し、前記点の前記記述子を生成する、推定するステップと、を含み、
    前記ステップは、プロセッサで実行される
    記述子を用いてオブジェクトを表す方法。
JP2012022028A 2011-02-14 2012-02-03 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 Expired - Fee Related JP5705147B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/026,382 2011-02-14
US13/026,382 US8274508B2 (en) 2011-02-14 2011-02-14 Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images

Publications (2)

Publication Number Publication Date
JP2012168941A true JP2012168941A (ja) 2012-09-06
JP5705147B2 JP5705147B2 (ja) 2015-04-22

Family

ID=46636547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022028A Expired - Fee Related JP5705147B2 (ja) 2011-02-14 2012-02-03 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法

Country Status (2)

Country Link
US (1) US8274508B2 (ja)
JP (1) JP5705147B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011010975A1 (de) * 2011-02-10 2012-08-16 Martin Tank Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen
US8755610B2 (en) * 2011-06-10 2014-06-17 Apple Inc. Auto-recognition for noteworthy objects
US9355462B2 (en) 2013-05-08 2016-05-31 Caterpillar Inc. Motion estimation system utilizing point cloud registration
CN103489169A (zh) * 2013-08-14 2014-01-01 西北工业大学 一种改进的基于最小二乘法的深度数据拼接方法
CN103489218B (zh) * 2013-09-17 2016-06-29 中国科学院深圳先进技术研究院 点云数据质量自动优化方法及系统
CN104616278B (zh) * 2013-11-05 2020-03-17 北京三星通信技术研究有限公司 三维点云兴趣点检测方法和系统
US9547901B2 (en) * 2013-11-05 2017-01-17 Samsung Electronics Co., Ltd. Method and apparatus for detecting point of interest (POI) in three-dimensional (3D) point clouds
US10115035B2 (en) * 2015-01-08 2018-10-30 Sungkyunkwan University Foundation For Corporation Collaboration Vision system and analytical method for planar surface segmentation
CN104794490B (zh) * 2015-04-28 2018-10-02 中测新图(北京)遥感技术有限责任公司 航空多视影像的倾斜影像同名点获取方法和装置
CN104809456B (zh) * 2015-05-21 2017-11-17 重庆大学 一种基于二值描述符的三维目标识别方法
US10066346B2 (en) * 2015-08-12 2018-09-04 Topcon Positioning Systems, Inc. Point cloud based surface construction
CN106447708A (zh) * 2016-10-10 2017-02-22 吉林大学 一种oct眼底图像数据配准方法
CN106918813B (zh) * 2017-03-08 2019-04-30 浙江大学 一种基于距离统计的三维声纳点云图像增强方法
CN106997614B (zh) * 2017-03-17 2021-07-20 浙江光珀智能科技有限公司 一种基于深度相机的大规模场景3d建模方法及其装置
US10754523B2 (en) 2017-11-27 2020-08-25 International Business Machines Corporation Resizing of images with respect to a single point of convergence or divergence during zooming operations in a user interface
CN110719497B (zh) * 2018-07-12 2021-06-22 华为技术有限公司 点云编解码方法和编解码器
WO2020015517A1 (en) * 2018-07-18 2020-01-23 Huawei Technologies Co., Ltd. Point cloud encoding method, point cloud decoding method, encoder and decoder
CN109741374B (zh) * 2019-01-30 2022-12-06 重庆大学 点云配准旋转变换方法、点云配准方法、设备及可读存储介质
CN111736167B (zh) * 2019-03-25 2024-04-12 北京京东乾石科技有限公司 一种获取激光点云密度的方法和装置
FR3094815B1 (fr) 2019-04-04 2022-07-08 Commissariat Energie Atomique Procédé, programme d’ordinateur et système pour l’identification d’une instance d’objet dans une scène tridimensionnelle
CN110163799B (zh) * 2019-05-05 2023-05-05 杭州电子科技大学上虞科学与工程研究院有限公司 一种基于深度学习的超分辨率点云生成方法
CN110224818B (zh) * 2019-06-03 2022-11-11 北京信安世纪科技股份有限公司 跨浏览器的签名license控制方法
CN118552614A (zh) * 2019-08-09 2024-08-27 华为技术有限公司 视觉定位方法、终端和服务器
CN110705644B (zh) * 2019-10-08 2022-11-18 西安米克斯智能技术有限公司 一种目标间方位关系的编码方法
US11625454B2 (en) * 2019-12-09 2023-04-11 Shenzhen University Method and device for 3D shape matching based on local reference frame
EP3842911B1 (en) * 2019-12-26 2023-04-05 Dassault Systèmes A 3d interface with an improved object selection
CN113033270B (zh) * 2019-12-27 2023-03-17 深圳大学 采用辅助轴的3d物体局部表面描述方法、装置及存储介质
CN113971694A (zh) * 2020-07-22 2022-01-25 商汤集团有限公司 一种点云数据处理方法及装置
CN112085822B (zh) * 2020-08-28 2024-04-12 西北大学 一种点云模型描述符构建方法及点云模型匹配方法
US20220292285A1 (en) * 2021-03-11 2022-09-15 International Business Machines Corporation Adaptive selection of data modalities for efficient video recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133855A1 (ja) * 2008-04-30 2009-11-05 公立大学法人大阪府立大学 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400846B1 (en) * 1999-06-04 2002-06-04 Mitsubishi Electric Research Laboratories, Inc. Method for ordering image spaces to search for object surfaces
US7031875B2 (en) * 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US20080310757A1 (en) 2007-06-15 2008-12-18 George Wolberg System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene
ES2384609T3 (es) * 2007-10-26 2012-07-09 Sick Ag Clasificación de objetos así como reconocimiento de su posición y orientación en el espacio
WO2010013237A1 (en) * 2008-07-29 2010-02-04 Superfish Ltd. Edge neighborhood descriptor
US9530073B2 (en) * 2010-04-20 2016-12-27 Qualcomm Incorporated Efficient descriptor extraction over multiple levels of an image scale space
EP2385483B1 (en) * 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133855A1 (ja) * 2008-04-30 2009-11-05 公立大学法人大阪府立大学 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199800727009; 喜多伸之: '"同心円特徴に基づく形状の記述と類似度測定"' 電子情報通信学会論文誌 第J75-D-II巻, 第9号, 19920925, p.1557-1564, 社団法人電子情報通信学会 *
JPN6015002528; 喜多伸之: '"同心円特徴に基づく形状の記述と類似度測定"' 電子情報通信学会論文誌 第J75-D-II巻, 第9号, 19920925, p.1557-1564, 社団法人電子情報通信学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム

Also Published As

Publication number Publication date
US8274508B2 (en) 2012-09-25
US20120206438A1 (en) 2012-08-16
JP5705147B2 (ja) 2015-04-22

Similar Documents

Publication Publication Date Title
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
CN108604301B (zh) 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
Yang et al. Toward the repeatability and robustness of the local reference frame for 3D shape matching: An evaluation
Drost et al. Model globally, match locally: Efficient and robust 3D object recognition
Guo et al. Efficient center voting for object detection and 6D pose estimation in 3D point cloud
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
Tazir et al. CICP: Cluster Iterative Closest Point for sparse–dense point cloud registration
US9141871B2 (en) Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
CN104616278B (zh) 三维点云兴趣点检测方法和系统
CN110930456A (zh) 基于pcl点云库的钣金零件的三维立体识别及定位方法
CN114677418B (zh) 一种基于点云特征点提取的配准方法
Patterson et al. Object detection from large-scale 3d datasets using bottom-up and top-down descriptors
CN108388902B (zh) 结合全局框架点与局部shot特征的复合3d描述子构建方法
Guo et al. 3D free form object recognition using rotational projection statistics
Drost et al. Local hough transform for 3d primitive detection
US11468609B2 (en) Methods and apparatus for generating point cloud histograms
Seib et al. Object recognition using hough-transform clustering of surf features
An et al. Extracting statistical signatures of geometry and structure in 2D occupancy grid maps for global localization
CN116678418A (zh) 一种改进激光slam快速回环检测方法
Liu et al. An improved local descriptor based object recognition in cluttered 3D point clouds
CN116783619B (zh) 用于生成点云直方图的方法和装置
Chen et al. Point Cloud Segmentation Algorithm Based on Improved Euclidean Clustering
Tao et al. A Local Shape Descriptor Designed for Registration of Terrestrial Point Clouds

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20141209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150224

R150 Certificate of patent or registration of utility model

Ref document number: 5705147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees