JP2012168941A - 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 - Google Patents
記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 Download PDFInfo
- Publication number
- JP2012168941A JP2012168941A JP2012022028A JP2012022028A JP2012168941A JP 2012168941 A JP2012168941 A JP 2012168941A JP 2012022028 A JP2012022028 A JP 2012022028A JP 2012022028 A JP2012022028 A JP 2012022028A JP 2012168941 A JP2012168941 A JP 2012168941A
- Authority
- JP
- Japan
- Prior art keywords
- descriptor
- point
- distance
- grid
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】3Dオブジェクトが記述子によって表され、3Dオブジェクトのモデルは、3D点群である。3D点群における各点pの局所サポートの位置が特定され、局所サポートの基準x軸、y軸及びz軸が生成される。基準x軸、y軸及びz軸に従って、点pを中心とするxy平面上の方位角方向及び動径方向に沿って、極座標格子が、この格子上の各パッチが2Dヒストグラムのビンであるように適用され、2Dヒストグラムは、格子上の2D行列Fであり、2D行列Fの各係数は、格子上のパッチに対応する。各格子位置(k,l)に対して、仰角値F(k,l)が、パッチ内の3D点の仰角値を補間することにより推定され、点pの記述子が生成される。
【選択図】図1
Description
本明細書において定義するとき、オブジェクト検出は、概して、オブジェクト形状マッチング、オブジェクト認識及びオブジェクトレジストレーションを含む。
点群は、3次元座標系における頂点の集合である。頂点は、通常、(x,y,z)座標によって定義され、一般に、オブジェクトの外側サーフェスを表す。本明細書で用いる点群は、スキャナーによって生成される。スキャナーは、オブジェクトのサーフェス上の多数の点までの距離を自動的に測定し、点群をデータファイルとして出力する。点群は、スキャナーによって測定される点の集合を表す。点群は、本明細書で定義するようなオブジェクト検出を含む多くの目的に用いられる。
レンジスキャナーは、サーフェスが離散点でしかスキャンされず、オブジェクトの微細な詳細が通常喪失するか又はぼやけるため、空間分解能が限られている。スキャナーによっては、サンプリング分解能が種々の軸に沿って大きく変化し、3D点群の再サンプリングが困難であって、場合によっては、サーフェストポロジーが歪むことになる。
オブジェクト検出方法のための最も普及しているオブジェクト記述子は、特徴ベースのものであり、コンパクトかつ有効な3D記述子を必要とする。それらの方法の有効性は、識別力、回転不変性、雑音に対する非感受性及び計算効率を含むいくつかの基準に基づく。
拡張ガウス像(EGI:extended Gaussian image)は、最も普及しているグローバル記述子の1つである。EGIは、重み付きサーフェス法線をガウス球にマッピングし、2D画像を形成する。この記述子が簡潔であることには、局所的な幾何学情報を喪失するという犠牲が伴う。
リージョナル記述子の中で特に、スピンイメージが、多くの3D応用において有効である。スピンイメージは、中心が基準点pにあり、かつその北極点が点pにおけるサーフェス法線推定に合わせて配向される、円筒状サポート領域を考慮する。2つの円筒座標は、動径座標α、すなわち中心に対する垂直距離、及び仰角座標β、すなわち点pを通る接平面に対する垂直符号付き距離である。スピンイメージは、(α,β)でインデックス付けされた体積内の点を累積することによって構成される。他のリージョナル記述子には、サーフェススプラッシュ(surface splash)及びスーパーセグメント(super segment)がある。
点シグネチャ(PS)は、中心点を中心とする球とオブジェクトのサーフェスとの交差部によって形成される3D空間曲線に基づく形状記述子である。PSは、確定が高速であり、モデルとのマッチングが容易である。しかしながら、PSには、信頼性の高いマッチングに十分な識別力が欠けている。
図1は、以下に詳細に説明する、本発明の実施の形態による、オブジェクトの記述子としてCORSを構成する方法を示す。
pを、3D点群101におけるデータ点とする。各点pを中心とし点pの半径r内にある点piの球状体積Sが、以下の式に従って点pの局所サポートとして定義される。
接平面P301が、局所サポートSにあてはめられる(120)。平面あてはめに対して2つの選択肢があり得る。1つは、局所サポート内の全ての点Piを使用し(110)、系が略常に過剰決定であるため最小二乗によって平面をあてはめ、点pにおける平面Pの原点を法線方向に沿って並進させる(135)ことができる。代替的に、図1に示すように、例えば球状サポートをオブジェクトサーフェスと交差させて、局所サポートの周縁部に沿った点の部分集合を選択する(115)ことが可能である。
再び図3を参照して平面をあてはめ基準軸を生成した後、局所近傍Sにおける各3D点piは、ここでは、数の多次元配列の形態であるテンソルpi(x,y,z)によって表される。テンソルは、カメラの視角の不変量である。z座標pi(z)は、このテンソルにおける平面からの距離に対応し、xy平面座標pi(x,y)は、平面P上の投影に対応する。
1)本発明者らは、点pを中心とするxy平面上の方位角方向及び動径方向に沿って極座標格子を適用する。格子上の各パッチは、2Dヒストグラム用のビンである。{(k,l)}を、k=1,...,K及びl=1,...,Lのサンプリングされた格子位置の集合とし、ここでは、K及びLは、それぞれ、方位角方向及び動径方向に沿ったサンプリング間隔の数である。言い換えれば、本発明者らは、この格子上の2D行列Fを抽出し、行列の各係数fは、格子上のパッチに対応する。
2)各格子位置(k,l)に対し、本発明者らは、仰角値F(k,l)を推定してその点の記述子を生成する。
実際には、局所基準枠のz軸として、利用可能な場合は、いつでも局所サポートの法線のみを使用する(116)ことにより、CORSの計算時間を大幅に低減することができる。これにより、全ての位置において平面を近傍にあてはめる必要がなくなる。
図2A及び図2Bにマッチングプロセスを示す。まず、図2Aにおいて、2つのCORS記述子F1201及びF2202の間の相違点が、行列距離によって測定される(210)。CORS記述子のマッチングは、ユークリッド距離には限定されない。記述子に多様体埋込み220を適用することができる。CORSの表現が行列形態であるため、それを、多様体構造を有するものと考えることができ、そこでは、マッチングスコアは、多様体における2つのCORS記述子を連結する測地線距離221として定義される。さらに、多様体を、Isomapを用いて平坦化することができる(220)。Isomapは、既知の低次元埋込み方法であり、重み付きグラフにおける測地線距離が従来のスケーリングとともに組み込まれている。Isomapは、多様体上の各データ点の隣接するデータ点の概算に基づいてデータ多様体の固有の幾何学を推定する単純な方法を提供する。
記述子対応を見つけることは、多くの認識問題及び検索問題に対して本質的である。潜在的に誤りのある一致をフィルタリングで除去し、更なる処理のために有用なもののみを維持する正確でロバストなメカニズムがあることが望ましい。大きいデータベースで記述子を探索するか又は雑音の多い観察結果において対応を見つける場合、最近傍マッチングにより大量の不正確な対がもたらされる。
2.5Dレンジスキャンクエリシーンが与えられると、タスクは、シーンが関心オブジェクトを含むか否かの信頼性の高い判断を行うということである。完全であるか又は部分的に遮蔽されているターゲットのインスタンスが検出されると、本方法は、シーンのターゲットに完全なモデルをレジストレーションする変換を推定する。この問題は、いくつかの理由で困難である。第1に、レンジスキャン画像は、通常、効率よいが信頼性の高い方法で処理される必要のある何十万もの点を含む。第2に、ターゲットは、自己遮蔽及びクラッタリング効果のために部分的にしか見えず、多くのグローバル形状記述子が無用になる。
1)シーンのランダムに分散した点の部分集合に対してCORSを確定する、
2)ランダムに分散している点のクエリ記述子とオフラインで確定されたモデル記述子との間の対応を見つける、及び
3)ランダムサンプルコンセンサス(RANSAC:RANdom SAmple Consensus)フレームワーク内の幾何学的制約を用いて動きパラメータを反復的に推定することにより、未知のオブジェクトの位置を特定しその姿勢を求める。
本発明は、高い識別力を有するとともに3D形状を表現するのに有効な同心円シグネチャを提供する。
Claims (20)
- 記述子を用いて3Dオブジェクトを表す方法であって、前記3Dオブジェクトのモデルが3D点群であり、前記方法は、
前記3D点群における各点pの局所サポートの位置を特定するステップであって、前記局所サポートは、
前記局所サポートの基準x軸、y軸及びz軸を生成するステップと、
前記基準x軸、y軸及びz軸に従って、前記点pを中心とするxy平面上の方位角方向及び動径方向に沿って、極座標格子を、前記格子上の各パッチが2Dヒストグラムのビンとなるように適用するステップであって、前記2Dヒストグラムは、前記格子上の2D行列Fであり、前記2D行列Fの各係数は、前記格子上の前記パッチに対応する、適用するステップと、
前記各格子位置(k,l)に対して、仰角値F(k,l)を、前記パッチ内の前記3D点の前記仰角値を補間することにより推定し、前記点pの前記記述子を生成する、推定するステップと、を含み、
前記ステップは、プロセッサで実行される
記述子を用いて3Dオブジェクトを表す方法。 - 接平面Pを、前記接平面Pが前記z軸に直交するように、最小二乗によって前記局所サポートにあてはめるステップと、
前記接平面の局所基準座標を定義するステップであって、前記局所サポートの前記記述子が視角の不変量であるように、前記局所サポートの前記基準x軸、y軸及びz軸を生成する、定義するステップと、
を更に含む請求項1に記載の方法。 - 前記局所基準座標を定義する前に前記点pにおける前記平面Pの原点を法線方向に沿って並進させるステップ
を更に含む請求項2に記載の方法。 - 前記局所サポートの周縁部に沿って前記接平面にあてはめるように点の部分集合を選択するステップ
を更に含む請求項2に記載の方法。 - 前記z軸は、前記局所サポートの法線である請求項1に記載の方法。
- 行列距離を用いて、既知のオブジェクトの第1の記述子を未知のオブジェクトの第2の記述子とマッチングするステップ
を更に含む請求項1に記載の方法。 - 前記行列距離は、ユークリッド距離である請求項6に記載の方法。
- 前記行列距離は、マハラノビスユークリッド距離である請求項6に記載の方法。
- 前記行列距離は、ミンコフスキー距離である請求項6に記載の方法。
- 前記行列距離は、チェビシェフ距離である請求項6に記載の方法。
- 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の仰角の重み付き平均である請求項1に記載の方法。
- 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の数である請求項1に記載の方法。
- 前記仰角値F(k,l)は、前記格子位置(k,l)を包囲する点の勾配値の重み付き平均である請求項1に記載の方法。
- 前記マッチングするステップは、
前記第1の記述子及び前記第2の記述子を多様体に埋め込むステップを更に含み、マッチングスコアは、前記第1の記述子及び前記第2の記述子を連結する測地線距離である
請求項6に記載の方法。 - 前記多様体が平坦化される請求項14に記載の方法。
- 識別比を用いて、クエリオブジェクトの記述子のセットを別のオブジェクトの前記記述子のセットとマッチングするステップ
を更に含む請求項1に記載の方法。 - 第1の記述子と第2の記述子との間の距離を求めるステップであって、前記第1の記述子は、クエリセットからのものであり、前記第2の記述子は、データベースセットからのものである、求めるステップと、
前記クエリセットにおける前記各記述子に対して最も小さい距離及び2番目に小さい距離を見つけるステップと、
前記クエリセットにおける前記記述子に対して前記識別比を求めるステップと、
前記識別比が信頼性閾値より小さい前記記述子を前記クエリセットから除去するステップと、
残っている識別子を用いて、前記クエリセットの前記記述子と前記データベースセットの前記記述子との距離を求めるステップと、
を更に含む請求項16に記載の方法。 - 前記記述子は、オブジェクトレジストレーションに用いられる請求項1に記載の方法。
- 前記記述子は、未知のオブジェクトの位置を特定し前記オブジェクトの姿勢を求めるために用いられる請求項1に記載の方法。
- 記述子を用いてオブジェクトを表す方法であって、
前記オブジェクトを表す点群における各点の局所サポートの位置を特定するステップと、
前記局所サポートの基準軸を生成するステップと、
前記基準に従って、前記点を中心とする平面上の方位角方向及び動径方向に沿って、極座標格子を、前記格子上の各パッチがヒストグラムのビンであるように適用するステップであって、前記ヒストグラムは、前記格子上の行列であり、前記行列の各係数は、前記格子上の前記パッチに対応する、適用するステップと、
前記各格子位置に対して、仰角値を、前記パッチ内の前記点の前記仰角値を補間することにより推定し、前記点の前記記述子を生成する、推定するステップと、を含み、
前記ステップは、プロセッサで実行される
記述子を用いてオブジェクトを表す方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/026,382 | 2011-02-14 | ||
US13/026,382 US8274508B2 (en) | 2011-02-14 | 2011-02-14 | Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012168941A true JP2012168941A (ja) | 2012-09-06 |
JP5705147B2 JP5705147B2 (ja) | 2015-04-22 |
Family
ID=46636547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012022028A Expired - Fee Related JP5705147B2 (ja) | 2011-02-14 | 2012-02-03 | 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8274508B2 (ja) |
JP (1) | JP5705147B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016161569A (ja) * | 2015-02-26 | 2016-09-05 | 三菱電機株式会社 | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011010975A1 (de) * | 2011-02-10 | 2012-08-16 | Martin Tank | Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen |
US8755610B2 (en) * | 2011-06-10 | 2014-06-17 | Apple Inc. | Auto-recognition for noteworthy objects |
US9355462B2 (en) | 2013-05-08 | 2016-05-31 | Caterpillar Inc. | Motion estimation system utilizing point cloud registration |
CN103489169A (zh) * | 2013-08-14 | 2014-01-01 | 西北工业大学 | 一种改进的基于最小二乘法的深度数据拼接方法 |
CN103489218B (zh) * | 2013-09-17 | 2016-06-29 | 中国科学院深圳先进技术研究院 | 点云数据质量自动优化方法及系统 |
CN104616278B (zh) * | 2013-11-05 | 2020-03-17 | 北京三星通信技术研究有限公司 | 三维点云兴趣点检测方法和系统 |
US9547901B2 (en) * | 2013-11-05 | 2017-01-17 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting point of interest (POI) in three-dimensional (3D) point clouds |
US10115035B2 (en) * | 2015-01-08 | 2018-10-30 | Sungkyunkwan University Foundation For Corporation Collaboration | Vision system and analytical method for planar surface segmentation |
CN104794490B (zh) * | 2015-04-28 | 2018-10-02 | 中测新图(北京)遥感技术有限责任公司 | 航空多视影像的倾斜影像同名点获取方法和装置 |
CN104809456B (zh) * | 2015-05-21 | 2017-11-17 | 重庆大学 | 一种基于二值描述符的三维目标识别方法 |
US10066346B2 (en) * | 2015-08-12 | 2018-09-04 | Topcon Positioning Systems, Inc. | Point cloud based surface construction |
CN106447708A (zh) * | 2016-10-10 | 2017-02-22 | 吉林大学 | 一种oct眼底图像数据配准方法 |
CN106918813B (zh) * | 2017-03-08 | 2019-04-30 | 浙江大学 | 一种基于距离统计的三维声纳点云图像增强方法 |
CN106997614B (zh) * | 2017-03-17 | 2021-07-20 | 浙江光珀智能科技有限公司 | 一种基于深度相机的大规模场景3d建模方法及其装置 |
US10754523B2 (en) | 2017-11-27 | 2020-08-25 | International Business Machines Corporation | Resizing of images with respect to a single point of convergence or divergence during zooming operations in a user interface |
CN110719497B (zh) * | 2018-07-12 | 2021-06-22 | 华为技术有限公司 | 点云编解码方法和编解码器 |
WO2020015517A1 (en) * | 2018-07-18 | 2020-01-23 | Huawei Technologies Co., Ltd. | Point cloud encoding method, point cloud decoding method, encoder and decoder |
CN109741374B (zh) * | 2019-01-30 | 2022-12-06 | 重庆大学 | 点云配准旋转变换方法、点云配准方法、设备及可读存储介质 |
CN111736167B (zh) * | 2019-03-25 | 2024-04-12 | 北京京东乾石科技有限公司 | 一种获取激光点云密度的方法和装置 |
FR3094815B1 (fr) | 2019-04-04 | 2022-07-08 | Commissariat Energie Atomique | Procédé, programme d’ordinateur et système pour l’identification d’une instance d’objet dans une scène tridimensionnelle |
CN110163799B (zh) * | 2019-05-05 | 2023-05-05 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 一种基于深度学习的超分辨率点云生成方法 |
CN110224818B (zh) * | 2019-06-03 | 2022-11-11 | 北京信安世纪科技股份有限公司 | 跨浏览器的签名license控制方法 |
CN118552614A (zh) * | 2019-08-09 | 2024-08-27 | 华为技术有限公司 | 视觉定位方法、终端和服务器 |
CN110705644B (zh) * | 2019-10-08 | 2022-11-18 | 西安米克斯智能技术有限公司 | 一种目标间方位关系的编码方法 |
US11625454B2 (en) * | 2019-12-09 | 2023-04-11 | Shenzhen University | Method and device for 3D shape matching based on local reference frame |
EP3842911B1 (en) * | 2019-12-26 | 2023-04-05 | Dassault Systèmes | A 3d interface with an improved object selection |
CN113033270B (zh) * | 2019-12-27 | 2023-03-17 | 深圳大学 | 采用辅助轴的3d物体局部表面描述方法、装置及存储介质 |
CN113971694A (zh) * | 2020-07-22 | 2022-01-25 | 商汤集团有限公司 | 一种点云数据处理方法及装置 |
CN112085822B (zh) * | 2020-08-28 | 2024-04-12 | 西北大学 | 一种点云模型描述符构建方法及点云模型匹配方法 |
US20220292285A1 (en) * | 2021-03-11 | 2022-09-15 | International Business Machines Corporation | Adaptive selection of data modalities for efficient video recognition |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009133855A1 (ja) * | 2008-04-30 | 2009-11-05 | 公立大学法人大阪府立大学 | 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6400846B1 (en) * | 1999-06-04 | 2002-06-04 | Mitsubishi Electric Research Laboratories, Inc. | Method for ordering image spaces to search for object surfaces |
US7031875B2 (en) * | 2001-01-24 | 2006-04-18 | Geo Vector Corporation | Pointing systems for addressing objects |
US7856125B2 (en) | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
US20080310757A1 (en) | 2007-06-15 | 2008-12-18 | George Wolberg | System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene |
ES2384609T3 (es) * | 2007-10-26 | 2012-07-09 | Sick Ag | Clasificación de objetos así como reconocimiento de su posición y orientación en el espacio |
WO2010013237A1 (en) * | 2008-07-29 | 2010-02-04 | Superfish Ltd. | Edge neighborhood descriptor |
US9530073B2 (en) * | 2010-04-20 | 2016-12-27 | Qualcomm Incorporated | Efficient descriptor extraction over multiple levels of an image scale space |
EP2385483B1 (en) * | 2010-05-07 | 2012-11-21 | MVTec Software GmbH | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform |
-
2011
- 2011-02-14 US US13/026,382 patent/US8274508B2/en not_active Expired - Fee Related
-
2012
- 2012-02-03 JP JP2012022028A patent/JP5705147B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009133855A1 (ja) * | 2008-04-30 | 2009-11-05 | 公立大学法人大阪府立大学 | 3次元物体認識用画像データベースの作成方法、処理装置および処理用プログラム |
Non-Patent Citations (2)
Title |
---|
CSNG199800727009; 喜多伸之: '"同心円特徴に基づく形状の記述と類似度測定"' 電子情報通信学会論文誌 第J75-D-II巻, 第9号, 19920925, p.1557-1564, 社団法人電子情報通信学会 * |
JPN6015002528; 喜多伸之: '"同心円特徴に基づく形状の記述と類似度測定"' 電子情報通信学会論文誌 第J75-D-II巻, 第9号, 19920925, p.1557-1564, 社団法人電子情報通信学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016161569A (ja) * | 2015-02-26 | 2016-09-05 | 三菱電機株式会社 | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム |
Also Published As
Publication number | Publication date |
---|---|
US8274508B2 (en) | 2012-09-25 |
US20120206438A1 (en) | 2012-08-16 |
JP5705147B2 (ja) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5705147B2 (ja) | 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
JP5677798B2 (ja) | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 | |
CN108604301B (zh) | 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征 | |
Yang et al. | Toward the repeatability and robustness of the local reference frame for 3D shape matching: An evaluation | |
Drost et al. | Model globally, match locally: Efficient and robust 3D object recognition | |
Guo et al. | Efficient center voting for object detection and 6D pose estimation in 3D point cloud | |
US9177404B2 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
Tazir et al. | CICP: Cluster Iterative Closest Point for sparse–dense point cloud registration | |
US9141871B2 (en) | Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space | |
CN104616278B (zh) | 三维点云兴趣点检测方法和系统 | |
CN110930456A (zh) | 基于pcl点云库的钣金零件的三维立体识别及定位方法 | |
CN114677418B (zh) | 一种基于点云特征点提取的配准方法 | |
Patterson et al. | Object detection from large-scale 3d datasets using bottom-up and top-down descriptors | |
CN108388902B (zh) | 结合全局框架点与局部shot特征的复合3d描述子构建方法 | |
Guo et al. | 3D free form object recognition using rotational projection statistics | |
Drost et al. | Local hough transform for 3d primitive detection | |
US11468609B2 (en) | Methods and apparatus for generating point cloud histograms | |
Seib et al. | Object recognition using hough-transform clustering of surf features | |
An et al. | Extracting statistical signatures of geometry and structure in 2D occupancy grid maps for global localization | |
CN116678418A (zh) | 一种改进激光slam快速回环检测方法 | |
Liu et al. | An improved local descriptor based object recognition in cluttered 3D point clouds | |
CN116783619B (zh) | 用于生成点云直方图的方法和装置 | |
Chen et al. | Point Cloud Segmentation Algorithm Based on Improved Euclidean Clustering | |
Tao et al. | A Local Shape Descriptor Designed for Registration of Terrestrial Point Clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141209 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20141209 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20150116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5705147 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |