JP6216508B2 - 3dシーンにおける3d物体の認識および姿勢決定のための方法 - Google Patents
3dシーンにおける3d物体の認識および姿勢決定のための方法 Download PDFInfo
- Publication number
- JP6216508B2 JP6216508B2 JP2012278117A JP2012278117A JP6216508B2 JP 6216508 B2 JP6216508 B2 JP 6216508B2 JP 2012278117 A JP2012278117 A JP 2012278117A JP 2012278117 A JP2012278117 A JP 2012278117A JP 6216508 B2 JP6216508 B2 JP 6216508B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- scene
- data
- points
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 98
- 230000036544 posture Effects 0.000 claims description 75
- 238000005070 sampling Methods 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 description 19
- 238000013459 approach Methods 0.000 description 8
- 238000011960 computer-aided design Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 238000002360 preparation method Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 230000014616 translation Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 241000282320 Panthera leo Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
本発明は、概して、機械視覚システム(マシンビジョンシステム)に関し、より特定的には、画像センサおよび3Dセンサの双方によって観測されるシーン(scene)における3D物体の認識および位置測定に関する。
物体認識および位置測定は、多くのマシンビジョン用途の一部である。シーンにおいて対象の物体の詳細な位置を知ることは、後続の操作タスクおよび検査タスクのために極めて重要である。シーンの強度画像または3Dスキャンにおいて物体を発見するための多くの異なる技術が開発されており、そのタスクは一般的にマッチングと称される。本書は、シーンの強度画像および3Dスキャンの双方を同時に用い、3Dデータおよび強度データの双方におけるモデルとシーンとの間の一致性を最適化することによって物体を発見するマッチングアプローチについて説明する。
本発明は、マルチモーダルシーンにおける剛体3D物体を探索するため、およびシーン座標における物体の3D姿勢を決定するためのシステムおよび方法を提供する。典型的なアプリケーションにおいては、マルチモーダルシーンは、たとえば、2つまたはより多くのカメラを用いるステレオ法、タイムオフフライト法(time-of-flight)、デプスフロムフォーカス法(depth from focus)、照度差ステレオ法(photometric stereo)、または立体照明を用いた立体写真を用いて取得される。そして、物体の3D姿勢は、提示された方法を用いて探索される。結果として得られる3D姿勢は、たとえば、ロボットを用いて物体を操作するため、物体表面の欠陥を検出するため、または、物体の表面特性を演算するために用いられる。
標記および定義
以下のすべてのデータは、電子的形式、好ましくはデジタルで利用可能であると考えられる。記述された方法およびアルゴリズムは、電子的形式およびコンピュータ実行可能であるものと考えられる。
本方法のオフラインフェーズにおいて、シーン内において後に認識するのに適した手法についての対象の物体を記述する方法が構築される。モデルを生成するための方法は、以下の、(a)3D物体データの任意的な準備のステップと、(b)物体サンプルポイントの選択のステップと、(c)グローバルモデル記述の生成のステップと、(d)任意的に、姿勢改善のための準備のステップとを含む。好ましい実施形態においては、生成されたモデルは、選択サンプルポイントおよびグローバルモデル記述を含む。代替的な実施形態においては、以下の情報、3D物体データ、姿勢改善のために演算されたデータ、方法のユーザによって要求される追加情報が含まれ得る。
方法のオンラインフェーズは、3Dシーンデータおよびシーン強度データ内の3D物体の事象を認識し、シーン内のその事象の3D姿勢を演算する。入力として、オフラインフェーズにおいて演算されたような3Dシーン、シーン強度データ、および3Dモデルを利用し、シーン内の物体の一組の3D姿勢、および任意的に姿勢をランク付けする一組のスコアを出力する。オンラインフェーズは、以下の、(a)3Dシーンデータの準備ステップと、(b)シーン強度データの準備ステップと、(c)シーンフィーチャポイントの抽出ステップと、(d)基準ポイントの選択ステップと、(e)基準ポイントが対象の物体上であるとの想定の下で、物体とシーンとの高い一致性を導く、各基準ポイントについての一組の局部座標の演算ステップと、(d)結果として得られた姿勢をフィルタリングして最終姿勢を形成するステップと、(e)任意的な姿勢改善ステップと、(f)任意的な最終姿勢のスコアリングを行なうステップとを含む。
Claims (17)
- 3Dシーン(scene)データおよびシーン強度データにおける3D物体の事象を認識するため、および前記事象の3D姿勢(pose)を決定するための方法であって、
(a)3D物体データを提供し、物体強度データを取得し、前記3D物体データおよび物体強度データからモデルを演算するステップであって、
(a1)前記3D物体データからの少なくとも1つのサンプルポイントを選択するステップと、
(a2)前記物体強度データから物体フィーチャポイントを抽出するステップと、
(a3)選択されたサンプルポイントおよび抽出された物体フィーチャポイントの各ペアについて、前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントとそれらの幾何学的関係とを記述するポイントペア記述子を演算するステップを含み、前記幾何学的関係は、前記物体強度データの画像平面内の前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントの間の距離、エッジ方向と前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントの間の差分ベクトルとの間の角度、前記サンプルポイントの法線ベクトルと前記差分ベクトルとの角度、および、前記法線ベクトルと前記物体強度データの投影中心に向かう方向との間の角度の少なくとも1つを含み、
(a4)前記ポイントペア記述子によってインデックスが付けられたポイントペアを記憶するモデルを生成するステップ、とを含むステップと、
(b)3Dシーンデータおよびシーン強度データを提供するステップと、
(c)前記シーン強度データからエッジポイントをシーンフィーチャポイントとして抽出するステップと、
(d)3Dシーンデータから少なくとも1つの基準ポイントを選択するステップと、
(e)各選択された基準ポイントについて、前記基準ポイントが3D物体の一部であるという推定の下で、投票方式を用いることによって、前記3D物体についての姿勢候補を演算するステップとを備え、前記投票方式は、
(e1)可能性のある物体姿勢の空間をサンプリングするステップを含み、前記可能性のある物体姿勢の空間は、2つのパラメータによって表現され、第1のパラメータは、前記3D物体上のポイントであり、第2のパラメータは、角度であり、前記投票方式はさらに、
(e2)各姿勢空間サンプルについてカウンタを生成するステップと、
(e3)前記抽出されたシーンフィーチャポイントから少なくとも1つのシーンフィーチャポイントを選択するステップと、
(e4)選択された各シーンフィーチャポイントについて、前記ステップ(a)で計算された前記モデルを用いて、前記基準ポイントが前記3D物体の表面上であり、かつ前記シーンフィーチャポイントが前記3D物体に一致するようなマッチング姿勢を演算するステップと、
(e5)ステップ(e4)において演算された各マッチング姿勢について、対応する姿勢空間サンプルのためのカウンタを増加させるステップと、
(e6)前記サンプリングされた姿勢空間におけるピークカウンタ値を検出するとともに、対応する姿勢空間サンプルを姿勢候補として選択するステップとを含み、
(f)前記姿勢候補からフィルタリングされた一組の姿勢を演算するステップとを備える、方法。 - ステップ(a)において、前記物体強度データは、前記3D物体データを仮想視野へとレンダリングすることを通して、前記3D物体データからの強度データを合成的に生成することによって取得される、請求項1に記載の方法。
- ステップ(a)において、前記物体強度データが与えられる、請求項1に記載の方法。
- ステップ(a4)は、
(a4a)前記ポイントペア記述子をサンプリングするステップと、
(a4b)サンプリングされたポイントペア記述子をポイントペアのリストへマッピングするグローバルモデル記述を生成するステップとを含み、
各リストは、選択されたサンプルポイントと、類似のサンプルポイントペア記述子を有する抽出された物体フィーチャポイントとのすべてのペアを含む、請求項1に記載の方法。 - ステップ(d)において、前記基準ポイントは、前記3Dシーンデータからランダムに選択されるか、または、前記3Dシーンデータを均一にサンプリングすることによって選択される、請求項1〜4のいずれか1項に記載の方法。
- ステップ(e1)において、前記3D物体上のポイントは、前記3D物体データから選択された一組のポイントへのインデックスとして表現され、
前記角度は、前記角度の組を、等しいサイズの間隔に分割することによってサンプリングされる、請求項1に記載の方法。 - ステップ(e4)において、前記マッチング姿勢は、前記基準ポイントと前記選択されたシーンフィーチャポイントとのペアに類似した、3D物体ポイントと物体フィーチャポイントとのペアの探索を可能とするデータ構造を用いて演算される、請求項1に記載の方法。
- 類似ポイントの前記探索は、
(e4a)前記基準ポイント、前記選択されたシーンフィーチャポイント、およびそれらの関係を記述するポイントペア記述子を演算するステップと、
(e4b)前記ポイントペア記述子を、前記データ構造へのインデックスとして使用するステップとを含む、請求項7に記載の方法。 - ステップ(e4b)は、
(e4c)前記ポイントペア記述子をサンプリングするステップと、
(e4d)前記サンプリングされたポイントペア記述子を3D物体ポイントおよび物体フィーチャポイントのリストにマッピングするデータ構造を用いるステップとを含む、請求項8に記載の方法。 - ステップ(e4d)において、ハッシュテーブルがデータ構造として用いられる、請求項9に記載の方法。
- ステップ(f)の演算は、
(f1)前記姿勢候補間の近接関係を規定するステップと、
(f2)近接する姿勢候補のスコアの荷重和として、各姿勢のスコアを演算するステップと、
(f3)(f2)において演算されたスコアによって前記姿勢をランク付けすることにより、前記一組のフィルタリングされた姿勢を選択するステップとを含む、請求項1に記載の方法。 - 前記近接関係は、前記姿勢の並進(translation)と前記姿勢の回転との差のしきい値化、または、両姿勢の下で前記3D物体上のポイントが有し得る最大距離のしきい値化によって規定される、請求項11に記載の方法。
- (f3)において選択された姿勢が、前記近接する姿勢にわたる平均姿勢として再演算されるステップをさらに備える、請求項11に記載の方法。
- 前記姿勢の下での、前記3Dシーンと前記3D物体との間の距離に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善(refine)するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
- 前記姿勢の下での、前記シーン強度データと前記物体強度データとの間の一致性に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
- 前記姿勢の下での、前記3Dシーンと前記3D物体との間の距離、および、前記シーン強度データと前記物体強度データとの間の一致性に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
- 幾何学的エッジのみを取得するために、シーンの前記エッジポイントが前記3Dシーンデータを用いてさらにフィルタリングされるステップ(c1)をさらに備える、請求項1に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12188290.6 | 2012-10-12 | ||
EP12188290.6A EP2720171B1 (en) | 2012-10-12 | 2012-10-12 | Recognition and pose determination of 3D objects in multimodal scenes |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014081347A JP2014081347A (ja) | 2014-05-08 |
JP6216508B2 true JP6216508B2 (ja) | 2017-10-18 |
Family
ID=47115339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012278117A Active JP6216508B2 (ja) | 2012-10-12 | 2012-12-20 | 3dシーンにおける3d物体の認識および姿勢決定のための方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8994723B2 (ja) |
EP (1) | EP2720171B1 (ja) |
JP (1) | JP6216508B2 (ja) |
CN (1) | CN103729643B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7423462B2 (ja) | 2020-07-13 | 2024-01-29 | 新光電気工業株式会社 | 実装基板及び半導体装置 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9690979B2 (en) * | 2006-03-12 | 2017-06-27 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
DE102011010975A1 (de) * | 2011-02-10 | 2012-08-16 | Martin Tank | Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen |
KR102060758B1 (ko) * | 2013-02-28 | 2019-12-31 | 한국전자통신연구원 | 포인트 클라우드를 이용한 프리미티브 피팅 장치 및 방법 |
CN104424655A (zh) * | 2013-09-10 | 2015-03-18 | 鸿富锦精密工业(深圳)有限公司 | 点云曲面重构系统及方法 |
JPWO2016035181A1 (ja) | 2014-09-03 | 2017-06-22 | 株式会社ニコン | 撮像装置、情報処理装置、及び撮像システム |
US9995573B2 (en) | 2015-01-23 | 2018-06-12 | Cognex Corporation | Probe placement for image processing |
DE102015205088C5 (de) * | 2015-03-20 | 2024-09-26 | Kuka Deutschland Gmbh | Verfahren zum Ermitteln eines Kalibrierungsparameters eines Fahrzeuges sowie Fahrzeug hierzu |
WO2016153546A1 (en) * | 2015-03-24 | 2016-09-29 | Kla-Tencor Corporation | Method for shape classification of an object |
US9818043B2 (en) | 2015-06-24 | 2017-11-14 | Microsoft Technology Licensing, Llc | Real-time, model-based object detection and pose estimation |
EP3185171B1 (en) * | 2015-12-24 | 2020-03-04 | Dassault Systèmes | 3d object localization with descriptor |
EP3185172B1 (en) * | 2015-12-24 | 2020-02-12 | Dassault Systèmes | 3d object localization with quantization of the point pair descriptors |
CN107092430B (zh) * | 2016-02-18 | 2020-03-24 | 纬创资通(中山)有限公司 | 空间绘画计分方法、用于进行空间绘画计分的装置及系统 |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
EP3428877A4 (en) * | 2016-03-09 | 2019-10-30 | Nikon Corporation | DETECTION DEVICE, INFORMATION PROCESSING DEVICE, METHOD, PROGRAM, AND DETECTION SYSTEM |
CN107436679B (zh) * | 2016-05-27 | 2020-08-07 | 富泰华工业(深圳)有限公司 | 手势控制系统及方法 |
WO2017214595A1 (en) * | 2016-06-10 | 2017-12-14 | The Board Of Trustees Of The Leland | Systems and methods for performing three-dimensional semantic parsing of indoor spaces |
CN106204727A (zh) * | 2016-07-11 | 2016-12-07 | 北京大学深圳研究生院 | 一种足部三维扫描重建的方法及装置 |
US10482621B2 (en) * | 2016-08-01 | 2019-11-19 | Cognex Corporation | System and method for improved scoring of 3D poses and spurious point removal in 3D image data |
US10417533B2 (en) * | 2016-08-09 | 2019-09-17 | Cognex Corporation | Selection of balanced-probe sites for 3-D alignment algorithms |
JP6798826B2 (ja) * | 2016-08-31 | 2020-12-09 | 株式会社ミマキエンジニアリング | 三次元造形物製造方法 |
US10152786B2 (en) | 2016-10-11 | 2018-12-11 | Biosense Webster (Israel) Ltd. | Registration of a magnetic tracking system with an imaging device |
CN106524945B (zh) * | 2016-10-13 | 2019-07-12 | 无锡科技职业学院 | 一种基于机械臂和结构光视觉的平面夹角在线测量方法 |
EP3324204B1 (en) * | 2016-11-21 | 2020-12-23 | HTC Corporation | Body posture detection system, suit and method |
WO2018152214A1 (en) * | 2017-02-14 | 2018-08-23 | The Trustees Of The University Of Pennsylvania | Event-based feature tracking |
CN107507218B (zh) | 2017-08-31 | 2020-01-10 | 深圳大学 | 基于静态帧的部件运动性预测方法 |
EP3495771A1 (en) * | 2017-12-11 | 2019-06-12 | Hexagon Technology Center GmbH | Automated surveying of real world objects |
US10956790B1 (en) * | 2018-05-29 | 2021-03-23 | Indico | Graphical user interface tool for dataset analysis |
CN109785389A (zh) * | 2019-01-18 | 2019-05-21 | 四川长虹电器股份有限公司 | 一种基于哈希描述与迭代最近点的三维物体检测方法 |
CN111582293B (zh) * | 2019-02-19 | 2023-03-24 | 曜科智能科技(上海)有限公司 | 平面几何一致性检测方法、计算机设备、及存储介质 |
CN111986299B (zh) * | 2019-05-24 | 2024-03-01 | 北京京东乾石科技有限公司 | 点云数据处理方法、装置、设备及存储介质 |
CN110472532B (zh) * | 2019-07-30 | 2022-02-25 | 中国科学院深圳先进技术研究院 | 一种视频对象行为识别方法和装置 |
EP3846136A1 (en) * | 2019-12-31 | 2021-07-07 | Dassault Systèmes | Augmenting a video flux of a real scene |
US20220276652A1 (en) * | 2021-03-01 | 2022-09-01 | The Boeing Company | Autonomous maneuver generation to mate connectors |
CN113066126B (zh) * | 2021-03-12 | 2024-09-20 | 常州龙源智能机器人科技有限公司 | 穿刺入针点的定位方法 |
WO2022212238A1 (en) * | 2021-04-02 | 2022-10-06 | Carnegie Mellon University | System and method for pose tolerant feature extraction using generated pose-altered images |
TWI771004B (zh) * | 2021-05-14 | 2022-07-11 | 財團法人工業技術研究院 | 物件姿態估測系統及其執行方法與圖案化使用者介面 |
WO2023278868A1 (en) * | 2021-07-01 | 2023-01-05 | Summer Robotics, Inc. | Calibration of sensor position offsets based on rotation and translation vectors for matched trajectories |
CN116416305B (zh) * | 2022-09-17 | 2024-02-13 | 上海交通大学 | 一种基于优化采样五维点对特征的多实例位姿估计方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1038542A (ja) * | 1996-07-19 | 1998-02-13 | Tsubakimoto Chain Co | 物体認識方法及び装置並びに記録媒体 |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
JP2004141514A (ja) * | 2002-10-28 | 2004-05-20 | Toshiba Corp | 画像処理装置及び超音波診断装置 |
EP1766552A2 (en) * | 2004-06-23 | 2007-03-28 | Strider Labs, Inc. | System and method for 3d object recognition using range and intensity |
AT502551B1 (de) * | 2005-06-15 | 2010-11-15 | Arc Seibersdorf Res Gmbh | Verfahren und bildauswertungseinheit zur szenenanalyse |
EP1850270B1 (en) | 2006-04-28 | 2010-06-09 | Toyota Motor Europe NV | Robust interest point detector and descriptor |
JP5109294B2 (ja) * | 2006-06-19 | 2012-12-26 | 三菱電機株式会社 | 3次元位置補正装置 |
DE102006036346B4 (de) | 2006-08-03 | 2010-12-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung |
US7844105B2 (en) | 2007-04-23 | 2010-11-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining objects poses from range images |
EP2026279B1 (en) | 2007-08-13 | 2011-10-19 | Aqsense, S.L. | Method and system for aligning three-dimensional surfaces |
KR20100081881A (ko) * | 2009-01-07 | 2010-07-15 | 삼성전자주식회사 | 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇 |
US20100208981A1 (en) * | 2009-02-13 | 2010-08-19 | Harris Corporation | Method for visualization of point cloud data based on scene content |
JP5655301B2 (ja) * | 2009-12-22 | 2015-01-21 | 東ソー株式会社 | 有機半導体材料 |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
EP2385483B1 (en) * | 2010-05-07 | 2012-11-21 | MVTec Software GmbH | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
-
2012
- 2012-10-12 EP EP12188290.6A patent/EP2720171B1/en active Active
- 2012-12-04 US US13/693,666 patent/US8994723B2/en active Active
- 2012-12-20 JP JP2012278117A patent/JP6216508B2/ja active Active
-
2013
- 2013-09-13 CN CN201310418597.7A patent/CN103729643B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7423462B2 (ja) | 2020-07-13 | 2024-01-29 | 新光電気工業株式会社 | 実装基板及び半導体装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103729643B (zh) | 2017-09-12 |
CN103729643A (zh) | 2014-04-16 |
JP2014081347A (ja) | 2014-05-08 |
US8994723B2 (en) | 2015-03-31 |
EP2720171B1 (en) | 2015-04-08 |
EP2720171A1 (en) | 2014-04-16 |
EP2720171A8 (en) | 2014-05-28 |
US20140105506A1 (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
JP5677798B2 (ja) | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 | |
JP5705147B2 (ja) | 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 | |
CN110648361B (zh) | 一种三维目标物体的实时位姿估计方法及定位抓取系统 | |
CN108604301B (zh) | 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征 | |
Aldoma et al. | Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation | |
Choi et al. | Voting-based pose estimation for robotic assembly using a 3D sensor | |
Drost et al. | Model globally, match locally: Efficient and robust 3D object recognition | |
US8908913B2 (en) | Voting-based pose estimation for 3D sensors | |
JP4865557B2 (ja) | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム | |
Li et al. | A tutorial review on point cloud registrations: principle, classification, comparison, and technology challenges | |
Tazir et al. | CICP: Cluster Iterative Closest Point for sparse–dense point cloud registration | |
Alhamzi et al. | 3d object recognition based on local and global features using point cloud library | |
CN110930456A (zh) | 基于pcl点云库的钣金零件的三维立体识别及定位方法 | |
CN108830888B (zh) | 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法 | |
CN109272577B (zh) | 一种基于Kinect的视觉SLAM方法 | |
Goron et al. | Robustly segmenting cylindrical and box-like objects in cluttered scenes using depth cameras | |
Li et al. | Approximately global optimization for robust alignment of generalized shapes | |
Ekekrantz et al. | Adaptive iterative closest keypoint | |
Giachetti et al. | SHREC’14 track: automatic location of landmarks used in manual anthropometry | |
CN113111741A (zh) | 一种基于三维特征点的装配状态识别方法 | |
Wan et al. | A performance comparison of feature detectors for planetary rover mapping and localization | |
Zrira et al. | Evaluation of PCL's Descriptors for 3D Object Recognition in Cluttered Scene | |
Hlubik et al. | Advanced point cloud estimation based on multiple view geometry | |
Sarkar et al. | Feature-augmented Trained Models for 6DOF Object Recognition and Camera Calibration. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6216508 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |