JP2014528057A - 物体の姿勢を推定するための方法 - Google Patents
物体の姿勢を推定するための方法 Download PDFInfo
- Publication number
- JP2014528057A JP2014528057A JP2014514266A JP2014514266A JP2014528057A JP 2014528057 A JP2014528057 A JP 2014528057A JP 2014514266 A JP2014514266 A JP 2014514266A JP 2014514266 A JP2014514266 A JP 2014514266A JP 2014528057 A JP2014528057 A JP 2014528057A
- Authority
- JP
- Japan
- Prior art keywords
- pair
- boundary
- feature
- point
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 49
- 230000009466 transformation Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 11
- 230000036544 posture Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000014616 translation Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 4
- 230000001154 acute effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000002991 molded plastic Substances 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本説明の目的のため、3つの座標系が使用される。センサは、センサ(カメラ)座標系Cの観点から表現される。物体のモデルは、物体座標系Oの観点から表現される。場面の物体は、世界座標系Wを使用する。センサは、一般に、現実世界の公知の位置および向きにあるため、センサ座標系Sは、世界座標系Wに対して較正することができる。
姿勢推定のための本発明者らの特徴は、方向付けされたポイントまたは線の対に基づき、これを対特徴と呼ぶ。ある方向付けされたポイント(基準)から別のポイント(関連)まで特徴ベクトルを非対称的に構成するため、方向付けされた表面ポイントの対からなる対特徴は、S2Sで示される。同様に、方向付けされた境界ポイントの対(B2B)、線セグメントの対(L2L)および異種対(方向付けされた表面ポイントと方向付けされた境界ポイント(S2BとB2S)を含む)に基づいて、他の4つの対特徴を有する(図3A〜3Dを参照)。
S2S−表面対特徴:
表面対特徴S2Sは、物体の表面上の2つのポイントと、2つのポイントの法線とを使用して定義される。場面からの方向付けされたポイントおよびモデルからの対応するプリミティブを考慮して、3D姿勢は、ポイント位置およびポイントの法線を位置合わせすることによって、平面回転まで回復させることができる。回転の曖昧性を解決し、完全な6−DoF姿勢を回復させるため、少なくとも場面プリミティブとモデルプリミティブの2対間の対応が必要である。
S2S特徴は、広範囲の表面法線にまで広がらない形状に対しては、優れた記述を提供することができない。残念ながら、ロボットアセンブリの間に使用される多くの工業用部品は、平面状であり、非常に小さなセットの法線方向を有する。それに加えて、3Dデータにおける雑音が原因で、表面上の高曲率領域の法線を正確に推定することは難しく、問題をさらに複雑にする。
境界対特徴は、物体の深度エッジと関連付けられる。境界ポイントのみに依存するそのような特徴は、高曲率表面を有する物体に対しては、最も良い選択ではない可能性がある。例えば、球体の物体の表面上のいかなるポイントも、姿勢に基づいて深度エッジになれる可能性がある一方で、多面体の物体上の深度エッジは、より安定しており、平面交差上に常に現れる。
図3Dに示されるように、3D線セグメントに対する対特徴L2Lも提供する。2つの線セグメントに対する特徴を構成することは、方向付けされたポイント対に対する特徴を構成することよりも若干複雑である。本発明者らの方法では、RANSAC手順を使用して線を合わせる。線セグメントは、通常、雑音、ランダム化された線合わせおよびオクルージョンが原因で、より小さないくつかのセグメントに分割される。したがって、線セグメントのエンドポイントは、{lr 1,lr 2,li 1,li 2}と示され、確実に決定することはできない。
最初に、S2Sの方向付けされた表面ポイント、B2Bの方向付けされた境界ポイント、S2BとB2Sの方向付けされた表面ポイントと方向付けされた境界ポイントの両方、および、L2Lの3D線セグメントなどの幾何プリミティブMを得る。これらの幾何プリミティブは、センサと物体との間の公知の較正を伴う3Dスキャンデータまたは公知のCADモデルからレンダリングされる合成深度データのいずれかから決定することができる。
図2Bに示されるように、モデルから特徴の対202を決定し、ハッシュ表H205を構成した後、場面対特徴と一連の対応するモデル対特徴との間の剛体変換を計算することによって、姿勢を決定する。最適な姿勢を見出すプロセスを効率的なものにするため、投票方式を使用する。単純な手法は、6−DoF姿勢空間での投票を必要とし、これは非効率的である。
L2L特徴は線セグメントの対によって定義されるため、L2L特徴に対しては、異なる投票方式を使用する。ポイント対特徴の投票方式と比べて、L2L特徴の投票方式は、より難しい、しかし、基本的な考えは同じであり、図4に示されるように、中間座標系で2つの対特徴を位置合わせする。
上記で説明される投票方式では、候補姿勢206は、場面の各基準プリミティブ(ポイントまたは線)に対して得られる。物体は複数の特徴対によってモデル化されるため、異なる基準プリミティブ(ポイントmrまたは線lm r)上で複数の候補姿勢を有し、一貫した姿勢仮定をサポートすることが予想される。したがって、異なる場面プリミティブから同様の姿勢を集める。
方向付けされた表面ポイント、方向付けされた境界ポイントおよび境界線セグメントを使用する一連の対特徴は、様々な物体をモデル化するために提供される。正確で効率的な姿勢推定のため、投票フレームワークにおいて対特徴を使用する。
Claims (15)
- 物体の姿勢を推定するための方法であって、
幾何プリミティブの対として一連の対特徴を定義する工程であって、前記幾何プリミティブは、方向付けされた表面ポイント、方向付けされた境界ポイントおよび境界線セグメントを含む、工程と、
前記物体のモデルに対する前記一連の対特徴に基づいて、モデル対特徴を決定する工程と、
3Dセンサによって取得されたデータからの前記一連の対特徴に基づいて、場面対特徴を決定する工程と、
前記物体の前記姿勢を推定するために、前記モデル対特徴と前記場面対特徴とを一致させる工程であって、プロセッサで実行される、工程と
を含む、方法。 - 前記物体は、他の物体とランダムに混合させた複数の異なる物体のうちの1つであり、各物体に対してモデル対特徴がある、請求項1に記載の方法。
- 前記3Dセンサは、ロボットアーム上に装着され、前記ロボットアームは、前記姿勢に応じて前記物体を拾い上げるためのグリッパを含む、請求項1に記載の方法。
- 前記3Dセンサは、赤外レーザによって生成される構造化された光を使用する、請求項1に記載の方法。
- 各対特徴は、2つの方向付けされた表面ポイント、2つの方向付けされた境界ポイント、1つの方向付けされた表面ポイントと1つの方向付けされた境界ポイント、および、2つの境界線セグメントを使用して定義される、請求項1に記載の方法。
- 各方向付けされた表面ポイントは、前記物体の表面上の3D位置と、3D法線ベクトルとを備える、請求項1に記載の方法。
- 各方向付けされた境界ポイントは、前記物体の境界上の3D位置と、3D方向ベクトルとを備える、請求項1に記載の方法。
- 前記3D方向ベクトルは、前記3D位置における前記境界の接線方向として定義される、請求項7に記載の方法。
- 各境界線セグメントは、前記物体の境界上の3Dポイントに合わせた線セグメントである、請求項1に記載の方法。
- 記述子は、各対特徴から決定される、請求項1に記載の方法。
- 前記一致は、前記モデル対特徴の前記記述子と前記場面対特徴の前記記述子とを比較することによって実行される、請求項10に記載の方法。
- 前記対特徴の前記記述子を離散化する工程と、
前記モデル対特徴の前記離散化された記述子をハッシュ表に格納する工程と、
前記ハッシュ表を使用して前記一致を実行する工程と
をさらに含む、請求項11に記載の方法。 - 前記物体の候補姿勢は、中間座標変換を介する投票に基づいて推定される、請求項1に記載の方法。
- 前記候補姿勢をクラスタリングする工程をさらに含む、請求項13に記載の方法。
- 反復最近点手順を使用して前記姿勢を改善する工程をさらに含む、請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/329,493 | 2011-12-19 | ||
US13/329,493 US8908913B2 (en) | 2011-12-19 | 2011-12-19 | Voting-based pose estimation for 3D sensors |
PCT/JP2012/081864 WO2013094441A1 (en) | 2011-12-19 | 2012-12-04 | Method for estimating pose of object |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014528057A true JP2014528057A (ja) | 2014-10-23 |
JP2014528057A5 JP2014528057A5 (ja) | 2015-01-22 |
JP5726378B2 JP5726378B2 (ja) | 2015-05-27 |
Family
ID=47436153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014514266A Active JP5726378B2 (ja) | 2011-12-19 | 2012-12-04 | 物体の姿勢を推定するための方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8908913B2 (ja) |
JP (1) | JP5726378B2 (ja) |
CN (1) | CN104040590B (ja) |
DE (1) | DE112012005350B4 (ja) |
WO (1) | WO2013094441A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153290A (ja) * | 2018-02-21 | 2019-09-12 | コグネックス・コーポレイション | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130201339A1 (en) * | 2012-02-08 | 2013-08-08 | Honeywell International Inc. | System and method of optimal video camera placement and configuration |
US9098913B2 (en) * | 2012-05-11 | 2015-08-04 | Cornell University | Prediction of successful grasps by end of arm tooling |
ITPR20120039A1 (it) * | 2012-06-20 | 2012-09-19 | Gevis S R L | Dispositivo e metodo di misura di un pezzo |
US8913825B2 (en) * | 2012-07-16 | 2014-12-16 | Mitsubishi Electric Research Laboratories, Inc. | Specular edge extraction using multi-flash imaging |
JP6370038B2 (ja) * | 2013-02-07 | 2018-08-08 | キヤノン株式会社 | 位置姿勢計測装置及び方法 |
US9305364B2 (en) * | 2013-02-19 | 2016-04-05 | Caterpillar Inc. | Motion estimation systems and methods |
US9280827B2 (en) * | 2013-07-03 | 2016-03-08 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining object poses using weighted features |
JP6245880B2 (ja) * | 2013-07-31 | 2017-12-13 | キヤノン株式会社 | 情報処理装置および情報処理手法、プログラム |
US11412334B2 (en) * | 2013-10-23 | 2022-08-09 | Cochlear Limited | Contralateral sound capture with respect to stimulation energy source |
US10311595B2 (en) * | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US10043112B2 (en) * | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
US10239210B2 (en) * | 2014-04-11 | 2019-03-26 | Symbotic Canada Ulc | Vision-assisted system and method for picking of rubber bales in a bin |
EP2933604B1 (en) * | 2014-04-14 | 2016-11-30 | Softbank Robotics Europe | A method for localizing a robot in a localization plane |
EP3192057A4 (en) * | 2014-09-10 | 2018-03-21 | Vangogh Imaging Inc. | Real-time dynamic three-dimensional adaptive object recognition and model reconstruction |
US9747493B2 (en) | 2014-09-23 | 2017-08-29 | Keylemon Sa | Face pose rectification method and apparatus |
DE102015100983A1 (de) | 2015-01-23 | 2016-07-28 | Sick Ag | Verfahren zur Lokalisierung von Greifpunkten von Objekten |
US10515259B2 (en) * | 2015-02-26 | 2019-12-24 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining 3D object poses and landmark points using surface patches |
US9761015B2 (en) * | 2015-04-28 | 2017-09-12 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining dimensions in an indoor scene from a single depth image |
CN104899918B (zh) * | 2015-05-14 | 2018-02-27 | 深圳大学 | 一种无人机的三维环境建模方法及系统 |
EP3304166B1 (en) | 2015-06-02 | 2019-06-26 | Life Technologies Corporation | Systems and methods for calibrating a structured illumination imaging system and for capturing a structured illumination image |
DE102015212932A1 (de) * | 2015-07-10 | 2017-01-12 | Kuka Roboter Gmbh | Verfahren zum Steuern eines Roboters und/oder eines autonomen fahrerlosen Transportsystems |
EP3185171B1 (en) * | 2015-12-24 | 2020-03-04 | Dassault Systèmes | 3d object localization with descriptor |
US11044390B2 (en) * | 2016-02-10 | 2021-06-22 | Karl Storz Imaging, Inc. | Imaging system for identifying a boundary between active and inactive portions of a digital image |
US9868212B1 (en) * | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
CN107220580B (zh) * | 2016-03-22 | 2022-08-09 | 敦泰电子有限公司 | 基于投票决策和最小二乘法的图像识别随机取样一致算法 |
US10371512B2 (en) * | 2016-04-08 | 2019-08-06 | Otis Elevator Company | Method and system for multiple 3D sensor calibration |
US10380767B2 (en) * | 2016-08-01 | 2019-08-13 | Cognex Corporation | System and method for automatic selection of 3D alignment algorithms in a vision system |
US10380762B2 (en) | 2016-10-07 | 2019-08-13 | Vangogh Imaging, Inc. | Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data |
US10116915B2 (en) * | 2017-01-17 | 2018-10-30 | Seiko Epson Corporation | Cleaning of depth data by elimination of artifacts caused by shadows and parallax |
DE102017201169A1 (de) | 2017-01-25 | 2018-07-26 | Siemens Aktiengesellschaft | Rechnergestütztes Bildverarbeitungsverfahren |
EP3495202B1 (en) * | 2017-12-05 | 2020-08-19 | Guima Palfinger S.A.S. | Truck-mountable detection system |
US10839585B2 (en) | 2018-01-05 | 2020-11-17 | Vangogh Imaging, Inc. | 4D hologram: real-time remote avatar creation and animation control |
US10529089B2 (en) * | 2018-02-23 | 2020-01-07 | GM Global Technology Operations LLC | Crowd-sensed point cloud map |
US11080540B2 (en) | 2018-03-20 | 2021-08-03 | Vangogh Imaging, Inc. | 3D vision processing using an IP block |
US10810783B2 (en) | 2018-04-03 | 2020-10-20 | Vangogh Imaging, Inc. | Dynamic real-time texture alignment for 3D models |
CN108537805B (zh) * | 2018-04-16 | 2021-09-21 | 中北大学 | 一种基于特征几何收益的目标识别方法 |
US11170224B2 (en) | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
AU2019336263A1 (en) * | 2018-09-04 | 2021-04-08 | Fastbrick Ip Pty Ltd | Vision system for a robotic machine |
CN109785389A (zh) * | 2019-01-18 | 2019-05-21 | 四川长虹电器股份有限公司 | 一种基于哈希描述与迭代最近点的三维物体检测方法 |
CN109903326B (zh) * | 2019-02-28 | 2022-02-22 | 北京百度网讯科技有限公司 | 用于确定工程机械设备的旋转角度的方法和装置 |
JP7115376B2 (ja) * | 2019-03-18 | 2022-08-09 | 日本電信電話株式会社 | 回転状態推定装置、方法及びプログラム |
US11170552B2 (en) | 2019-05-06 | 2021-11-09 | Vangogh Imaging, Inc. | Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time |
US11232633B2 (en) | 2019-05-06 | 2022-01-25 | Vangogh Imaging, Inc. | 3D object capture and object reconstruction using edge cloud computing resources |
CN110348310A (zh) * | 2019-06-12 | 2019-10-18 | 西安工程大学 | 一种霍夫投票3d彩色点云识别方法 |
JP7316134B2 (ja) * | 2019-07-22 | 2023-07-27 | ファナック株式会社 | 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム |
CN110992427B (zh) * | 2019-12-19 | 2023-10-13 | 深圳市华汉伟业科技有限公司 | 一种形变物体的三维位姿估计方法及定位抓取系统 |
US11335063B2 (en) | 2020-01-03 | 2022-05-17 | Vangogh Imaging, Inc. | Multiple maps for 3D object scanning and reconstruction |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
CN111453401B (zh) * | 2020-03-25 | 2021-04-16 | 佛山缔乐视觉科技有限公司 | 工件的自动拾取方法和装置 |
US11420334B2 (en) | 2020-04-14 | 2022-08-23 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Candidate six dimensional pose hypothesis selection |
DE102021109036A1 (de) | 2021-04-12 | 2022-10-13 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte |
CN113486470B (zh) * | 2021-07-15 | 2023-05-23 | 西北工业大学 | 一种考虑非理想表面接触状态的装配体位姿计算方法 |
CN113853632A (zh) * | 2021-08-18 | 2021-12-28 | 香港应用科技研究院有限公司 | 用于3d扫描之间全局配准的方法和系统 |
CN114676528B (zh) * | 2022-04-07 | 2024-02-23 | 西北工业大学 | 基于组合基元法的非理想模型装配偏差算法 |
CN117237451B (zh) * | 2023-09-15 | 2024-04-02 | 南京航空航天大学 | 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010071743A (ja) * | 2008-09-17 | 2010-04-02 | Yaskawa Electric Corp | 物体検出方法と物体検出装置およびロボットシステム |
JP2011238204A (ja) * | 2010-05-07 | 2011-11-24 | Mvtec Software Gmbh | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7366645B2 (en) * | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
EP1658579B1 (en) * | 2003-08-15 | 2016-09-28 | Scape A/S | Method for for classification and spatial localization of bounded 3d-objects |
US20070070069A1 (en) * | 2005-09-26 | 2007-03-29 | Supun Samarasekera | System and method for enhanced situation awareness and visualization of environments |
JP4196302B2 (ja) * | 2006-06-19 | 2008-12-17 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8401304B2 (en) * | 2007-07-27 | 2013-03-19 | Sportvision, Inc. | Detecting an object in an image using edge detection and morphological processing |
DE602007003849D1 (de) * | 2007-10-11 | 2010-01-28 | Mvtec Software Gmbh | System und Verfahren zur 3D-Objekterkennung |
CN101510308A (zh) * | 2009-03-26 | 2009-08-19 | 山东理工大学 | 产品模型点云边界特征快速提取方法 |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US8467596B2 (en) * | 2011-08-30 | 2013-06-18 | Seiko Epson Corporation | Method and apparatus for object pose estimation |
US9155675B2 (en) * | 2011-10-12 | 2015-10-13 | Board Of Trustees Of The University Of Arkansas | Portable robotic device |
-
2011
- 2011-12-19 US US13/329,493 patent/US8908913B2/en active Active
-
2012
- 2012-12-04 CN CN201280063083.8A patent/CN104040590B/zh active Active
- 2012-12-04 DE DE112012005350.8T patent/DE112012005350B4/de active Active
- 2012-12-04 WO PCT/JP2012/081864 patent/WO2013094441A1/en active Application Filing
- 2012-12-04 JP JP2014514266A patent/JP5726378B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010071743A (ja) * | 2008-09-17 | 2010-04-02 | Yaskawa Electric Corp | 物体検出方法と物体検出装置およびロボットシステム |
JP2011238204A (ja) * | 2010-05-07 | 2011-11-24 | Mvtec Software Gmbh | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 |
Non-Patent Citations (2)
Title |
---|
DROST, BERTRAM: "Model Globally, Match Locally: Efficient and Robust 3D Object Recognition", COMPUTER VISION AND PATTERN RECOGNITION (CVPR), 2010 IEEE CONFERENCE ON, JPN6014054507, 18 June 2010 (2010-06-18), US, pages 998 - 1005, XP055415021, ISSN: 0003014411, DOI: 10.1109/CVPR.2010.5540108 * |
KIM, EUNYOUNG: "3D Object Recognition in Range Images Using Visibility Context", 2011 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, JPN6014054509, 30 September 2011 (2011-09-30), US, ISSN: 0003014412 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153290A (ja) * | 2018-02-21 | 2019-09-12 | コグネックス・コーポレイション | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
US10957072B2 (en) | 2018-02-21 | 2021-03-23 | Cognex Corporation | System and method for simultaneous consideration of edges and normals in image features by a vision system |
JP2022028860A (ja) * | 2018-02-21 | 2022-02-16 | コグネックス・コーポレイション | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
JP7339316B2 (ja) | 2018-02-21 | 2023-09-05 | コグネックス・コーポレイション | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
US11881000B2 (en) | 2018-02-21 | 2024-01-23 | Cognex Corporation | System and method for simultaneous consideration of edges and normals in image features by a vision system |
Also Published As
Publication number | Publication date |
---|---|
JP5726378B2 (ja) | 2015-05-27 |
WO2013094441A1 (en) | 2013-06-27 |
CN104040590B (zh) | 2017-02-22 |
DE112012005350B4 (de) | 2022-03-31 |
CN104040590A (zh) | 2014-09-10 |
US20130156262A1 (en) | 2013-06-20 |
DE112012005350T5 (de) | 2014-09-11 |
US8908913B2 (en) | 2014-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5726378B2 (ja) | 物体の姿勢を推定するための方法 | |
Choi et al. | Voting-based pose estimation for robotic assembly using a 3D sensor | |
JP4715539B2 (ja) | 画像処理装置、その方法、および画像処理用プログラム | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
JP5455873B2 (ja) | シーンにおける物体の姿勢を求めるための方法 | |
Torr et al. | MLESAC: A new robust estimator with application to estimating image geometry | |
JP5705147B2 (ja) | 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法 | |
US8830229B2 (en) | Recognition and pose determination of 3D objects in 3D scenes | |
CN110648361A (zh) | 一种三维目标物体的实时位姿估计方法及定位抓取系统 | |
Li et al. | A tutorial review on point cloud registrations: principle, classification, comparison, and technology challenges | |
JP4709668B2 (ja) | 3次元物体認識システム | |
Liu et al. | Pose estimation in heavy clutter using a multi-flash camera | |
Drost et al. | Local hough transform for 3d primitive detection | |
Fäulhammer et al. | Temporal integration of feature correspondences for enhanced recognition in cluttered and dynamic environments | |
Byun et al. | Registration of 3D scan data using image reprojection | |
Azad et al. | Accurate shape-based 6-dof pose estimation of single-colored objects | |
Wan et al. | 6DOF object positioning and grasping approach for industrial robots based on boundary point cloud features | |
Nguyen et al. | Determination of 3D object pose in point cloud with CAD model | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
Xing et al. | RegHEC: Hand-Eye Calibration via Simultaneous Multi-view Point Clouds Registration of Arbitrary Object | |
JP2011022066A (ja) | 3次元物体位置姿勢計測方法 | |
Yamada et al. | Pose estimation of a simple-shaped object based on poseclass using RGBD camera | |
Hlubik et al. | Advanced point cloud estimation based on multiple view geometry | |
Krueger | Model based object classification and localisation in multiocular images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141126 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20141126 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20141209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5726378 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |