JP6936974B2 - 位置姿勢推定装置、位置姿勢推定方法及びプログラム - Google Patents
位置姿勢推定装置、位置姿勢推定方法及びプログラム Download PDFInfo
- Publication number
- JP6936974B2 JP6936974B2 JP2017242810A JP2017242810A JP6936974B2 JP 6936974 B2 JP6936974 B2 JP 6936974B2 JP 2017242810 A JP2017242810 A JP 2017242810A JP 2017242810 A JP2017242810 A JP 2017242810A JP 6936974 B2 JP6936974 B2 JP 6936974B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- dimensional
- axis
- parameters
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40543—Identification and location, position of components, objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40554—Object recognition to track object on conveyor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Description
かかる構成によれば、第2の位置姿勢推定部は、物体について推定された更新前の位置姿勢をあらわす位置姿勢情報を受け取ると、二次元画像で精度良く推定可能なx軸及びy軸方向それぞれの並進(すなわち並進x,y)と、x軸及びy軸に直交するz軸を中心とする回転(すなわち、回転θ)のみを最適化する。
これにより、二次元画像を用いた3次元位置姿勢推定の欠点である、カメラの奥行方向の位置(すなわち、並進z)と回転(すなわち、回転φ及び回転γ)の3パラメータについては精度良く推定できないという従来手法の問題を未然に防ぐことができ、従来に比して、カメラの奥行方向に対する物体の位置姿勢の推定精度を向上することが可能となる。
A−1.適用例
図1を参照して、本発明が適用される場面の一例について説明する。
図2を参照して、物体認識装置1のハードウェア構成を説明する。物体認識装置1は、概して、3Dセンサ11と画像処理装置10から構成される。
3Dセンサ11は、ワーク2を3次元計測するためのセンサであり、カメラ11aを備えている。カメラ11aは、ワーク2のデジタル画像を画像処理装置10に取り込むための撮像デバイスであり、例えばCMOS(Complementary Metal-Oxide-Semiconductor)カメラやCCD(Charge-Coupled Device)カメラを好適に用いることができる。解像度、カラー/モノクロ、静止画像/動画、階調、データ形式などの入力画像の形式は任意であり、ワーク2の種類やセンシングの目的に合わせて適宜選択することができる。X線画像やサーモ画像など、可視光像以外の特殊な画像を物体認識や検査に利用する場合には、その画像に合わせたカメラを用いてもよい。
図3に、画像処理装置10の構成を示す。画像処理装置10は、CPU10aが、ハードディスク10e等に格納されたプログラムを読み込み、実行することで、テンプレート作成装置120、3次元概略位置姿勢認識装置130、3次元詳細位置姿勢推定装置140として動作する。
テンプレート作成装置120は、ワーク2の物体の輪郭の特徴や内部凹凸形状の特徴を表すテンプレートを作成する。詳述すると、テンプレート作成装置120は、対象物体2の3DCAD、もしくは3Dセンサ11から取得した3Dデータを用いて、様々な視点から見たワーク2の2D画像を生成する。そして、テンプレート作成装置120は、生成した輝度画像および距離画像に基づき、複数のテンプレートを作成する。テンプレート作成装置120は、作成した複数のテンプレートをテンプレート情報として3次元概略位置姿勢認識装置130及び3次元詳細位置姿勢推定装置140に供給する。なお、テンプレート(すなわち、3Dモデル)には任意の形式を用いることができ、例えば、テンプレートとして画像中の複数の特徴点の特徴量を記述した配列形式を用いることができる。特徴量としては、例えば、ピクセル値(輝度)、輝度勾配方向、量子化勾配方向、Hog(Histograms of Oriented Gradients)、HAAR−Like、SIFT(Scale-Invariant Feature Transform)のほか、距離画像を利用した特徴量として法線方向、法線方向分布などを用いることができる。
3次元概略位置姿勢認識装置130は、3Dセンサ11のカメラ11aから取り込まれた2D画像及び3Dデータに対し、テンプレート作成装置120から供給されるテンプレート情報を用いてテンプレートマッチングを行い、画像中の3次元物体(すなわち、ワーク2)の位置姿勢を認識する。詳述すると、3次元概略位置姿勢認識装置130は、まず、3Dセンサ11からワーク2の入力画像を取り込み、取り込んだ入力画像(元画像)から、異なる解像度を持つ画像の集合(いわゆる画像ピラミッド)を作成する。3次元概略位置姿勢認識装置130は、作成した画像ピラミッドに対し特徴抽出処理を施すことで、ワーク2の入力画像の特徴量を抽出する。ここで、抽出される特徴量は、テンプレートのものと同種の特徴であり、例えばピクセル値などが挙げられる。3次元概略位置姿勢認識装置130は、抽出したワーク2の入力画像の特徴量と、テンプレート作成装置120から供給されるワーク2のテンプレート情報とを用いてテンプレートマッチングを行う。3次元概略位置姿勢認識装置130は、テンプレートマッチングにより、3Dモデルの大まかな位置姿勢を認識し、認識結果を3Dモデルの更新前の位置姿勢をあらわす更新前位置姿勢情報として3次元詳細位置姿勢推定装置140に供給する。
3次元詳細位置姿勢推定装置140は、テンプレート作成装置120から供給されるテンプレート情報及び3次元概略位置姿勢認識装置130から供給される更新前位置姿勢情報を利用して、ワーク2の3次元位置姿勢の推定を行う。3次元詳細位置姿勢推定装置140は、画像取得部141、3Dモデル取得部142、更新前位置姿勢取得部143、カメラパラメータ取得部144、第1の位置姿勢推定部145、第2の位置姿勢推定部146、3次元位置合わせ結果出力部147を備えている。
以下、第1の位置姿勢推定部14によって実行される第1の位置合わせ処理を説明する。図4は、第1の位置合わせ処理を示すフローチャートである。
[第1の方法]
3D空間上において、直接、3Dモデルの各点について最近傍となる3Dデータの各点を探索していく方法。
[第2の方法]
カメラ11aの内部パラメータを用いて、3Dモデルの各点を3Dデータと同じ2D画像平面へ投影し、2D画像平面上において投影された3Dモデルの各点について、近い距離にある3Dデータの各点から、最近傍となる3Dデータの各点を探索していく方法。
以下、第2の位置姿勢推定部15によって実行される第2の位置合わせ処理を説明する。図5は、第2の位置合わせ処理を示すフローチャートである。
図6は、ワークの位置姿勢を例示した図であり、αは、3次元概略位置姿勢認識装置130によって認識されるワークの位置姿勢1、βは、位置姿勢1をもとに、3Dデータを用いて3次元位置姿勢推定(3D)を行った場合のワークの位置姿勢2、γは、位置姿勢2をもとに、さらに2D画像を用いて3次元位置姿勢推定(3D+2D)を行った場合のワークの位置姿勢3を示す。
位置姿勢1をもとに、3Dデータのみを用いて3次元位置姿勢推定を行うと、Z方向では合っているものの、X方向及びY方向でズレが生じてしまう(図6のβに示す位置姿勢2参照)。
この点、3Dデータを用いて3次元位置姿勢推定を行った後、位置姿勢2をもとに、さらに2D画像を用いて3次元位置姿勢推定を行うと、X方向、Y方向及びZ方向のいずれにおいてもズレが生じることなく、高精度に位置姿勢を検出できることがわかる(図6のγに示す位置姿勢3参照)。
また、最適化に関しては、上記従来の3次元位置姿勢推定方法に比べて、処理を高速化することが可能となる。すなわち、従来手法においては、3Dデータと2D画像の情報を一つの数式にまとめて複雑な非線形最適化問題を解くことが必要であったのに対して、本実施形態においては、3Dデータを用いた6パラメータの最適化と2D画像を用いた3パラメータの最適化の2回の線形最適化問題を解けばよく、複雑な非線形最適化問題を解く必要がない分、処理を高速化することができる。
上述した本実施形態は、本発明を説明するための例示にすぎず、その要旨を逸脱しない限り、さまざまな変形が可能である。
例えば、3Dデータを用いた3次元位置姿勢推定(以下、「3D推定」)と2D画像を用いた3次元位置推定(以下、「2D推定」)の組み合わせについて、様々なバリエーションが考えられる。本実施形態では、3D推定の後に2D推定を行う態様を例示したが、2D推定の後に3D推定を行ってもよく、また、3D推定と2D推定を並列に行ってもよい。例えば、2D推定の後に3D推定を行う場合、第1の位置姿勢推定部145には、第2の位置姿勢推定部146で更新された位置姿勢情報が入力され、第1の位置姿勢推定部145で更新された位置姿勢情報は3次元位置合わせ結果出力部147に出力される構成とすればよい。一方、3D推定と2D推定を並列に行う場合、更新前位置姿勢取得部143で取得された位置姿勢情報が第1の位置姿勢推定部145及び第2の位置姿勢推定部146に供給され、第1の位置姿勢推定部145及び第2の位置姿勢推定部146でそれぞれ更新された位置姿勢情報は3次元位置合わせ結果出力部147に供給され、3次元位置合わせ結果出力部147は、第1の位置姿勢推定部145及び第2の位置姿勢推定部146で更新されたそれぞれの位置姿勢情報に基づいて、物体の位置姿勢を出力するように構成すればよい。
本明細書において、「部」とは、単に物理的構成を意味するものではなく、その「部」が実行する処理をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が実行する処理を2つ以上の物理的構成や装置により実現されても、2つ以上の「部」や装置が実行する処理を1つの物理的手段や装置により実現されてもよい。
物体の位置姿勢を推定する推定装置であって、
前記物体の二次元画像を取得する第1取得部(141)と、
前記物体の三次元形状をあらわす三次元モデルを取得する第2取得部(142)と、
前記物体について推定された更新前の位置姿勢をあらわす位置姿勢情報を取得する第3取得部(143)と、
前記三次元モデルと前記二次元画像とを用いて、前記二次元画像平面上の異なる2つの軸であるx軸及びy軸方向それぞれの並進と、当該x軸及びy軸に直交するz軸を中心とする回転とについて、前記位置姿勢情報を更新する第2の位置姿勢推定部(146)と
前記更新された位置姿勢情報によってあらわされる位置姿勢を、前記物体の位置姿勢として出力する出力部(147)と、
を具備する位置姿勢推定装置。
(付記2)
前記第2の位置姿勢推定部(146)は、
前記三次元モデルを、前記位置姿勢情報に基づいて、前記二次元画像と共通の平面に投影した二次元モデルを生成する二次元モデル生成部(ステップS200)と、
前記二次元画像と前記二次元モデルの位置合わせを行うことにより、前記x軸及びy軸方向それぞれの並進パラメータと、前記z軸を中心とする回転パラメータとを最適化する最適化部(ステップS220)と、
最適化された前記3つのパラメータを用いて、前記位置姿勢情報を更新する更新部(ステップS240)と、
を具備する、付記1に記載の位置姿勢推定装置。
(付記3)
前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部(141)と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部(145)と、
をさらに備え、
前記第1の位置姿勢推定部には、前記第3取得部で取得した位置姿勢情報が入力され、前記第1の位置姿勢推定部で更新された位置姿勢情報は前記第2の位置姿勢推定部に渡される、
付記1又は2記載の位置姿勢推定装置。
(付記4)
前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部(141)と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部(145)と、
をさらに備え、
前記第1の位置姿勢推定部には、前記第2の位置姿勢推定部で更新された位置姿勢情報が入力され、前記第1の位置姿勢推定部で更新された位置姿勢情報は前記出力部に渡される、
付記1又は2記載の位置姿勢推定装置。
(付記5)
前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部(141)と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部(145)と、
をさらに備え、
前記第3取得部で取得された位置姿勢情報は、前記第1及び第2の位置姿勢推定部にそれぞれ渡され、前記第1及び第2の位置姿勢推定部でそれぞれ更新された位置姿勢情報は前記出力部に渡され、
前記出力部は、前記第1及び第2の位置姿勢推定部で更新されたそれぞれの位置姿勢情報に基づいて、前記物体の位置姿勢を出力する
付記1又は2記載の位置姿勢推定装置。
(付記6)
前記第1の位置姿勢推定部(145)は、
前記位置合わせを行う際、前記三次元座標データの各点に対応する前記三次元モデルの各点を、対応する前記三次元座標データの各点に近づけるように、前記x軸、y軸及びz軸方向それぞれの並進パラメータと、前記x軸、y軸及びz軸を中心とするそれぞれの回転パラメータとを最適化し、最適化された前記6つのパラメータを用いて、前記位置姿勢情報を更新する、付記3〜5のいずれか1つの付記に記載の位置姿勢推定装置。
(付記7)
前記第1の位置姿勢推定部(145)は、
前記位置合わせを行う際、前記三次元座標データの各点に対応する前記三次元モデルの各点を、対応する前記三次元座標データの各点に近づけるように、前記z軸方向の並進パラメータと、前記x軸及びy軸を中心とするそれぞれの回転パラメータとを最適化し、最適化された前記3つのパラメータを用いて、前記位置姿勢情報を更新する、付記3〜5のいずれか1つの付記に記載の位置姿勢推定装置。
Claims (8)
- 物体の位置姿勢を推定する推定装置であって、
前記物体の二次元画像を取得する第1取得部と、
前記物体の三次元形状をあらわす三次元モデルを取得する第2取得部と、
前記物体について推定された更新前の位置姿勢をあらわす位置姿勢情報を取得する第3取得部と、
前記三次元モデルと前記二次元画像とを用いて、前記二次元画像平面上の異なる2つの軸であるx軸及びy軸方向それぞれの並進と、当該x軸及びy軸に直交するz軸を中心とする回転とについて、前記位置姿勢情報を更新する第2の位置姿勢推定部と
前記更新された位置姿勢情報によってあらわされる位置姿勢を、前記物体の位置姿勢として出力する出力部とを具備し、
前記第2の位置姿勢推定部は、
前記三次元モデルを、前記位置姿勢情報に基づいて、前記二次元画像と共通の平面に投影した二次元モデルを生成する二次元モデル生成部と、
前記二次元画像と前記二次元モデルの位置合わせを行うことにより、前記x軸及びy軸方向それぞれの並進パラメータと、前記z軸を中心とする回転パラメータとにより構成された二次元空間の3つパラメータを最適化する最適化部と、
最適化された前記二次元空間の3つのパラメータを、三次元空間の3つのパラメータへ変換する変換部と、
変換された前記三次元空間の3つのパラメータを用いて、前記位置姿勢情報を更新する更新部と、
を具備する位置姿勢推定装置。 - 前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部と、
をさらに備え、
前記第1の位置姿勢推定部には、前記第3取得部で取得した位置姿勢情報が入力され、前記第1の位置姿勢推定部で更新された位置姿勢情報は前記第2の位置姿勢推定部に渡される、
請求項1記載の位置姿勢推定装置。 - 前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部と、
をさらに備え、
前記第1の位置姿勢推定部には、前記第2の位置姿勢推定部で更新された位置姿勢情報が入力され、前記第1の位置姿勢推定部で更新された位置姿勢情報は前記出力部に渡される、
請求項1記載の位置姿勢推定装置。 - 前記物体について計測された前記物体表面の三次元座標をあらわす三次元座標データを取得する第4取得部と、
前記三次元モデルと前記三次元座標データとを用いて位置合わせを行うことによって、位置姿勢情報を更新する第1の位置姿勢推定部と、
をさらに備え、
前記第3取得部で取得された位置姿勢情報は、前記第1及び第2の位置姿勢推定部にそれぞれ渡され、前記第1及び第2の位置姿勢推定部でそれぞれ更新された位置姿勢情報は前記出力部に渡され、
前記出力部は、前記第1及び第2の位置姿勢推定部で更新されたそれぞれの位置姿勢情報に基づいて、前記物体の位置姿勢を出力する
請求項1記載の位置姿勢推定装置。 - 前記第1の位置姿勢推定部は、
前記位置合わせを行う際、前記三次元座標データの各点に対応する前記三次元モデルの各点を、対応する前記三次元座標データの各点に近づけるように、前記x軸、y軸及びz軸方向それぞれの並進パラメータと、前記x軸、y軸及びz軸を中心とするそれぞれの回転パラメータとを最適化し、最適化された前記6つのパラメータを用いて、前記位置姿勢情報を更新する、請求項3または4に記載の位置姿勢推定装置。 - 前記第1の位置姿勢推定部は、
前記位置合わせを行う際、前記三次元座標データの各点に対応する前記三次元モデルの各点を、対応する前記三次元座標データの各点に近づけるように、前記z軸方向の並進パラメータと、前記x軸及びy軸を中心とするそれぞれの回転パラメータとを最適化し、最適化された前記3つのパラメータを用いて、前記位置姿勢情報を更新する、請求項3または4に記載の位置姿勢推定装置。 - 物体の位置姿勢を推定する方法であって、
前記物体の二次元画像を取得する第1取得ステップと、
前記物体の三次元形状をあらわす三次元モデルを取得する第2取得ステップと、
前記物体について推定された更新前の位置姿勢をあらわす位置姿勢情報を取得する第3取得ステップと、
前記三次元モデルと前記二次元画像とを用いて、前記二次元画像平面上の異なる2つの軸であるx軸及びy軸方向それぞれの並進と、当該x軸及びy軸に直交するz軸を中心とする回転とについて、前記位置姿勢情報を更新する第2の位置姿勢推定ステップと
前記更新された位置姿勢情報によってあらわされる位置姿勢を、前記物体の位置姿勢として出力する出力ステップとを含み、
前記第2の位置姿勢推定ステップは、
前記三次元モデルを、前記位置姿勢情報に基づいて、前記二次元画像と共通の平面に投影した二次元モデルを生成する二次元モデル生成ステップと、
前記二次元画像と前記二次元モデルの位置合わせを行うことにより、前記x軸及びy軸方向それぞれの並進パラメータと、前記z軸を中心とする回転パラメータとにより構成された二次元空間の3つパラメータを最適化する最適化ステップと、
最適化された前記二次元空間の3つのパラメータを、三次元空間の3つのパラメータへ変換する変換ステップと、
変換された前記三次元空間の3つのパラメータを用いて、前記位置姿勢情報を更新する更新ステップと、
を含む位置姿勢推定方法。 - コンピュータに、物体の位置姿勢を推定させるためのプログラムであって、
前記コンピュータに、
前記物体の二次元画像を取得する第1取得ステップと、
前記物体の三次元形状をあらわす三次元モデルを取得する第2取得ステップと、
前記物体について推定された更新前の位置姿勢をあらわす位置姿勢情報を取得する第3取得ステップと、
前記三次元モデルと前記二次元画像とを用いて、前記二次元画像平面上の異なる2つの軸であるx軸及びy軸方向それぞれの並進と、当該x軸及びy軸に直交するz軸を中心とする回転とについて、前記位置姿勢情報を更新する第2の位置姿勢推定ステップと
前記更新された位置姿勢情報によってあらわされる位置姿勢を、前記物体の位置姿勢として出力する出力ステップとを実行させ、
前記第2の位置姿勢推定ステップは、
前記三次元モデルを、前記位置姿勢情報に基づいて、前記二次元画像と共通の平面に投影した二次元モデルを生成する二次元モデル生成ステップと、
前記二次元画像と前記二次元モデルの位置合わせを行うことにより、前記x軸及びy軸方向それぞれの並進パラメータと、前記z軸を中心とする回転パラメータとにより構成された二次元空間の3つパラメータを最適化する最適化ステップと、
最適化された前記二次元空間の3つのパラメータを、三次元空間の3つのパラメータへ変換する変換ステップと、
変換された前記三次元空間の3つのパラメータを用いて、前記位置姿勢情報を更新する更新ステップと、
を含むプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242810A JP6936974B2 (ja) | 2017-12-19 | 2017-12-19 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
CN201811183216.0A CN109934869B (zh) | 2017-12-19 | 2018-10-10 | 位置姿势推断装置、位置姿势推断方法及记录介质 |
EP18200902.7A EP3501759B1 (en) | 2017-12-19 | 2018-10-17 | Position and orientation estimation apparatus, position and orientation estimation method, and program |
US16/163,152 US10810761B2 (en) | 2017-12-19 | 2018-10-17 | Position and orientation estimation apparatus, position and orientation estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017242810A JP6936974B2 (ja) | 2017-12-19 | 2017-12-19 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109747A JP2019109747A (ja) | 2019-07-04 |
JP6936974B2 true JP6936974B2 (ja) | 2021-09-22 |
Family
ID=63878498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017242810A Active JP6936974B2 (ja) | 2017-12-19 | 2017-12-19 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10810761B2 (ja) |
EP (1) | EP3501759B1 (ja) |
JP (1) | JP6936974B2 (ja) |
CN (1) | CN109934869B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3093215B1 (fr) * | 2019-02-22 | 2021-08-27 | Fogale Nanotech | Procédé et dispositif de surveillance de l’environnement d’un robot |
US11536552B1 (en) * | 2019-04-03 | 2022-12-27 | Dylan E. Luckey | Digital workpiece measurement system and method for intelligent measurements |
JP7316134B2 (ja) * | 2019-07-22 | 2023-07-27 | ファナック株式会社 | 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム |
JP7362453B2 (ja) | 2019-11-28 | 2023-10-17 | 株式会社日立製作所 | モデル作成装置及びモデル作成方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4692773B2 (ja) * | 2004-03-03 | 2011-06-01 | 日本電気株式会社 | 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US9437005B2 (en) | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9279661B2 (en) * | 2011-07-08 | 2016-03-08 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
EP2602588A1 (en) * | 2011-12-06 | 2013-06-12 | Hexagon Technology Center GmbH | Position and Orientation Determination in 6-DOF |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
JP6180158B2 (ja) * | 2013-04-03 | 2017-08-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム |
JP6642968B2 (ja) * | 2014-03-20 | 2020-02-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2016170050A (ja) * | 2015-03-12 | 2016-09-23 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム |
DE102015013551B4 (de) * | 2015-10-20 | 2021-04-29 | Hochschule RheinMain University of Applied Sciences Wiesbaden Rüsselsheim Geisenheim | System und Verfahren zur Positions-und Lagebestimmung von Objekten |
-
2017
- 2017-12-19 JP JP2017242810A patent/JP6936974B2/ja active Active
-
2018
- 2018-10-10 CN CN201811183216.0A patent/CN109934869B/zh active Active
- 2018-10-17 EP EP18200902.7A patent/EP3501759B1/en active Active
- 2018-10-17 US US16/163,152 patent/US10810761B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10810761B2 (en) | 2020-10-20 |
JP2019109747A (ja) | 2019-07-04 |
CN109934869B (zh) | 2023-04-07 |
CN109934869A (zh) | 2019-06-25 |
EP3501759B1 (en) | 2022-08-03 |
US20190188880A1 (en) | 2019-06-20 |
EP3501759A1 (en) | 2019-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6936974B2 (ja) | 位置姿勢推定装置、位置姿勢推定方法及びプログラム | |
JP6348093B2 (ja) | 入力データから検出対象物の像を検出する画像処理装置および方法 | |
US9639942B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20180066934A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
US10083512B2 (en) | Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system | |
JP5393531B2 (ja) | 位置姿勢推定装置、位置姿勢推定方法、プログラム、記憶媒体 | |
US9607244B2 (en) | Image processing device, system, image processing method, and image processing program | |
CN109543705B (zh) | 模板创建装置及方法、物体识别处理装置以及记录介质 | |
JP2011179907A (ja) | 位置姿勢計測装置、位置姿勢計測方法およびプログラム | |
JP6836561B2 (ja) | 画像処理装置及び画像処理方法 | |
CN110176075B (zh) | 通过视觉系统同时考虑图像特征中边缘和法线的系统和方法 | |
US11094082B2 (en) | Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP2017130067A (ja) | 衛星映像の位置正確度改善のための自動映像処理システム及びその方法 | |
JP2016004486A (ja) | 情報処理装置、情報処理プログラム、および情報処理システム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
WO2019058487A1 (ja) | 3次元復元画像処理装置、3次元復元画像処理方法及び3次元復元画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体 | |
JP6584139B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2017162449A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2015153405A (ja) | 情報処理装置、情報処理プログラム、および情報処理システム | |
JP6719925B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2018156442A (ja) | 推定器学習装置、法線方向推定装置、方法、及びプログラム | |
JP5991730B2 (ja) | 計測装置、計測方法及びプログラム | |
JP2018200175A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2021012628A (ja) | 位置姿勢推定装置及び位置姿勢推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6936974 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |