JP2012150796A - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- JP2012150796A JP2012150796A JP2011279801A JP2011279801A JP2012150796A JP 2012150796 A JP2012150796 A JP 2012150796A JP 2011279801 A JP2011279801 A JP 2011279801A JP 2011279801 A JP2011279801 A JP 2011279801A JP 2012150796 A JP2012150796 A JP 2012150796A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- model
- image
- coordinate system
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 計測対象物体との位置姿勢合わせにより、当該計測対象物体の位置姿勢を取得するための三次元形状モデルを保持するモデル保持手段と、前記計測対象物体の画像を取得する画像取得手段と、前記三次元形状モデルの第一の幾何特徴と前記画像内の第一の幾何特徴とに基づき、第一の座標系において、前記三次元形状モデルの第一の位置姿勢を取得する第一の位置姿勢取得手段と、前記三次元形状モデルの第二の幾何特徴と前記画像内の第二の幾何特徴と前記第一の位置姿勢とに基づき、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得する第二の位置姿勢取得手段と、を有することを特徴とする。
【選択図】 図1
Description
物体の位置姿勢を計測する方法として、カメラで撮影した濃淡画像やカラー画像(以下、総称して二次元画像と呼ぶ)上から検出される特徴を用いる方法がある。
また、距離センサで画像様に計測して得られた距離データに対して、物体の三次元形状モデルをあてはめる方法がある。このような手法は、モデルフィッティングと呼ばれる。
モデルフィッティングによる位置姿勢推定を行う場合、物体の形状によっては位置姿勢を高精度に計測できないことがある。
例えば、距離データから算出される物体の重心位置と重心まわりのモーメントをモデルと比較する方法では、対象物体のアスペクト比が1に近いような場合に、撮像装置の座標系において、位置姿勢の6パラメータを精度よく推定するのが困難になる。
特許文献1では、距離画像に対するモデルフィッティングにおいて、撮像装置の座標系を基準とした位置姿勢パラメータの推定を複数の段階に分けることで、推定の安定化と効率化を図る方法が開示されている。
特許文献1に開示されている方法では、撮像装置の座標系を基準とした位置姿勢の6自由度成分を、高精度かつロバストに推定できるパラメータから順に推定する。まず、撮像画像の画像座標軸回転の2パラメータと視軸方向位置の1パラメータを推定した後、視軸に垂直な位置の2パラメータを推定し、最後に視軸回転の1パラメータを推定する。パラメータの推定手順を段階的に分けることで、ロバストかつ高精度に位置姿勢の計測を行うことが可能になる。
このような部品では、画像とモデルとのフィッティングにより、位置姿勢の6パラメータを同時に推定しようとすると、ほかの自由度成分に比べて、特定自由度(この場合モデルの回転対称性を定義する軸まわりの姿勢)成分の推定に寄与する情報が不足する。そのため、特定自由度方向のパラメータを推定するのが困難となり、その結果、位置姿勢のロバスト性や精度が低くなるという問題がある。
特許文献1に開示されている方法では、撮像装置の座標系を基準とした位置姿勢の6自由度成分を、高精度かつロバストに推定できるパラメータから順に推定する。つまり、モデル座標系を基準とした特定自由度成分のみを分離して推定するわけではなく、物体の回転中心軸が撮像装置の視軸に一致する場合を除いて、物体の回転中心軸回りの姿勢成分の高い推定精度を得ることが出来ない。
本発明は、以上の課題を鑑みてなされたものであり、モデル座標系を基準とした位置姿勢の自由度の内に、一意に定めるのが困難な特定自由度のパラメータを有する物体においても、ロバストかつ高精度な位置姿勢の計測を実現することを目的とする。
第一の実施形態では、物体における特定の軸に対してほぼ回転対称であり、かつその軸回りの回転を決めるための特徴が少ない物体の位置姿勢推定を行う。このような物体では、位置姿勢の6自由度成分を公平に扱って位置姿勢を算出すると、物体の回転中心軸まわりの姿勢パラメータが正しく求まらない。そこで、本実施形態では、まず6自由度の位置姿勢を算出した後で、物体の特定軸方向の姿勢パラメータのみ別途推定することで、高度な位置姿勢推定を行う。具体的には、まず、二次元画像上のエッジに対してモデルをあてはめることにより6自由度の位置姿勢を算出する。次に、モデル座標系における特定軸方向の姿勢を決める特徴の位置をもとにして、特定軸まわりの姿勢を算出する。
特定自由度設定部150は、第一の位置姿勢パラメータと、第二の位置姿勢パラメータとを設定する。
本実施形態では、図4(a)のように、物体がある軸に対してほぼ回転対称な形状を有することを前提とする。そこで、物体の回転対称性を定義する軸(以後、モデル中心軸と呼ぶ)を決定する。モデル中心軸の設定は、例えば、ユーザからの入力により行う。
撮像部110により、計測対象物体の二次元画像を撮像し、画像特徴検出部140に入力する。
位置姿勢計測装置1に対する物体の位置及び姿勢の概略値を概略位置姿勢入力部120により位置姿勢計測装置1に入力する。本実施形態では、前の時刻において計測された位置及び姿勢を用いる。
二次元画像の情報に基づいて物体の第一の位置姿勢パラメータの算出を行う。本実施形態では、二次元画像上の特徴であるエッジに3次元形状モデル中の線分の投影像が当てはまるように計測対象物体の位置及び姿勢を算出する。図5は、本ステップにおける第一の位置姿勢算出の処理手順を示すフローチャートである。ここでは、画像上で検出されたエッジと推定される位置及び姿勢に基づいて画像上に投影される線分との距離の二乗和が最小になるように位置及び姿勢のパラメータsの最適化を行う。このとき、位置姿勢に基づく、モデル座標系の三次元点Xm=[xm,ym,zm]Tから基準座標系の三次元点Xc=[xc,yc,zc]Tへの座標変換を数1のように表すものとする。
ただしRは物体の姿勢を表す3つの成分θ、φ、ψで表現される3×3行列、Tはモデルの位置を表す3つの成分から成る3次元ベクトルT=[tx, ty, tz]Tである。さらに、概略位置姿勢に対する物体の位置及び姿勢の微小変化量を6次元ベクトルΔs =[Δtx,Δty,Δtz,Δθ,Δφ,Δψ]Tとし、これらの成分により表される姿勢の微小変化量をΔR、位置の微小変化量をΔTとする。このとき、位置及び姿勢が微小変化したときの、物体座標系の三次元点Xm=[xm,ym,zm]Tから基準座標系の三次元点Xc=[xc,yc,zc]Tへの座標変換を、数2のように表す。
本ステップでは、微小変化量Δsを求めて、各成分の補正を行う処理を繰り返すことで、位置及び姿勢の算出を行う。以下、位置及び姿勢算出の処理手順について順に説明する。
初期化処理を行う。ここでは、ステップS1300で得られた計測対象物体の概略の位置及び姿勢を位置及び姿勢算出における概略値として入力する。
ステップS1200において入力された二次元画像上において画像特徴の検出・画像特徴とモデルとの対応付けを行う。本ステップは画像特徴検出部140において行われる。本実施形態では、画像特徴としてエッジを検出する。エッジは濃度勾配が極値となる点である。エッジの検出方法としては、種々の方法が提案されているため、詳細な説明は省く。
モデルの線分上の制御点と画像上のエッジとの対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。図7は、線分の投影像と検出されたエッジの関係を説明する図である。図7では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。位置及び姿勢の概略値s0に基づいて投影されたモデルの線分上のある制御点の画像上での位置を(u0,v0)、該制御点が所属する線分の画像上での傾きをu軸に対する傾きθとして表す。
左辺のJ1が求める係数行列であり、右辺のEが誤差ベクトルである。
数5をもとに、行列J1の一般化逆行列(J1 T・J1)−1・J1 Tを用いて位置及び姿勢の補正値Δsを最小二乗基準で求める。しかしながら、エッジの対応付けでは誤対応(外れ値)が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは数4右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与えるようにして、誤差の大きいデータの影響を抑制する。重みは例えば数8に示すようなTukeyの関数により与える。
ステップS1440において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する。
(ステップS1460)
収束判定を行い、収束していれば終了し、そうでなければステップS1420に戻る。収束判定では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。
第一の位置姿勢に基づき、3次元形状モデル面上の点(モデル特徴点)に対応する二次元画像上の座標(画像特徴点)を取得する。本ステップにおいて、モデル座標系における特定軸方向の姿勢を決める特徴対応を別途取得することで、特定軸まわりの姿勢を高精度に算出可能となる。
ステップS1400で算出された第一の位置姿勢は、特定自由度に関するパラメータφを除き、正しい位置姿勢が算出されていることが期待される。本ステップでは、第一の位置姿勢を概略位置姿勢として、特定自由度に関するパラメータφのみに関する最適化を行い、位置姿勢を算出する処理を行う。
そこで、本ステップでは、微小変化量Δφを求めて、モデルのY軸回転方向の補正を行うことで位置及び姿勢の算出を行う。
初期化処理を行う。ここでは、ステップS1400で得られた第一の位置姿勢を、位置及び姿勢算出における概略値として入力する。
モデル特徴点と画像特徴との対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。図9は、モデル特徴点の投影像と、対応づいた画像特徴との関係を説明する図である。図9では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。位置及び姿勢の概略値φ0に基づいて投影されたモデル特徴点の画像上での位置を(u0,v0)として表す。また、該モデル特徴点に対応する画像特徴の画像座標を(u’,v’)とする。ここで、モデル点の画像上での位置は計測対象物体の微小変化φにより変化する。したがって、モデル特徴点を画面上に投影した座標(u’,v’)は、(u0,v0)の近傍での1次のテイラー展開によって数10のように近似できる。ただし、Δφはφの指定した軸方向の微小変化を表す。
各行列成分を算出した数14の線形連立方程式を数19のように表す。
左辺のJ2が求める係数行列であり、右辺のE2が誤差ベクトルである。
行列J2の一般化逆行列(J2 T・J2)−1・J2 Tを用いて、数19を数20のように解くことで、位置及び姿勢の補正値Δφを最小二乗基準で求める。
(ステップS1640)
ステップS1630において算出された位置及び姿勢の補正値Δφにより、位置及び姿勢の概略値を補正する。
(ステップS1650)
収束判定を行い、収束していれば終了し、そうでなければステップS1620に戻る。収束判定では、補正値Δφがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。
第一の実施形態では、第一の位置姿勢算出において、まず物体の6自由度パラメータを最適化し、その後第二の位置姿勢算出で、特定自由度であるモデル座標系のY軸回転パラメータのみ最適化を行った。これに対して、本実施形態では、第一の位置姿勢算出においては、モデル座標系のY軸回転成分以外の5自由度のパラメータのみ最適化する。第一の位置姿勢算出において、推定が困難な自由度成分を削減することで、計算量を減らして効率よく位置姿勢を算出する。なお、本実施形態において、基本的な構成は第一の実施例と同様であるため説明を省略する。以下、本実施形態における各処理部について説明する。
第一の実施形態と同様の方法でモデル中心軸に対して互いに直交する2つの軸を設定し、モデル中心軸と、設定した2つの軸とが座標軸となるようモデル座標系を変換して新しいモデル座標系とする。その後、変換後のモデル座標系を基準とした位置姿勢パラメータを表す6次元ベクトルs =[tx,ty,tz,θ,φ,ψ]Tのうち、モデル中心軸まわりの回転成分であるφを第二の位置姿勢パラメータ、それ以外のパラメータを第一の位置姿勢パラメータとして記録する。
二次元画像の情報に基づいて物体の位置及び姿勢の計測を行う。本実施形態においても、画像上で検出されたエッジと、推定される位置及び姿勢に基づいて画像上に投影されるモデルの線分との距離の二乗和が最小になるように位置及び姿勢のパラメータの最適化を行う。ただし、位置姿勢パラメータであるs =[tx,ty,tz,θ,φ,ψ]Tのうち、第二の位置姿勢算出部で推定するφを除いた5つのパラメータtx,ty,tz,θ,ψを推定する。ここで、数1により表される、モデル座標系から基準座標系への変換において、姿勢変換を表す行列Rを各軸回りの回転に分解することで数21のように表すことができる。
ここでRx、Rz、Ryはそれぞれモデル座標系のX軸回転θ、Y軸回転φ、Z軸回転ψを表す行列である。
実施例1と同様の方法で、この変換式に基づいて微小変化量Δsを求め、各位置姿勢成分の補正を行うことで、第一の位置及び姿勢の算出を行う。
第一の実施形態では、二次元画像を利用した位置姿勢推定について述べた。本実施形態では、第一の実施形態と同様の物体に対して距離画像を利用して位置姿勢推定を行う例について述べる。なお、本実施形態において、基本的な構成は第一の実施例と同様であるため説明を省略する。以下、本実施形態における各処理部について説明する。なお、概略位置姿勢入力部120、三次元形状モデル入力部130、特定自由度設定部150、対応取得部170については、第一の実施形態と同様のため、説明を省略する。
撮像部110により、計測対象物体の距離画像を撮像し、画像特徴検出部140に入力する。
距離画像の情報に基づいて物体の位置及び姿勢の計測を行う。本実施形態では、距離画像上の特徴である三次元点に3次元形状モデルの投影像が当てはまるように計測対象物体の位置及び姿勢を算出する。本ステップにおける第一の位置姿勢算出の処理手順は、図5と同様であるため省略する。ここでは、距離画像から変換して得られる三次元点と、推定される位置及び姿勢に基づいて画像上に投影される3次元形状モデルの面との距離の二乗和が最小になるように位置及び姿勢の最適化を行う。以下の説明では、物体の位置及び姿勢を、実施例1と同様に6次元ベクトルsで表す。以下、位置及び姿勢算出の処理手順について順に説明する。なお、実施例1と処理が同一のものについては、説明を省略する。
ステップS1200において入力された距離画像とモデルとの対応付けを行う。以下、距離画像とモデルとの対応付け処理について説明する。図10は、本ステップにおける距離画像とモデルとの対応付け処理を説明する図である。本ステップでは、公知の手法により物体の3次元形状モデル(ポリゴンモデル)を距離画像上に投影することによって対応付けを行う。モデルを距離画像上に投影する理由は、距離画像の各画素がポリゴンモデルのどのポリゴンに対応するかを決定するためである。距離画像と同サイズの画像バッファに対し、校正済みであるカメラの内部パラメータと位置及び姿勢の概略値を用いてポリゴンモデルを描画する。以下、ポリゴンモデルを描画した画像をポリゴン描画画像と呼ぶ。描画する際には、各ポリゴンに固有の色を割り当てて描画を行う。ポリゴンの色はRGBの各色で表す。背景部分と区別するために、黒(R=0、G=0、B=0)以外の色を用いてポリゴンを描画する。これによって、距離画像の各画素に対応するポリゴンを、画像の色によって同定することができる。なお、ポリゴンの描画処理をGPU(Graphics Processing Unit)上で高速に行い、描画された結果の画像を読み出してもよい。ポリゴンモデルを描画した後、ポリゴン描画画像の各画素の値を読み取る。黒以外の値が保存されている画素については、距離画像のその画素に保持されている3次元座標とポリゴン描画画像上の色に相当するポリゴンと対応付ける。
3次元形状モデルのポリゴンと距離画像から変換した3次元点との対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。以下、距離画像の画素(3次元の点)と面との対応に基づく係数行列・誤差ベクトルの算出方法について説明する。
ただしRは姿勢を表す3×3回転行列、Tは位置を表す3次元ベクトルである。このとき、基準座標系における平面の方程式の係数は次式のようになる。
左辺のJが求める係数行列であり、右辺のEが誤差ベクトルである。
第一の位置姿勢に基づき、3次元形状モデル面上の点(モデル特徴点)に対応する距離画像上の三次元座標(画像特徴点)を取得する。なお、モデル特徴点は、実施例1と同様の方法で指定して記録しておく。次に、モデル特徴点に対応する画像特徴点を撮像した距離画像から決定する。具体的には、第一の位置姿勢に基づき、距離画像面上に3次元形状モデルおよび記録されているモデル特徴点の描画を行う。この画像と撮像画像とを比較して、モデル特徴点に対応する画素を撮像画像上で人手により指定する。その画素の距離値を三次元点に変換することで画像特徴点を得る。
モデル特徴点と画像特徴点との対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。本実施例では、第一の位置および姿勢を位置及び姿勢の概略値として,概略位置姿勢に基づいて基準座標系へ変換したモデル特徴点の三次元座標を(xc0,yc0,zc0)として表す。また、該モデル特徴点に対応する画像特徴の三次元座標を(xc,yc,zc)とする。ここで、モデル点の画像上での位置は計測対象物体の微小変化φにより変化する。したがって、モデル特徴点を画面上に投影した座標(xc,yc,zc)は、(xc0,yc0,zc0)の近傍での1次のテイラー展開によって数29のように近似できる。ただし、ΔφはY軸方向の回転φの微小変化を表す。
左辺のJ2が求める係数行列であり、右辺のE2が誤差ベクトルである。ここで求めた方程式を第一の実施形態のステップS1630と同様の方法で解くことで、第二の位置姿勢を算出する。
第一の実施形態では、第二の位置姿勢算出において、非線形最適化により、パラメータの補正を繰り返すことで第二の位置姿勢算出を行った。これに対して、ステップS1610で得られる3次元形状モデルと撮像特徴との幾何特徴の対応から方程式を立て、この方程式を解くことで直接パラメータを算出してもよい。本実施形態では、第二の位置姿勢算出において、特徴対応から直接パラメータを算出して第二の位置姿勢を算出する方法について述べる。
ステップS1400で算出された第一の位置姿勢は、特定自由度に関するパラメータφを除き、正しい位置姿勢が算出されていることが期待される。本ステップでは、第一の位置姿勢を概略位置姿勢として、特定自由度に関するパラメータφに関する方程式を立て、これを解くことで第二の位置姿勢を算出する。
第一の実施形態では、特定の軸に対してほぼ回転対称な形状を有する物体の位置姿勢推定を行った。本実施形態では、モデル座標系の特定軸の並進方向を決める特徴が少ない物体の位置姿勢推定について述べる。このような物体では、位置姿勢の6自由度成分を公平に扱って位置姿勢を算出すると、モデルの特定軸並進方向のパラメータが正しく求まらない。そこで、位置姿勢を算出した後で、モデルの特定軸方向の並進パラメータのみ後段で推定する。本実施形態では、まず、エッジの位置合わせにより物体の位置姿勢を算出し、その後、モデルの特定軸の並進パラメータを推定することで位置および姿勢を計測する。
第一の位置姿勢パラメータと、第二の位置姿勢パラメータを設定する。図11(a)に、本実施形態で対象とするモデルの具体例とその座標系を示す。本実施形態では、図11(a)のように、モデルがある軸方向に対して並進方向を決める特徴が少ない形状であることを前提とする。このモデルに対して、モデルの並進方向を定義する軸(以後、モデル中心軸と呼ぶ)を決定する。モデル中心軸の設定は、たとえばユーザからの入力により行う。具体的には、図11(a)のような四角柱形状のモデルの場合、四角柱の相対する2つの面を結ぶモデルのエッジ線分上から2点a、bをモデル中心軸として記録する(図11(b))。ただし、モデル中心軸の設定方法はこれに限るものではない。たとえば、モデル面上の頂点から主軸位置と方向を求め、これらにより表されるベクトルをモデル中心軸としてもよい。そのほか、モデル形状の回転対称性を定義する回転中心軸を算出できればいかなる方法であっても構わない。
ステップS1400により算出された第一の位置姿勢は、特定自由度に関するパラメータtyを除き、正しい位置姿勢が算出されていることが期待される。本ステップでは、第一の位置姿勢を概略位置姿勢として、特定自由度に関するパラメータtyのみに関する最適化を行い、位置姿勢を算出する処理を行う。
そこで、本ステップでは、微小変化量Δtyを求めて、モデル座標系Y軸方向の並進パラメータの補正を行うことで位置及び姿勢の算出を行う。
モデル特徴点と画像特徴との対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。本実施例においても、数14のφをtyに置き換えた形で、同様の関係が成立する。
ここで、数34は以下のように表される。
前述の実施形態では、モデル座標系の特定1自由度のパラメータの推定が困難な形状を持つ物体の位置姿勢推定方法について述べた。本実施形態では、モデル座標系を基準とした特定軸に対する回転、並進の2自由度に関するパラメータ推定が困難な形状の物体の位置姿勢を推定する方法について述べる。
第一の位置姿勢パラメータと、第二の位置姿勢パラメータを設定する。本実施例では、図12のように、モデルが特定軸方向に対してほぼ回転対称かつその特定軸の並進方向成分を決める特徴が少ない形状であることを前提とする。
ステップS1400により算出された第一の位置姿勢は、特定自由度に関するパラメータφ、tyを除き、正しい位置姿勢が算出されていることが期待される。本ステップでは、第一の位置姿勢を概略位置姿勢として、特定自由度に関するパラメータφおよびtyに関する最適化を行い、位置姿勢を算出する処理を行う。
微小変化量Δφ、Δtyを求めて、モデル座標系Y軸方向の回転、並進パラメータの補正を行うことで位置及び姿勢の算出を行う。
数37の変換に基づき、第一の実施形態と同様の方法で、線形連立方程式の係数行列を算出する。この方程式は第一の実施形態と同様の方法で解き、パラメータを更新することで第二の位置姿勢を算出する。
第六の実施形態では、モデル座標系を基準とした特定軸に対する回転、並進の2自由度に関するパラメータ推定が困難な形状の物体の位置姿勢を推定する方法について述べた。本変形例では、球あるいは正多面体のような形状で、かつモデル座標系における回転3自由度のパラメータに寄与する特徴が少ない物体の位置姿勢推定方法について述べる。
第一の位置姿勢パラメータと、第二の位置姿勢パラメータを設定する。本実施形態では、物体が、球のような、3自由度の回転に対する対称性を有することを前提とする。このモデルに対して、モデルの3自由度の回転を定義する原点がモデル座標系の原点となるようモデル座標系を変換して定義し直す。モデルの回転を定義する原点の設定は、たとえばモデルを包含するBounding Boxの中心座標を利用する。そして、この原点を通り、互いに直交する3つの軸を設定し、この3つの軸がモデル座標系となるよう変換を行う。
第一の位置姿勢に基づき、3次元形状モデル面上の点(モデル特徴点)に対応する二次元画像上の座標(画像特徴点)を取得する。本実施形態でも第一の実施形態と同様の方法でモデルと画像との対応を取得する。本実施形態では、第二の位置姿勢算出において、3つのパラメータを推定する。二次元画像上の対応一組につき方程式が2つ得られるため、少なくとも2組の対応を取得する。
ステップS1400により算出された第一の位置姿勢は、θ、φ、ψを除き、正しい位置姿勢が算出されていることが期待される。本ステップでは、第一の位置姿勢を概略位置姿勢として、第二の位置姿勢パラメータθ、φ、ψに関する最適化を行い、位置姿勢を算出する処理を行う。
ここで、Rx、Ry、Rzはそれぞれ数31の行列Rを各軸回りの回転に分解したものであり、R=RxRyRzの関係が成り立つ。
数38の変換に基づき、第一の実施形態と同様の方法で、線形連立方程式の係数行列を算出する。この方程式を第一の実施形態と同様の方法で解き、パラメータを更新することで第二の位置姿勢を算出する。
第二の位置姿勢パラメータの組み合わせは、これまで述べた方法に限るものではない。たとえば、薄い板のような平らな面1枚に、微小な特徴を有するような物体においては、物体面に垂直な軸に対する回転パラメータおよび物体面内の並進2パラメータの推定が困難である。そのため、このような物体に対して、これらの3パラメータを第二の位置姿勢パラメータとして推定を行っても良い。その他、推定が困難なパラメータをモデル座標系の特定自由度として分離できれば、どんな組み合わせであっても構わない。また、上記実施形態で説明された位置姿勢計測装置は、その機能のすべてもしくは一部を、CPU(セントラルプロセッシングユニット)、コンピュータプログラムが格納されたRAM(ランダムアクセスメモリ)などから構成されるコンピュータで代用することが可能である。
第一の実施形態および第六の実施形態では、ステップS1100において、ユーザからの入力によりモデル中心軸の決定を行った。本実施形態では、物体の3次元設計CADデータから、モデル中心軸を自動で決定する方法について述べる。一般的に、モデル全体の形状がほぼ回転対称な場合、回転対称な解析曲面の回転対称軸の多くが、モデル全体形状の回転対称軸と一致する。そこで、物体の3次元設計CADデータを構成する解析曲面群の中から、回転対称な面形状の回転中心軸を抽出し、多数の回転対称面について、位置と方向とが一致する回転対称軸をモデル中心軸として設定する。
3次元CADデータ保持部210により対象物体の3次元CADデータを入力する。
3次元CADデータを構成する複数の解析曲面の中から、モデル軸決定に利用するための解析曲面を抽出する。本実施例では、円、円柱、円錐のいずれかの属性を持つ解析曲面を抽出する。なお、回転対称な形状であれば、いかなる解析曲面を抽出してもかまわない。ここで、抽出した解析曲面の数をMとする。
基準面選択および基準幾何情報抽出部220により、ステップS2200で抽出したM個の解析曲面の中から基準面を選択し、基準軸の抽出を行う。まず、M個の解析曲面の中から1つ、基準とする解析曲面をランダムに選択する。選択した解析曲面を基準面Fi(i=1〜M)とする。次に、基準面Fiを表現する解析曲面パラメータの中から、面の回転中心軸を、基準軸Aiとして抽出する。ここで、Aiはモデル座標系における始点位置を表す3次元座標pi、方向を表す3次元ベクトルniにより表されるものとする。
参照面選択および参照幾何情報抽出部230により、ステップS2200で抽出したM個の解析曲面の中から、参照面および参照軸の抽出を行う。まず、M個の解析曲面のうち、基準面とは異なるものから1つ、参照する解析曲面を選択する。選択した解析曲面を参照面Fj(j=1〜M、ただしj≠i)とする。さらに、ステップS2300と同様に、参照面Fjを表現する解析曲面パラメータから、回転中心軸をAjとして抽出する。なお、参照軸の始点位置を表す3次元座標をpj、方向をあらわす3次元ベクトルをnjとする。
類似度算出部240により、基準軸Aiと参照軸Ajのパラメータから、基準軸Aiに対する参照軸Ajとの類似度を算出する。具体的には、2軸間の距離類似度と、方向類似度とを算出する。まず、基準軸と参照軸との始点間距離をd1、参照軸の始点を基準軸へ投影した際の基準軸の始点との距離をd2として、距離類似度αijを以下のように定義し、算出する。
ステップS2200で抽出したM個の解析曲面のうち、基準面以外に、参照面として未選択のものが存在すれば、ステップS2400へ戻り、存在しなければステップS2600へ進む。
評価値算出部250により、基準軸と各参照軸との類似度に基づき、類似度が閾値以上であった参照軸を持つ参照面の面積の和を評価値として算出する。まず、基準軸Aiと各参照軸Ajとの類似度αij、βijに基づいて、以下の条件をともに満たすjを類似する軸を保有する面のIDとして記録する。
ここで、θ、φはともに閾値である。θにはたとえばθ=d1×10、φにはたとえばφ=0.9を設定する。次に、記録しておいたIDに基づき、各参照面Fjの表面積Sjを求め、その総和を基準軸Aiの評価値Viとして算出する。
ただし、評価値の算出方法はこれに限るものではない。たとえば、αijあるいはβijのどちらか一方の条件のみ満たすもののIDを類似する軸とみなしてもよい。あるいは、閾値を利用せずに評価値Vi=Σ(Sj×βij)としてもよい。あるいは、類似度が閾値以上であった面の総数を評価値としてもよい。その他、2つの軸の類似性を評価できる尺度であれば、これ以外のものであってもかまわない。
ステップS2200で抽出したM個の解析曲面のうち、基準面として未選択のものが存在すれば、ステップS2300へ戻り、存在しなければステップS2900へ進む。この結果、各基準面Fiの軸に対する評価値Viを得る。
モデル幾何情報決定部260により、各評価値Viの中から、もっとも大きい評価値をもつ基準軸Aiをモデル中心軸として決定する。あるいは、評価値の高い基準軸の中から上位数個を候補として抽出し、三次元CADデータの形状と基準軸とを重畳させて画面上に表示し、GUIによりユーザに選択させてもよい。具体的には、モデル全体の表面積Sに対する評価値Viの割合を閾値thresholdとして設定しておき(たとえばthreshold=0.1)、以下の関係を満たすものだけを抽出して提示する。
このとき、評価値の高い基準軸から順に抽出し、逐次、抽出された基準軸との類似度が閾値以上の参照軸に関しては、次の抽出候補から除外することで、類似した軸のみが候補として複数提示されるのを防いでもよい。
第五の実施形態では、ステップS1100において、ユーザからの入力あるいはモデル全体形状の主軸方向に基づいて、特定の1軸並進成分を規定するモデル中心軸の決定を行った。本実施形態では、第八の実施例と同様に、対象物体の3次元設計CADデータから、モデルの特定の並進成分を規定するモデル中心軸を設定する方法について述べる。
3次元CADデータを構成する複数の解析曲面の中から、モデル軸決定に利用するための解析曲面を抽出する。本実施例では、平面のいずれかの属性を持つ解析曲面を抽出する。なお、曲面を持たず、平面のみで構成される面形状であれば、いかなる解析曲面を抽出してもかまわない。ここで、抽出した解析曲面の数をMとする。
抽出したM個の解析曲面の中から基準面を選択し、基準軸の抽出を行う。まず、M個の解析曲面の中から1つ、基準とする解析曲面をランダムに選択する。選択した解析曲面を基準面Fi(i=1〜M)とする。次に、基準面Fiを表現する解析曲面パラメータから、面の重心および面に直交するベクトルを求め、重心位置を表す3次元座標をpi、重心位置を始点として面の長軸方向に向かう3次元ベクトルをniとする。ただし、軸の抽出方法はこの限りではない。
抽出したM個の解析曲面の中から、参照面および参照軸の抽出を行う。まず、M個の解析曲面のうち、基準面とは異なるものから1つ、参照する解析曲面を選択する。選択した解析曲面を参照面Fj(j=1〜M、ただしj≠i)とする。さらに、ステップS2300と同様に、参照面Fjを表現する解析曲面パラメータから、参照軸の始点位置を表す3次元座標をpj、方向をあらわす3次元ベクトルをnjとして抽出する。
110 撮像部
120 概略位置姿勢入力部
130 三次元形状モデル入力部
140 画像特徴検出部
150 特定自由度設定部
160 第一の位置姿勢算出部
170 対応取得部
180 第二の位置姿勢算出部
2 モデル中心幾何情報決定部
210 CADデータ保持部
220 基準面選択および基準幾何情報抽出部
230 参照面選択および参照幾何情報抽出部
240 類似度算出部
250 評価値算出部
260 モデル幾何情報決定部
Claims (18)
- 計測対象物体との位置姿勢合わせにより、当該計測対象物体の位置姿勢を取得するための三次元形状モデルを保持するモデル保持手段と、
前記計測対象物体の画像を取得する画像取得手段と、
前記三次元形状モデルの第一の幾何特徴と前記画像内の第一の幾何特徴とに基づき、第一の座標系において、前記三次元形状モデルの第一の位置姿勢を取得する第一の位置姿勢取得手段と、
前記三次元形状モデルの第二の幾何特徴と前記画像内の第二の幾何特徴と前記第一の位置姿勢とに基づき、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得する第二の位置姿勢取得手段と、を有することを特徴とする情報処理装置。 - 前記第一の座標系は、前記画像を取得した撮像装置の撮像座標系であり、
前記第二の座標系は、前記三次元形状モデルを基準としたモデル座標系であることを特徴とする請求項1に記載の情報処理装置。 - 前記第一の位置姿勢は、前記撮像座標系における6自由度の位置姿勢パラメータで表される位置姿勢であることを特徴とする請求項2に記載の情報処理装置。
- 前記第二の位置姿勢は、前記モデル座標系を基準とした3自由度以下の位置姿勢パラメータで表される位置姿勢であることを特徴とする請求項2に記載の情報処理装置。
- 前記第二の位置姿勢は、前記モデル座標系を基準とした1自由度の回転成分と1自由度の並進成分との少なくともいずれか一つで表される位置姿勢であることを特徴とする請求項4に記載の情報処理装置。
- 前記第二の位置姿勢取得手段は、前記三次元形状モデルの第二の幾何特徴の画像を用いたパターンマッチングにより、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記第二の位置姿勢取得手段は、非線形最適化により前記第二の位置姿勢を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記第二の位置姿勢取得手段は、連立方程式から前記第二の位置姿勢を取得することを特徴とする請求項1に記載の情報処理装置。
- 前記画像取得手段は、前記計測対象物体の画像として、前記計測対象物体の二次元画像と距離画像との少なくともいずれか一つを取得することを特徴とする請求項1に記載の情報処理装置。
- 前記第一の位置姿勢のパラメータは、前記モデル座標系における6自由度の位置姿勢パラメータのうち、前記第二の位置姿勢を表すパラメータ以外のパラメータであることを特徴とする請求項1に記載の情報処理装置。
- 更に、前記計測対象物体の3次元設計CADデータを保持するデータ保持手段と、
前記3次元設計CADデータを基準とした3自由度以下の位置姿勢パラメータを規定するモデル中心軸またはモデル中心点を決定し、当該中心軸またはモデル中心点に基づいて、前記第二の座標系を決定するモデル中心幾何情報決定手段とを有することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 - 前記モデル中心幾何情報決定手段は、前記3次元設計CADデータを構成する解析曲面群における複数の解析曲面から抽出した回転対称軸との位置と方向との少なくとも一方の類似度が高くなるように、1自由度の回転成分と1自由度の並進成分との少なくとも一方を規定するモデル中心軸を決定することを特徴とする請求項11記載の情報処理装置。
- 前記モデル中心幾何情報決定手段は、
前記3次元設計CADデータを構成する解析曲面群における複数の解析曲面から抽出した並進を規定する軸との位置と方向との少なくとも一方の類似度が高くなるように、1自由度の並進成分を規定するモデル中心軸を決定することを特徴とする請求項11に記載の情報処理装置。 - 前記モデル中心幾何情報決定手段は、
前記3次元設計CADデータを構成する解析曲面群における複数の解析曲面から抽出した中心点との位置の類似度が高くなるように、3自由度の回転成分を規定するモデル中心点を決定することを特徴とする請求項11に記載の情報処理装置。 - 前記モデル中心幾何情報決定手段は、前記類似度が高い軸または点をGUIによりユーザに1つ以上提示し、ユーザ指示に基づき、前記類似度が高い軸または点から前記モデル中心軸またはモデル中心点を選択することを特徴とする請求項11に記載の情報処理装置。
- 計測対象物体を撮像する撮像部と、
計測対象物体との位置姿勢合わせにより、当該計測対象物体の位置姿勢を取得するための三次元形状モデルを保持するモデル保持手段と、
前記撮像部で撮像された前記計測対象物体の画像を取得する画像取得手段と、
前記三次元形状モデルの第一の幾何特徴と前記画像内の第一の幾何特徴とに基づき、第一の座標系において、前記三次元形状モデルの第一の位置姿勢を取得する第一の位置姿勢取得手段と、
前記三次元形状モデルの第二の幾何特徴と前記画像内の第二の幾何特徴と前記第一の位置姿勢とに基づき、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得する第二の位置姿勢取得手段と、を有することを特徴とする情報処理装置。 - モデル保持手段が、計測対象物体との位置姿勢合わせにより、当該計測対象物体の位置姿勢を取得するための三次元形状モデルを保持するモデル保持工程と、
画像取得手段が、前記計測対象物体の画像を取得する画像取得工程と、
第一の位置姿勢取得手段が、前記三次元形状モデルの第一の幾何特徴と前記画像内の第一の幾何特徴とに基づき、第一の座標系において、前記三次元形状モデルの第一の位置姿勢を取得する第一の位置姿勢取得工程と、
第二の位置姿勢取得手段が、前記三次元形状モデルの第二の幾何特徴と前記画像内の第二の幾何特徴と前記第一の位置姿勢とに基づき、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得する第二の位置姿勢取得工程と、を有することを特徴とする情報処理装置。 - コンピュータを、
計測対象物体との位置姿勢合わせにより、当該計測対象物体の位置姿勢を取得するための三次元形状モデルを保持するモデル保持手段と、
前記計測対象物体の画像を取得する画像取得手段と、
前記三次元形状モデルの第一の幾何特徴と前記画像内の第一の幾何特徴とに基づき、第一の座標系において、前記三次元形状モデルの第一の位置姿勢を取得する第一の位置姿勢取得手段と、
前記三次元形状モデルの第二の幾何特徴と前記画像内の第二の幾何特徴と前記第一の位置姿勢とに基づき、前記第一の座標系と異なる第二の座標系において、前記三次元形状モデルの第二の位置姿勢を取得する第二の位置姿勢取得手段と、を有することを特徴とする情報処理装置として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011279801A JP5863440B2 (ja) | 2010-12-28 | 2011-12-21 | 情報処理装置および方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010293019 | 2010-12-28 | ||
JP2010293019 | 2010-12-28 | ||
JP2011279801A JP5863440B2 (ja) | 2010-12-28 | 2011-12-21 | 情報処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012150796A true JP2012150796A (ja) | 2012-08-09 |
JP5863440B2 JP5863440B2 (ja) | 2016-02-16 |
Family
ID=45531512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011279801A Expired - Fee Related JP5863440B2 (ja) | 2010-12-28 | 2011-12-21 | 情報処理装置および方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9467682B2 (ja) |
EP (1) | EP2659454B1 (ja) |
JP (1) | JP5863440B2 (ja) |
WO (1) | WO2012091144A2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150235380A1 (en) * | 2012-11-19 | 2015-08-20 | Ihi Corporation | Three-dimensional object recognition device and three-dimensional object recognition method |
JP2015194478A (ja) * | 2014-03-20 | 2015-11-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2015207105A (ja) * | 2014-04-18 | 2015-11-19 | Necフィールディング株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
JP2017096939A (ja) * | 2015-11-12 | 2017-06-01 | コグネックス・コーポレイション | ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 |
JPWO2019171944A1 (ja) * | 2018-03-06 | 2021-02-18 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2023501553A (ja) * | 2019-11-11 | 2023-01-18 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | 情報再生方法、装置、コンピュータ読み取り可能な記憶媒体及び電子機器 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528853B1 (en) * | 2012-06-29 | 2020-01-07 | Amazon Technologies, Inc. | Shape-Based Edge Detection |
US9233469B2 (en) * | 2014-02-13 | 2016-01-12 | GM Global Technology Operations LLC | Robotic system with 3D box location functionality |
JP6380828B2 (ja) * | 2014-03-07 | 2018-08-29 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
US9305345B2 (en) * | 2014-04-24 | 2016-04-05 | General Electric Company | System and method for image based inspection of an object |
US9754192B2 (en) * | 2014-06-30 | 2017-09-05 | Microsoft Technology Licensing, Llc | Object detection utilizing geometric information fused with image data |
JP6677522B2 (ja) * | 2016-02-15 | 2020-04-08 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP2017196705A (ja) * | 2016-04-28 | 2017-11-02 | セイコーエプソン株式会社 | ロボット、及びロボットシステム |
CN108225316B (zh) * | 2016-12-22 | 2023-12-29 | 成都天府新区光启未来技术研究院 | 载体姿态信息的获取方法和装置及系统 |
US10304210B2 (en) * | 2017-05-25 | 2019-05-28 | GM Global Technology Operations LLC | Method and apparatus for camera calibration |
CN107578470B (zh) * | 2017-10-16 | 2020-11-06 | 北京锐安科技有限公司 | 一种三维模型处理方法、装置、服务器及存储介质 |
JP6874855B2 (ja) * | 2017-11-06 | 2021-05-19 | 富士通株式会社 | 算出方法、算出プログラムおよび情報処理装置 |
US11860278B1 (en) * | 2018-11-14 | 2024-01-02 | Amazon Technologies, Inc. | Physical models for hierarchical clustering and symbolic inference |
US20220084188A1 (en) * | 2020-09-14 | 2022-03-17 | SCREEN Holdings Co., Ltd. | Image processing apparatus, image processing method, inspection apparatus, and non-transitory computer readable recording medium |
CN112489009B (zh) * | 2020-11-27 | 2022-07-26 | 芜湖哈特机器人产业技术研究院有限公司 | 基于视觉图像的泵体口环位姿检测方法 |
US20230046465A1 (en) * | 2021-07-30 | 2023-02-16 | Gopro, Inc. | Holistic camera calibration system from sparse optical flow |
CN115307571B (zh) * | 2022-06-27 | 2023-07-21 | 北京工业大学 | 一种平面式线激光传感器位姿标定件及标定方法 |
CN115859445B (zh) * | 2022-12-29 | 2023-09-26 | 广东省水利水电第三工程局有限公司 | 基于全站扫描技术和逆向算法的桥梁组装仿真测试方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
JPH09178426A (ja) * | 1995-12-26 | 1997-07-11 | Tokyo Electric Power Co Inc:The | 認識対象物体の位置姿勢認識装置および位置姿勢認識方法 |
JP2010113398A (ja) * | 2008-11-04 | 2010-05-20 | Omron Corp | 3次元モデルの作成方法および物体認識装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3253430B2 (ja) | 1993-09-20 | 2002-02-04 | 日本電信電話株式会社 | 3次元物体位置姿勢推定法 |
JP4357155B2 (ja) * | 2002-05-28 | 2009-11-04 | 株式会社セガ | アニメーション画像の生成プログラム |
-
2011
- 2011-12-21 JP JP2011279801A patent/JP5863440B2/ja not_active Expired - Fee Related
- 2011-12-22 WO PCT/JP2011/080551 patent/WO2012091144A2/en active Application Filing
- 2011-12-22 EP EP11813456.8A patent/EP2659454B1/en active Active
- 2011-12-22 US US13/976,200 patent/US9467682B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
JPH09178426A (ja) * | 1995-12-26 | 1997-07-11 | Tokyo Electric Power Co Inc:The | 認識対象物体の位置姿勢認識装置および位置姿勢認識方法 |
JP2010113398A (ja) * | 2008-11-04 | 2010-05-20 | Omron Corp | 3次元モデルの作成方法および物体認識装置 |
Non-Patent Citations (2)
Title |
---|
JPN6015035248; 恩田 寿和、外3名: '"三次元円検出による部品位置決めと事前のハンド干渉チェックにより実現した視覚ベースビンピッキングシス' 日本ロボット学会誌 Vol.18, No.7, 20001015, pp.93-100, 社団法人日本ロボット学会 * |
JPN7015002431; Susan J. TATE: '"Symmetry and Shape Analysis forAssembly-Oriented CAD"' Ph.D Thesis , 20000531, pp.49-70,108,116-117, CRANFIELD UNIVERSITYSCHOOL OF INDUSTRIAL AND MANUF * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150235380A1 (en) * | 2012-11-19 | 2015-08-20 | Ihi Corporation | Three-dimensional object recognition device and three-dimensional object recognition method |
US9652864B2 (en) * | 2012-11-19 | 2017-05-16 | Ihi Corporation | Three-dimensional object recognition device and three-dimensional object recognition method |
JP2015194478A (ja) * | 2014-03-20 | 2015-11-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US10456918B2 (en) | 2014-03-20 | 2019-10-29 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
JP2015207105A (ja) * | 2014-04-18 | 2015-11-19 | Necフィールディング株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
JP2017096939A (ja) * | 2015-11-12 | 2017-06-01 | コグネックス・コーポレイション | ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 |
US10452949B2 (en) | 2015-11-12 | 2019-10-22 | Cognex Corporation | System and method for scoring clutter for use in 3D point cloud matching in a vision system |
JPWO2019171944A1 (ja) * | 2018-03-06 | 2021-02-18 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7207396B2 (ja) | 2018-03-06 | 2023-01-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2023501553A (ja) * | 2019-11-11 | 2023-01-18 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | 情報再生方法、装置、コンピュータ読み取り可能な記憶媒体及び電子機器 |
JP7407929B2 (ja) | 2019-11-11 | 2024-01-04 | リアルシー・(ベイジン)・テクノロジー・カンパニー・リミテッド | 情報再生方法、装置、コンピュータ読み取り可能な記憶媒体及び電子機器 |
Also Published As
Publication number | Publication date |
---|---|
US9467682B2 (en) | 2016-10-11 |
WO2012091144A3 (en) | 2012-11-15 |
JP5863440B2 (ja) | 2016-02-16 |
WO2012091144A2 (en) | 2012-07-05 |
WO2012091144A4 (en) | 2013-04-11 |
US20130271577A1 (en) | 2013-10-17 |
EP2659454B1 (en) | 2018-03-21 |
EP2659454A2 (en) | 2013-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5863440B2 (ja) | 情報処理装置および方法 | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
US10684116B2 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
JP4785880B2 (ja) | 三次元オブジェクト認識のためのシステムおよび方法 | |
JP5430456B2 (ja) | 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置 | |
JP6323993B2 (ja) | 情報処理装置、情報処理方法、及びコンピュータプログラム | |
JP6426968B2 (ja) | 情報処理装置およびその方法 | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5924862B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111598946B (zh) | 一种物体位姿测量方法、装置及存储介质 | |
JP2006099188A (ja) | 情報処理方法および装置 | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP2009128075A (ja) | 物体認識方法 | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
Gaschler | Real-time marker-based motion tracking: Application to kinematic model estimation of a humanoid robot | |
Deng | Registration between multiple laser scanner data sets | |
Xing et al. | RegHEC: Hand-Eye Calibration via Simultaneous Multi-view Point Clouds Registration of Arbitrary Object | |
Tellaeche et al. | 6DOF pose estimation of objects for robotic manipulation. A review of different options | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
Rink et al. | Monte Carlo registration and its application with autonomous robots | |
Kaushik et al. | Polygon-based 3D scan registration with dual-robots in structured indoor environments | |
Fernandez et al. | 3D Registration for Verification of Humanoid Justin’s Upper Body Kinematics | |
JP2021012628A (ja) | 位置姿勢推定装置及び位置姿勢推定方法 | |
Grankvist | Recognition and registration of 3D models in depth sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5863440 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |