JP2012141962A - 位置姿勢計測装置及び位置姿勢計測方法 - Google Patents
位置姿勢計測装置及び位置姿勢計測方法 Download PDFInfo
- Publication number
- JP2012141962A JP2012141962A JP2011267109A JP2011267109A JP2012141962A JP 2012141962 A JP2012141962 A JP 2012141962A JP 2011267109 A JP2011267109 A JP 2011267109A JP 2011267109 A JP2011267109 A JP 2011267109A JP 2012141962 A JP2012141962 A JP 2012141962A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- image
- shape model
- approximate
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】物体の3次元形状モデルを保存する保存部110と、物体の濃淡画像を入力する濃淡画像入力部130と、物体の距離画像を入力する距離画像入力部150と、位置姿勢計測装置100に対する物体の概略の位置及び姿勢を入力する概略位置姿勢入力部120と、濃淡画像の情報を利用して、物体の概略の位置及び姿勢をもとに物体の第1の位置及び姿勢を算出するとともに、第1の位置及び姿勢を用いて算出される3次元形状モデルの画像面上での投影位置をもとに、距離画像から得られる3次元点群または当該3次元点群及び濃淡画像の画像特徴群と、3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出部160を備える。
【選択図】図1
Description
本発明の位置姿勢計測装置における他の態様は、計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置であって、前記物体の3次元形状モデルを保存する保存手段と、前記物体の濃淡画像を入力する濃淡画像入力手段と、前記物体の表面上における点群の3次元座標を入力する3次元データ入力手段と、当該位置姿勢計測装置に対する前記物体の概略の位置及び姿勢を入力する概略位置姿勢入力手段と、前記濃淡画像の情報を利用して、前記物体の概略の位置及び姿勢をもとに前記物体の第1の位置及び姿勢を算出するとともに、前記第1の位置及び姿勢をもとに、前記3次元データ入力手段から得られる3次元座標の点群である3次元点群または当該3次元点群及び前記濃淡画像の画像特徴群と、前記3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出手段とを有する。
また、本発明は、上述した位置姿勢計測装置による位置姿勢計測方法を含む。
第1の実施形態では、まず濃淡画像の情報を用いて物体の位置及び姿勢を推定した後、濃淡画像上の特徴と距離画像に対して同時にモデルが当てはまるように位置及び姿勢の推定を行う。本実施形態では、位置及び姿勢の初期値は与えられるものとする。実際の位置及び姿勢と初期値とのずれが大きい場合、モデルを投影することによる距離画像(3次元点群)と3次元形状モデルの対応付けは、誤対応が頻発する。第1の実施形態では、距離画像の対応付けを行う前に、画像特徴を利用した位置及び姿勢の推定を行ってモデルの投影像と実際の物体像との画像上のオーバーラップ領域をできるだけ広げ、距離画像の対応付けにおける誤対応を削減する。
図1に示すように、位置姿勢計測システムは、位置姿勢計測装置100、濃淡画像撮像部200、及び、距離計測部300を有して構成されている。
概略位置姿勢入力部120は、位置姿勢計測装置100(カメラ)に対する物体の位置及び姿勢の概略値を位置姿勢計測装置100に入力する。前述したように、本実施形態では、前回計測された位置及び姿勢を概略値として用いる。
濃淡画像入力部130及び距離画像入力部150は、物体の位置及び姿勢を算出するための計測データを取得する。具体的には、濃淡画像入力部130及び距離画像入力部150は、計測対象物体の濃淡画像と距離画像を取得する。前述したように、距離画像の各画素には、基準座標系における点の3次元座標が記録されている。濃淡画像撮像部200によって撮影された濃淡画像は、濃淡画像入力部130を介して位置姿勢計測装置100に入力される。また、距離計測部300から出力された距離画像は、距離画像入力部150を介して位置姿勢計測装置100に入力される。
画像特徴検出部140及び位置姿勢算出部160は、濃淡画像の情報に基づいて物体の位置及び姿勢の計測(算出)を行う。ステップS1030では、濃淡画像上の特徴であるエッジに3次元形状モデル中の線分の投影像が当てはまるように、計測対象物体の位置及び姿勢を算出する。
まず、位置姿勢計測装置100では、初期化処理を行う。ここでは、ステップS1010で得られた計測対象物体の概略の位置及び姿勢を位置及び姿勢算出における概略値として入力する。
続いて、画像特徴検出部140は、ステップS1020において入力された濃淡画像上において画像特徴の検出・画像特徴と3次元形状モデルとの対応付けを行う。本実施形態では、画像特徴としてエッジを検出する。エッジは濃度勾配が極値となる点である。本実施形態では、上記非特許文献1で開示される方法によりエッジ検出を行う。この非特許文献1で開示されるエッジ検出方法は、トップダウン型の方法であり、モデル側から対応するエッジを探索する方法であるため、検出と対応付けが一度に行われる。
まず、ここでは、ステップS1110において入力された計測対象物体の位置及び姿勢の概略値と校正済みのカメラの内部パラメータを用いて、3次元形状モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は、画像上でも線分となる。次に、画像上で等間隔になるように投影線分上に制御点を設定し、制御点を通りかつ投影された線分に直交する線分上で1次元のエッジ検出を行う(図5(a))。エッジは、画素値の濃度勾配の極値として検出されるため、図5(b)に示すように、近傍にエッジが存在する場合には、複数のエッジが検出されることがある。本実施形態では、検出されるエッジのうち最も濃度勾配の大きいものを対応するエッジとする。
続いて、例えば位置姿勢算出部160は、3次元形状モデルの線分上の制御点と画像上のエッジとの対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。
図6では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。位置及び姿勢の概略値s0に基づいて投影された線分上のある制御点の画像上での位置を(u0,v0)、当該制御点が所属する線分の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分の両端の3次元座標をsの概略値(s0)に基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。当該線分の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、当該制御点の対応点(エッジ)の画像座標を(u',v')とする。ここで、点(u',v')を通り、傾きがθである直線(図6の破線)上の点(u,v)は、以下の数式(1)と表せる(θは定数とする)。
続いて、例えば位置姿勢算出部160は、数式(5)をもとに、位置及び姿勢の補正値Δsを最小二乗基準で求める。最小二乗基準では、以下の数式(6)を最小化するように位置及び姿勢の補正値Δsを求める。
続いて、例えば位置姿勢算出部160は、ステップS1140において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する。
s←s+Δs
続いて、例えば位置姿勢算出部160は、収束判断を行い、収束している場合には、本フローチャートの処理を終了し、一方、収束していない場合には、ステップS1130に戻る。この収束判断では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判断する。
次に、濃淡画像及び距離画像を用いた位置及び姿勢の算出処理について説明する。本ステップでは、画像特徴検出部140及び位置姿勢算出部160は、ステップS1030で更新された位置及び姿勢の概略値を用いて、濃淡画像、距離画像の双方に対して3次元形状モデルが当てはまるような位置及び姿勢の推定(算出)を行う。ここでは、画像上のエッジと推定される位置及び姿勢に基づいて画像上に投影される線分との距離の二乗和と3次元点群と3次元形状モデルとの距離の二乗和の和が最小になるように位置及び姿勢の最適化を行う。
まず、位置姿勢計測装置100では、初期化処理を行う。ここでは、ステップS1030で得られた計測対象物体の概略の位置及び姿勢を位置及び姿勢算出における概略値として入力する。
続いて、画像特徴検出部140は、ステップS1020において入力された濃淡画像上において画像特徴の検出・画像特徴と3次元形状モデルとの対応付けを行う。また、同様にステップS1020において入力された距離画像と3次元形状モデルとの対応付けを行う。濃淡画像に対する処理は、ステップS1120の処理と同じであるため、説明を省略する。以下、距離画像と3次元形状モデルとの対応付け処理について説明する。
本ステップでは、上記非特許文献5で開示されている方法と同様に、物体の3次元形状モデル(ポリゴンモデル)810を距離画像面820上に投影することによって対応付けを行う。ここで、3次元形状モデルを距離画像上に投影する理由は、距離画像の各画素がポリゴンモデル810のどのポリゴンに対応するかを決定するためである。ここでは、距離画像と同サイズの画像バッファに対し、校正済みであるカメラの内部パラメータと位置及び姿勢の概略値を用いてポリゴンモデル810を描画する。以下、ポリゴンモデル810を描画した画像をポリゴン描画画像と呼ぶ。
続いて、例えば位置姿勢算出部160は、3次元形状モデルの線分上の制御点と画像上のエッジとの対応、ポリゴンと3次元点の対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。モデルの線分上の制御点と画像上のエッジとの対応に基づく係数行列・誤差ベクトルの算出については、ステップS1130と同じであるため説明を省略する。以下では、距離画像の画素(3次元の点)と面との対応に基づく係数行列・誤差ベクトルの算出方法について説明する。
数式(3)及び数式(15)の観測方程式は、sの各成分の微小変化Δsi(i=1,2,・・・,6)についての方程式になっており、数式(15)に示すΔsiに関する線形連立方程式を、以下の数式(16)のように立てることができる。
続いて、例えば位置姿勢算出部160は、数式(17)をもとに、位置及び姿勢の補正値Δsを算出する。しかしながら、エッジの対応付けデータや距離画像の対応付けデータに誤対応などの外れ値が混入することは避けられない。そのため、ステップS1140で述べたようなロバスト推定手法により重み行列Wを用いて、以下の数式(18)により補正値Δsを算出する。
続いて、例えば位置姿勢算出部160は、ステップS1240において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する。
s←s+Δs
続いて、例えば位置姿勢算出部160は、収束判断を行い、収束している場合には、本フローチャートの処理を終了し、一方、収束していない場合には、ステップS1230に戻る。この収束判断では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判断する。
そして、この位置姿勢算出部160では、少なくとも濃淡画像の情報を利用して画像面上での物体像と3次元形状モデルの投影像が最もオーバーラップするように第1の位置及び姿勢を算出する(図3のS1030)。なお、第1の位置及び姿勢は、位置及び姿勢の一部の成分であり、具体的には、当該位置姿勢計測装置100のカメラの光軸に垂直な位置及び光軸まわりの姿勢である。また、位置姿勢算出部160では、第1の位置及び姿勢を用いて画像面上に投影される3次元形状モデルの投影像をもとに3次元形状モデルと濃淡画像の画像特徴及び距離画像との対応付けを行って、第2の位置及び姿勢を算出する(図3のS1040)。
上述した第1の実施形態では、前段の処理である濃淡画像のみを利用する位置及び姿勢の推定において、位置及び姿勢の6自由度すべてを推定した。しかしながら、この処理においてはすべての自由度を推定する必要はなく、濃淡画像を用いて精度高く推定できる成分のみを推定してもよい。背景や物体の構造が複雑な場合には、濃淡画像上のエッジとモデルが誤対応することは避けられない。推定する成分を限定することで計測データに対するオーバーフィッティングが緩和されるため、誤対応に対するロバスト性の向上が期待できる。
上述した第1の実施形態では、ステップS1030、S1040の位置及び姿勢の算出処理において、計測データと3次元形状モデルとの対応付け情報は、固定した情報として取り扱った。しかし、実際には、推定する位置及び姿勢の変化によって対応付け情報は変化する。そのため、位置及び姿勢を更新した後で、再度、対応付け処理をやり直してもよい。ただし、対応付け処理は時間がかかる処理であるため、位置及び姿勢が更新されるたびに対応付けをやり直すのではなく、数回更新された後に対応付け処理を行ってもよい。
上述した第1の実施形態では、位置及び姿勢の概略値を、過去の計測結果から入力した。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではなく、濃淡画像や距離画像の情報を元に繰り返し計算なしに直接的に算出してもよい。例えば、画像全体から検出された線分と3次元形状モデル中の線分と対応付けて位置及び姿勢を直接的に算出してもよい。具体的には、まず画像全体に対して例えばCannyのエッジ検出器によってエッジ検出を行い、隣接するエッジ群をラベリングする。次に、同一ラベルを持つエッジ群に対して、折れ線近似によって線分当てはめを行う。このようにして得られた画像上の線分と3次元形状モデル中の線分の対応をもとに上記非特許文献6に係るLiuの手法により位置及び姿勢を算出してもよい。また、例えば、上記非特許文献7に係るJohnsonの方法により、距離画像に基づいて概略の位置及び姿勢を算出してもよい。また、例えば、上記非特許文献9に係るUlrichらの方法のように、物体の姿勢に応じた固有のパターンを画像上で網羅的に探索する方法によって位置及び姿勢の概略値を算出してもよい。固有のパターンは、濃淡値からなるテンプレート画像であってもよいし、二値のエッジテンプレート画像であってもよい。また、網羅的に探索する方法は、姿勢クラスを識別するパターン認識による方法であってもよい。
上述した第1の実施形態では、前段の処理において濃淡画像のみを利用して位置及び姿勢を推定した。しかしながら、濃淡画像の情報だけでなく、誤対応が悪い影響を与えない程度に距離画像の情報を利用してもよい。具体的には、第1の実施形態のステップS1030の処理のかわりにS1040の処理を実施する。このとき、距離画像の誤対応が位置及び姿勢の算出に大きく影響しないように、数式(8)における閾値c1の値を大きくして全体的に重みが小さくなるようにする。
上述した第1の実施形態では、まず濃淡画像を用いて物体の位置及び姿勢を推定して位置及び姿勢の概略値を更新した後、3次元形状モデルを投影することによる距離画像と3次元形状モデルの対応付けを行った。しかしながら、位置及び姿勢の概略値の更新方法は、これに限るものではない。例えば、距離画像のデータを用いて、位置及び姿勢のうち、カメラからの奥行きに相当する位置成分を推定(算出)してもよい。位置及び姿勢の概略値の真の値に対する誤差が大きい場合は、3次元形状モデルを投影することにより距離画像と3次元形状モデルを正確に対応付けることは難しい。しかしながら、カメラから物体表面までの距離がほぼ同一とみなせる場合には、多少対応付けが間違っていたとしても、奥行きを真の値に近づけることは可能である。
図9の各ステップのうち、ステップS2010、S2020、S2040については、それぞれ、第1の実施形態における図3のステップS1010、S1020、S1040と同一であるため、その説明を省略する。以下では、図9の処理のうち、ステップS2025、S2030について説明する。
ステップS2025では、例えば位置姿勢算出部160は、距離画像の情報に基づいて物体の位置及び姿勢のうち、奥行きに相当する位置成分の概略値を更新する。
画像特徴検出部140及び位置姿勢算出部160は、濃淡画像の情報に基づいて物体の位置及び姿勢の計測(算出)を行う。基本的な処理は、第1の実施形態におけるステップS1030と同一であるが、入力する位置及び姿勢の概略値として、ステップS2025によって更新された位置及び姿勢の概略値を利用する。以降の処理の説明は省略する。
以上、説明した本発明の実施形態、変形例では、濃淡画像上の特徴はエッジであり、3次元形状モデル中の線分をエッジに当てはめることにより位置及び姿勢の計測を行った。しかしながら、濃淡画像上の特徴はエッジに限るものではなく、例えば2次元的な特徴である特徴点であってもよい。特徴点は、コーナー点など画像上で特徴的な点であり、例えば、上記非特許文献8に係るHarrisの検出器によって検出することができる。3次元形状モデルを3次元点群によって表すことで、各特徴点をモデル中の3次元点群の点と対応付けることができる。特徴点を用いる場合には、まず画像全体からHarrisの検出器によって特徴点を検出する。次に、モデル中の3次元点群の各点を位置及び姿勢の概略値に基づいて画像上に投影し、画像上で最も近い特徴点と対応付けを行う。
上述した実施形態では、後段の位置及び姿勢の推定においては濃淡画像と距離画像の双方の情報を用いていた。しかしながら、後段の位置及び姿勢の推定方法はこれに限るものではない。計測対象物体が多面体である場合、少なくとも3面以上の十分な面積を持つ面が撮像装置から見えていれば、距離画像のみから精度よく位置及び姿勢を推定することができる。また、計測対象物体が曲面から構成される場合には、撮像装置から観察される物体表面上の点の法線ベクトルが十分に3次元的に分布していれば距離画像のみから精度よく位置及び姿勢を推定することができる。
図10の各ステップのうち、ステップS3010、S3020、S3030については、それぞれ、第1の実施形態における図3のステップS1010、S1020、S1030と同一であるため、その説明を省略する。以下では、図10の処理のうち、ステップS3040について説明する。
ステップS3040では、位置姿勢算出部160は、ステップS3030で更新された位置及び姿勢の概略値を用いて、距離画像に対して3次元形状モデルが当てはまるような位置及び姿勢の推定(算出)を行う。ここでは、距離画像から得られる3次元点群と3次元形状モデルとの距離の二乗和が最小になるように位置及び姿勢の最適化を行う。
まず、位置姿勢計測装置100では、初期化処理を行う。ここでは、ステップS3030で得られた計測対象物体の概略の位置及び姿勢を位置及び姿勢算出における概略値として入力する。
続いて、画像特徴検出部140は、ステップS3020で入力された距離画像と3次元形状モデルとの対応付けを行う。距離画像と3次元形状モデルとの対応付けについては、ステップS1220の処理と同じであるため、説明を省略する。
続いて、例えば位置姿勢算出部160は、ポリゴンと3次元点の対応をもとに、位置及び姿勢を算出するための係数行列・誤差ベクトルを算出する。3次元形状モデルの面と3次元点との対応に基づく係数行列・誤差ベクトルの算出方法については、ステップS1230と同じであるため、説明を省略する。本ステップでは、距離画像の情報のみを用いるため、sの各成分の微小変化Δsi(i=1,2,・・・,6)に関する線形連立方程式は以下の数式(22)になる。
続いて、例えば位置姿勢算出部160は、数式(23)をもとに、位置及び姿勢の補正値Δsを算出する。距離画像と3次元形状モデルの対応付けデータに誤対応などの外れ値が混入することは避けられないため、ステップS1140で述べたようなロバスト推定手法により重み行列Wを用いて、以下の数式(24)により補正値Δsを算出する。
続いて、例えば位置姿勢算出部160は、ステップS3140において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する。
s←s+Δs
続いて、例えば位置姿勢算出部160は、収束判断を行い、収束している場合には、本フローチャートの処理を終了し、一方、収束していない場合には、ステップS3130に戻る。この収束判断では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判断する。
上述した実施形態では、濃淡画像とともに対象物体の3次元の計測データとして距離画像を位置姿勢推定に利用していた。しかしながら、位置姿勢推定に利用する3次元の計測データは画素ごとに3次元座標を持つ距離画像に限るものではなく、物体の表面上における点群の3次元座標を表す計測データであれば他の形態であってもよい。この場合、位置姿勢計測装置100は、物体の表面上における点群の3次元座標を入力する3次元データ入力部(不図示)を具備する構成となる。そして、位置姿勢算出部160は、濃淡画像の情報を利用して、物体の概略の位置及び姿勢をもとに物体の第1の位置及び姿勢を算出する。さらに、位置姿勢算出部160は、第1の位置及び姿勢をもとに、3次元データ入力部(不図示)から得られる3次元座標の点群である3次元点群または当該3次元点群及び濃淡画像の画像特徴群と、3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する。ここで、例えば、物体の表面上における点群の3次元座標を表す計測データとしては、3次元座標の集合であってもよい。なお、本実施形態と他の実施形態との違いは、3次元形状モデルと3次元の計測データの対応付けだけであるため、以下では対応付け方法のみを説明し、重複する説明は割愛する。
まず、予め3次元形状モデルを構成する各ポリゴン上に計測点の密度より細かく複数の点(以降、面モデル点と呼ぶ)を設定し、各面モデル点の物体座標系における3次元座標と属するポリゴンのIDを保存しておく。対応付けを行う際には、非特許文献2に開示されるように、kd−treeを用いて各計測点に対応する面モデル点を探索する。面モデル点にはポリゴンのIDが紐づけられているため、この探索を行うことで計測点とポリゴンが対応付けされる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
Claims (10)
- 計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置であって、
前記物体の3次元形状モデルを保存する保存手段と、
前記物体の濃淡画像を入力する濃淡画像入力手段と、
前記物体の距離画像を入力する距離画像入力手段と、
当該位置姿勢計測装置に対する前記物体の概略の位置及び姿勢を入力する概略位置姿勢入力手段と、
前記濃淡画像の情報を利用して、前記物体の概略の位置及び姿勢をもとに前記物体の第1の位置及び姿勢を算出するとともに、前記第1の位置及び姿勢を用いて算出される前記3次元形状モデルの画像面上での投影位置をもとに、前記距離画像から得られる3次元点群または当該3次元点群及び前記濃淡画像の画像特徴群と、前記3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出手段と
を有することを特徴とする位置姿勢計測装置。 - 前記第1の位置及び姿勢は、位置及び姿勢の一部の成分であることを特徴とする請求項1に記載の位置姿勢計測装置。
- 前記第1の位置及び姿勢は、当該位置姿勢計測装置のカメラの光軸に垂直な位置及び光軸まわりの姿勢であることを特徴とする請求項2に記載の位置姿勢計測装置。
- 前記概略位置姿勢入力手段は、前記濃淡画像または前記距離画像の情報から位置及び姿勢の初期値が不要な算出方法によって算出される前記物体の位置及び姿勢を概略の位置及び姿勢として入力することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記位置姿勢算出手段は、前記第1の位置及び姿勢を算出する前に、前記距離画像の情報を用いて位置及び姿勢のうち、当該位置姿勢計測装置からの奥行きに相当する位置を算出し、前記概略の位置及び姿勢を更新することを特徴とする請求項1乃至4のいずれか1項に記載の位置姿勢計測装置。
- 前記画像特徴群における画像特徴は、エッジであることを特徴とする請求項1乃至5のいずれか1項に記載の位置姿勢計測装置。
- 前記画像特徴群における画像特徴は、特徴点であることを特徴とする請求項1乃至5のいずれか1項に記載の位置姿勢計測装置。
- 計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置であって、
前記物体の3次元形状モデルを保存する保存手段と、
前記物体の濃淡画像を入力する濃淡画像入力手段と、
前記物体の表面上における点群の3次元座標を入力する3次元データ入力手段と、
当該位置姿勢計測装置に対する前記物体の概略の位置及び姿勢を入力する概略位置姿勢入力手段と、
前記濃淡画像の情報を利用して、前記物体の概略の位置及び姿勢をもとに前記物体の第1の位置及び姿勢を算出するとともに、前記第1の位置及び姿勢をもとに、前記3次元データ入力手段から得られる3次元座標の点群である3次元点群または当該3次元点群及び前記濃淡画像の画像特徴群と、前記3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出手段と
を有することを特徴とする位置姿勢計測装置。 - 計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置による位置姿勢計測方法であって、
前記物体の3次元形状モデルを保存する保存ステップと、
前記物体の濃淡画像を入力する濃淡画像入力ステップと、
前記物体の距離画像を入力する距離画像入力ステップと、
前記位置姿勢計測装置に対する前記物体の概略の位置及び姿勢を入力する概略位置姿勢入力ステップと、
前記濃淡画像の情報を利用して、前記物体の概略の位置及び姿勢をもとに前記物体の第1の位置及び姿勢を算出するとともに、前記第1の位置及び姿勢を用いて算出される前記3次元形状モデルの画像面上での投影位置をもとに、前記距離画像から得られる3次元点群または当該3次元点群及び前記濃淡画像の画像特徴群と、前記3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出ステップと
を有することを特徴とする位置姿勢計測方法。 - 計測対象である物体の位置及び姿勢を計測する位置姿勢計測装置による位置姿勢計測方法であって、
前記物体の3次元形状モデルを保存する保存ステップと、
前記物体の濃淡画像を入力する濃淡画像入力ステップと、
前記物体の表面上における点群の3次元座標を入力する3次元データ入力ステップと、
前記位置姿勢計測装置に対する前記物体の概略の位置及び姿勢を入力する概略位置姿勢入力ステップと、
前記濃淡画像の情報を利用して、前記物体の概略の位置及び姿勢をもとに前記物体の第1の位置及び姿勢を算出するとともに、前記第1の位置及び姿勢をもとに、前記3次元データ入力ステップから得られる3次元座標の点群である3次元点群または当該3次元点群及び前記濃淡画像の画像特徴群と、前記3次元形状モデルとの対応付けを行い、当該対応付け結果に基づいて第2の位置及び姿勢を算出する位置姿勢算出ステップと
を有することを特徴とする位置姿勢計測方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011267109A JP5839971B2 (ja) | 2010-12-14 | 2011-12-06 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278270 | 2010-12-14 | ||
JP2010278270 | 2010-12-14 | ||
JP2011267109A JP5839971B2 (ja) | 2010-12-14 | 2011-12-06 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012141962A true JP2012141962A (ja) | 2012-07-26 |
JP5839971B2 JP5839971B2 (ja) | 2016-01-06 |
Family
ID=45440183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011267109A Expired - Fee Related JP5839971B2 (ja) | 2010-12-14 | 2011-12-06 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9519971B2 (ja) |
EP (1) | EP2466543B1 (ja) |
JP (1) | JP5839971B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090298A (ja) * | 2013-11-05 | 2015-05-11 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2016170050A (ja) * | 2015-03-12 | 2016-09-23 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム |
JP2017004268A (ja) * | 2015-06-10 | 2017-01-05 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
CN111247559A (zh) * | 2017-10-20 | 2020-06-05 | 丰田自动车欧洲公司 | 用于处理图像和确定对象的视点的方法和系统 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5496008B2 (ja) * | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP5839971B2 (ja) * | 2010-12-14 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2014047491A1 (en) * | 2012-09-20 | 2014-03-27 | Marc Dubois | Depth mapping vision system with 2d optical pattern for robotic applications |
US9772173B2 (en) * | 2013-06-27 | 2017-09-26 | Faro Technologies, Inc. | Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera |
JP6351243B2 (ja) * | 2013-11-28 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6444027B2 (ja) * | 2013-12-09 | 2018-12-26 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム |
JP6317618B2 (ja) * | 2014-05-01 | 2018-04-25 | キヤノン株式会社 | 情報処理装置およびその方法、計測装置、並びに、作業装置 |
US9727776B2 (en) * | 2014-05-27 | 2017-08-08 | Microsoft Technology Licensing, Llc | Object orientation estimation |
US9402070B2 (en) | 2014-06-12 | 2016-07-26 | Faro Technologies, Inc. | Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality |
US10021379B2 (en) | 2014-06-12 | 2018-07-10 | Faro Technologies, Inc. | Six degree-of-freedom triangulation scanner and camera for augmented reality |
US10176625B2 (en) | 2014-09-25 | 2019-01-08 | Faro Technologies, Inc. | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
US9506744B2 (en) | 2014-12-16 | 2016-11-29 | Faro Technologies, Inc. | Triangulation scanner and camera for augmented reality |
EP3283843B1 (en) * | 2015-04-01 | 2024-01-10 | Vayavision Sensing Ltd. | Generating 3-dimensional maps of a scene using passive and active measurements |
US9961283B2 (en) * | 2016-09-07 | 2018-05-01 | Essential Products, Inc. | Color reconstruction |
CN106584090B (zh) * | 2016-12-26 | 2018-10-02 | 清华大学 | 基于结构光三维测量系统的工件装配方法 |
US10445928B2 (en) | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN108510540B (zh) * | 2017-02-23 | 2020-02-07 | 杭州海康威视数字技术股份有限公司 | 立体视觉摄像机及其高度获取方法 |
US20180268614A1 (en) * | 2017-03-16 | 2018-09-20 | General Electric Company | Systems and methods for aligning pmi object on a model |
US10304210B2 (en) * | 2017-05-25 | 2019-05-28 | GM Global Technology Operations LLC | Method and apparatus for camera calibration |
US10436590B2 (en) * | 2017-11-10 | 2019-10-08 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Localization system and method, and robot using the same |
US10682774B2 (en) | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
CN115335658A (zh) * | 2020-03-23 | 2022-11-11 | 发那科株式会社 | 图像处理装置以及图像处理方法 |
CA3125623C (en) | 2020-07-21 | 2023-06-27 | Leddartech Inc. | Beam-steering device particularly for lidar systems |
CA3125718C (en) | 2020-07-21 | 2023-10-03 | Leddartech Inc. | Beam-steering devices and methods for lidar applications |
WO2022016277A1 (en) | 2020-07-21 | 2022-01-27 | Leddartech Inc. | Systems and methods for wide-angle lidar using non-uniform magnification optics |
JP2024501161A (ja) * | 2020-12-04 | 2024-01-11 | ヒンジ ヘルス, インコーポレイテッド | 画像または映像におけるオブジェクトの3次元場所特定 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6278684A (ja) * | 1985-10-02 | 1987-04-10 | Fujitsu Ltd | 物体検索方式 |
JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
JP2001250122A (ja) * | 2000-03-06 | 2001-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体 |
JP2003058896A (ja) * | 2001-08-10 | 2003-02-28 | Nec Corp | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
JP2007271554A (ja) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | 顔姿勢検出方法 |
JP2008286756A (ja) * | 2007-05-21 | 2008-11-27 | Canon Inc | 位置姿勢計測装置及びその制御方法 |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2720155B1 (fr) * | 1994-05-19 | 1996-06-28 | Lorraine Laminage | Mesure tridimensionnelle de la surface d'un objet de grande dimension. |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6438272B1 (en) * | 1997-12-31 | 2002-08-20 | The Research Foundation Of State University Of Ny | Method and apparatus for three dimensional surface contouring using a digital video projection system |
JP4794708B2 (ja) * | 1999-02-04 | 2011-10-19 | オリンパス株式会社 | 3次元位置姿勢センシング装置 |
JP2003533685A (ja) * | 2000-05-16 | 2003-11-11 | シュタインビフラー オプトテヒニク ゲーエムベーハー | 物体の3次元形状測定方法及び装置 |
DE60226754D1 (de) * | 2001-09-25 | 2008-07-03 | Matsushita Electric Ind Co Ltd | Parameterschätzvorrichtung und datenkollationsvorrichtung |
KR100831187B1 (ko) * | 2003-08-29 | 2008-05-21 | 닛본 덴끼 가부시끼가이샤 | 웨이팅 정보를 이용하는 객체 자세 추정/조합 시스템 |
US7746377B2 (en) * | 2003-11-28 | 2010-06-29 | Topcon Corporation | Three-dimensional image display apparatus and method |
JP2007114071A (ja) * | 2005-10-20 | 2007-05-10 | Omron Corp | 三次元形状計測装置、プログラム、コンピュータ読み取り可能な記録媒体、及び三次元形状計測方法 |
US7844106B2 (en) * | 2007-04-23 | 2010-11-30 | Mitsubishi Electric Research Laboratories, Inc | Method and system for determining poses of objects from range images using adaptive sampling of pose spaces |
US7957583B2 (en) * | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
JP5094663B2 (ja) * | 2008-09-24 | 2012-12-12 | キヤノン株式会社 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
US8217961B2 (en) * | 2009-03-27 | 2012-07-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for estimating 3D pose of specular objects |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5460341B2 (ja) * | 2010-01-06 | 2014-04-02 | キヤノン株式会社 | 3次元計測装置及びその制御方法 |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
DE102010020284A1 (de) * | 2010-05-12 | 2011-11-17 | Siemens Aktiengesellschaft | Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern |
JP5612916B2 (ja) * | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5496008B2 (ja) * | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP5839971B2 (ja) * | 2010-12-14 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9279661B2 (en) * | 2011-07-08 | 2016-03-08 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9437005B2 (en) * | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
KR101907077B1 (ko) * | 2012-03-06 | 2018-10-11 | 삼성전자주식회사 | 자세 인식 방법 및 장치 |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
-
2011
- 2011-12-06 JP JP2011267109A patent/JP5839971B2/ja not_active Expired - Fee Related
- 2011-12-12 US US13/323,504 patent/US9519971B2/en active Active
- 2011-12-14 EP EP11193591.2A patent/EP2466543B1/en not_active Not-in-force
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6278684A (ja) * | 1985-10-02 | 1987-04-10 | Fujitsu Ltd | 物体検索方式 |
JPH07287756A (ja) * | 1994-02-23 | 1995-10-31 | Matsushita Electric Works Ltd | 物体認識方法 |
JP2001250122A (ja) * | 2000-03-06 | 2001-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体 |
JP2003058896A (ja) * | 2001-08-10 | 2003-02-28 | Nec Corp | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
JP2007271554A (ja) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | 顔姿勢検出方法 |
JP2008286756A (ja) * | 2007-05-21 | 2008-11-27 | Canon Inc | 位置姿勢計測装置及びその制御方法 |
JP2010060451A (ja) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | ロボット装置及び物体の位置姿勢推定方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015090298A (ja) * | 2013-11-05 | 2015-05-11 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2016170050A (ja) * | 2015-03-12 | 2016-09-23 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム |
JP2017004268A (ja) * | 2015-06-10 | 2017-01-05 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
CN111247559A (zh) * | 2017-10-20 | 2020-06-05 | 丰田自动车欧洲公司 | 用于处理图像和确定对象的视点的方法和系统 |
JP2020537790A (ja) * | 2017-10-20 | 2020-12-24 | トヨタ モーター ヨーロッパ | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
JP7060686B2 (ja) | 2017-10-20 | 2022-04-26 | トヨタ モーター ヨーロッパ | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
US11335024B2 (en) | 2017-10-20 | 2022-05-17 | Toyota Motor Europe | Method and system for processing an image and determining viewpoints of objects |
CN111247559B (zh) * | 2017-10-20 | 2023-10-31 | 丰田自动车欧洲公司 | 用于处理图像和确定对象的视点的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
EP2466543A2 (en) | 2012-06-20 |
EP2466543B1 (en) | 2018-07-04 |
US9519971B2 (en) | 2016-12-13 |
US20120148100A1 (en) | 2012-06-14 |
EP2466543A3 (en) | 2017-04-26 |
JP5839971B2 (ja) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP5393318B2 (ja) | 位置姿勢計測方法及び装置 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
WO2012066769A1 (en) | Information processing apparatus and information processing method | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2015132523A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びプログラム | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
CN115082550A (zh) | 从对象的相机图像中定位对象的位置的设备和方法 | |
JP2017162449A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
JP2021077290A (ja) | 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法 | |
JP2021012628A (ja) | 位置姿勢推定装置及び位置姿勢推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141024 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5839971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |