JP3668769B2 - 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 - Google Patents
対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 Download PDFInfo
- Publication number
- JP3668769B2 JP3668769B2 JP2000191127A JP2000191127A JP3668769B2 JP 3668769 B2 JP3668769 B2 JP 3668769B2 JP 2000191127 A JP2000191127 A JP 2000191127A JP 2000191127 A JP2000191127 A JP 2000191127A JP 3668769 B2 JP3668769 B2 JP 3668769B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- model
- pixel
- approximate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、観測画像から対象物体や観測カメラの位置・姿勢を算出する方法に関する。この技術が実現すると、ロボットによる作業の自動化などが大きく促進される。
【0002】
【従来の技術】
ロボットが室内を移動し作業を行う場合、作業対象物体の位置・姿勢、及び、全体の環境におけるロボットの位置・姿勢を正確に把握する必要がある。こうした位置・姿勢情報は、ロボットの目である、ロボットに搭載されたカメラにより入力される画像情報と、ロボット内に持つ環境や対象物体の3次元形状モデル間点対応により、次のように得ることができる。
【0003】
【数1】
のm個のペアが得られているとする。この対応を用いて
【数2】
の関係式を満たす3次元モデルの剛体運動、
【数3】
を算出することにより、観測状態の位置・姿勢が求まる。
【0004】
【発明が解決しようとする課題】
対象が特徴的なマーク点や角点を持つ場合には、観測画像からの特徴点抽出も、モデル上の特徴点との対応付けも比較的容易である。しかし、図1のように、観測画像上に観測される特徴が遮蔽輪郭の場合、この遮蔽輪郭特徴に対応するモデル表面上の点は視点によって変化するため、2次元画像上に観測される点と3次元モデル上の対応点を知るのが非常に難しい。結果的にこうした観測遮蔽輪郭から対象や環境の位置・姿勢を求めることがほとんど不可能であるという問題があった。
【0005】
【課題を解決するための手段】
対象の大まかな位置・姿勢は既知である条件のもとで、上記課題を達成するために、本発明では、計算機内部に記録した対象物体の3次元形状モデルから、この大まかな初期位置・姿勢における見え方をグラフィックスシステムで算出し、この過程で提供される対象シーンの奥行き画像を利用し、画像上に観測される遮蔽輪郭に対する、モデル上の対応候補点の3次元座標を高速に算出する方法を提供する。(請求項1)
【0006】
さらに、こうして得た遮蔽輪郭特徴の2D-3D対応ペアをもとに、初期に与えられた大まかなモデルの位置・姿勢を繰り返し処理により正しい状態に更新していき、最終的には正しい対象の位置・姿勢を得る方法を提供する。(請求項2)
さらに、これを計算機内部にカメラを取り巻く環境の3次元形状モデルが記録されている場合に拡張し、観測するカメラの位置・姿勢を算出する方法を提供する。(請求項3)
【0007】
本願発明の方法によると、対象形状を限定することなく、例え複数の物体により構成される複雑な環境モデルの場合にも各個体間の遮蔽や自己遮蔽などがすべて自動的に考慮されるその性格により、同様に処理が実現される。
【0008】
【発明の実施の形態】
図2と図3を用い、遮蔽輪郭を用いて対象物体の位置・姿勢を算出する処理を説明する。
ステップS1:カメラにより画像を入力する。
ステップS2:画像から明るさが急変するエッジを抽出する。
ステップS3:モデル上の遮蔽輪郭生成点の3次元座標の算出。
【0009】
図3aは計算機内部に記録されている対象物体の幾何モデルである。今、この対象の大まかな位置・姿勢が既知であれば、OpenGL(Silicon Graphyics社の登録商標)に代表されるグラフィックスシステムにより、その見え方の予測画像、図3cを高速に算出することが可能である。この際、グラフィックスシステムはこの画像の算出のため、同時に図3dのような奥行き画像も算出する。これは、各画素の示す視線方向に向かって、どれだけ離れた位置にモデルが存在するかの距離を画素ごとに記録したものである。図3dの例では、この距離が近いほど明るく表示してある。この画像からエッジ抽出処理を行うことにより、図3e中のグレイ線のように奥行きが大きく変わる画素が抽出され、その境界隣接画素のうち、手前側(距離値が小さいもの)をとることにより、遮蔽輪郭に対応するモデル表面の3次元座標値が得られる。ただし、この奥行き画像を作成するために用いた、対象物体の位置・姿勢の初期値は実際の値とは異なっているため、多少の誤差を含む。多少の誤差を含むが、これら遮蔽輪郭生成3D点は以下に続く処理によって、対象の位置・姿勢認識に利用することが可能である。
【0010】
ステップ S4:観測エッジと対応する3次元モデル代表点の算出。
上記手順により得られた遮蔽輪郭生成3次元点を投影画像上で等間隔にサンプリングすることにより、図3eに白い点で示すような、代表点を求める。さらに、予測画像を利用して、このうち画像上で明確なエッジとして検出される見通しのものだけを残す(図3f)。
【0011】
ステップ S5:3次元モデル点と観測エッジ点との対応付。
テリトリベース3D-2Dレジストレーション手法「喜多 泰代、 Dale L. Wilson、 J. Alison Noble:"3次元血管モデルのX線画像への実時間位置合わせ手法",電子情報通信学会論文誌(D-II), Vol.J83-DII, No. 1, pp.254-262(2000).」の部分では、観測画像上に投影したこれらモデル点と観測エッジ点で、画像上の2次元距離の近さを評価基準として、点対応ペアを作成する。
【0012】
ステップ S6:対象物体の位置・姿勢を算出。
これらの点対応ペアを、n個のカメラの観測画像から対象の位置・姿勢を算出する一般式、
【数4】
【数5】
にn=1の条件で代入することにより、この対応ペアを最小自乗誤差的意味において満す、対象の位置・姿勢が算出される。ここで、
【0013】
【数6】
である。ただし、画像上の距離の近さに基づき定めたペアが完全に正しいペアではないこと、この一般式が回転行列の線形化による近似誤差を含んでいること、遮蔽輪郭生成の3次元座標が多少誤差を含んでいることから、一回の演算で正しい対象の位置・姿勢は得られない。そこで、新しい位置・姿勢の値を用いて、ステップS3からS6までの処理を対象の位置・姿勢が収束するまで繰り返すことにより、最終的に正しい位置・姿勢を算出する。
【0014】
観測カメラの位置・姿勢検出は、計算機内部にカメラを取り巻く環境の形状モデルを記録し、これを対象形状モデルとして上記と同様に対象物体の新しい位置・姿勢を算出し、これと相対的にカメラの位置・姿勢を変化させ、ステップ3に戻る、という繰り返し処理によって、得られる。
【0015】
カメラを取り巻く環境形状モデルを計算機に与え、環境におけるカメラの位置・姿勢を求めた実施例を以下に示す。図4aは、実際の観測画像である。図4bはこのエッジ画像(Canny エッジオペレータ「一般的に用いられている画像処理手法」:J. Canny:"A Computational Approach to Edge Detection",IEEE Trans.Pattern Analysis and Machine Intelligence,Vol. 8, No. 6, pp.679-698.を使用。)で、各エッジ点近傍で濃淡値の最大変化方向を8方向に濃淡差をつけて示してある。図4cにOpenGLで作成した円柱5本からなる部分モデルの側面図と上から見た図を示す。上面図中の白丸はカメラ位置、そこから出ている白線は視線方向を示す。側面図は、観測画像を得たカメラの初期位置・姿勢を大まかにマニュアルで計測し、その状態における予測画像となっている。図4dは、これを観測画像に重ねて表示したもので、初期位置・姿勢計測誤差のため実際に各パイプが観測される位置からずれている。見易いようにパイプを黒で表示している。図4eに、予測奥行き画像のエッジ上に求めた3次元モデル点(白い点)を側面図、上面図に示す。ただし、予測濃淡画像情報を用いて明るさ変化が少なく観測されにくい点は省かれるため、同色のパイプ同士が重なっているとろは選択されていない。観測画像のエッジ点と同様、予測投影画像上のモデル点近傍の濃淡値最大変化方向を8方向に分類し各モデル点の特性として持つ。図4fに、この特性を濃淡差で表し、その投影位置を観測エッジ画像に重ねて表示する。
【0016】
カメラ角度のわずかなずれが、画面上では大きな平行移動を生むので、第1回目の初期対応時だけはこれを考慮する。 具体的に、投影モデル点を画面上で2次元的に平行移動し、モデル点が同色のエッジ位置に最もよく重なる位置を探索する。図4gが移動後の位置である。これはあくまで最短距離評価基準でモデル点の対応ペアを見つけるために必要なので、実際に3次元モデルを移動する必要はない。この位置においてテリトリベース3D-2Dマッチングを行い、得られた対応付が同図中に白線で示されている。式(1),(2)を用いて得られた位置・姿勢変化量を相対的にカメラの位置・姿勢に反映し、その新しい位置において同様の処理を繰り返す(2回目以降はすでに画面上での大きなずれはなくなっており画像上の平行移動は不必要)。この例では、24回繰り返し後に収束条件を満し、カメラ位置を(66.8,-13.2,-80.7)(mm)平行移動修正し、軸(-0.34, 0.37, -0.86)回りに 5.7度回転修正して、図4h,iのような予測画像と観測画像の重なりを得た。モデルの投影位置が観測画像と一致しているということは、カメラの位置・姿勢がより正しい値に修正されたことを示している。処理時間は、Pentium II(333MHz)マシン上で、画像上の初期平行移動に2.1sec、3Dモデル点を選出し、その対応観測特徴点を求め、これに基づきカメラの位置・姿勢を変更する1ループに約200msecかかり、トータルで6.8秒であった。
【0017】
【発明の効果】
従来、観測画像上の遮蔽輪郭を対象物体の位置・姿勢検出、また、相対的に観測カメラの位置・姿勢検出に利用することは非常に単純な対象物以外では不可能であった。本発明の方法は、あらかじめ、大まかな位置・姿勢が与えられる場合に、これを可能とした。これにより、特徴的な角点やマーク点などがない対象物体の位置・姿勢検出、また特徴的な角点やマーク点などが存在せず、複雑な曲面で構成される環境中のカメラの位置・姿勢検出が可能となった。
【図面の簡単な説明】
【図1】遮蔽輪郭が特徴エッジの大半を占める環境例を示す図である。
【図2】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検出の流れ図である。
【図3】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検出手法の説明図である。
【図4】本発明の実施を例示する図である。
(a)観測画像;
(b)観測画像のエッジ(濃淡値の最大変化方向別に色分け);
(c)対象の3次元モデルの側面図および上面図;
(d)カメラの初期推定位置・姿勢におけるモデル投影;
(e)3次元モデル点(白い点)の正面図、側面図;
(f)3次元モデル点の観測エッジ画像での投影位置;
(g)初期平行移動後の3次元投影モデル点;
(h)収束後のカメラ位置・姿勢におけるモデル点投影(エッジ画像上);
(i)収束後のカメラ位置・姿勢におけるモデル投影。
【発明の属する技術分野】
本発明は、観測画像から対象物体や観測カメラの位置・姿勢を算出する方法に関する。この技術が実現すると、ロボットによる作業の自動化などが大きく促進される。
【0002】
【従来の技術】
ロボットが室内を移動し作業を行う場合、作業対象物体の位置・姿勢、及び、全体の環境におけるロボットの位置・姿勢を正確に把握する必要がある。こうした位置・姿勢情報は、ロボットの目である、ロボットに搭載されたカメラにより入力される画像情報と、ロボット内に持つ環境や対象物体の3次元形状モデル間点対応により、次のように得ることができる。
【0003】
【数1】
のm個のペアが得られているとする。この対応を用いて
【数2】
の関係式を満たす3次元モデルの剛体運動、
【数3】
を算出することにより、観測状態の位置・姿勢が求まる。
【0004】
【発明が解決しようとする課題】
対象が特徴的なマーク点や角点を持つ場合には、観測画像からの特徴点抽出も、モデル上の特徴点との対応付けも比較的容易である。しかし、図1のように、観測画像上に観測される特徴が遮蔽輪郭の場合、この遮蔽輪郭特徴に対応するモデル表面上の点は視点によって変化するため、2次元画像上に観測される点と3次元モデル上の対応点を知るのが非常に難しい。結果的にこうした観測遮蔽輪郭から対象や環境の位置・姿勢を求めることがほとんど不可能であるという問題があった。
【0005】
【課題を解決するための手段】
対象の大まかな位置・姿勢は既知である条件のもとで、上記課題を達成するために、本発明では、計算機内部に記録した対象物体の3次元形状モデルから、この大まかな初期位置・姿勢における見え方をグラフィックスシステムで算出し、この過程で提供される対象シーンの奥行き画像を利用し、画像上に観測される遮蔽輪郭に対する、モデル上の対応候補点の3次元座標を高速に算出する方法を提供する。(請求項1)
【0006】
さらに、こうして得た遮蔽輪郭特徴の2D-3D対応ペアをもとに、初期に与えられた大まかなモデルの位置・姿勢を繰り返し処理により正しい状態に更新していき、最終的には正しい対象の位置・姿勢を得る方法を提供する。(請求項2)
さらに、これを計算機内部にカメラを取り巻く環境の3次元形状モデルが記録されている場合に拡張し、観測するカメラの位置・姿勢を算出する方法を提供する。(請求項3)
【0007】
本願発明の方法によると、対象形状を限定することなく、例え複数の物体により構成される複雑な環境モデルの場合にも各個体間の遮蔽や自己遮蔽などがすべて自動的に考慮されるその性格により、同様に処理が実現される。
【0008】
【発明の実施の形態】
図2と図3を用い、遮蔽輪郭を用いて対象物体の位置・姿勢を算出する処理を説明する。
ステップS1:カメラにより画像を入力する。
ステップS2:画像から明るさが急変するエッジを抽出する。
ステップS3:モデル上の遮蔽輪郭生成点の3次元座標の算出。
【0009】
図3aは計算機内部に記録されている対象物体の幾何モデルである。今、この対象の大まかな位置・姿勢が既知であれば、OpenGL(Silicon Graphyics社の登録商標)に代表されるグラフィックスシステムにより、その見え方の予測画像、図3cを高速に算出することが可能である。この際、グラフィックスシステムはこの画像の算出のため、同時に図3dのような奥行き画像も算出する。これは、各画素の示す視線方向に向かって、どれだけ離れた位置にモデルが存在するかの距離を画素ごとに記録したものである。図3dの例では、この距離が近いほど明るく表示してある。この画像からエッジ抽出処理を行うことにより、図3e中のグレイ線のように奥行きが大きく変わる画素が抽出され、その境界隣接画素のうち、手前側(距離値が小さいもの)をとることにより、遮蔽輪郭に対応するモデル表面の3次元座標値が得られる。ただし、この奥行き画像を作成するために用いた、対象物体の位置・姿勢の初期値は実際の値とは異なっているため、多少の誤差を含む。多少の誤差を含むが、これら遮蔽輪郭生成3D点は以下に続く処理によって、対象の位置・姿勢認識に利用することが可能である。
【0010】
ステップ S4:観測エッジと対応する3次元モデル代表点の算出。
上記手順により得られた遮蔽輪郭生成3次元点を投影画像上で等間隔にサンプリングすることにより、図3eに白い点で示すような、代表点を求める。さらに、予測画像を利用して、このうち画像上で明確なエッジとして検出される見通しのものだけを残す(図3f)。
【0011】
ステップ S5:3次元モデル点と観測エッジ点との対応付。
テリトリベース3D-2Dレジストレーション手法「喜多 泰代、 Dale L. Wilson、 J. Alison Noble:"3次元血管モデルのX線画像への実時間位置合わせ手法",電子情報通信学会論文誌(D-II), Vol.J83-DII, No. 1, pp.254-262(2000).」の部分では、観測画像上に投影したこれらモデル点と観測エッジ点で、画像上の2次元距離の近さを評価基準として、点対応ペアを作成する。
【0012】
ステップ S6:対象物体の位置・姿勢を算出。
これらの点対応ペアを、n個のカメラの観測画像から対象の位置・姿勢を算出する一般式、
【数4】
【数5】
にn=1の条件で代入することにより、この対応ペアを最小自乗誤差的意味において満す、対象の位置・姿勢が算出される。ここで、
【0013】
【数6】
である。ただし、画像上の距離の近さに基づき定めたペアが完全に正しいペアではないこと、この一般式が回転行列の線形化による近似誤差を含んでいること、遮蔽輪郭生成の3次元座標が多少誤差を含んでいることから、一回の演算で正しい対象の位置・姿勢は得られない。そこで、新しい位置・姿勢の値を用いて、ステップS3からS6までの処理を対象の位置・姿勢が収束するまで繰り返すことにより、最終的に正しい位置・姿勢を算出する。
【0014】
観測カメラの位置・姿勢検出は、計算機内部にカメラを取り巻く環境の形状モデルを記録し、これを対象形状モデルとして上記と同様に対象物体の新しい位置・姿勢を算出し、これと相対的にカメラの位置・姿勢を変化させ、ステップ3に戻る、という繰り返し処理によって、得られる。
【0015】
カメラを取り巻く環境形状モデルを計算機に与え、環境におけるカメラの位置・姿勢を求めた実施例を以下に示す。図4aは、実際の観測画像である。図4bはこのエッジ画像(Canny エッジオペレータ「一般的に用いられている画像処理手法」:J. Canny:"A Computational Approach to Edge Detection",IEEE Trans.Pattern Analysis and Machine Intelligence,Vol. 8, No. 6, pp.679-698.を使用。)で、各エッジ点近傍で濃淡値の最大変化方向を8方向に濃淡差をつけて示してある。図4cにOpenGLで作成した円柱5本からなる部分モデルの側面図と上から見た図を示す。上面図中の白丸はカメラ位置、そこから出ている白線は視線方向を示す。側面図は、観測画像を得たカメラの初期位置・姿勢を大まかにマニュアルで計測し、その状態における予測画像となっている。図4dは、これを観測画像に重ねて表示したもので、初期位置・姿勢計測誤差のため実際に各パイプが観測される位置からずれている。見易いようにパイプを黒で表示している。図4eに、予測奥行き画像のエッジ上に求めた3次元モデル点(白い点)を側面図、上面図に示す。ただし、予測濃淡画像情報を用いて明るさ変化が少なく観測されにくい点は省かれるため、同色のパイプ同士が重なっているとろは選択されていない。観測画像のエッジ点と同様、予測投影画像上のモデル点近傍の濃淡値最大変化方向を8方向に分類し各モデル点の特性として持つ。図4fに、この特性を濃淡差で表し、その投影位置を観測エッジ画像に重ねて表示する。
【0016】
カメラ角度のわずかなずれが、画面上では大きな平行移動を生むので、第1回目の初期対応時だけはこれを考慮する。 具体的に、投影モデル点を画面上で2次元的に平行移動し、モデル点が同色のエッジ位置に最もよく重なる位置を探索する。図4gが移動後の位置である。これはあくまで最短距離評価基準でモデル点の対応ペアを見つけるために必要なので、実際に3次元モデルを移動する必要はない。この位置においてテリトリベース3D-2Dマッチングを行い、得られた対応付が同図中に白線で示されている。式(1),(2)を用いて得られた位置・姿勢変化量を相対的にカメラの位置・姿勢に反映し、その新しい位置において同様の処理を繰り返す(2回目以降はすでに画面上での大きなずれはなくなっており画像上の平行移動は不必要)。この例では、24回繰り返し後に収束条件を満し、カメラ位置を(66.8,-13.2,-80.7)(mm)平行移動修正し、軸(-0.34, 0.37, -0.86)回りに 5.7度回転修正して、図4h,iのような予測画像と観測画像の重なりを得た。モデルの投影位置が観測画像と一致しているということは、カメラの位置・姿勢がより正しい値に修正されたことを示している。処理時間は、Pentium II(333MHz)マシン上で、画像上の初期平行移動に2.1sec、3Dモデル点を選出し、その対応観測特徴点を求め、これに基づきカメラの位置・姿勢を変更する1ループに約200msecかかり、トータルで6.8秒であった。
【0017】
【発明の効果】
従来、観測画像上の遮蔽輪郭を対象物体の位置・姿勢検出、また、相対的に観測カメラの位置・姿勢検出に利用することは非常に単純な対象物以外では不可能であった。本発明の方法は、あらかじめ、大まかな位置・姿勢が与えられる場合に、これを可能とした。これにより、特徴的な角点やマーク点などがない対象物体の位置・姿勢検出、また特徴的な角点やマーク点などが存在せず、複雑な曲面で構成される環境中のカメラの位置・姿勢検出が可能となった。
【図面の簡単な説明】
【図1】遮蔽輪郭が特徴エッジの大半を占める環境例を示す図である。
【図2】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検出の流れ図である。
【図3】遮蔽輪郭特徴を用いた対象物体の位置・姿勢検出手法の説明図である。
【図4】本発明の実施を例示する図である。
(a)観測画像;
(b)観測画像のエッジ(濃淡値の最大変化方向別に色分け);
(c)対象の3次元モデルの側面図および上面図;
(d)カメラの初期推定位置・姿勢におけるモデル投影;
(e)3次元モデル点(白い点)の正面図、側面図;
(f)3次元モデル点の観測エッジ画像での投影位置;
(g)初期平行移動後の3次元投影モデル点;
(h)収束後のカメラ位置・姿勢におけるモデル点投影(エッジ画像上);
(i)収束後のカメラ位置・姿勢におけるモデル投影。
Claims (2)
- 計算機内に記録した対象物体の3次元形状モデルから対象物体をカメラで撮影した入力画像上での見え方を算出するグラフィックスシステムが、その過程で提供する対象シーンの各画素の示す視線方向に向かって、どれだけ離れた位置にモデルが存在するかの距離を画素ごとに記録した奥行き画像を利用して、この画像からエッジ抽出処理を行うことにより、奥行きが大きく変わる画素を抽出し、その境界隣接画素のうち、手前側のものをとることにより、画像上に観測される遮蔽輪郭線に対応するモデル上の遮蔽輪郭生成点の近似点の 3 次元座標が得られることを利用し、これを対応する遮蔽輪郭生成点の近似 3 次元座標値と捉え、遮蔽輪郭生成点の近似 3 次元座標値と観測画像上の2次元座標との対応関係から対象物体の位置・姿勢を算出する方法・
- 計算機内に記録した環境の3次元形状モデルから、その環境内のある位置・姿勢に置かれたカメラで撮影したその見え方を算出するグラフィックスシステムが、その過程で提供する対象シーンの各画素の示す視線方向に向かって、どれだけ離れた位置にモデルが存在するかの距離を画素ごとに記録した奥行き画像を利用し、この画像からエッジ抽出処理を行うことにより、奥行きが大きく変わる画素を抽出し、その境界隣接画素のうち、手前側のものをとることにより、画像上に観測される遮蔽輪郭線に対応するモデル上の遮蔽輪郭生成点の近似点の 3 次元座標が得られることを利用し、これを対応する遮蔽輪郭生成点の近似 3 次元座標値と捉え、遮蔽輪郭生成点の近似 3 次元座標値と観測画像上の2次元座標との対応関係から撮影しているカメラの位置・姿勢を相対的に算出する方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000191127A JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000191127A JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002008012A JP2002008012A (ja) | 2002-01-11 |
JP3668769B2 true JP3668769B2 (ja) | 2005-07-06 |
Family
ID=18690478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000191127A Expired - Lifetime JP3668769B2 (ja) | 2000-06-26 | 2000-06-26 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3668769B2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4492036B2 (ja) * | 2003-04-28 | 2010-06-30 | ソニー株式会社 | 画像認識装置及び方法、並びにロボット装置 |
US7856125B2 (en) * | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
JP2010134649A (ja) * | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
JP5462662B2 (ja) * | 2010-02-25 | 2014-04-02 | キヤノン株式会社 | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム |
JP5587137B2 (ja) * | 2010-10-29 | 2014-09-10 | キヤノン株式会社 | 測定装置及び測定方法 |
JP5899951B2 (ja) * | 2012-01-18 | 2016-04-06 | セイコーエプソン株式会社 | ロボット装置および位置姿勢検出方法 |
KR102003776B1 (ko) | 2013-08-13 | 2019-07-26 | 한화테크윈 주식회사 | 감시용 카메라의 자세 검출 방법 및 장치 |
JP5693691B2 (ja) * | 2013-10-21 | 2015-04-01 | キヤノン株式会社 | 情報処理装置、その処理方法及びプログラム |
CN104626206B (zh) * | 2014-12-17 | 2016-04-20 | 西南科技大学 | 一种非结构环境下机器人作业的位姿信息测量方法 |
JP6352208B2 (ja) * | 2015-03-12 | 2018-07-04 | セコム株式会社 | 三次元モデル処理装置およびカメラ校正システム |
CN109903346B (zh) * | 2019-05-13 | 2019-09-06 | 长沙智能驾驶研究院有限公司 | 相机姿态检测方法、装置、设备及存储介质 |
CN113744333B (zh) * | 2021-08-20 | 2024-02-13 | 北京航空航天大学 | 一种物体抓取位置获取方法及装置 |
WO2023228244A1 (ja) * | 2022-05-23 | 2023-11-30 | 日本電気株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
-
2000
- 2000-06-26 JP JP2000191127A patent/JP3668769B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2002008012A (ja) | 2002-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP3735344B2 (ja) | キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
US6381302B1 (en) | Computer assisted 2D adjustment of stereo X-ray images | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
JP5167248B2 (ja) | 深度マップによるヒューマノイド形状のモデル化 | |
JP3668769B2 (ja) | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 | |
JP2011175477A (ja) | 3次元計測装置、処理方法及びプログラム | |
CN109472820B (zh) | 单目rgb-d相机实时人脸重建方法及装置 | |
JP2009536731A5 (ja) | ||
JPH0935061A (ja) | 画像処理方法 | |
JP4395689B2 (ja) | 画像データ処理方法およびモデリング装置 | |
CN111127613B (zh) | 基于扫描电子显微镜的图像序列三维重构方法及系统 | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2008309595A (ja) | オブジェクト認識装置及びそれに用いられるプログラム | |
Lee et al. | Development of laser-vision system for three-dimensional circle detection and radius measurement | |
JP3144400B2 (ja) | ジェスチャ認識装置及び方法 | |
JP6228239B2 (ja) | プリミティブの組を用いてデータをレジストレーションする方法 | |
CN112767481B (zh) | 一种基于视觉边缘特征的高精度定位及建图方法 | |
JP2015135333A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
Erceg et al. | Stereo vision based robot welding | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
JP2005069757A (ja) | 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム | |
CN110807799A (zh) | 一种结合深度图推断的线特征视觉里程计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3668769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |