JP2011174879A - 位置姿勢推定装置及びその方法 - Google Patents

位置姿勢推定装置及びその方法 Download PDF

Info

Publication number
JP2011174879A
JP2011174879A JP2010040594A JP2010040594A JP2011174879A JP 2011174879 A JP2011174879 A JP 2011174879A JP 2010040594 A JP2010040594 A JP 2010040594A JP 2010040594 A JP2010040594 A JP 2010040594A JP 2011174879 A JP2011174879 A JP 2011174879A
Authority
JP
Japan
Prior art keywords
image
dimensional
orientation
edge
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010040594A
Other languages
English (en)
Other versions
JP5618569B2 (ja
Inventor
Keisuke Tateno
圭祐 立野
Daisuke Kotake
大輔 小竹
Kazuhiko Kobayashi
一彦 小林
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010040594A priority Critical patent/JP5618569B2/ja
Priority to US13/030,487 priority patent/US20110206274A1/en
Publication of JP2011174879A publication Critical patent/JP2011174879A/ja
Application granted granted Critical
Publication of JP5618569B2 publication Critical patent/JP5618569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 物体・撮影環境において、安定的に物体の位置及び姿勢を計測することを目的とする。
【解決手段】 物体を撮影した撮影画像を入力する。物体の3次元座標を含む距離画像を入力する。撮影画像から画像特徴を抽出する。画像特徴に対応する距離画像上の位置における3次元座標から、画像特徴が物体の形状を表すか否かを判別する。物体の形状を表すと判別された画像特徴と物体の形状を有する3次元モデルの一部とを対応付ける。対応付けに基づいて、物体の位置姿勢を推定する。
【選択図】 図1

Description

本発明は、3次元形状が既知である物体の位置及び姿勢を推定する技術に関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。ハンドなどのエンドエフェクタによってロボットが部品を把持するためには、把持の対象となる部品とロボットとの間の相対的な位置及び姿勢を計測する必要がある。このような位置及び姿勢の計測は、ロボットが部品を把持する場合だけでなく、ロボットが自律移動するための自己位置推定や、拡張現実感における現実空間と仮想物体の位置合わせなど様々な目的に応用される。
位置及び姿勢を計測する方法として、カメラが撮影する2次元画像を用いて行う方法がある。例えば、2次元画像上から検出される特徴に対して物体の3次元形状モデルをあてはめるモデルフィッティングによる計測が一般的である。このとき、2次元画像上で検出される特徴と3次元形状モデル中の特徴が正しく対応付ける必要がある。
非特許文献1では、画像上で検出されるエッジに直線をフィッティングし、画像上の直線と3次元モデルの線分との対応に基づいて、物体の概略の位置姿勢を必要とせずに物体の位置及び姿勢を算出する方法が開示されている。この方法では、少なくとも8本以上の直線の対応に基づいて立式される線形方程式を解くことにより、物体の位置及び姿勢を算出する。以上に示すようなエッジを利用する方法は、テクスチャのない直線を基調としたような人工的な物体が多い環境などに適している。位置姿勢推定を行うためには、画像上の直線と3次元モデルの線分との対応がまったくの未知の状態から、それらの対応を求める必要がある。このような場合、3次元モデルの線分をランダムに対応付けて位置及び姿勢を複数算出しその中から最も整合性の高いものを選択する方法が一般的に行われる。
非特許文献2では、2次元画像上から検出される特徴として、エッジを利用した物体の位置及び姿勢の計測を行う方法が開示されている。この方法では、物体の3次元形状モデルを線分の集合(ワイヤフレームモデル)によって表し、物体の概略の位置姿勢は既知であるとし、画像上で検出されるエッジに3次元の線分の投影像を当てはめることにより物体の位置及び姿勢を計測する。3次元モデルの線分の投影像近傍に存在するエッジのみに対応の探索を限定することで、対応候補となるエッジを削減することが可能である。
非特許文献3では、エッジ周辺の輝度値を利用することで3次元モデルの線分との対応付けの精度を向上させる手法が開示されている。具体的には、濃淡画像中から検出されるエッジ周辺の輝度分布を3次元モデルの線分上に保持しておき、保持している輝度分布に最も類似する輝度分布をもつエッジを対応付ける。これにより、投影位置周辺から対応候補となるエッジが複数検出された場合でも、エッジの誤対応を減少させることができる。また、3次元モデルの線分上に保持する輝度分布を、濃淡画像中から時系列的に取得・更新することで、画像上のエッジ周辺の輝度分布に若干の変化が生じた場合にも、エッジを識別することが可能である。また、特徴点を利用する場合は、特徴点の周辺の画像情報に基づいて対応付けを行っているため、一般的にエッジに比べて識別性が高いといえる。
非特許文献4では、物体の3次元形状モデルを、単純な形状(プリミティブ)の集合として表現し、距離画像から局所面や角などの形状特徴を抽出し、3次元形状モデルとマッチングすることで物体の位置及び姿勢を計測する。距離画像を利用する方法は、3次元形状に特徴があるような物体に適している。非特許文献4では、濃淡画像以外の情報に基づいて識別する。距離画像は、物体の見た目の画像ではなく、物体から撮像装置までの距離値を格納しているため、光源の変化や、物体の表面情報などによる輝度変化の影響を受けることが少ない。
Y.Liu、T.S.Huang、and O.D.Faugeras、"Determination of camera location from 2−D to 3−D line and point correspondences、"IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.12、no.1、 pp.28−37、1990. T.Drummond and R.Cipolla、"Real−time visual tracking of complex structures、"IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.24、no.7、pp.932−946、2002. H.Wuest、F.Vial、and D.Stricker、"Adaptive line tracking with multiple hypotheses for augmented reality、"Proc.The Fourth Int’l Symp. on Mixed and Augmented Reality(ISMAR05)、pp.62−69、2005. T.Fujita、K.Sato、S.Inokuchi、"Range image processing for bin−picking of curved object、"IAPR workshop on CV、1988. R.Y.Tsai、"A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses"IEEE Journal of Robotics and Automation、vol.RA−3、no.4、1987. K.Satoh、S.Uchiyama、H.Yamamoto、and H.Tamura、"Robust vision−based registration utilizing bird’s−eye view with user’s view、" Proc. The 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality(ISMAR03)、pp.46−55、2003. I.Skrypnyk and D.G.Lowe、"Scene modelling、recognition and tracking with invariant image features、"Proc.The 3rd IEEE/ACM International Symposium on Mixed and Augmented Reality(ISMAR04)、pp.110−119、2004.
非特許文献1には、3次元モデルの線分が多い場合や、画像上から多くの直線が検出される場合には、対応の組み合わせ数が膨大な数となるため、正しい位置姿勢を算出する対応を探索するために膨大な計算が必要となるという課題がある。
非特許文献2には、3次元線分の投影像の最近傍に検出されたエッジを対応するエッジとみなしている。このため、最近傍に検出されたエッジが本来対応するはずのないエッジであった場合には、位置姿勢の計算が破綻、または推定精度が低下するという課題がある。特に、概略位置姿勢が不正確な場合や、対象の2次元画像が複雑で対応候補となるようなエッジが多量に検出される場合には、3次元形状モデルの線分とエッジとの対応付けに誤対応が発生し、位置姿勢の推定が破綻するという課題がある。
非特許文献3には、繰り返しパターンが多い場合には、エッジを利用する手法と同じように対応の曖昧さが残る。また、濃淡画像上の輝度を利用した対応付けは、対象物体にテクスチャ情報が少ない場合には、画像特徴の識別性が低下し、特徴の対応に誤対応が発生する可能性が高くなるという課題がある。さらに、図2に示すような急激な光源変化が発生した場合でも、輝度に基づく画像特徴の識別が有効に働かず、特徴対応付けの精度が低下する。
これらは、濃淡画像上の輝度に基づいて特徴を識別していることに起因していると考えられる。濃淡画像上の輝度は、物体の表面情報、光源状態、物体を観察する視点位置によって、多様に変化するため、輝度に基づいて対応付けを行う手法では、それら要因の影響を受けることは避けられない。
非特許文献4には、距離画像は、3次元モデルを当てはめる対象として扱われ、濃淡画像から検出される特徴の対応付けに利用されることはなかった。
本発明は、濃淡画像から検出した画像情報の識別のため、距離データに基づく対象物体の形状情報を利用することにより、精度の高い位置姿勢推定を行うことを目的とする。
上記目的は、以下の装置によって達成できる。
物体の形状を有する3次元モデルを保持する保持手段と、
前記物体を撮影した撮影画像を入力する2次元画像入力手段と、
前記物体の3次元座標を含む距離画像を入力する3次元データ入力手段と、
前記撮影画像から画像特徴を抽出する抽出手段と、
前記画像特徴に対応する前記距離画像の位置における前記3次元座標から、該画像特徴が前記物体の形状を表すか否かを判別する判別手段と、
前記物体の形状を表すと判別された画像特徴と、前記3次元モデルの一部とを対応付ける対応付け手段と、
前記対応付けに基づいて、前記物体の位置姿勢を推定する推定手段と、
を備えることを特徴とする位置姿勢推定装置。
本発明によれば、濃淡画像から検出した画像特徴と3次元モデルとの対応付けにおいて、距離画像を参照することによって、精度の良い特徴対応付けを行い、安定的な位置姿勢推定を実現することができる。
第一の実施形態における位置姿勢推定装置1の構成を示す図である。 対象物体と光源環境との相対的な位置姿勢変化に伴うエッジ周辺の輝度分布の変化を示す図である。 第一の実施形態における3次元モデルデータの定義方法を説明する図である。 第一の実施形態における、位置姿勢推定方法の処理手順を示すフローチャートである。 第一の実施形態における、濃淡画像からのエッジ検出の詳細な処理手順を示すフローチャートである。 第一の実施形態における、濃淡画像からのエッジ検出を表す図である。 第一の実施形態における、対応候補エッジの3次元的属性を判別する処理を説明する図である。 本発明の第二の実施形態における位置姿勢推定装置2の構成を示す図である。 第二の実施形態における、概略位置姿勢を利用しない位置姿勢推定方法の処理手順を示すフローチャートである。 第二の実施形態における、直線検出方法について詳細な処理手順を示すフローチャートである。 第二の実施形態における、濃淡画像上の直線の3次元的属性を判別するための処理を説明する図である。 画像上の直線と3次元空間中の直線との関係を説明する図である。 本願の実施形態を実現するためのコンピュータの構成例である。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
〔第一の実施形態〕
(距離画像を利用したエッジの対応付けに基づく位置姿勢推定)
本実施形態では、物体の概略の位置姿勢は既知であると仮定し、本実施形態の位置姿勢推定装置を、3次元モデルおよび実写画像から検出したエッジの対応に基づいて位置姿勢推定する手法に適用した場合について説明する。
図1は、観察対象物体の形状を表す3次元モデルデータ10を利用して位置姿勢推定を行う位置姿勢推定装置1の構成を示している。位置姿勢推定装置1は、保持部110と、2次元画像入力部120と、3次元データ入力部130と、概略位置姿勢入力部140と、抽出部150と、判別部160と、対応付け部170と、位置姿勢推定部180からなる。また、保持部110は、3次元モデルデータ10を保持し、特徴抽出部170に接続されている。2次元画像撮像装置20は、2次元画像入力部120に接続されている。3次元座標計測装置30は、3次元データ入力部130に接続されている。位置姿勢推定装置1は、保持部110に保持されている観察対象物体の形状を表す3次元モデルデータ10をもとに、2次元画像中に撮像される観察対象物体の位置および姿勢を計測する。なお、本実施形態において、位置姿勢推定装置1が適用できる条件としては、保持部に保持された3次元モデルデータ10が、現実に撮像される観察対象物体の形状に即していることを前提としている。
位置姿勢推定装置1を構成する各部について説明する。
2次元画像撮像装置20は、通常の2次元画像を撮影するカメラである。撮影される2次元画像は濃淡画像であってもよいしカラー画像であってもよい。本実施形態では2次元画像撮像装置20は濃淡画像を出力する。カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、例えば非特許文献5に示す方法によって事前にキャリブレーションしておく。
2次元画像入力部120は、2次元画像撮像装置20が撮影した画像を位置姿勢推定装置1に入力する。
3次元座標計測装置30は、計測対象である物体表面上の点の3次元情報を計測する。3次元座標計測装置30として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとしては、対象に照射したレーザ光の反射光をカメラで撮影し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。これらのアクティブ式の距離センサは、表面のテクスチャが少ない物体が対象であるとき好適である。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。パッシブ式の距離センサは、表面のテクスチャが十分ある物体を対象とする場合に好適である。その他、距離画像を計測するものであればいかなるものであっても本実施形態の本質を損なうものではない。3次元座標計測装置30が計測した3次元座標は、3次元データ入力部130を介して位置姿勢推定装置1に入力される。また、3次元座標計測装置30と2次元画像撮像装置20の光軸は一致しており、2次元画像撮像装置20が出力する2次元画像の各画素と、3次元座標計測装置が出力する距離画像の各画素の対応は既知であるとする。
3次元データ入力部130は、3次元座標計測装置30が計測する距離画像を位置姿勢推定装置1に入力する。なお、カメラによる画像の撮影と、距離センサによる距離の計測は同時に行われると仮定する。ただし、対象物体が静止している場合など、位置姿勢推定装置1と対象物体との位置及び姿勢が変化しない場合には、必ずしも同時に行う必要はない。
保持部110は、位置及び姿勢を計測する対象である物体の3次元形状モデル10を保持する。3次元形状モデルは、位置姿勢推定部180において物体の位置及び姿勢を算出する際に用いられる。本実施形態では、物体を線分と面から構成される3次元形状モデルとして記述する。3次元形状モデルは、点の集合及び各点を結んで構成される線分の集合によって定義される。さらに、3次元形状モデルは、線分の3次元的属性の情報を保持する。ここで、線分の3次元的属性とは、線分周辺の形状によって判別されるエッジの3次元的属性である。線分周辺の形状によって、凸型の形状(凸ルーフエッジ)、凹型の形状(凹ルーフエッジ)、崖のように不連続に変化する形状(ジャンプエッジ)、形状変化のない平坦な形状(テクスチャエッジ)の4つに分類する。凸型のルーフエッジであるかジャンプエッジであるかの3次元的属性の情報は、物体を観察する方向によって変化するため、物体を観察する姿勢依存の情報となる。本実施形態では、観察方向依存の情報は除き、エッジの3次元的属性としては、形状変化部分のエッジ(ルーフエッジまたはジャンプエッジ)か、平坦部分のエッジ(テクスチャエッジ)であるかの2パターンの情報のみを保持する。
図3は本実施形態における3次元モデルの定義方法を説明する図である。3次元モデルは、点の集合及び各点を結んで構成される線分の集合によって定義される。図3(a)に示すように、3次元モデルは点P1〜点P14の14点から構成される。3次元モデルに規定される基準座標系の原点をP12に、x軸を点P12から点P13に向かう方向に、y軸を点P12から点P8に向かう方向に、z軸を点P12から点P11に向かう方向に取る。y軸は鉛直上方向(重力軸の反対方向)であるとする。また図3(b)に示すように、3次元モデルは線分L1〜L16により構成されている。図3(c)に示すように、点P1〜点P14は3次元座標値によって表される。また図3(d)に示すように、線分L1〜L16は、線分を構成する点のIDによって表される。さらに、図3(e)に示すように、線分L1〜L16は、線分の3次元的属性の情報を保持する。
概略位置姿勢入力部140は、位置姿勢推定装置1に対する物体の位置及び姿勢の概略値を入力する。ここで位置姿勢推定装置1に対する物体の位置及び姿勢とは、カメラ座標系における物体の位置及び姿勢を表す。しかしながら、カメラ座標系に対する相対的な位置及び姿勢が既知でかつ変化しなければ、位置姿勢推定装置1のいずれの部分を基準としてもよい。本実施形態では、位置姿勢推定装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめわかっている場合にはその値を概略値として用いる。
画像特徴検出部150は、2次元画像入力部120から入力された2次元画像から画像特徴を検出する。本実施形態では画像特徴としてエッジを検出する。
判別部160は、距離画像から検出された画像特徴が、物体の形状を表すものか否かを判別する。例えば、光のあたる部位と影による境界線である画像特徴は、物体の形状を表すものではない。距離画像を利用することで、物体のエッジの画像特徴か、影による画像特徴かを判別することができ、形状を表す画像特徴を絞り込むことができる。
対応付け部170は、画像特徴検出部150で検出されたエッジと保持部110に保持される3次元形状モデルの一部となる線分とを、3次元データ入力部130によって入力された3次元点群情報に基づいて、対応付ける。特徴の対応付け方法については後述する。
位置姿勢推定部180は、対応付け部170で対応付けられた情報に基づいて物体の位置及び姿勢を計測する。処理の詳細については、後述する。
本実施形態における位置姿勢推定方法の処理手順について説明する。
図4は、本実施形態における位置姿勢推定方法の処理手順を示すフローチャートである。
ステップS1010では、初期化を行う。位置姿勢推定装置1(カメラ)に対する物体の位置及び姿勢の概略値を概略位置姿勢入力部120により三次元計測装置1に入力する。本実施形態における位置姿勢推定方法は、概略の撮像装置の位置姿勢を、撮影画像上に撮像される観察対象物体のエッジ情報を利用して逐次更新していく方法である。そのため、位置姿勢推定を開始する前に予め撮像装置の概略の位置及び姿勢を初期位置及び初期姿勢として与える必要がある。前述したように、本実施形態では、前の時刻において計測された位置及び姿勢を用いる。
ステップS1020では、モデルフィッティングにより物体の位置及び姿勢を算出するための計測データを取得する。具体的には、対象物体の2次元画像と3次元座標を取得する。本実施形態では、2次元画像撮像装置20は2次元画像として濃淡画像を出力するものとする。また、3次元座標計測装置30は3次元座標として距離画像を出力するものとする。距離画像は、各画素に濃淡値やカラー値が記録されている2次元画像と異なり、各画素に視点位置からの奥行き値が記録されている。前述のように、2次元画像撮像装置20と3次元座標計測装置30の光軸は一致しているため、濃淡画像の各画素と距離画像の各画素の対応は既知である。
ステップS1030では、ステップS1020において入力された2次元画像上において、画像特徴の検出を行う。本実施形態では、画像特徴としてエッジを検出する。エッジは濃度勾配の極値となる点である。本実施形態では、非特許文献3で開示される方法によりエッジ検出を行う。
ステップS1030について詳細に説明する。
図5は、本実施形態における濃淡画像のエッジ特徴の検出方法について詳細な処理手順を示すフローチャートである。
ステップS1110では、ステップS1010で入力された計測対象物体の概略位置及び姿勢と校正済みの2次元画像撮像装置20の内部パラメータを用いて、3次元形状モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は画像上でも線分となる。
ステップS1120では、ステップS1110で算出した投影線分上に制御点を設定する。ここで、制御点とは、投影線分を等間隔に分割するような、投影線分上の点である。制御点は、投影結果として得られる制御点の2次元座標と線分の2次元方向、および、3次元モデル上の制御点の3次元座標と線分の3次元方向の情報を保持する。また、制御点の分割元となる3次元モデルの線分が保持する3次元的属性の情報も同様に保持する。投影線分の制御点は、総数をNとして、各制御点をDFi(i=1、2、…、N)で表す。制御点の数Nが多いほど、処理時間が長くなるため、制御点の総数が一定になるように、制御点の間隔を逐次変更しても良い。
ステップS1130では、ステップS1120で求めた投影線分の制御点DFi(i=1、2、…、N)に対応する、2次元画像中のエッジを検出する。
図6は、本実施形態におけるエッジ検出を説明する図である。エッジの検出は、制御点DFiの探索ライン(制御点の2次元方向の法線方向)上において、撮影画像上の濃度勾配から極値を算出することにより行う(図6(a))。エッジは、探索ライン上において濃度勾配が極値をとる位置に存在する。探索ライン上で検出されたエッジが一つのみである場合は、そのエッジを対応点とし、その2次元座標を保持する。また、図6(b)に示すように、探索ライン上で検出されたエッジが複数存在する場合には、非特許文献3で開示される方法と同様に、対応候補エッジとして複数の2次元座標を保持する。以上の処理を全ての制御点DFiに対して繰り返し、処理が終了すればステップS1030の処理を終了し、ステップS1040に進む。
ステップS1040では、ステップS1030で求めた投影線分の制御点DFi(i=1、2、…、N)に対する対応候補エッジの3次元的属性を判別し、対応候補エッジの絞込みを行う。
図7は、対応候補エッジの3次元的属性を判別する処理を説明する図である。図7(a)(b)に示すように、制御点の対応候補エッジ周辺領域の距離値を取得する。本実施形態では、対応候補エッジ周辺領域として、対応候補エッジを中心として制御点の法線方向10pixelの距離値を取得する。次に、図7(c)に示すように、対応候補エッジ周辺領域の距離値に対して2次微分値を算出する。計算した距離値の2次微分値のうち、絶対値が一定以上高い値が含まれている場合は、その対応候補エッジは、距離値が不連続に変化する部分、すなわち形状変化部分のエッジであると判別することが出来る。一方、計算した2次微分値の絶対値が全て一定以下である場合は、平坦形状部分のエッジであると判別することが出来る。また、対応候補エッジ周辺領域に、距離値が取得できない領域(未計測領域)を含む場合は、該対応候補エッジは形状変化部分のエッジであると判別する。以上の処理を制御点が保持する全ての対応候補エッジに対して行い、対応候補エッジの3次元的属性を判別する。
次に、制御点Dfiの対応候補エッジの絞込みを行う。上述の処理により判別した対応候補エッジの3次元的属性と、制御点が保持する制御点の3次元的属性とを比較し、両種が別種であれば、該対応候補エッジを対応候補から除外する。この処理により、本来対応しないはずのエッジが対応候補エッジとして保持されることを防ぐことが可能となる。結果、制御点と同種の対応候補エッジのみが、対応候補として保持される。また、この段階で複数の対応候補エッジが残っている場合は、制御点から最も近傍に検出された対応候補エッジを対応エッジとして選択する。以上の処理を全ての制御点DFiに対して繰り返し、全ての制御点DFiについて対応候補エッジの絞込み処理が終了したら、ステップS1040の処理を終了し、ステップS1050に進む。
ステップS1050では、非線形最適化計算を用いて、対象物体の概略の位置姿勢を反復演算により補正することにより対象物体の位置姿勢を算出する。ここで、3次元線分の制御点DFiのうち、ステップS1040において対応候補エッジが求まった制御点の総数をLcとする。また、画像の水平方向、垂直方向をそれぞれx軸、y軸とする。また、ある制御点の投影された画像座標を(u,v)、制御点の方向に相当する画像上での傾きをx軸に対する傾きθと表す。傾きθは、投影された3次元線分の端点(始点と終点)の撮影画像上での2次元座標を結んだ直線の傾きとして算出する。制御点の直線の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点の対応点の画像座標を(u’,v’)とする。
ここで、点(u,v)を通り、傾きがθである直線の方程式は、
と表せる。制御点の撮影画像上での画像座標は撮像装置の位置及び姿勢により変化する。また、撮像装置の位置及び姿勢の自由度は6自由度である。ここで撮像装置の位置及び姿勢を表すパラメータをsで表す。sは6次元ベクトルであり、撮像装置の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が回転軸を表して大きさが回転角を表す3次元ベクトルなどによって表現される。制御点の画像座標(u,v)は(u,v)の近傍で1次のテイラー展開によって(3)のように近似できる。
u、vの偏微分δu/δs、δv/δsの導出方法は例えば非特許文献6に開示されるように広く知られているのでここではその詳細は述べない。(2)を(1)に代入することにより、(3)が得られる。
ここで、(3)に示す直線が該制御点の対応点の画像座標(u’,v’)を通過するように、撮像装置の位置及び姿勢sの補正値Δsを算出する。
(定数)とすると、
が得られる。(4)はLc個の制御点について成り立つため、(5)のようなΔsに対する線形連立方程式が成り立つ。
ここで(5)を(6)のように簡潔に表す。
(6)をもとにGauss−Newton法などによって、行列Jの一般化逆行列(J・J)−1を用いてΔsが求められる。これにより得られたΔsを用いて、物体の位置及び姿勢を更新する。次に、物体の位置及び姿勢の反復演算が収束しているかどうかを判定する。補正値Δsが十分に小さい、誤差r−dの総和が十分小さい、誤差r−dの総和が変化しないといった場合には、物体の位置及び姿勢の計算が収束したと判定する。収束していないと判定された場合には、更新された物体の位置及び姿勢を用いて再度線分の傾きθ、r、d及びu、vの偏微分を計算し直し、(6)より再度補正値Δsを求め直す。なお、ここでは非線形最適化手法としてGauss−Newton法を用いた。しかしながら、非線形最適化手法はこれに限るものではなく、Newton−Raphson法、Levenberg−Marquardt法、最急降下法、共役勾配法などのその他の非線形最適化手法を用いてもよい。以上、ステップS1050における撮像装置の位置姿勢算出方法について説明した。
ステップS1060では、位置姿勢算出を終了する指示が入力されたかどうかを判定し、入力された場合には終了し、入力されなかった場合にはステップS1010に戻り、新たな画像を取得して再度位置姿勢算出を行う。
以上述べたように、本実施形態では、距離画像を利用して画像上から検出されたエッジの3次元的属性を識別し、対応候補となるエッジの絞込みを行うことで、画像上のエッジと3次元モデルとの対応に誤対応が発生することを低減することが可能となる。これにより、光源変化が発生する場合や、濃淡画像から多量の誤対応候補のエッジが検出される場合でも、精度の高い位置姿勢の推定が可能となる。
〔変形例1−1〕
第一の実施形態では、2次元画像撮像装置20が撮像する2次元画像の各画素と3次元座標計測装置が計測する距離画像の各画素の対応をとるために、光軸を一致させた2次元画像撮像装置20と3次元座標計測装置30を用いていた。しかし、3次元座標計測装置30と2次元画像撮像装置20の相対関係はこれに限るものでなく、例えば、光軸が一致していない3次元座標計測装置30と2次元画像撮像装置20を用いても良い。この場合、ステップS1020において2次元画像と距離画像を計測した後、2次元画像の各画素に対応した距離値を算出する処理を行う。具体的には、まず3次元座標計測装置30と2次元画像撮像装置20の相対位置姿勢を利用し、3次元座標計測装置30が計測する点群のカメラ座標系における3次元座標を、2次元画像撮像装置のカメラ座標系に変換する。そして、3次元座標を2次元画像上に投影して2次元画像の各画素に対応付けることで、2次元画像の各画素に対応した距離値を求める。このとき、2次元画像のある画素に対して複数の3次元点が写像された場合は、最も視点位置に近い3次元点のデータを対応付ける。また、2次元画像のある画素に対して、3次元座標が投影されずに対応が求まらない場合は、無効な値を距離値に設定し、未計測画素として扱う。なお、この処理は、2次元画像撮像装置20と3次元座標計測装置30が相互に固定されており、両者の相対的な位置及び姿勢を事前にキャリブレーションできることを前提としている。以上の処理を行うことで、光軸が一致していない2次元画像撮像装置20と3次元座標計測装置30を用いて、2次元画像の各画素に対応した距離値を算出することができる。
〔変形例1−2〕
第一の実施形態では、対応候補エッジの3次元的属性を判別するために、対応候補エッジ周辺領域の距離値を参照し、距離値の2次微分値を算出することで不連続領域を判定、対応候補エッジの3次元的属性を判別していた。しかし、3次元的属性を判別する方法は、これに限るものではない。例えば、距離画像からエッジ検出を行い、その結果に基づいて、3次元的属性を判別してもよい。具体的には、対応候補エッジの近傍に、距離画像中からエッジが検出される場合は、形状変化部分のエッジであると判別し、距離画像中からエッジが検出されない場合は、平坦部分のエッジであると判別する。なお、対応候補エッジの3次元的属性の判別方法は、以上に挙げた方法に限るのものでなく、対応候補エッジの3次元形状に基づいて3次元的属性を判別することが出来る限り、いずれの手法を用いても良い。
〔変形例1−3〕
第一の実施形態では、3次元モデルとして、3次元線分モデルを利用していた。しかし、3次元モデルは、3次元線分モデルに限るものではない。3次元モデルから、3次元線分と線分の3次元的属性を算出することができる限り、3次元モデルの方式に制限はない。例えば、頂点情報および各頂点を結んだ面の情報で構成されたメッシュモデルを利用してもよいし、NURBS曲面などパラメトリックな曲面表現を利用してもよい。これらの場合、形状情報の中から直接的に3次元線分情報を参照することが出来ないため、3次元線分情報をランタイムに算出する必要がある。また、3次元線分投影処理の代わりに、3次元線分の3次元的属性の計算を行う必要がある。具体的には、計測対象物体の概略位置及び姿勢に基づいて、3次元モデルをコンピュータグラフィックス(CG)により描画し、描画結果からエッジ検出を行う。検出されたエッジが等間隔になるように、制御点を求める。そして、制御点の2次元位置を3次元メッシュモデルに逆投影することで、3次元座標を求める。ただし、距離画像の代わりに、描画結果として副次的に得られるデプス画像(3次元モデルと視点間の距離が格納される)を利用して、エッジの3次元的属性を算出する。以上の処理により、エッジの3次元的属性とともに制御点が算出される。求めた制御点を利用して、位置姿勢を推定する。この方法は、3次元モデルとしてあらかじめ、線分の種類を保持する必要がないという点で、準備が簡便であるという利点がある。
〔変形例1−4〕
第一の実施形態では、濃淡画像から検出したエッジの幾何的な種類として、形状変化部分のエッジか、平坦部分のエッジかの2パターンのみを判別していた。しかし、エッジの3次元的属性はこれに限るものではない。例えば、凸型形状部分に検出される凸ルーフエッジ、凹形状部分に検出される凹ルーフエッジ、不連続な形状変化部分に検出されるジャンプエッジのように、形状変化部分のエッジをさらに細かい種類に分けて判別してもよい。判別する3次元的属性を増やすことで、より特徴の絞込みを厳密に行うことが可能となる。凸ルーフエッジとジャンプエッジは、物体を観察する方向によって、凸ルーフエッジとして検出されるか、ジャンプエッジとして検出されるかが変化する。そのため、凸ルーフエッジとジャンプエッジを区別してあつかう場合、物体を観察する姿勢に応じて複数の3次元的属性の情報を保持する必要がある。また、凸ルーフエッジとジャンプエッジは、物体を観察する距離によっても変化する。しかし、姿勢による変化ほどには大幅に変化しないため、ある程度観察距離を限定しておけば距離ごとに3次元的属性を保持する必要はない。
また、エッジの3次元的属性の情報は以上に限るものでなく、さらに細分化してもよい。例えば、なだらかなルーフエッジと急峻なルーフエッジを区別する、形状変化量自体を特徴量としてしまってもよい。エッジを識別する情報として、距離情報を利用する限り、いかなる形式でもよく、エッジの3次元的属性の情報に特に制限はない。
〔変形例1−5〕
第一の実施形態では、エッジの対応付けに距離画像から検出される形状情報を利用したが、これに限るものではない。例えば、エッジの3次元的属性の情報に加えて、非特許文献3のように濃淡画像中の輝度分布を併用してもよい。輝度の分布を利用することで、テクスチャエッジなどの対象物体の輝度変化に基づくエッジの識別を行うことが可能となる。
〔第二の実施形態〕
(概略位置姿勢を必要としない位置姿勢推定)
第一の実施形態では、物体の概略の位置姿勢は既知である場合に、距離画像を用いて複数の対応候補を絞る方法について説明した。第二の実施形態では、物体の概略位置姿勢と千分の対応が未知の場合に、距離画像を利用して、濃淡画像から検出したエッジと3次元モデルの線分を対応付けて、位置姿勢を算出する方法について説明する。第一の実施形態では、物体の概略の位置姿勢は既知であったため、3次元モデルの線分の近傍に存在するエッジを探索することで、あらかじめ、対応候補となるエッジの数が限定されていた。しかし、第二の実施形態では、物体の概略位置姿勢が未知であるため、3次元モデルの線分と濃淡画像上のエッジとの対応は完全に未知の段階から、対応付けを行う必要がある。そこで、第二の実施形態では、距離画像を利用して濃淡画像上のエッジの3次元的属性を算出することで、濃淡画像上のエッジと3次元モデルの線分の組み合わせ数を削減する。削減された組み合わせの中からランダムに選択し、位置及び姿勢を複数算出して、その中から最も整合性の高いものを選択することにより3次元位置姿勢を求める。
図8は、本実施形態における位置姿勢推定装置2の構成を示している。位置姿勢推定装置2は、保持部210と、2次元画像入力部220と、3次元データ入力部230と、抽出部240と、判別部250と、対応付け部260と、位置姿勢推定部270からなる。2次元画像撮像装置20は、2次元画像入力部220に接続されている。3次元座標計測装置30は、3次元データ入力部230に接続されている。位置姿勢推定装置2は、保持部210に保持されている観察対象物体の形状を表す3次元モデルデータ10をもとに、2次元画像中に撮像される観察対象物体の位置および姿勢を計測する。
次に、位置姿勢推定装置2を構成する各部について説明する。
保持部210では、位置及び姿勢を計測する対象である物体の3次元形状モデル10を保持する。本実施形態における、3次元形状モデルの表現方法は、第一の実施形態とほぼ同様である。異なる点としては、エッジを識別するための3次元的属性として、凸型に形状変化するエッジ(凸ルーフエッジ)と、凹型に形状変化するエッジ(凹ルーフエッジ)と、平坦部分のエッジ(テクスチャエッジ)の、3パターンの情報を保持する。
抽出部240では、2次元画像入力部220が取得した2次元画像から、画像特徴を抽出する。
判別部250では、距離画像から検出された画像特徴が、物体の形状を表すものか否かを判別する。
対応付け部260では、抽出部240が抽出した画像特徴の幾何的情報を、3次元データ入力部が入力する3次元距離データを利用して算出し、3次元モデルデータ10中の線分と対応付ける。
位置姿勢推定部270では、対応付け部260において対応付けた情報に基づいて、直接解法により物体の位置及び姿勢を算出する。
2次元画像入力部220、3次元データ入力部230は、第一の実施形態における2次元画像入力部120、3次元データ入力部130と同様である。
本実施形態における位置姿勢推定方法の処理手順について説明する。
図9は、本実施形態における位置姿勢推定方法の処理手順を示すフローチャートである。
ステップS2010では、濃淡画像および距離画像を取得する。第一の実施形態におけるステップS1020の処理と同様である。
ステップS2020では、ステップS2010において取得した濃淡画像から、エッジ検出を行い、折れ線近似することで、直線の検出を行う。
ステップS2020について詳細に説明する。
図10は、本実施形態における直線検出方法について詳細な処理手順を示すフローチャートである。
ステップS2110では、濃淡画像からエッジ検出を行う。エッジを検出する手法としては、例えば、sobelフィルタなどのエッジ検出フィルタを利用しても良いし、Cannyアルゴリズム等を利用しても良い。画像の画素値が不連続に変化する領域を検出することができれば、いずれの手法でも良く、手法の選択に特に制限は無い。本実施形態では、Cannyアルゴリズムを利用してエッジ検出を行う。濃淡画像に対してCannyアルゴリズムによるエッジ検出を行うことで、エッジ領域と非エッジ領域に分けられた2値画像が得られる。
ステップS2120では、ステップS2110で生成された2値化画像について、隣接エッジのラベリングを行う。ラベリングは、例えばある画素の周囲8画素の中にエッジが存在すれば、同一ラベルを割り当てることにより行う。
ステップS2130では、ステップS2120において同一ラベルに分類された隣接エッジの中から複数の枝が分岐する点を探索し、該分岐点において枝を切断し、各枝に異なるラベルを割り当てる。
ステップS2140では、ステップS2130においてラベルを割り当てられた各枝について、折れ線近似を行う。折れ線近似は例えば以下の方法により行う。まず、枝の両端を線分で結び、枝上の点のうち該線分との距離が最大かつ閾値以上の点に新たに分割点を設ける。次に、この分割点と枝の両端を線分で結び、該線分との距離が最大の点に分割点を設ける。この処理を、枝が折れ線によって十分近似されるまで再帰的に繰り返す。その後、折れ線を構成する各線分について、両端の座標を画像上の直線の通過点として出力する。
なお、ここではラベリング処理と折れ線近似により直線検出を行ったが、直線検出方法はこれに限るものではなく、画像上から直線を検出する方法であればいかなる方法であってもよい。例えば、ハフ変換によって直線を検出してもよい。
ステップS2150では、ステップS2140で、算出した直線に対して、3次元的属性を判別する。
図11は、濃淡画像上の直線の3次元的属性を判別するための処理を説明する図である。図11(a)に示すように、注目する直線の周辺領域の距離値を取得する。本実施形態では、直線の法線方向10pixel、直線並行方向n/2pixelの領域を直線の周辺領域として取得する。nは注目線分の長さを表す。次に、図11(b)に示すように、直線平行方向に関して、距離値の平均値を算出する。この処理により、直線法線方向10pixelの距離値の平均値ベクトルが算出される。この距離値のベクトルから、直線の3次元的属性を求める。距離値のベクトルが、凸型形状あるいは崖形状(ジャンプエッジ)である場合は凸ルーフエッジ、凹型形状である場合は、凹ルーフエッジ、平坦形状である場合は、テクスチャエッジとして判別する。上述のように、本実施形態では、凸ルーフエッジとジャンプエッジは区別せずにどちらも凸ルーフエッジとして扱う。すべての直線に対して、3次元的属性の判別処理が終了したら、ステップS2030の処理に進む。
ステップS2030では、ステップS2020における直線の検出結果と、保持部210に保持されている3次元モデルの線分との対応付けを行う。まず、3次元モデルの線分の3次元的属性と、ステップS2020において検出した直線の3次元的属性を比較し、両方の属性が同種となる組み合わせを算出する。3次元モデルの線分と画像上の直線全ての組み合わせに対して、3次元的属性の比較を行い、3次元的属性が同種の組み合わせの算出が全て終了したら、全組み合わせを保持し、ステップS2040の処理に進む。
ステップS2040では、ステップS2030において算出した3次元モデルの線分と画像上の直線の組み合わせから、ランダムに選択した8対の対応情報に基づいて、物体の位置及び姿勢を算出する。まず、ステップS2030において算出した3次元モデルの線分と画像上の直線との全組み合わせからランダムに8対の組み合わせを選択し、3次元モデルの線分と画像上の直線との対応として保持する。この対応に基づいて、物体の位置及び姿勢を算出する。
図12は、画像上の直線と3次元空間中の直線との関係を説明する図である。一般に、3次元空間中の直線を撮像装置により撮像すると、その画像平面上における投影像は直線となる。図12に示すように、3次元空間中の点P及びQを通過する直線Lの画像平面上における投影像である直線lは、直線L及び視点Cを通る平面πと画像平面との交線である。また平面πの法線ベクトルnは、ベクトルCP、CQ、PQと直交する。点P、点Qの基準座標系における位置を表す3次元ベクトルをそれぞれp、q、直線Lの基準座標系における方向ベクトルをd(=q−p)とすると、この3つの直交条件は(7)〜(9)のように表される。
また、Rcwはカメラ座標系に対する基準座標系の姿勢を表す3×3回転行列、tcwはカメラ座標系に対する基準座標系の位置を表す3次元ベクトルである。ここで、Rcwは(10)のように表される
n=[n、p=[p、q=[q、tcw=[tとして、(10)を(7)、(8)に代入すると、(11)、(12)が得られる。
(11)、(12)は、未知変数r11、r12、r13、r21、r22、r23、r31、r32、r33、t、t、tについての線形方程式になっている。また、画像上で検出された直線の2つの通過点の、前述の焦点距離を1とした画像平面の座標系における座標を(x、y)、(x、y)とすると、そのカメラ座標は
となる。法線ベクトルnは、xc1、xc2の双方に直交するベクトルであるので、n=xc1×xc2により求められる。これによって、画像上で検出される直線と、3次元空間中の直線とが法線ベクトルnを介して方程式として対応付けられる。複数の画像上の直線と3次元空間中の直線との対応について成り立つ(11)、(12)をr11、r12、r13、r21、r22、r23、r31、r32、r33、t、t、tについて、連立方程式として解くことで、位置姿勢を算出する。以上の処理により算出された回転行列は、本来独立でない回転行列の要素を独立に求めるため、正規直交基底の条件を満たさない。そこで、回転行列を特異値分解し、正規直交化を行うことで、軸の直交性が保証された回転行列を算出する。以上、ステップS2040における撮像装置の位置姿勢算出方法について説明した。
ステップS2050では、ステップS2040において算出した位置姿勢の評価値の算出を行う。ここでは、3次元モデルの線分をステップS2040にて算出された位置姿勢に基づいて投影し、投影した画素がエッジ領域であるかどうかを判定する。本実施形態では、評価値として、3次元モデルの投影線分に位置する画素がエッジである数を用いる。この評価値は、画像上のエッジと3次元モデルの投影線分が重なっているほど高くなる。また、位置姿勢の評価値は、上述の方式に限るものでなく、物体の位置姿勢の妥当性を測る指標であれば、いずれの方式でもよく、評価値の決定に特に制限はない。
ステップS2060では、ステップS2050において算出した評価値から、ステップS2040において算出した位置姿勢の妥当性を判別する。正しい位置姿勢が算出されたと判別された場合には処理を終了し、正しくないと判別された場合にはステップS2040に戻り、新たな組み合わせを算出して再度位置姿勢算出を行う。
妥当性の判別は、ステップS2050で算出した評価値が一定以上に高いか否かを判断することにより行う。評価値の妥当性の判別は、例えば、あらかじめ経験的に与えた閾値を利用しても良い。また、ステップS2040とステップS2050を繰り返して、3次元モデルの線分と画像上の直線の、全ての組み合わせの中から最大の評価値をとるものを選出しても良い。また、ステップS2040において一定数の組み合わせを選定し、その中で最大となる評価値をとるものを選出しても良い。3次元モデルの線分と画像上の直線との組み合わせの中で、正しい位置姿勢を算出する組み合わせを選出できる限り、評価値の判別方法に制限はなく、いずれの手法でも良い。本実施形態では、ステップS2050において算出した評価値とそのときの位置姿勢を保持しておき、ステップS2040からステップS2060を1000回繰り返した中で、最大の評価値となる位置姿勢を最終的な位置姿勢として選択する。
以上述べたように、本実施形態では、画像上から検出される直線と、3次元モデル中の線分とを、距離画像から抽出した距離分布に基づいて対応付け、対応付けられた直線と3次元モデルの線分とから、直接的に撮像装置の位置及び姿勢を算出する。
〔変形例1〕
以上説明した実施形態・変形例では、2次元画像上の特徴としてエッジ特徴を用いていた。しかしながら、2次元画像上の特徴はエッジ特徴に限るものではなく、その他の特徴であってもよい。例えば、非特許文献7のように、対象物体の3次元形状モデルを点特徴の3次元位置座標の集合によって表し、画像特徴として点特徴を検出して、特徴点の3次元座標と、画像上の2次元座標との対応に基づいて位置及び姿勢を算出してもよい。HarrisやSIFTに代表されるような画像特徴としての点特徴は、大抵、点特徴領域が局所的に平面であることを前提として特徴量が記述されている。距離画像を参照し、点特徴の局所平面性のチェックすることで、局所平面でない点特徴を除くことが可能となる。これにより、非平面物体の位置姿勢推定において、点特徴の誤対応を削減すること可能である。また、上述の点特徴に限らず、他の形式の点特徴を利用して位置姿勢の算出を行っても、複数の特徴(特徴点とエッジ)を組み合わせて位置姿勢の算出を行っても、本実施形態の本質は損なわれない。
〔変形例2〕
以上説明した実施形態・変形例では、3次元座標計測装置として、密(dense)な距離画像を出力する距離センサの利用を想定していた。しかしながら、3次元座標計測装置はこれに限るものではなく、疎な計測を行うものであってもよい。例えば、スポット光を用いた距離計測装置であっても、画像特徴の3次元的属性を判別することは可能である。しかし、この場合、3次元座標は単なる3次元点群情報として表現され、画像の体をなしていないため、ステップS1040において、制御点近傍の3次元座標の2次微分値から3次元的属性を判別することが困難となる。これに対しては、例えば、画像特徴周辺に分布する3次元点群を探索し、その3次元点群に対し、線フィッティングあるいは面フィッティングするなどによって形状を判別するなどをすればよい。また、3次元点群を特異値分解し、その結果から3次元点群の平面性を判別してもよいし、3次元点群を主成分分析し、その主軸方向と分散から平面性を判別してもよい。画像特徴周辺の形状の特徴を推定できる限り、形状推定の方法に制限はなく、いずれの手法でもよい。
〔その他の実施形態〕
図13は、本願の実施形態を実現するためのコンピュータの構成例である。
発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク1304、1307又は各種記憶媒体1302、1303を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ1301(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記憶媒体に記憶して提供してもよい。なお、本装置のコンピュータには、入力部1305から処理を実行する指示を入力し、表示部1306で指示した処理の結果を表示してもよい。

Claims (6)

  1. 物体の形状を有する3次元モデルを保持する保持手段と、
    前記物体を撮影した撮影画像を入力する2次元画像入力手段と、
    前記物体の3次元座標を含む距離画像を入力する3次元データ入力手段と、
    前記撮影画像から画像特徴を抽出する抽出手段と、
    前記画像特徴に対応する前記距離画像の位置における前記3次元座標から、該画像特徴が前記物体の形状を表すか否かを判別する判別手段と、
    前記物体の形状を表すと判別された画像特徴と、前記3次元モデルの一部とを対応付ける対応付け手段と、
    前記対応付けの結果に基づいて、前記物体の位置姿勢を推定する推定手段と、
    を備えることを特徴とする位置姿勢推定装置。
  2. 物体の概略の位置及び姿勢を入力する概略位置姿勢入力手段と
    を更に備え、
    前記推定手段が、前記概略の位置及び姿勢を補正することによって前記物体の位置及び姿勢を推定することを特徴とする請求項1に記載の位置姿勢推定装置。
  3. 前記判別手段が、前記位置の周辺が平坦でない画像特徴を、形状を表す画像特徴として判別することを特徴とする請求項1又は2に記載の位置姿勢推定装置。
  4. 前記画像特徴は、エッジ特徴若しくは点特徴であることを特徴とする請求項1乃至3の何れか1項に記載の位置姿勢推定装置。
  5. 2次元画像入力手段が、前記物体を撮影した撮影画像を入力する2次元画像入力工程と、
    3次元データ入力手段が、前記物体の3次元座標を含む距離画像を入力する3次元データ入力工程と、
    抽出手段が、前記撮影画像から画像特徴を抽出する抽出工程と、
    判別手段が、前記画像特徴に対応する前記距離画像の位置における前記3次元座標から、該画像特徴が前記物体の形状を表すか否かを判別する判別工程と、
    対応付け手段が、前記物体の形状を表すと判別された画像特徴と、保持手段に保持された物体の形状を有する3次元モデルの一部とを対応付ける対応付け工程と、
    推定手段が、前記対応付けの結果に基づいて、前記物体の位置姿勢を推定する推定工程と、
    を備えることを特徴とする位置姿勢推定方法。
  6. 請求項5に記載の位置姿勢推定方法をコンピュータに実行させることを特徴とするプログラム。
JP2010040594A 2010-02-25 2010-02-25 位置姿勢推定装置及びその方法 Active JP5618569B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010040594A JP5618569B2 (ja) 2010-02-25 2010-02-25 位置姿勢推定装置及びその方法
US13/030,487 US20110206274A1 (en) 2010-02-25 2011-02-18 Position and orientation estimation apparatus and position and orientation estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010040594A JP5618569B2 (ja) 2010-02-25 2010-02-25 位置姿勢推定装置及びその方法

Publications (2)

Publication Number Publication Date
JP2011174879A true JP2011174879A (ja) 2011-09-08
JP5618569B2 JP5618569B2 (ja) 2014-11-05

Family

ID=44476522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010040594A Active JP5618569B2 (ja) 2010-02-25 2010-02-25 位置姿勢推定装置及びその方法

Country Status (2)

Country Link
US (1) US20110206274A1 (ja)
JP (1) JP5618569B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
WO2013116299A1 (en) * 2012-01-31 2013-08-08 3M Innovative Properties Company Method and apparatus for measuring the three dimensional structure of a surface
JP2014063475A (ja) * 2012-08-28 2014-04-10 Canon Inc 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2014081347A (ja) * 2012-10-12 2014-05-08 Mvtec Software Gmbh 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP2018522348A (ja) * 2015-11-02 2018-08-09 三菱電機株式会社 センサーの3次元姿勢を推定する方法及びシステム
JP2019192299A (ja) * 2019-07-26 2019-10-31 日本電信電話株式会社 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
RU2714525C1 (ru) * 2019-07-30 2020-02-18 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Способ определения средней квадратической ошибки пространственных координат точек исследуемого объекта из обработки изображений, полученных разными съемочными камерами с произвольными значениями элементов ориентирования
JP2021128735A (ja) * 2020-02-14 2021-09-02 株式会社Mujin 候補エッジを処理するための方法及び計算システム

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023256A2 (en) * 2010-08-19 2012-02-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
DE102010050695A1 (de) * 2010-11-06 2012-05-10 Carl Zeiss Meditec Ag Anordnung und Verfahren zur automatischen Grobpositionierung ophthalmologischer Geräte
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9047688B2 (en) * 2011-10-21 2015-06-02 Here Global B.V. Depth cursor and depth measurement in images
US8553942B2 (en) 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
US9404764B2 (en) 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9025823B2 (en) * 2013-03-12 2015-05-05 Qualcomm Incorporated Tracking texture rich objects using rank order filtering
US20140270362A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Fast edge-based object relocalization and detection using contextual filtering
JP6324025B2 (ja) * 2013-11-05 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6351243B2 (ja) * 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
US9305345B2 (en) * 2014-04-24 2016-04-05 General Electric Company System and method for image based inspection of an object
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
US9384398B2 (en) * 2014-06-11 2016-07-05 Here Global B.V. Method and apparatus for roof type classification and reconstruction based on two dimensional aerial images
US9846974B2 (en) * 2014-12-05 2017-12-19 Stmicroelectronics S.R.L. Absolute rotation estimation including outlier detection via low-rank and sparse matrix decomposition
JP6635690B2 (ja) * 2015-06-23 2020-01-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
EP3309752B1 (en) * 2015-10-09 2021-01-27 IHI Corporation Line segment detection method
AU2016348568A1 (en) 2015-11-02 2018-06-14 Starship Technologies Oü Device and method for autonomous localisation
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6677522B2 (ja) * 2016-02-15 2020-04-08 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
CN106895826B (zh) * 2016-08-29 2019-04-02 北华航天工业学院 一种改进的机器视觉检测系统及其检测方法
CN108694741B (zh) * 2017-04-07 2021-11-12 杭州海康威视数字技术股份有限公司 一种三维重建方法及装置
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10276075B1 (en) * 2018-03-27 2019-04-30 Christie Digital System USA, Inc. Device, system and method for automatic calibration of image devices
CN110956603B (zh) * 2018-09-25 2023-04-21 Oppo广东移动通信有限公司 深度图像边缘飞点的检测方法、装置及电子设备
EP3910593A4 (en) * 2019-01-09 2022-01-19 Fuji Corporation IMAGE PROCESSING DEVICE, WORKING ROBOT, SUBSTRATE INSPECTION DEVICE AND SAMPLE INSPECTION DEVICE
EP3936815A4 (en) * 2019-03-04 2022-05-04 Panasonic Intellectual Property Management Co., Ltd. DEVICE FOR CALCULATING QUANTITY OF OBJECTS AND METHOD FOR CALCULATING QUANTITY OF OBJECTS
JP7178954B2 (ja) * 2019-04-25 2022-11-28 東急建設株式会社 物体選別システム
JP7316134B2 (ja) * 2019-07-22 2023-07-27 ファナック株式会社 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム
JP7255709B2 (ja) * 2019-12-10 2023-04-11 日本電信電話株式会社 推定方法、推定装置及びプログラム
JP7118382B2 (ja) * 2020-06-04 2022-08-16 株式会社Mujin 物理的エッジ検出を実行または促進するための方法および計算システム
US12062182B2 (en) 2020-06-04 2024-08-13 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection
CN115129191B (zh) * 2021-03-26 2023-08-15 北京新氧科技有限公司 三维对象拾取方法、装置、设备及存储介质
TWI813072B (zh) * 2021-11-17 2023-08-21 瑞昱半導體股份有限公司 用於物件追蹤的電子裝置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287756A (ja) * 1994-02-23 1995-10-31 Matsushita Electric Works Ltd 物体認識方法
JP2001143073A (ja) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定の方法
JP2002008012A (ja) * 2000-06-26 2002-01-11 National Institute Of Advanced Industrial & Technology 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法
JP2004259114A (ja) * 2003-02-27 2004-09-16 Seiko Epson Corp 物体識別方法および物体識別装置、並びに物体識別プログラム
US20050286767A1 (en) * 2004-06-23 2005-12-29 Hager Gregory D System and method for 3D object recognition using range and intensity

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621807A (en) * 1993-06-21 1997-04-15 Dornier Gmbh Intelligent range image camera for object measurement
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
KR100831187B1 (ko) * 2003-08-29 2008-05-21 닛본 덴끼 가부시끼가이샤 웨이팅 정보를 이용하는 객체 자세 추정/조합 시스템
JP2007206797A (ja) * 2006-01-31 2007-08-16 Omron Corp 画像処理方法および画像処理装置
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287756A (ja) * 1994-02-23 1995-10-31 Matsushita Electric Works Ltd 物体認識方法
JP2001143073A (ja) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定の方法
JP2002008012A (ja) * 2000-06-26 2002-01-11 National Institute Of Advanced Industrial & Technology 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法
JP2004259114A (ja) * 2003-02-27 2004-09-16 Seiko Epson Corp 物体識別方法および物体識別装置、並びに物体識別プログラム
US20050286767A1 (en) * 2004-06-23 2005-12-29 Hager Gregory D System and method for 3D object recognition using range and intensity

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US8929608B2 (en) 2011-11-08 2015-01-06 Fanuc Corporation Device and method for recognizing three-dimensional position and orientation of article
WO2013116299A1 (en) * 2012-01-31 2013-08-08 3M Innovative Properties Company Method and apparatus for measuring the three dimensional structure of a surface
JP2014063475A (ja) * 2012-08-28 2014-04-10 Canon Inc 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2014081347A (ja) * 2012-10-12 2014-05-08 Mvtec Software Gmbh 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP2018522348A (ja) * 2015-11-02 2018-08-09 三菱電機株式会社 センサーの3次元姿勢を推定する方法及びシステム
JP2019192299A (ja) * 2019-07-26 2019-10-31 日本電信電話株式会社 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
RU2714525C1 (ru) * 2019-07-30 2020-02-18 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Способ определения средней квадратической ошибки пространственных координат точек исследуемого объекта из обработки изображений, полученных разными съемочными камерами с произвольными значениями элементов ориентирования
JP2021128735A (ja) * 2020-02-14 2021-09-02 株式会社Mujin 候補エッジを処理するための方法及び計算システム
JP7394347B2 (ja) 2020-02-14 2023-12-08 株式会社Mujin 候補エッジを処理するための方法及び計算システム

Also Published As

Publication number Publication date
US20110206274A1 (en) 2011-08-25
JP5618569B2 (ja) 2014-11-05

Similar Documents

Publication Publication Date Title
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
US9959455B2 (en) System and method for face recognition using three dimensions
US20210190497A1 (en) Simultaneous location and mapping (slam) using dual event cameras
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5839929B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US9679384B2 (en) Method of detecting and describing features from an intensity image
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
JP5290864B2 (ja) 位置姿勢推定装置及び方法
JP4865557B2 (ja) 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5290865B2 (ja) 位置姿勢推定方法および装置
JP7479324B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP2016197287A (ja) 情報処理装置、情報処理方法、プログラム
JP2014202502A (ja) 情報処理装置及び情報処理方法
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JP2010009236A (ja) 平面領域推定装置及びプログラム
KR20240015464A (ko) 소실점을 이용한 특징선 기반 slam 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R151 Written notification of patent or utility model registration

Ref document number: 5618569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151