JP5713159B2 - ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム - Google Patents

ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム Download PDF

Info

Publication number
JP5713159B2
JP5713159B2 JP2011024715A JP2011024715A JP5713159B2 JP 5713159 B2 JP5713159 B2 JP 5713159B2 JP 2011024715 A JP2011024715 A JP 2011024715A JP 2011024715 A JP2011024715 A JP 2011024715A JP 5713159 B2 JP5713159 B2 JP 5713159B2
Authority
JP
Japan
Prior art keywords
dimensional
point
model
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011024715A
Other languages
English (en)
Other versions
JP2011221988A (ja
Inventor
征春 渡邊
征春 渡邊
富田 文明
文明 富田
恒太 藤村
恒太 藤村
池田 泰之
泰之 池田
研吾 市村
研吾 市村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2011024715A priority Critical patent/JP5713159B2/ja
Priority to US13/052,659 priority patent/US20110235897A1/en
Publication of JP2011221988A publication Critical patent/JP2011221988A/ja
Application granted granted Critical
Publication of JP5713159B2 publication Critical patent/JP5713159B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数台のカメラを用いて対象物を撮像して得られる画像から、対象物の3次元位置及びその姿勢を計測するための装置、方法及びプログラムに関する。
ステレオ法は、異なる視点に置かれた複数のカメラからの画像を用いて3次元環境を復元する技術である。画像認識技術は近年FA分野での実用例が広がっている。その中でも特にステレオ法は、計測対象物の3次元形状・寸法・位置姿勢を高精度に計測可能という、他の画像処理技術では実現できない機能を有する。この特徴により、ランダムに積載された部品群を対象とするロボットアーム・ピッキングなど産業界での応用例は幅広く、従来からある画像情報を異なる視点から取得するだけで特殊なハードウェアを必要とせずに、低コストで実現できる技術であることからも、ステレオ法による位置姿勢計測は実用化が強く期待されている技術である。
一方、ステレオ法が古くから抱える大きな問題として、オクルージョン(カメラ配置位置が異なるため、一方のカメラで撮像できる測定対象物のエッジの一部が、対象物自身によって遮蔽されて他方のカメラでは撮像できない、いわゆる自己隠れ現象)が挙げられる。このオクルージョンの存在する画像セットで3次元復元を行うとその部分でステレオ誤対応が発生し、この誤対応による虚偽の3次元復元像が原因となって、計測対象物の認識に失敗する、もしくは位置姿勢を誤って計測してしまうことが問題となっていた。
オクルージョンの一例を図3に示す。左から順に、第1、第2、第3カメラ画像と呼ぶ。まず、各画像の計測対象物の右側面に注目すると、第1カメラ画像と第3カメラ画像のペアは相互にオクルージョンがなく、正しいステレオ対応が存在する状況となっている。一方、同じ右側面部でも第2カメラで見えている右側面奥側エッジは、第1カメラでは見えない(第1カメラ画像中には表示されていない)。つまり、第1カメラ画像と第2カメラ画像とはオクルージョンを含んだペアとなっている。このようにオクルージョンの存在する画像セットを用いて3次元復元を行うと、オクルージョンが生じた部分でステレオ誤対応が発生し、そのデータを含む3次元復元像を利用した計測対象物の認識は、失敗する、もしくは位置姿勢を誤って計測する結果につながるため、実用化への大きな障壁となる。
この問題に対し、従来の2眼による3次元復元像を、もう1眼追加したカメラ画像で検証し誤対応を除去するという方法が知られている。この方法は、全てのカメラで観測された情報以外の情報を除去してしまう方法である。例えば、図3の場合、第1カメラ画像および第2カメラ画像のペアで生成した3次元復元像を、第3カメラ画像で検証することで誤対応であることが検出できる。
また、図3のケースでは、エッジの属する領域(表面)の輝度の合致条件を用いて、ステレオ対応判別を行うことも可能である。
富田文明,高橋裕信:ステレオ画像の境界線表現に基づく対応,電子情報通信学会論文誌D,vol.J71-D,No.6,pp.1074-1082,1988年6月. 角保志,富田文明:ステレオビジョンによる3次元物体の認識,電子情報通信学会論文誌D-II,vol.J80-D-II,No.5,pp.1105-1112,1997年5月.
しかし、上記した全てのカメラで観測された情報以外は除去してしまう方法では、撮影時のカメラと測定対象物の幾何配置条件によっては、第1カメラ画像、第3カメラ画像のペアで生成した3次元復元像の右側面部を第2カメラ画像で検証する、すなわち検証用カメラ画像でのみオクルージョンが発生している状況も発生しうる。その場合、本来正しいはずのステレオ対応結果を承認できない(つまり処理によっては正しい対応を誤対応として排除してしまうことになる)という点でさらに改善の余地があった。その対策として、基準画像、参照画像、検証画像の順番を入れ替えたステレオ処理を組み合わせた結果を用いることが考えられるが、その場合でも、誤対応か否かを判別することは3眼では原理的に出来ないという根本的な問題がある。
また、エッジの属する領域(表面)の輝度の合致条件を用いて、ステレオ対応判別を行う方法では、物体表面の各面間の輝度差は露光の度合いやその他の条件(計測対象物の材質や表面処理状態、照明位置、使用カメラの性能)によって大きく左右され、実際に使用される工場では諸般の条件によって露光不良等が避けられないことがある。その場合、図4のような、写った対象物の細部形状がつぶれた、対象物の領域内でエッジの判別が不可能な画像しか得られないことが多い。図4の画像に対してエッジ検出処理を行うと、計測対象物の外形の輪郭エッジは検出できるが、対象物の内側に存在するはずの隣接する表面(上面と側面等)の反射輝度値にほとんど差がなく、境界エッジを抽出できない状況が発生する。従って、やはりオクルージョンによるステレオ誤対応につながるという問題がある。
また、これまで、3台以上のカメラを用いることによる3次元復元精度の向上やステレオ誤対応データの除去、オクルージョン検出に取り組んだ研究は数多くなされているが、ステレオ誤対応で生じた一部の3次元復元像の影響を受けずに対象物の位置姿勢を計測する手法については十分な検討が行われていなかった。
本発明は、上記した問題を解決すべく、3台以上のカメラで撮像した画像データにおいて、一部にステレオ誤対応データが含まれていたとしても、その影響を受けずに対象物の3次元位置姿勢を計測することができる装置、方法およびプログラムを提供することを目的とする。
本発明の目的は、以下の手段によって達成される。
即ち、本発明に係る第1の3次元位置姿勢計測装置は、
撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを受信する入力部と、
演算部とを備えて構成され、
前記演算部が、
3枚以上の前記画像データから重複することなく選択された2枚の画像データのペアに関して、3次元復元点集合および特徴量集合を求め、
各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求め、
前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定し、
前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置情報を含み、
前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
ことを特徴としている。
本発明に係る第2の3次元位置姿勢計測装置は、上記の第1の3次元位置姿勢計測装置において、
前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
前記照合が、前記モデル特徴点集合の一部を、前記全特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する処理が、前記変換行列を用いて前記モデル点を3次元座標変換した結果と、前記全3次元復元点集合の点との一致性を評価する処理であることを特徴としている。
本発明に係る3次元位置姿勢計測方法は、
撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを取得する第1ステップと、
3枚以上の前記画像データから重複することなく選択された2枚の画像データのペアに関して、3次元復元点集合および特徴量集合を求める第2ステップと、
各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求める第3ステップと、
前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する第4ステップとを含み、
前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
ことを特徴としている。
本発明に係る3次元位置姿勢計測プログラムは、
コンピュータに、
撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを取得する第1機能と、
3枚以上の前記画像データから重複することなく選択された2枚の画像データのペアに関して、3次元復元点集合および特徴量集合を求める第2機能と、
各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求める第3機能と、
前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する第4機能とを実現させ、
前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
ことを特徴とする。
本発明によれば、オクルージョン等により一部でステレオ誤対応が発生している状況に対してもステレオ誤対応で生じた3次元復元像の影響を受けずに正確な位置姿勢計測が可能になる。追加したカメラ画像を検証用として補助的に取り扱う従来の方法では、正しいステレオ対応の組合せが検証用カメラ画像情報により誤対応として却下されるケースも発生する。しかし、本発明によれば、全カメラペアによる3次元復元像を同等に取り扱うため、復元結果がカメラ指定に依存せず、各カメラ及び測定対象物間の幾何配置に拠らず、より正確な位置姿勢認識を行うことが可能となる。
本発明の実施の形態に係るに係る3次元位置姿勢計測装置の概略構成を示すブロック図である。 本発明の実施の形態に係るに係る3次元位置姿勢計測装置が行う処理を示すフローチャートである。 オクルージョンのあるステレオ画像の例を示す写真である。 図3と同じ幾何条件であるが、露光不良で撮像されたステレオ画像の例を示す写真である。 第1の実施例に使用したモデルの3面図である。 図4の画像セットに対して本発明を適用して得られて位置姿勢計測結果を第1カメラ画像上に投影した図である。 図6の結果を得たときのモデル点およびデータ点の分布を示す図である。 図7のうち、図4の第1及び第2カメラ画像から得られた点の分布を示す図である。 図7のうち、図4の第2及び第3カメラ画像から得られた点の分布を示す図である。 図7のうち、図4の第1及び第3カメラ画像から得られた点の分布を示す図である。 図4の第1及び第2カメラ画像ペアで生成された頂点を初期照合に利用した候補の位置姿勢計測結果を第1カメラ画像上に投影した図である。 図11の結果を得たときの第1及び第2カメラ画像から得られた点の分布を示す図である。 図11の結果を得たときの第2及び第3カメラ画像から得られた点の分布を示す図である。 図11の結果を得たときの第1及び第3カメラ画像から得られた点の分布を示す図である。 図11の結果を得たときのモデル点およびデータ点の分布を示す図である。 第2の実施例に使用したモデルの形状を示す斜視図である。 測定対象物を実際に撮像した3眼ステレオ・ペア画像である。 従来の方法により得られる計測結果に従って、図17に示す各画像上にモデルを透視投影した結果を示す図である。 従来の方法により得られる位置姿勢の計測結果を用いて、3D復元データ点群をモデル座標上に投影した結果を示す図である。 本発明の方法により得られる計測結果に従って、図17に示す各画像上にモデルを透視投影した結果を示す図である。 本発明の方法により得られる位置姿勢の計測結果を用いて、3D復元データ点群をモデル座標に変換した結果を示す図である。
以下、本発明に係る実施の形態を、添付した図面に基づいて説明する。
図1は、本発明の実施の形態に係る3次元位置姿勢計測装置の概略構成を示すブロック図である。本装置は、演算処理部(以下、CPUと記す)1と、データを記録する記録部2と、記憶部(以下、メモリと記す)3と、インタフェース部4と、操作部5と、表示部6と、これら各部の間でデータ(制御信号を含む)を交換するための内部バス7と、第1〜第3撮像部C1〜C3とを備えて構成されている。なお、以下において、CPU1、記録部2、メモリ3、インタフェース部4及び内部バス7を、本体部とも記す。
CPU1は、記録部2から所定のプログラムをメモリ3に読み出し、メモリ3の一部をワークエリアとして使用して、所定のデータ処理を実行する。CPU1は、実行途中の演算結果や、処理完了後の最終結果を適宜記録部2に記録する。CPU1は、インタフェース部4を介して操作部5からの指示やデータの入力を受け、それらに応じた処理を実行する。また、CPU1は、適宜インタフェース部4を介して、所定の情報を表示部6に表示する。例えば、操作部5からの入力を受け付けるためのグラフィカルなユーザインタェース画像を表示部6に表示する。CPU1は、人による操作部5の操作状況の情報を取得して、それに応じた処理を実行する。例えば、入力されたデータを記録部2に記録し、指示された処理を実行する。本装置は、コンピュータで実現することができる。その場合、操作部5には、コンピュータ用のキーボードやマウスを使用することができ、表示部6には、CRTディスプレイ、液晶ディスプレイなどを使用することができる。
第1〜第3撮像部C1〜C3は、所定の間隔で所定の位置に配置され、撮像の対象物Tを撮像し、撮像された画像データを本体部に伝送する。本体部では、インタフェース部4を介して取得した各撮像部からの画像データを、区別可能に、例えば、各撮像部に対応させて異なるファイル名を付けて、記録部2に記録する。第1〜第3撮像部C1〜C3からの出力信号がアナログ信号の場合、本体部は、AD(アナログデジタル)変換部(図示せず)を備えて、所定の時間間隔で入力されるアナログ信号をサンプリングしてデジタルデータに変換する。第1〜第3撮像部C1〜C3からの出力信号がデジタルデータであれば、AD変換部は不要である。第1〜第3撮像部C1〜C3は、少なくとも静止画像を撮像できる装置であればよく、ビデオ映像を撮像できる装置であってもよい。例えば、デジタルカメラ、デジタル又はアナログのビデオカメラなどを使用することができる。
以下、本装置が行う処理について、図2に示したフローチャートに従って説明する。なお、以下においては、特に断らない場合、CPU1が行う処理、即ちCPU1が各部を制御して行う処理として記載する。また、予め第1〜第3撮像部C1〜C3は、測定対象物Tを撮像可能なように所定位置に所定方向を向けて配置されており、その位置及び撮像方向の情報は記録部2に記録されているとする。また、測定対象物Tの3次元形状データも、記録部2に記録されているとする。また、第1〜第3撮像部C1〜C3の内部及び外部パラメータは、予め校正実験によって求められ記録部2に記録されているとする。
ステップS1において、初期設定を行う。初期設定は、ステップS2以降の処理を行うために必要な処理であり、例えば、第1〜第3撮像部C1〜C3とのデータ伝送経路や制御プロトコルを確立し、第1〜第3撮像部C1〜C3を制御可能とする。
ステップS2において、第1〜第3撮像部C1〜C3で対象物Tを撮像する。撮像された画像は、本体部に伝送され、所定のファイル名で記録部2に記録される。これによって、記録部2には、それぞれ異なる位置、異なる方向から撮像された3枚の2次元画像データが記録される。ここでは、第1〜第3撮像部C1〜C3によって得られた2次元画像データを、それぞれIm1〜Im3と表す。
ステップS3において、ステップS2で記録部2に記録された3枚の2次元画像データIm1〜Im3のうち2枚をペア画像として指定する。即ち、Im1及びIm2、Im2及びIm3、Im3及びIm1の何れかのペアが指定される。
ステップS4において、ステップS3でペア画像として指定された2枚の2次元画像データから3次元復元像(3次元復元点集合)を計算する。ここではステレオ対応による3次元復元像を求めるが、点単位(画素単位)ではなく、より大局的な「セグメント」単位で対応を求める。これによって、点単位で処理する場合よりも、探索空間をかなり狭くすることが可能である。具体的な方法は、上記非特許文献1に開示されている公知の方法を用いる。従って、以下には、本発明と直接関係する内容のみ説明する。
具体的には、ペア画像の各画像に対し(a)エッジ抽出、(b)セグメント生成、及び(c)各画像間でのセグメントの連結性と対応評価による3次元復元、の一連の処理を順次行う。以後、本ステップS4で得られたペア画像に関する3次元復元点集合をFiで表す。本ステップS4は、後述するように全てのペアに関して繰り返されるので、iはペアを区別する添え字である。ここでは、3枚の画像から2枚を選択するので、i=1、2、3である。
(a)エッジ抽出
各画像のエッジ抽出に関しては、公知の画像処理方法を用いて行えばよい。例えば、1次微分オペレータにより画像の各点についてエッジの強さと方向を求め、エッジの細線化、しきい値処理、延長処理により、ある領域を囲む閉じたエッジ(境界線とも記す)を得る。
(b)セグメント生成
上記の処理によって得られた2枚のエッジ画像を対象として、セグメントを生成する。セグメントとは、エッジを複数の線分(直線)に分割したものである。最初に境界線を所定の条件で仮に分割し、各セグメントを最小2乗法によって直線で近似した場合、誤差が大きいセグメントがあれば、そのセグメントの両端を結ぶ直線から最も離れた点(直線への垂線が最も大きいセグメント上の点)でセグメントを分割する。これを繰り返して、境界線を分割する点(分割点)を決定する。これによって、2枚の画像の各々に対してセグメントが生成され、セグメントを近似する直線が生成される。
処理結果は、境界線表現(構造データ)として記録部2に記録される。即ち、画像は複数の領域の集合によって表現される。具体的には、各領域Rは、その領域の外側の境界線Bと領域の内側の穴に対する境界線Hのリストによって表現され、各境界線B、Hはそれを構成するセグメントSのリストによって表現される。領域は、それを囲む外接長方形と明るさとをその値にもつ。セグメントは、それが属する領域を右側に見るように方向づけられており、始点及び終点の座標と、そのセグメントを近似する直線の方程式とをその値にもつ。以上の記述を2枚の画像に対して行う。以下の対応処理はこの記述されたデータ構造上で行われる。
(c)3次元復元
次に、2枚の画像で対応するセグメントを求める。同じ対象物を表すセグメントであるが、照明条件、オクルージョン、ノイズなどの影響によって、対応を決定するのは容易ではない。従って、まず、領域単位で粗く対応を求める。1対の領域が対応する必要条件として、領域の明るさの差が一定値(例えば256レベルの画像の場合、25レベル)以下であること、且つ、領域内にエピポーラ条件を満足する点が存在することを採用する。これは十分条件ではないので、1つの領域が多数の領域に対応する場合もある。つまり、この段階では、その境界線のセグメントが対応する可能性のある領域の対をすべて求めており、次にセグメント単位で対応を求める場合に、その探索空間を減らす役割を果たしており、一種の粗密解析となる。
粗対応する領域の境界線を構成するセグメント間で対応の候補を求め、その対応リストを作成する。一対のセグメントが対応の候補となる条件は、エピポーラ条件を満足する対応部分が存在し、セグメントの方向(それが属する領域を右側に見るように方向づけられている)が上向きか下向きかで一致しており、方向の角度の差が一定値(例えば45°)以内であることである。そして、対応の候補となるそれぞれのセグメント対に対して、その類似度を示す値C、Dを計算する。Cはプラスの要因を表し、対応する2つのセグメントの短い方のセグメントの長さである。Dはマイナスの要因を表し、対応するセグメントの始点から終点までの視差のずれである。この段階で求められた対応の候補には、1つのセグメントが同じy軸(垂直方向)上で複数のセグメントに対応する多重対応も存在する。次に説明するように、セグメントの類似度とセグメントの接続関係から偽の対応を除去する。
次に、2枚の画像の各々について、セグメントの連結リストを作成する。2つのセグメントが連結する条件は、それぞれが属する領域の明るさの差が一定値(例えば25レベル)以下であり、一方のセグメントの終点と他方のセグメントの始点との距離が一定値(例えば3画素)以下であることである。連続するセグメントは、原則的に、その対応も連続していなければならない。そこで、この連結リストと対応リストとを利用して、各セグメントの前後から、連続して対応するセグメントの列であるパスを、次のようにして求める。
・対応する2つのパスの両者の端点が丁度対応している場合には、それぞれの端点から接続するセグメントで対応の候補となっているセグメント対が存在すればそれらをパスに追加する。
・一方の端点が他方の中間点と対応している場合には、1つのセグメントに接続するセグメントに関して、対応候補であるセグメントが存在すれば、それをパスに追加する。
また、直接的には連結していない場合でも、連続性を仮定できる場合がある。例えば、1つのセグメントに2つのセグメントが対応している場合には、2つのセグメントの両端間の距離が最大となる線分を、2つのセグメントの代わりのセグメントと仮定する。また、点Aで連続する2つのセグメントに、連続していない2つのセグメントが対応している場合がある。この場合には、連続していない2つのセグメントを延長して、点Aを通る水平線と交わる2つの交点の距離が小さければ、延長した2つの線分(一方の端点が交点)を2つのセグメントと仮定する。但し、不必要に多くの仮のセグメントを生成しないように、仮のセグメントと実セグメントとの類似度は、C>|D|の場合に限る。以下同様にして、パスに追加するセグメントが無くなるまで、上記の処理を繰り返す。以上の処理の結果、仮のセグメントが新たに付け加えられることになる。
次に、パスを3次元空間上に逆射影した場合に、同一の平面を構成するセグメントをグループ化する。これは、正しいセグメントの対を得る拘束条件となるばかりでなく、出力形式として3次元の面領域の境界線を得る手続きでもある。セグメントが同一平面を構成するかどうかの検証には、次の平面拘束定理を利用する。
平面拘束定理: 標準カメラモデルにおいて、平面上の任意の図形に関して、一方のカメラ画像上の投影像と、他方のカメラ画像上の投影像とはアフィン変換可能である。
この定理は、透視投影により得られる画像上のセグメントであっても、同一平面上にあるセグメントの集合は、ステレオ画像間でアフィン変換可能であることを表す。これによりセグメントを直接的に3次元空間に逆射影することなく画像上で平面性を検証できる。この平面拘束定理を用いてセグメントをグループ化する過程は次のとおりである。
まず、対応するパスの対から任意の連続する2つの対応するセグメント対を取り出し、最小のグループ対を形成する。
次に、2枚の画像のそれぞれのセグメントに連続するセグメントを求め、求められた3つのセグメントの端点がすべて同一平面上にあると仮定して、最小2乗法によリ2組の連続するセグメント(各3つのセグメント)間のアフィン変換行列を求める。この3つのセグメントが得られた平面に存在するかどうかは、左右いずれかの端点をアフィン変換することにより得られた点が、他方の端点に一致するか否かで検証する。本明細書において、2つの点が一致するとは、2点間の距離が所定値以下であることを意味する。従って、それらの距離が所定値(例えば3画素)以下であれば、3つのセグメントは同一平面上にあると判断する。
上記で、3つのセグメントが同一平面上にあると判断された場合、再び左右それぞれのセグメントに連続するセグメントを求める。上記と同様に、4つの対応するセグメントについてアフィン変換行列を求め、対応する各端点が得られた変換行列を満たすか否かを検証する。更に、この平面拘束条件を満たす場合には、順次、連続するセグメントを加え、検証を繰り返す。
以上の処理の結果、平面を構成するセグメントのグループ対が得られる。しかし、1つのセグメント対(平面を構成する連続する複数のセグメント)に対して複数のグループ対が得られる場合もある。そこで、各グループ対に対してその形状の類似度を計算し、1つのセグメント対に対して最大の類似度を有する1つのグループ対を割り当てる。グループ対の類似度Gは、そのグループ対に含まれる各セグメント対の類似度C、Dの合計で与えられる。このとき、マイナス因子Dには、マイナス符号を付けて−Dとして加算する。多重対応の場合はいずれかの対応が誤りである。偽の対応となっているセグメント対は、対応する部分が少なく(Cが小さくなる)、始点と終点の間で視差が大きく(|D|は大きくなる)、また連続するセグメントも少ないので、その対を含むグループ対の類似度Gの値は小さくなる。そこで、類似度Gが最大となるグループ対を順に選び、他の対応は除去する。これによって、2枚の画像間で対応するセグメント対を特定することができる。
以上の処理の結果、2枚の画像で対応するセグメント対の視差から3次元空間上のセグメントの座標を求めることができる。視差は、セグメントの関数表現を用いて計算することができるのでサブピクセルの精度で得られ、セグメント上の視差はばらつきもない。例えば、2枚の画像間で対応する2つのセグメントjの方程式を、x=fj(y)、x=gj(y)とすると、2つのセグメント間の視差dは、d=fj(y)−gj(y)で計算される。実際には、3次元セグメントは3次元の直線の方程式で表現される。
得られた対応セグメントの情報と視差dとを用い、2つのカメラ(撮像部)の配置を考慮して、3次元復元点集合Fiを求める。対応する画像上の2点と、それらの視差から、3次元座標を計算する方法は、2台のカメラの光軸が、平行に配置される場合、輻輳角を有して配置される場合の何れにおいても、公知であるので詳細説明を省略する。
以上で得られた結果は、所定のデータ構造で記録部2に記録される。そのデータ構造は、3次元の面を表すグループG*の集合からなり、各グループG*は、その面の境界線を構成する3次元セグメントS*のリストの情報で構成されている。各グループG*は、その面の法線方向を有し、各セグメントは、始点および終点の3次元座標と、直線の方程式とを有する。
ステップS5において、ステップS3でペア画像として指定された2枚の2次元画像データについて特徴量の計算を行う。ここでは、モデル照合に必要な特徴量である「頂点」の集合を求める。ここで、頂点とは、空間的に隣接する3次元セグメントに当てはめられた直線によって決まる2つのベクトルから成る、いわば仮想直線交点のことである。即ち、3次元復元点集合Fiに関して、隣り合う2つのセグメントに当てはめられた直線の端点における接線(ここではセグメントを直線で近似しているので、その直線と同じ)を用いて、近傍の2接線の交点を求める。得られた交点を頂点とする。頂点の集合をViで表す。また、接線ベクトル間の角度(以後、挟角と呼ぶ)を求める。
即ち、具体的な特徴量は、頂点の3次元位置座標、頂点における挟角、及び2接線ベクトル成分である。特徴量を求める具体的な方法には、上記非特許文献2に開示されている公知の方法を用いればよい。
ステップS6において、2次元画像データIm1〜Im3から重複しないように選択された3組のペア画像データの全てについて、処理を完了したか否かを判断し、未処理の組み合わせが残っていれば、ステップS3に戻り、ステップS3〜S5の処理を繰り返す。全てについて完了していれば、3次元復元点集合Fiを全て合わせた全3次元復元点集合Fa(Fa=F1+F2+F3)、及び、頂点集合Viを全て合わせた全頂点集合Va(Va=V1+V2+V3)を求めた後、ステップS7に移行する。適宜、Fi、Vi(i=1,2,3)、Fa、Vaは記録部2に記録される。
ステップS7において、モデルデータとの照合を行う。ここで、対象物Tに関して、その3次元形状データから、上記の全3次元復元点集合Fa、全頂点集合Vaに対応するモデル点集合Ft、モデル頂点集合Vtが生成されて、記録部2に記録されているとする。本発明の適用対象物Tは、工業製品であり、その3次元形状が設計された上で製造されているので、通常、元になる3次元形状データ(CADデータ等)がある。従って、それを用いて、モデル点集合Ft、モデル頂点集合Vtを生成することができる。なお、元になる3次元データが無く、現物しかない場合には、好適な撮像条件(ライトや撮像位置、解像度などが好適な状態)で撮像したステレオ画像を用いて、上記と同様の処理によって、モデル点集合Ft、モデル頂点集合Vtを生成することができる。
対象物Tの画像データから生成された全頂点集合Vaとモデル頂点集合Vtとに対して、その挟角値が近い頂点の組み合わせ(候補番号jで表す)に対する4×4(4行4列)の座標変換行列Tjを全て求めて解の候補群Ca(Ca=ΣCj)とする。この処理を「初期照合」という。次にその座標変換行列Tjを初期値としモデル点群および全3次元復元点集合Faを用いたIterative Closest Point(ICP)アルゴリズムによる「微調整」を行い、座標変換行列Tjを更新する。本過程で得られた最終的な座標変換行列Tj、およびモデル点とデータ点との照合合致点数Mjが、各候補の情報として、記録部2に記録される。
具体的な方法は、上記非特許文献2に開示されている公知の方法を用いる。従って、ここでは、直接関係する内容のみ説明する。
3次元座標ベクトルa=[x y z]tから3次元座標ベクトルa’=[x’ y’ z’]tへの変換は(tは転置を表す)、3×3の3次元座標の回転行列Rと3×1の平行移動ベクトルPとを用いて、a’=Ra+Pで表される。従って、対象物Tの位置姿勢は、モデルを撮像画像データ中の対応する3次元構造に一致するように移動させる4×4座標変換行列Tで記述できる。
まず、初期照合を行う。初期照合は、モデル頂点集合Vtを、撮像画像データ中の全頂点集合Vaと照合し、変換行列Tを算出する処理である。但し、モデルデータと撮像画像データとの間で、頂点の正しい対応を前もって知ることはできないので、可能性が高いと推定される全ての組み合わせを対応候補とする。
モデル頂点VMを、測定データ頂点VDに一致するよう移動させることを考える。頂点VM及びVDの3次元位置座標の関係から行列Tの平行移動ベクトルPが決まる。各頂点を構成している2つの3次元ベクトルの方向から回転移動行列Rが決まる。頂点を構成する2つのベクトルのなす角θが大きく異なる組み合わせについては、正しい対応である可能性が低いと考えられるので、候補から除外する。すなわち、VM(i)(i=1,・・・,m)とVD(j)(j=1,・・・,n)について、|θM(i)−θD(j)|<θthを満足する全ての組み合わせA(i,j)を対応の候補として行列Tij(前述の座標変換行列Tjに対応)を算出する。ここで、m、nはそれぞれ、モデル頂点集合Vt、全頂点集合Va中に存在する頂点数である。しきい値θthは、例えば経験的に決定すればよい。
次に、微調整を行う。微調整は、全3次元復元点集合Faのデータ点とモデル点とを照合する処理であり、A(i,j)の妥当性を判別すると同時に、行列Tijに含まれる誤差を小さくする。モデル点を初期照合によって求めた座標変換行列Tijによって移動させ、モデル点に対応する画像データ点(全3次元復元点集合Fa中の点)を探索し、最小2乗法により座標変換行列を更新するという処理を繰り返す。具体的な処理は公知の方法を用いる(例えば、上記非特許文献2の「3.2微調整」の項参照)。
なお、初期照合は、局所的な幾何特徴を用いた照合であるため、Tijの算出に用いた頂点位置の近傍にあるモデル点を除き、対応点探索が有効であるほどの認識精度を得られないことがある。このため、微調整の処理は、次に示すように2段階に適用することが望ましい。
・初期微調整:初期照合に用いた頂点を構成するセグメント上のモデル点のみを使って対応誤差を大まかに調整する。
・主微調整:全てのモデル点を使って更に精度を向上させる。
以上によって得られた最終的な座標変換行列Tj(Tij)を用いて、モデル上の点を変換し、変換後の点と画像データ点との距離が所定値以下である点(照合合致点)の数Mjを、候補毎に求める。得られた座標変換行列Tj、照合合致点数Mjを記録部2に記録する。
ステップS8において、照合結果の判定を行う。全候補の照合合致点数Mjを探索し、Mjの多い候補から順にランク付けを行い、先頭候補(Mjが最も大きい候補)の座標変換行列Tjを、ターゲット位置姿勢を示す解として決定する。即ち、モデルの各セグメントに対して、それを変換する座標変換行列Tjが決定される。
以上によって、オクルージョン等により一部でステレオ誤対応が発生している状況に対してもステレオ誤対応で生じた3次元復元像の影響を受けずに正確な位置姿勢計測が可能になる。
追加したカメラ画像を検証用として補助的に取り扱う手法ではどのカメラを検証用とするかによって復元結果に差が発生し、正しいステレオ対応の組合せが検証用カメラ画像情報によって却下されるケースも発生する。しかし、本発明によれば、全カメラペアによる3次元復元像を同等に取り扱うため、復元結果がカメラ指定に依存せず、各カメラ及び測定対象物間の幾何配置に拠らず、より正確な位置姿勢認識を行うことが可能となる。
本発明では、上記したように、特徴量の照合から局所最適解(近傍)の候補群を推定する手法を採用している。即ち、モデルおよび撮像画像データの特徴量である挟角値を比較すると、値の近い組み合わせは多峰性関数の局所最適解の近傍である可能性が高い。そこでこの局所最適解近傍の初期推定値(変換行列)の候補群を求め、その全候補に対しICPによる局所最適解を求め(ステップS7)、その解集合の中の、照合合致点数が最大の候補を正解とすることで大域的最適解を求める(ステップS8)。
以上、実施の形態を用いて本発明を説明したが、本発明は上記の実施の形態に限定されず、種々に変更して実施することができる。
例えば、図1のように3つの撮像部を備えて3枚の画像を撮像する場合に限らず、4つ以上の撮像部を備えて、4枚以上の画像を撮像し、それらを用いて図2のフローチャートの処理を行ってもよい。その場合、より死角の少ない3次元復元結果が得られるため、正解候補の照合合致点数が増え、位置姿勢計測の精度をさらに高くすることが出来る。n(n≧3)枚から2枚を重複せずに選択するので、ペア画像の数は、n2となる。
また、上記では、セグメントを直線で近似する場合を説明したが、セグメントを直線または円弧で近似してもよい。その場合、頂点に加えて、円弧(例えば、円弧の半径、円弧の中心から両端点への方向ベクトルと法線ベクトルなど)を特徴量とすることができる。また、セグメントを、直線と円弧の組み合わせ(複数の円弧のみの組み合わせを含む)で近似してもよい。その場合、頂点に加えて、セグメントの両端に当てはめられた円弧のみを、そのセグメントの特徴としてもよい。
セグメントが円弧で近似されている場合(直線と円弧の組み合わせで近似されている場合を含む)、ステップS5における頂点の算出には、円弧の両端における接線を使用する。円弧の接線は、円弧の中心から両端点への方向ベクトルから求めることができる。また、ステップS7において、頂点に関する処理と同様に、モデルと撮像画像データの円弧の組み合わせについても対応候補を求める。円弧の両端点の3次元座標によって平行移動ベクトルPを決定することができ、円弧の中心から両端点への方向ベクトルと法線ベクトルによって回転行列Rを決定することができる。また、半径が大きく異なる円弧の組み合わせについては候補から除外するのが望ましい。頂点と円弧それぞれによって算出された対応候補を合わせたA(i,j)およびTijが、最終的な初期照合の結果とする。
また、上記では、本体部としてコンピュータを用い、ソフトウェアプログラムによって実施する場合を説明したが、これに限定されない。上記の機能を、複数の機能に分割し、その一部または全てを1つまたは複数のハードウェア(例えば、専用の半導体チップ(ASIC)及びその周辺回路)によって実現してもよい。例えば、複数のハードウェアで構成する場合、各ペア画像データを用いたステレオ対応による3次元復元像およびモデル照合に必要な特徴量を求める3次元復元計算部と、撮像画像データとモデルの特徴量の類似性から位置姿勢を推定する位置姿勢照合調整部と、照合合致点数順にランク付けする照合結果判定部から構成してもよい。
以下に実施例を示し、本発明の有効性をより明らかにする。
(第1の実施例)
第1の実施例では、ステレオ誤対応の状況を理解しやすくするために、単純な形状のモデルを測定対象とした。第1〜第3撮像部として3台のカメラを用いて、図5に示した対象物を撮像し、得られた画像データを図2に示したフローチャートに従って処理した。
カメラの相対的位置としては、第2カメラを、第1カメラの右側に基線長が25cmになるように配置し、第3カメラを、第1及び第2カメラの中央から上方6cmの位置に配置した。
対象物として、図5のようにステレオ誤対応の状況が理解しやすいものとして、縦40mm×横40mm×高さ78mmの直方体の1面のみに傾斜を付けた単純な形状を用いている。正面図の台形は上底40mm、下底30mmである。単なる直方体でなく傾斜を付けた理由は、構造の類似性によって重複した複数のモデル照合候補が発生するのを避けるためであり、図5のモデルを採用したことは本発明の一般性を損なうものではない。
本発明の方法による計測結果
図5の対象物を第1〜第3カメラで撮像して、図4に示す3枚の画像データを得た。そして、図4の画像データを用いて、図2のステップS3〜S8の処理を実施した。その結果を図6に示す。図6は、図3の第1カメラ画像の一部に、処理結果によって得られた対象物のエッジ位置を重ねて示している。図6から分かるように、対象物に対してほぼ正確に、図5のモデルとの位置姿勢照合が行われていることがわかる。
この結果を、画像データ点(対象物の3次元復元点)とモデル点の分布として示したのが図7である。図7の上段の画像は、図4に示した全ての画像のペアに関して得られた結果を、全て重ねた画像である。モデル点は十字点で示している。3次元構造の理解を助けるため、中央に示した全体図に加え、左右側面部のみを切り出した結果も全体図の両側に、表示している。ステレオ誤対応の状況を理解しやすくするために、何れも第2カメラに近い方向から見た図として作成している。
図7の下段の画像は、上段の画像に、第1及び第2カメラ画像から生成されたデータ点を表す符号Gと、第2及び第3カメラ画像から生成されたデータ点を表す符号Rと、第1及び第3カメラ画像から生成されたデータ点を表す符号Bとを付記した画像である。
図8〜図10は、図7の元になるステレオ復元像を示す図であり、十字点はデータ点と合致したモデル点である。図8は、第1及び第2カメラ画像から生成されたステレオ復元像(図7の符号Gで示した部分)である。図9は、第2及び第3カメラ画像から生成されたステレオ復元像(図7の符号Rで示した部分)であり、十字点の部分を見れば左側面部を正確に復元していることが分かる。図10は、第1及び第3カメラ画像から生成されたステレオ復元像(図7の符号Bで示した部分)であり、十字点の部分を見れば右側面部を正確に復元していることが分かる。
図8〜図10から、照合合致点は異なるペアによって生成されたデータ点を利用しており、単独ペアで照合を行う場合よりも照合合致点数が増大することが分かる。
従来の方法による計測結果
同じ撮像画像(図4)を従来の照合方法で処理した場合、問題が発生することを以下に示す。第1及び第2カメラ画像から生成されたステレオ復元像が図7下段、符号Gで示されているが、左右側面とも物理的に正しい位置から大きく外れており、図3、図4の対応画像を見てもステレオ誤対応が発生していることが分かる。この画像ペアのみで従来の照合方法を行うと物理的に間違った位置、姿勢が計測結果として得られることになる。また本実験の場合には誤対応セグメントによって誤って形成された頂点の特徴がモデル頂点と合致せず、その他の合致条件を通過して最終段階まで残った候補は一つもなかった。例えこの第1及び第2カメラ画像ペアに対して3眼目で検証する方式を取っても、誤対応セグメントは除去されるが残るセグメント群は僅かであり、正確な位置姿勢測定は困難である。実際にこの検証機能を用いた処理を行ってみると、検証なしと同様、最終段階まで残った候補は一つもなかった。
図6〜10は、ステップS7まで残った最終候補群のうちステップS8により正解、すなわち先頭候補として選択された結果の一例である。次に、その最終候補群のうちステレオ誤対応の影響を受け先頭候補とならなかった結果を図11〜15に示す。図12〜図14は、それぞれ図8〜図10に対応する。そして、図15は、図12〜図14とモデル点とを全て重ねた画像であり、図7の上段の図に対応する。図12〜図14を見ると、照合合致点数(十字点の部分)が少なく、そのため正解候補より低いランク付けとなった。
以上より、ステレオ誤対応により従来正確に位置姿勢計測が出来なかった画像セットに対しても、本発明によれば正確な計測が出来ていることが分かる。
(第2の実施例)
第1の実施例ではステレオ誤対応の状況を理解しやすくするため単純な形状のモデルを使用したが、より複雑な形状をした部品を用いた実験も行った。その結果を第2の実施例として示す。第2の実施例では、より工業部品に近い形状を有し、かつ紙面による説明が可能な程度の構造を有する物体として、L型ブロックを測定対象とした。L型ブロックは、2面がL字形状であり、残り6面が長方形形状である。
図16は、第2の実施例に使用したモデルの形状を示す斜視図である。中心部付近のx、y、zのラベルが付いた矢印はモデル座標の各軸を表し、oは原点を表す。(a)〜(f)のラベルが付いた6個の矢印は、後述する照合結果(図19および図21)中の各図における視点の方向を示す。
図17は、測定対象物を実際に撮像した3眼ステレオ・ペア画像である。カメラの相対的位置は、第1の実施例と同じである。図中、左から順に、第1カメラC1、第2カメラC2、第3カメラC3から得られた画像であり、以後それぞれ画像G,G,Gと呼ぶ。図17に示す画像は、本発明が実際に使用される現場(例えば、工場)での露光不良の状況を再現するために、対象物の外形の輪郭以外の幾何エッジが検出できない程度に、露光過剰の設定で撮像した。また、図17に示す画像中では、L字形状を有する面以外の6面において、僅かではあるが画像間でオクルージョンが存在している。
従来の方法による計測結果
本発明の方法による結果を示す前に、2眼ステレオ・ペア画像(G,G)を用いた従来の方法による位置姿勢計測結果を示す。図18は、従来の方法により得られる計測結果に従って、図17に示す各画像上にモデルを透視投影した結果を示す。具体的には、位置姿勢の計測結果である座標変換行列Tを用いて、モデルの3Dデータを計測データ側の座標(ワールド座標)に変換し、さらに各カメラ画像に変換している。図18に示す結果では、目視でも明らかに不正確とわかる計測結果となっている。
図19は、従来の方法により得られる位置姿勢の計測結果を用いて、3D復元データ点群をモデル座標上に変換した結果を示す図である。黒塗りの矩形は、ステレオ・ペア画像(G,G)から得られたデータ点を表し、白抜きの矩形は、計測データと対応が取れたモデル点を表す。十字点は、計測データと対応が取れなかったモデル点を表す。実際の照合処理においてはモデル点をワールド座標に変換するが、図を見やすくするために、計測で得られた座標変換行列Tの逆行列により計測データ点群をモデル座標に変換した結果を表示している。
3Dデータの場合、モデル点を直接図示しても各点の立体的な位置関係が分かりにくい。そこで図19では、表示領域を各表面で分割して表示している。これは、照合の結果として、モデルに属する各表面の近傍にどのような計測データ点が存在するかを理解しやすくするためである。図19(a)〜(f)で示す各図は、(a)〜(f)のラベルが付けられた図16中の矢印で示される各視点からの図に対応する。すなわち、図19(a)〜(f)の6つの図は、それぞれモデル座標系でx<0、x>0、z<0、y<30、z>0、y>30の領域に存在する、モデル点および(モデル座標に変換された)計測データ点を表示している。
図19(a)〜(f)を順に説明する。図19(a)は、モデルのL字形状表面を正対して目視できる視点で表示した図であり、(b)は、(a)の反対側のL字形状面(実際には床と接している)側からの視点で表示した図である。図19(c)〜(f)は、(a)のそれぞれ下、右、上、左に位置する視点からの図であるので、(c)〜(f)の各図におけるx<0のデータが(a)に、x>0のデータが(b)に表示されている。言い換えると、図19(c)〜(f)において、カメラは図の上側、すなわち縦軸のx座標で負の方向に位置する。
モデルと計測データとの対応付けの観点から図19(a)および(b)を見ると、(a)で表示される側のL字形状面の2辺でのみ、モデルが計測データと対応付けられていることが分かる。視点を変えると、モデルは(c)および(f)においてのみ計測データと対応付けられており、(d)および(e)においては、データ点とモデル点との間の距離が長いので照合に利用されていない。
本発明の方法による計測結果
図16の対象物を第1〜第3カメラで撮像して、図17に示す3枚の画像データを得た。そして、図17の画像データを用いて、図2のステップS3〜S8の処理を実施した。その結果を次に示す。
図20は、本発明の方法により得られる計測結果に従って、図17に示す各画像上にモデルを透視投影した結果を示す。図18に示す結果と比較すると、測定対象物の位置姿勢が正確に計測されていることが分かる。図21は、本発明の方法により得られる位置姿勢の計測結果を用いて、3D復元データ点群をモデル座標に変換した結果を示す図である。黒塗りの矩形は、ステレオ・ペア画像(G,G)から得られたデータ点を表し、黒塗りの円は(G,G)から得られたデータ点を表し、黒塗りの三角形は(G,G)から得られたデータ点を表す。白抜きの矩形は、黒塗りの矩形で表すデータ点と対応が取れたモデル点を表し、白抜きの円は、黒塗りの円で表すデータ点と対応が取れたモデル点を表し、白抜きの三角形は、黒塗りの三角形で表すデータ点と対応が取れたモデル点を表す。十字点は、計測データと対応が取れなかったモデル点を表す。図21(a)〜(f)で示す各図は、(a)〜(f)のラベルが付けられた図16中の矢印で示される各視点からの図に対応する。
図21(a)および(b)に注目すると、モデルと対応付けられなかった計測データ群が、対応付けられた計測データ群の外側にあることがわかる。例えば、(a)のY=50近傍でZ軸方向に伸びた幾何エッジでは、白抜きの円で表すように、(G,G)ペアによる計測データがモデルと対応付けられている。一方、その左側には、黒塗りの矩形で表す(G,G)ペアと黒塗りの三角形で表す(G,G)ペアとが存在している。黒塗りの矩形および黒塗りの三角形で表すこれら外側の計測データ群が、ステレオ誤対応によって生成された虚像である。
次に、図21(c)、(d)および(f)に注目すると、いずれの図においても、3組のペア画像による3D像のうち、1ペアの計測データがモデルの2本の幾何エッジ、すなわちX=±15の位置にあるモデル点群の何れかと対応付けられ、残る2ペアの計測データは両方のエッジの間に存在している。モデルと対応付けられていない2ペアの計測データ群が、ステレオ誤対応によって生じた虚像である。また、部位により異なるステレオ・ペアの計測データがモデル照合に利用されていることも注目すべきである。
図21(e)は他の図と若干様相が異なる。Y>15の領域では、モデルの2本の幾何エッジ、すなわちX=±15の位置にあるモデル点群に、それぞれ異なるステレオ・ペアによるデータが対応付けられている。一方、Y<15の領域では、ペアの違いによる3D復元位置の差が少ない結果となっている。これは、第3カメラC3と測定対象物との幾何関係の偶然によるものである。図20の画像Gにおけるモデルの投影姿勢からも推測できるように、図21(e)のY>15の領域では、モデル表面のカメラ側のエッジおよび床面側のエッジの両方が、G画像上でほぼ重なっている。そのため、撮像された幾何エッジをモデルのカメラ側のエッジまたは床面側のエッジのいずれの情報とみなしても間違いではなく、測定対象物は正しく3D復元され、X=±15の位置にあるモデル点群とそれぞれ対応付けられている。また、モデルの右側部分は画像G,G,Gのいずれにおいても同一箇所(ここではカメラ側の面)の幾何エッジが撮像されているので、ステレオ誤対応の影響が少ない結果となっている。
本実施例では、ステレオ対応における多様な状況を示すために、図17の画像に対する処理結果を示した。しかしながら、図21(e)に示す面において偶然にステレオ誤対応が発生していないことにより、計測に成功したのではないかという推測も可能である。そこで、図21(e)に示す面においても他の面と同様にステレオ誤対応が発生するように、測定対象物の姿勢を微調整した状態で撮像した別の画像に対しても実験を行った。実験の結果、図20と同様に、正しいステレオ対応情報のみで照合された計測結果が得られている。あらためて図21において、ステレオ・ペア(G,G)による3D復元結果(黒塗りの矩形)に着目すると、モデル点の大部分が(G,G)以外のペアによるデータと対応付けられており、(G,G)による像の大部分がステレオ誤対応によって生成した虚像であったことを示唆している。
1 演算処理部(CPU)
2 記録部
3 記憶部(メモリ)
4 インタフェース部
5 操作部
6 表示部
7 内部バス
C1 第1撮像部
C2 第2撮像部
C3 第3撮像部
T 撮像対象物

Claims (4)

  1. 撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを受信する入力部と、
    演算部とを備えて構成され、
    前記演算部が、
    n(n≧枚以上の前記画像データから選択された2枚の画像データの 通りのペアに関して、3次元復元点集合および特徴量集合を求め、
    各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求め、
    前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定し、
    前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置情報を含み、
    前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
    ことを特徴とする3次元位置姿勢計測装置。
  2. 前記セグメントが、直線、円弧、又は、直線及び円弧の組み合わせで近似され、
    前記頂点に関する前記3次元情報が、前記頂点の3次元位置座標および2つの3次元接線ベクトルであり、
    前記照合が、前記モデル特徴点集合の一部を、前記全特徴量集合の一部に一致するように3次元座標変換する変換行列を求める処理であり、
    前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する処理が、前記変換行列を用いて前記モデル点を3次元座標変換した結果と、前記全3次元復元点集合の点との一致性を評価する処理であることを特徴とする請求項1に記載の3次元位置姿勢計測装置。
  3. 撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを取得する第1ステップと、
    n(n≧枚以上の前記画像データから選択された2枚の画像データの 通りのペアに関して、3次元復元点集合および特徴量集合を求める第2ステップと、
    各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求める第3ステップと、
    前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する第4ステップとを含み、
    前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
    ことを特徴とする3次元位置姿勢計測方法。
  4. コンピュータに、
    撮像装置によって異なる視点から対象物を撮像して得られた3枚以上の画像データを取得する第1機能と、
    n(n≧枚以上の前記画像データから選択された2枚の画像データの 通りのペアに関して、3次元復元点集合および特徴量集合を求める第2機能と、
    各ペアに関する前記3次元復元点集合および前記特徴量集合を、それぞれ全て加算して全3次元復元点集合および全特徴量集合を求める第3機能と、
    前記対象物のモデルデータに関するモデル特徴量集合を、前記全特徴量集合と照合することにより、前記全3次元復元点集合の中から前記対象物のモデル点に対応する点を決定する第4機能とを実現させ、
    前記3次元復元点集合が、前記画像データ中の前記対象物の境界線を分割したセグメントの3次元位置座標を含み、
    前記特徴量集合が、前記セグメントの頂点に関する3次元情報を含む
    ことを特徴とする3次元位置姿勢計測プログラム。
JP2011024715A 2010-03-24 2011-02-08 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム Expired - Fee Related JP5713159B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011024715A JP5713159B2 (ja) 2010-03-24 2011-02-08 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
US13/052,659 US20110235897A1 (en) 2010-03-24 2011-03-21 Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010067275 2010-03-24
JP2010067275 2010-03-24
JP2011024715A JP5713159B2 (ja) 2010-03-24 2011-02-08 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011221988A JP2011221988A (ja) 2011-11-04
JP5713159B2 true JP5713159B2 (ja) 2015-05-07

Family

ID=44656547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024715A Expired - Fee Related JP5713159B2 (ja) 2010-03-24 2011-02-08 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US20110235897A1 (ja)
JP (1) JP5713159B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100081881A (ko) * 2009-01-07 2010-07-15 삼성전자주식회사 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇
JP2011185650A (ja) * 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
JP5924862B2 (ja) * 2010-12-15 2016-05-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US8879828B2 (en) 2011-06-29 2014-11-04 Matterport, Inc. Capturing and aligning multiple 3-dimensional scenes
JP5858773B2 (ja) * 2011-12-22 2016-02-10 キヤノン株式会社 3次元計測方法、3次元計測プログラム及びロボット装置
FR2998666B1 (fr) * 2012-11-27 2022-01-07 E2V Semiconductors Procede de production d'images avec information de profondeur et capteur d'image
CN103177245B (zh) * 2013-03-25 2017-02-22 深圳泰山在线科技有限公司 手势识别方法及装置
US9483703B2 (en) * 2013-05-14 2016-11-01 University Of Southern California Online coupled camera pose estimation and dense reconstruction from video
US9501498B2 (en) * 2014-02-14 2016-11-22 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
CN104154861A (zh) * 2014-03-10 2014-11-19 上海大学 大型堆积物料体积绕行测量装置和方法
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
CN104751140A (zh) * 2015-03-30 2015-07-01 常州大学 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用
CN104850846B (zh) * 2015-06-02 2018-08-24 深圳大学 一种基于深度神经网络的人体行为识别方法及识别系统
CN104951753B (zh) * 2015-06-05 2018-11-27 张巍 一种有标识物6自由度视觉跟踪系统及其实现方法
CN105303566B (zh) * 2015-10-15 2018-02-09 电子科技大学 一种基于目标轮廓裁剪的sar图像目标方位角估计方法
EP3156942A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Scene labeling of rgb-d data with interactive option
US10452949B2 (en) * 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
US10410043B2 (en) * 2016-06-24 2019-09-10 Skusub LLC System and method for part identification using 3D imaging
JP6843552B2 (ja) * 2016-08-23 2021-03-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム。
WO2018090308A1 (en) * 2016-11-18 2018-05-24 Intel Corporation Enhanced localization method and apparatus
US10841561B2 (en) 2017-03-24 2020-11-17 Test Research, Inc. Apparatus and method for three-dimensional inspection
CN109035321A (zh) * 2017-06-09 2018-12-18 河北卓达建材研究院有限公司 一种建筑物的体积估算方法
JP7148229B2 (ja) * 2017-07-31 2022-10-05 株式会社トプコン 三次元点群データの縦断面図作成方法,そのための測量データ処理装置,および測量システム
US20190126490A1 (en) * 2017-10-26 2019-05-02 Ca, Inc. Command and control interface for collaborative robotics
US10436590B2 (en) * 2017-11-10 2019-10-08 Ankobot (Shanghai) Smart Technologies Co., Ltd. Localization system and method, and robot using the same
KR102016988B1 (ko) * 2017-11-15 2019-09-02 한양대학교 산학협력단 3차원 정보 생성을 위한 카메라 자세 벡터 보정 방법
CN108898634B (zh) * 2018-07-06 2021-09-24 张显磊 基于双目相机视差对绣花机目标针眼进行精确定位的方法
CN109712200B (zh) * 2019-01-10 2023-03-14 深圳大学 一种基于最小二乘原理及边长推算的双目定位方法及系统
TWM584008U (zh) * 2019-01-31 2019-09-21 許斐凱 利用電腦視覺與深度學習技術之氣管模型重建系統
CN110087099B (zh) * 2019-03-11 2020-08-07 北京大学 一种保护隐私的监控方法和系统
CN110415363A (zh) * 2019-08-05 2019-11-05 上海神添实业有限公司 一种基于三目视觉的散乱物识别定位方法
JP7306192B2 (ja) * 2019-09-27 2023-07-11 沖電気工業株式会社 合成処理装置、合成処理システム及び合成処理方法
JPWO2021193672A1 (ja) * 2020-03-27 2021-09-30
CN114283187A (zh) * 2021-12-27 2022-04-05 武汉大势智慧科技有限公司 一种影像对选取方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
JP3054681B2 (ja) * 1995-07-19 2000-06-19 工業技術院長 画像処理方法
JP3054682B2 (ja) * 1995-07-19 2000-06-19 工業技術院長 画像処理方法
JP2002024807A (ja) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology 物体運動追跡手法及び記録媒体
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
EP1788345B1 (en) * 2005-06-17 2014-03-05 Omron Corporation Image processing device and image processing method performing 3d measurement
JP2008014691A (ja) * 2006-07-04 2008-01-24 Japan Aerospace Exploration Agency ステレオ画像計測方法とそれを実施する装置
US8433128B2 (en) * 2008-11-04 2013-04-30 Omron Corporation Method of creating three-dimensional model and object recognizing device
JP2010121999A (ja) * 2008-11-18 2010-06-03 Omron Corp 3次元モデルの作成方法および物体認識装置
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5245938B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ

Also Published As

Publication number Publication date
US20110235897A1 (en) 2011-09-29
JP2011221988A (ja) 2011-11-04

Similar Documents

Publication Publication Date Title
JP5713159B2 (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP5963353B2 (ja) 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP6764533B2 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP6426968B2 (ja) 情報処理装置およびその方法
US9436987B2 (en) Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
JP3735344B2 (ja) キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
Orghidan et al. Camera calibration using two or three vanishing points
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
WO2015037178A1 (ja) 姿勢推定方法及びロボット
JP2011198330A (ja) 3次元位置合わせにおける照合方法およびそのプログラム
CN110926330B (zh) 图像处理装置和图像处理方法
US20100328308A1 (en) Three Dimensional Mesh Modeling
EP3239931A1 (en) Image processing apparatus and image processing method
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
WO2011118476A1 (ja) 3次元距離計測装置及びその方法
TW201415010A (zh) 檢查裝置、檢查方法及檢查程式
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
KR20110089299A (ko) 스테레오 매칭 처리 시스템, 스테레오 매칭 처리 방법, 및 기록 매체
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2001101419A (ja) 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2019211981A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7061092B2 (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150224

R150 Certificate of patent or registration of utility model

Ref document number: 5713159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees