JP2007064836A - カメラキャリブレーションの自動化アルゴリズム - Google Patents

カメラキャリブレーションの自動化アルゴリズム Download PDF

Info

Publication number
JP2007064836A
JP2007064836A JP2005252400A JP2005252400A JP2007064836A JP 2007064836 A JP2007064836 A JP 2007064836A JP 2005252400 A JP2005252400 A JP 2005252400A JP 2005252400 A JP2005252400 A JP 2005252400A JP 2007064836 A JP2007064836 A JP 2007064836A
Authority
JP
Japan
Prior art keywords
camera
image
dimensional
perspective projection
projection matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005252400A
Other languages
English (en)
Inventor
Hiroyuki Miyamoto
弘之 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2005252400A priority Critical patent/JP2007064836A/ja
Publication of JP2007064836A publication Critical patent/JP2007064836A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 少ない計測点で高精度に較正ができるカメラキャリブレーションの自動化アルゴリズムを提供する。
【解決手段】 三次元形状が既知の対象物12を所定位置に固定配置された複数のカメラ13、14で撮影し、得られた二次元の各カメラ画像15、16から対象物12の主要構成を抽出して形成した主要構成画像18、19と、対象物12を透視投影行列Pを用いて各カメラ画像15、16と同一平面上にそれぞれ作成した二次元のモデル画像20、21とが重なるように、透視投影行列Pを最適化し、各カメラ13、14で撮像した任意の物体の三次元データを得る。
【選択図】 図1

Description

本発明は、手順を簡略化したカメラキャリブレーションの自動化アルゴリズムに関する。
従来、運動計測やロボットの視覚として、カメラを備えた三次元位置計測装置が広く用いられている。三次元位置計測装置においては、カメラのキャリブレーション(較正)が必要不可欠である。カメラのキャリブレーションは、図10に示すように、実世界、すなわち、三次元空間30内に配置された三次元形状(例えば、大きさ及び位置等)が既知の対象物の任意の座標M’(X’,Y’,Z’)を、対象物をカメラで撮影して得たカメラ画像31中の座標M’に対応する座標m’(u’,v’)に変換する透視投影行列(射影行列、射影変換行列、又は投影行列ともいわれる)P’を、例えば、(1)式で示される射影方程式によって求め、三次元位置計測装置の偏りを基準量によって正すことである。これにより、カメラ画像31から対象物の三次元形状などを復元することができる(例えば、非特許文献1参照)。
Figure 2007064836
ここで、(1)式において、wは0でない定数である。従って、左辺は右辺の0でない定数倍と等しく、(2)式で示すことができる。
Figure 2007064836
透視投影行列P’は、(3)式に示すように、3行4列の要素、すなわち、p’11〜p’34を有し、カメラの位置、姿勢、及び画角等のデータを含んでいる。
Figure 2007064836
(2)式及び(3)式より、三次元空間30内の座標M’とカメラ画像31上の座標m’との関係は、(4)式及び(5)式で示すことができ、対象物の複数の計測点を用いて透視投影行列P’を求めることができる。
Figure 2007064836
徐剛、辻三郎著、「3次元ビジョン」、共立出版、1998年4月20日、p.79−82
しかしながら、非特許文献1の方法では、透視投影行列P’の各要素p’11〜p’34を求めるには、6点以上の計測点について座標を(4)式及び(5)式に代入しなければならず、計測の手間がかかるという問題があった。また、計測点の数が多いほど、キャリブレーションの精度は向上するが、外乱(例えば、機材の移動等)によってカメラ又は対象物の位置が変わると、その都度計測点を測定し直さなければならず、更に煩雑になるという問題があった。
本発明はかかる事情に鑑みてなされたもので、少ない計測点で高精度にキャリブレーションできるカメラキャリブレーションの自動化アルゴリズムを提供することを目的とする。
前記目的に沿う第1の発明に係るカメラキャリブレーションの自動化アルゴリズムは、三次元形状が既知の対象物を所定位置に固定配置された複数のカメラで撮影し、得られた二次元の各カメラ画像から該対象物の主要構成を抽出して形成した主要構成画像と、前記対象物を透視投影行列を用いて前記各カメラ画像と同一平面上にそれぞれ作成した二次元のモデル画像とが重なるように、前記透視投影行列を最適化し、前記各カメラで撮像した任意の物体の三次元データを得る。
前記目的に沿う第2の発明に係るカメラキャリブレーションの自動化アルゴリズムは、三次元形状が既知の対象物の主要構成の三次元データを得る第1工程と、
前記対象物を所定位置に固定配置された複数のカメラで撮影して二次元の各カメラ画像を得る第2工程と、
前記第2工程で得られた前記各カメラ画像から前記主要構成を抽出した主要構成画像を得る第3工程と、
前記第1工程で得た前記対象物の複数の主要構成の三次元データから選択された数点の計測点の三次元空間内の座標M(X,Y,Z)を、これに対応する前記主要構成画像の座標m(u,v)で探してその位置を決める第4工程と、
前記第1工程で入力した前記対象物の主要構成の前記三次元データと、前記第4工程で決定した主要構成の座標m(u,v)から透視投影行列の各要素を仮決定して、前記カメラ画像と同一面上に前記対象物のモデル画像を作成する第5工程と、
前記仮決定を繰り返すという前記透視投影行列の最適化を行って、前記主要構成画像と前記モデル画像の一致度を最大にして、最適化された前記透視投影行列を得る第6工程とを有し、
前記最適化された前記透視投影行列を用いて前記各カメラで撮像した任意の物体の三次元データを得る。
三次元形状が既知の対象物(すなわち、三次元データが得られた対象物)としては、例えば、所定の長さの棒状部材から形成された立方体、正四面体、又は直方体等が好適に使用される。対象物をカメラで撮影したカメラ画像には、通常背景等が撮像されており、カメラ画像から対象物の主要構成を抽出(取出)して主要構成画像を得る。
最適化された透視投影行列によって、個々のカメラのキャリブレーションを行い、キャリブレーションを行った複数のカメラで三次元空間内の任意の物体を撮影して得られた各カメラ画像から、この物体の三次元データを得ることができる。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記第4工程では、前記計測点を同一の平面上にない4つとするのが好ましい。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記第4工程では、前記第3工程で得た主要構成画像中の前記座標mを前記第1工程で得た対象物の三次元データ中の前記計測点の座標Mに自動的に対応させてもよい。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記主要構成画像及び前記モデル画像は平滑化してもよい。
第2の発明に係るカメラキャリブレーションの自動化アルゴリズムにおいて、前記第6工程での前記透視投影行列の最適化は、多次元滑降シンプレックス法又は勾配法によって行うこともできる。
多次元滑降シンプレックス法は、幾何学的な本質をもち、目的関数のみを必要とし、微分係数を必要としない。N次元空間におけるN+1角形をシンプレックス(simplex、単体)という。シンプレックスは、N次元でN+1の点(ベクトル)の全てを相互に繋げている線分、多面体等からなる幾何学的図形である。例えば、二次元でのシンプレックスは三角形であり、三次元でのシンプレックスは四面体である。
また、勾配法は、最急降下法ともいわれ、目的関数をそれぞれの経過点で線形近似して、勾配の方向へ進み、漸近的に極小値へ向かう方法である。
請求項1に記載のカメラキャリブレーションの自動化アルゴリズムにおいては、三次元形状が既知の対象物を所定位置に固定配置された複数のカメラで撮影し、得られた二次元の各カメラ画像から対象物の主要構成を抽出して形成した主要構成画像と、対象物を透視投影行列を用いて各カメラ画像と同一平面上にそれぞれ作成した二次元のモデル画像とが重なるように、透視投影行列を最適化し、各カメラで撮像した任意の物体の三次元データを得るので、主要構成画像及びモデル画像の全ての主要構成を予め対応させなくてもよく、少ない主要構成から透視投影行列を最適化でき、短時間で高精度にキャリブレーションを行える。
請求項2〜6に記載のカメラキャリブレーションの自動化アルゴリズムにおいては、三次元形状が既知の対象物の複数の主要構成の三次元データから選択された数点の計測点の三次元空間内の座標M(X,Y,Z)を、これに対応する主要構成画像の座標m(u,v)で探してその位置を決め、対象物の主要構成の三次元データと、主要構成の座標mから透視投影行列の各要素を仮決定して、カメラ画像と同一面上に対象物のモデル画像を作成した後、仮決定を繰り返すという透視投影行列の最適化を行って、主要構成画像とモデル画像の一致度を最大にして、得られた最適化された透視投影行列を用いて各カメラで撮像した任意の物体の三次元データを得るので、少ない計測点を対応させて、仮決定により透視投影行列を短時間で最適化できると共に、高精度でキャリブレーションを行うことができる。
特に、請求項3記載のカメラキャリブレーションの自動化アルゴリズムにおいては、計測点を同一の平面上にない4つとするので、従来よりも計測の手間が軽減できる。
請求項4記載のカメラキャリブレーションの自動化アルゴリズムにおいては、計測点の座標M及び主要構成画像の座標mを自動的に対応させているので、カメラで対象物を撮影するだけで、キャリブレーションが可能となる。
請求項5記載のカメラキャリブレーションの自動化アルゴリズムにおいては、主要構成画像及びモデル画像は平滑化されているので、ノイズ除去ができると共に、透視投影行列の最適化の探索が容易になる。
請求項6記載のカメラキャリブレーションの自動化アルゴリズムにおいては、透視投影行列の最適化を多次元滑降シンプレックス法又は勾配法によって行うので、主要構成画像及びモデル画像をより簡単に一致させることができる。
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
ここで、図1は本発明の一実施の形態に係るカメラキャリブレーションの自動化アルゴリズムを適用した三次元位置計測装置の説明図、図2は同自動化アルゴリズムのフローチャート、図3(A)、(B)はそれぞれ三次元位置計測装置のモニタに表示された左画像及び右画像の説明図、図4は同自動化アルゴリズムによるモデル画像と主要構成画像の説明図、図5(A)は同自動化アルゴリズムの最適化を行う多次元滑降シンプレックス法の初期値の説明図、(B)〜(E)は多次元滑降シンプレックス法の基本動作の説明図である。
図1〜図3に示すように、本発明の一実施の形態に係るカメラキャリブレーションの自動化アルゴリズムは、三次元空間11に配置され三次元形状が既知の対象物(すなわち、三次元データが得られた対象物)12を、所定位置に固定配置された複数、例えば、2つのカメラ13、14で撮影し、得られた二次元の各カメラ画像15、16から対象物12の主要構成を抽出して形成した主要構成画像18、19(すなわち、背景等が削除された対象物12の画像)と、対象物12を透視投影行列Pを用いて各カメラ画像15、16と同一平面上にそれぞれ作成した二次元のモデル画像20、21とが重なるように、透視投影行列Pを最適化する手法であり、最適化された透視投影行列Pによって各カメラ画像15、16で撮像した任意の物体の三次元データを得るものである。以下、詳細に説明する。
図1に示すように、本実施の形態に係る自動化アルゴリズムを適用した三次元位置計測装置22は、三次元空間11内に配置された対象物12と、対象物12を撮影する2つのカメラ13、14と、カメラ13、14がそれぞれ接続されたコンピュータ23と、コンピュータ23に接続され、カメラ画像15、16及びカメラキャリブレーションの結果を視覚的に表示可能なモニタ24とを有している。ここで、対象物12は、所定の長さ(例えば、10〜100cm程度)の白色の12本の棒状部材25で形成された立方体である。なお、対象物としては、立方体に限らず、正四面体、直方体等の三次元形状が既知のものであればよい。また、カメラ13、14は、対象物12にそれぞれ光軸を向けて、しかも、対象物12に向かって左右にそれぞれ配置されている。
コンピュータ23は、(1)対象物の三次元データを保存する、(2)カメラ画像から対象物の主要構成を抽出した主要構成画像を形成する、(3)三次元空間内の座標と、これに対応する主要構成画像の座標とから透視投影行列の各要素を仮決定し、カメラ画像と同一面上に対象物のモデル画像を作成する、(4)透視投影行列の最適化を行って、主要構成画像とモデル画像の一致度を最大にする等を行う。
ここで、三次元空間11内に配置される対象物12の任意の座標M(X,Y,Z)は、カメラ13のカメラ画像15上の座標m1 (u1 ,v1 )と、カメラ14のカメラ画像16上の座標m2 (u2 ,v2 )にそれぞれ投影(射影)される(以下、mi 、ui ,vi 、i=1、2と表すこともある)。座標Mを座標m1 、座標m2 にそれぞれ変換する透視投影行列P1 、P2 (以下、Pi 、i=1、2と表すこともある)は、(6)式で示される透視投影方程式(射影方程式ともいわれる)から求めることができる。
Figure 2007064836
但し、wは0でない定数であり、(6)式は、左辺が右辺の0でない定数倍と等しく、(7)式で示すことができる。
Figure 2007064836
また、透視投影行列Pi は、各要素pi 11〜pi 34を有し、(8)式で示され、カメラ13、14の位置、姿勢、及び画角等のデータを含んでいる。従って、透視投影行列Pi によって、カメラ画像15、16から三次元空間11内の対象物12の三次元形状を復元することができる。
Figure 2007064836
(6)式〜(8)式によって、(9)式、(10)式が得られる。これらは、X、Y、Zについての連立一次方程式であり、透視投影行列Pi が決まると、カメラ画像15の座標m1 及びカメラ画像16の座標m2 から、これらに対応する三次元空間内の座標(X,Y,Z)を求めることができる。
Figure 2007064836
次に、図1〜図5を参照して、三次元位置計測装置22を使用したカメラキャリブレーションの自動化アルゴリズムの作成方法について説明する。
(第1工程)
対象物12の三次元空間11における主要構成の三次元データをコンピュータ23に入力し、コンピュータ23内の図示しない保存部に保存する。ここで、主要構成の三次元データとは、対象物12の12本の棒状部材25から形成される立方体の8個の頂点の三次元座標であり、座標Mj (Xj ,Yj ,Zj )(j=1〜8)で表される。なお、対象物12の8つの頂点の三次元座標が与えられると対象物12の三次元形状が解るが、更に、対象物12の隣り合う頂点を結ぶ辺の中点の座標を加えて、コンピュータ23に入力してもよい。
(第2工程)
図1に示すように、対象物12をカメラ13、14で撮影してカメラ画像15、16をそれぞれ得る。図3(A)、(B)に示すように、カメラ画像15、16は、対象物12をそれぞれ左目及び右目で見ているように、モニタ24でそれぞれ左画像26及び右画像27として表示される。
(第3工程)
図4に示すように、コンピュータ23により、カメラ画像15、16から対象物12の主要構成を抽出した主要構成画像18、19をそれぞれ得る。ここで、対象物12の主要構成の抽出は、例えば、カメラ画像15、16をRGB表色系からHSV表色系に変換し、対象物12と同じ色相(すなわち、白色)のピクセルを背景から抽出して行っている。これによって、カメラ画像15、16から対象物12の棒状部材25の画像部分を抽出した主要構成画像18、19をそれぞれ作成できる。なお、RGB表色系は、色の三原色である赤(R)、緑(G)、及び青(B)でそれぞれ表すものであり、HSV表色系は、色情報を色相(H)、彩度(S)、及び輝度(V)で表示したものである。ここで、対象物12の背後に、例えば、黒色の幕28を設置して、白色の棒状部材で形成された対象物12の色相を抽出し易くしている(図3(A)、(B)参照)。
更に、主要構成画像18、19に、例えば、(11)式で示されるガウシアンフィルタをかけて平滑化してもよい。ガウシアンフィルタとは、ある任意の対象画像(主要構成画像)における周辺画素に対し、画素の空間的配置を考慮して、対象画素に近い画素に大きな重みを、対象画素から遠い画素には小さい重みを付けて加重平均した値を対象画素の値に置き換える手法である。なお、平滑化は、ガウシアンフィルタの代わりに、対象画素の近傍の階調値の和を求め、それを元にして対象画素の階調値を計算する線形平滑化フィルタ、又は画像中の線や縁をぼかさずに、雑音、特に対象画素と近傍の中で階調値が大きく異なる孤立点を除去する機能を有する非線形フィルタ等を用いて行ってもよい。
Figure 2007064836
(第4工程)
三次元空間11内の対象物12の主要構成の8つの三次元データから選択された同一平面上にない数点、例えば4つの計測点を、対象物12の1つの頂点(原点)M1 (0,0,0)と、原点からx軸、y軸、z軸上にそれぞれ配置される座標M2 (x,0,0)、M3 (0,y,0)、及び座標M4 (0,0,z)とする。この三次元空間内の座標M1 〜座標M4 を、これに対応する主要構成画像18の座標の座標m1 j (u1 j ,v1 j )及び主要構成画像19の座標m2 j (u2 j ,v2 j )で探して位置を決める(j=1〜4)。ここで、主要構成画像18、19の座標mi j の位置決めは、モニタ24に映し出される映像、すなわち、主要構成画像18、19上のポインタ(図示せず)を、コンピュータ23に接続された図示しないマウス等で移動させて、コンピュータ23で行っている。
(第5工程)
第1工程で入力した対象物12の主要構成の三次元データ(座標M1 〜座標M4 )と、第4工程で決定した主要構成の4つの計測点の座標mi 1 〜座標mi 4 とから、コンピュータ23により透視投影行列Pi の各要素を仮決定して、カメラ画像15、16と同一面上に対象物12のモデル画像20、21をそれぞれ作成する。以下、モデル画像20、21の作成について、詳しく説明する。
まず、(9)式、(10)式に、M1 (0,0,0)の値をそれぞれ代入する。ここで、(7)式により、定数倍の自由度が与えられているので、(12)式、(13)式が得られる。これは、カメラ画像15、16において、対象物12の原点の座標M1 (0,0,0)に対応する座標mi 1 (ui 1 ,vi 1 )が指定されると、透視投影行列Pi のpi 14及びpi 24がそれぞれ決定されることを示す。
Figure 2007064836
更に、座標M2 (x,0,0)が与えられると、(9)式、(10)式より、(14)式、(15)式が得られる。これらによって、pi 11とpi 31、及びpi 21とpi 31の比をそれぞれ決定することができる。同様に、座標M3 (0,y,0)、座標M4 (0,0,z)を、(9)式、(10)式に代入すると、(16)式〜(19)式が得られ、pi 12とp i 32、pi 22とpi 32、pi 13とpi 33、及びpi 23とpi 33の比をそれぞれ決定することができる。
Figure 2007064836
(14)式〜(19)式より、座標M1 〜座標M4 と、それに対応する座標mi 1 〜座標mi 4 の4点とをそれぞれ探して決定すると、透視投影行列Pi の全ての要素(pi 11〜pi 34)を目的関数の変数にする必要はなく、pi 31、pi 32、及びpi 33の3つの変数を与えるだけ透視投影行列Pi を求めることができる。これらを用いて透視投影行列Pi の各要素を仮決定し、この仮決定した透視投影行列Pi により、カメラ画像15、16上に、対象物12のモデル画像20、21をそれぞれ作成する(図4参照)。更に、モデル画像20、21は、例えば、(11)式で示されるガウシアンフィルタ等により平滑化してもよい。
(第6工程)
透視投影行列Pi を、例えば、多次元滑降シンプレックス法により、仮決定を繰り返して最適化を行って、主要構成画像18、19及びモデル画像20、21の一致度を最大にし、最適化された透視投影行列Pi*を得る。ここで、最適化とは、一致度の一例である目的関数Oを最大化もしくは最小化することであり、その際の変数、すなわち、透視投影行列Pi の各要素pi 11〜pi 34の値を求めることである。目的関数Oを最小化する場合は、主要構成画像18、19及びモデル画像20、21の類似度sを用いて目的関数Oを1−sとすることができる。以下、目的関数Oの最小化について説明する。
ここで、類似度sは、主要構成画像18、19の画像ベクトルQi cam 及びモデル画像20、21の画像ベクトルQi model によって、(20)式で示される。画像ベクトルQi cam は、(qi c1、qi c2、・・・、qi cN)で表わされ、画像ベクトルQi model は、(qi m1、qi m2、・・・、qi mN)で表される。なお、qi c1、qi c2、・・・、qi cN及びqi m1、qi m2、・・・、qi mNは、それぞれの画像のピクセル値(例えば、2値化データを用いた場合、1:抽出した色、すなわち、対象物12の棒状部材25の白色、0:背景色、すなわち、幕28の黒色)であり、Nは画像中の抽出されたピクセル(画素)の総数である。類似度sは、1〜0の範囲の値を有し、目的関数Oが1−sであるので、s=1のときに、目的関数Oが最小となり、主要構成画像18、19とモデル画像20、21がそれぞれ一致する(重なる)。
Figure 2007064836
なお、目的関数Oとして、類似度sを用いた1−sに、更に主要構成画像18、19の面積重心(gi cam )とモデル画像20、21の面積重心(gi model )との差、及び、主要構成画像18、19のu方向とv方向の分散(ri cam )とモデル画像20、21のu方向とv方向の分散(ri model )の差を加えて、最適化の探索を容易にしてもよい。また、目的関数を類似度sの代わりに、主要構成画像18、19及びモデル画像20、21の各点の相関(すなわち、内積)を使用して、内積が最大となる点を決定して透視投影行列Pi*を得ることもできる。
ここで、本発明の一実施の形態のカメラキャリブレーションの自動化アルゴリズムにおいては、類似度sが1となるように、多次元滑降シンプレックス法を用いて、透視投影行列Pi の各要素(pi 11〜pi 34)の値を推定し、透視投影行列Pi の仮決定を繰り返し、最適化された透視投影行列Pi*を得る。
多次元滑降シンプレックス法は、まず、透視投影行列Pi の最適化すべき要素、すなわち、変数の数をKとし、各変数を少しずつ変化させてK+1組の透視投影行列Pi を作る。次に、作成したK+1組の透視投影行列Pi を各頂点(K+1個)として、初期状態のシンプレックスを作成する。更に、初期状態のシンプレックスを用いて透視投影行列Pi の最適化を行う。多次元滑降シンプレックス法は、以下に示すステップでシンプレックスの変更を繰り返し、目的関数Oの値が標高で表されるK次元の地形を下り降り、最も低い場所に到達したとき、目的関数Oの値が最小化される。前記したように本発明の一実施の形態のカメラキャリブレーションの自動化アルゴリズムにおいては、座標M1 〜座標M4 と、それに対応する座標mi 1 〜座標mi 4 の4点とがそれぞれ決定されているので、pi 31、pi 32、及びpi 33の3つの変数(K=3)が得られればよい。
図5(A)に示すように、変数の数Kを3とした場合には、初期状態のシンプレックスが4つの頂点を有する四面体となる。次に、図5(B)に示すように、目的関数Oの値が最大の(一番高いところにある)頂点Aを対向面の逆側に反射させ、目的関数の値を低く(小さく)する。更に、図5(C)に示すように、シンプレックスを膨張させ、移動距離を大きくすることもできる。また、図5(D)に示すように、初期状態のシンプレックスが谷底のような地形である場合には、シンプレックスを収縮させ、より低い場所に徐々に移動させる。更に、図5(E)に示すように、シンプレックスが狭い窪地に到着した際には、目的関数Oの値が最小の(一番低い位置にある)頂点Bの周りに凝集させ、窪地に落ち込ませる。
シンプレックスの目的関数が最小値となるまで、図5(B)〜(E)に示す動作を行って、主要構成画像18、19及びモデル画像20、21を実質的に一致させる最適化された透視投影行列Pi*を得ることができる。
以上のように、第1工程〜第6工程によって、最適化した透視投影行列Pi*が得られる。この最適化された透視投影行列Pi*を用いることにより、三次元空間11に配置された任意の物体を撮像した各カメラ画像15、16から、この物体の三次元データを得ることができる。
次に、本発明の作用効果を確認するために行った実施例について説明する。ここで、図6(A)、(B)はそれぞれ本発明の実施例1の左右のカメラにおける主要構成画像とモデル画像の重ね合わせを示す説明図、図7(A)、(B)はそれぞれ本発明の実施例2の左右のカメラにおける主要構成画像とモデル画像の重ね合わせを示す説明図、図8(A)、(B)はそれぞれ比較例1のカメラキャリブレーションの左右のカメラにおけるカメラ画像とモデル画像の重ね合わせを示す説明図、図9(A)、(B)はそれぞれ比較例2のカメラキャリブレーションの左右のカメラにおけるカメラ画像とモデル画像の重ね合わせを示す説明図である。
(実施例1)
本発明のカメラキャリブレーションの自動化アルゴリズムを適用して、カメラキャリブレーションを行った。また、対象物としては、一辺が0.525mの棒状部材を組んだ立方体を使用した。この立方体の原点の座標M1 と、原点からX軸、Y軸、Z軸上にある各頂座標M2 〜座標M4 の座標(真値)をコンピュータに入力した。立方体を2台のカメラで撮影して2枚のカメラ画像をそれぞれ得た後、それぞれのカメラ画像からコンピュータによって立方体の主要構成を抽出した主要構成画像を得た。
次に、座標M1 〜座標M4 に対応する主要構成画像の座標m1 〜座標m4 をそれぞれ探して決定した。また、座標M1 〜座標M4 と、座標m1 〜座標m4 とから透視投影行列Pを仮決定して、立方体のモデル画像を作成した。更に、透視投影行列Pを、例えば、多次元滑降多次元滑降シンプレックス法により最適化を行って、主要構成画像及びモデル画像の一致度を最大にして実質的に一致させる透視投影行列P* を得た。
ここで、表1に実施例1によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。また、図6(A)、(B)及び表1に示すように、実施例1における主要構成画像とモデル画像は、ほとんど重なっており、誤差も小さいので、精度よくカメラキャリブレーションができたことが解る。
Figure 2007064836
(実施例2)
実施例2は、立方体の原点の座標M1 とZ軸上にある頂座標M4 の座標をコンピュータに入力し、座標M1 、M4 と、主要構成画像の座標m1 、座標m4 をそれぞれ対応させて透視投影行列P* を得る点が実施例1と異なっている。ここで、表2に実施例2によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図7(A)、(B)及び表2に示すように、実施例2における主要構成画像とモデル画像は、底面部分では重なっているが、上面部分ではかなり外れている。このように、コンピュータに入力する計測点が、2点ではキャリブレーションの精度が低くなることが解った。
Figure 2007064836
(比較例1)
従来のカメラのキャリブレーション法に従って、立方体の8個の頂点の座標をコンピュータに入力し、立方体を2台のカメラで撮影して2枚のカメラ画像をそれぞれ得た後、立方体の各頂点の座標(M’j (X’j ,Y’j ,Z’j )、j=1〜8)とカメラ画像中の座標m’j (u’j ,v’j )をそれぞれ対応させ、射影方程式により透視投影行列P’を計算して求めた。ここで、表3に比較例1によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図8(A)、(B)及び表3に示すように、比較例1におけるカメラ画像とモデル画像は、大きくずれており、実施例1で指定した計測点よりも多くの点を使用した比較例1の方法ではキャリブレーションの精度が低いことが解る。
Figure 2007064836
(比較例2)
比較例2のカメラのキャリブレーション法は、立方体の各頂点(8個)及び隣り合う頂点を結ぶ辺の中点(12個)を使用して合計20個の計測点を対応させた点が比較例1と異なっている。ここで、表4に比較例2によって得られた立方体の各頂点の座標(計算値)及び最小二乗誤差を示す。図9(A)、(B)及び表4に示すように、比較例2におけるカメラ画像とモデル画像はほとんど重なっており、キャリブレーションの精度が高いことが解る。しかしながら、20個の計測点を計測する作業が大変煩雑である。
Figure 2007064836
本発明は、前記した実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲での変更は可能であり、例えば、前記したそれぞれの実施の形態や変形例の一部又は全部を組み合わせて本発明のカメラキャリブレーションの自動化アルゴリズムを構成する場合も本発明の権利範囲に含まれる。
例えば、前記実施の形態のカメラキャリブレーションの自動化アルゴリズムにおいて、第4工程では、三次元空間内の座標Mに対応する主要構成画像の座標mの位置決めを、モニタに映し出される主要構成画像上のポインタを、コンピュータに接続されたマウスで移動させて行ったが、コンピュータによってカメラ画像から対象物の主要構成を抽出した後、作成される主要構成画像中の座標mと、これに対応する座標Mとをコンピュータによる演算によって自動的に決定させてもよい。また、前記実施の形態では、対象物を2つのカメラで撮影したが、3つ以上のカメラを用いてもよい。更に、前記実施の形態では、最適化に多次元滑降シンプレックス法を用いたが、勾配法を使用してもよい。また、主要構成画像及びモデル画像をガウシアンフィルタによって平滑化しているが、平滑化しなくてもよい。
本発明の一実施の形態に係るカメラキャリブレーションの自動化アルゴリズムを適用した三次元位置計測装置の説明図である。 同自動化アルゴリズムのフローチャートである。 (A)、(B)はそれぞれ三次元位置計測装置のモニタに表示された左画像及び右画像の説明図である。 同自動化アルゴリズムによるモデル画像と主要構成画像の説明図である。 (A)は同自動化アルゴリズムの最適化を行う多次元滑降シンプレックス法の初期値の説明図、(B)〜(E)は多次元滑降シンプレックス法の基本動作の説明図である。 (A)、(B)はそれぞれ本発明の実施例1の左右のカメラにおける主要構成画像とモデル画像の重ね合わせを示す説明図である。 (A)、(B)はそれぞれ本発明の実施例2の左右のカメラにおける主要構成画像とモデル画像の重ね合わせを示す説明図である。 (A)、(B)はそれぞれ比較例1のカメラキャリブレーションの左右のカメラにおけるカメラ画像とモデル画像の重ね合わせを示す説明図である。 (A)、(B)はそれぞれ比較例2のカメラキャリブレーションの左右のカメラにおけるカメラ画像とモデル画像の重ね合わせを示す説明図である。 従来例に係るカメラキャリブレーションの説明図である。
符号の説明
11:三次元空間、12:対象物、13、14:カメラ、15、16:カメラ画像、18、19:主要構成画像、20、21:モデル画像、22:三次元位置計測装置、23:コンピュータ、24:モニタ、25:棒状部材、26:左画像、27:右画像、28:幕

Claims (6)

  1. 三次元形状が既知の対象物を所定位置に固定配置された複数のカメラで撮影し、得られた二次元の各カメラ画像から該対象物の主要構成を抽出して形成した主要構成画像と、前記対象物を透視投影行列を用いて前記各カメラ画像と同一平面上にそれぞれ作成した二次元のモデル画像とが重なるように、前記透視投影行列を最適化し、前記各カメラで撮像した任意の物体の三次元データを得ることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
  2. 三次元形状が既知の対象物の主要構成の三次元データを得る第1工程と、
    前記対象物を所定位置に固定配置された複数のカメラで撮影して二次元の各カメラ画像を得る第2工程と、
    前記第2工程で得られた前記各カメラ画像から前記主要構成を抽出した主要構成画像を得る第3工程と、
    前記第1工程で得た前記対象物の複数の主要構成の三次元データから選択された数点の計測点の三次元空間内の座標M(X,Y,Z)を、これに対応する前記主要構成画像の座標m(u,v)で探してその位置を決める第4工程と、
    前記第1工程で入力した前記対象物の主要構成の前記三次元データと、前記第4工程で決定した主要構成の座標m(u,v)から透視投影行列の各要素を仮決定して、前記カメラ画像と同一面上に前記対象物のモデル画像を作成する第5工程と、
    前記仮決定を繰り返すという前記透視投影行列の最適化を行って、前記主要構成画像と前記モデル画像の一致度を最大にして、最適化された前記透視投影行列を得る第6工程とを有し、
    前記最適化された前記透視投影行列を用いて前記各カメラで撮像した任意の物体の三次元データを得ることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
  3. 請求項2記載の自動化アルゴリズムにおいて、前記第4工程では、前記計測点を同一の平面上にない4つとすることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
  4. 請求項2及び3のいずれか1項に記載の自動化アルゴリズムにおいて、前記第4工程では、前記第3工程で得た主要構成画像中の前記座標mを前記第1工程で得た対象物の三次元データ中の前記計測点の座標Mに自動的に対応させていることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
  5. 請求項2〜4のいずれか1項に記載の自動化アルゴリズムにおいて、前記主要構成画像及び前記モデル画像は平滑化されていることを特徴とするカメラキャリブレーションの自動化アルゴリズム。
  6. 請求項2〜5のいずれか1項に記載の自動化アルゴリズムにおいて、前記第6工程での前記透視投影行列の最適化は、多次元滑降シンプレックス法又は勾配法によって行うことを特徴とするカメラキャリブレーションの自動化アルゴリズム。
JP2005252400A 2005-08-31 2005-08-31 カメラキャリブレーションの自動化アルゴリズム Pending JP2007064836A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005252400A JP2007064836A (ja) 2005-08-31 2005-08-31 カメラキャリブレーションの自動化アルゴリズム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252400A JP2007064836A (ja) 2005-08-31 2005-08-31 カメラキャリブレーションの自動化アルゴリズム

Publications (1)

Publication Number Publication Date
JP2007064836A true JP2007064836A (ja) 2007-03-15

Family

ID=37927198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252400A Pending JP2007064836A (ja) 2005-08-31 2005-08-31 カメラキャリブレーションの自動化アルゴリズム

Country Status (1)

Country Link
JP (1) JP2007064836A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250487A (ja) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology エッジ検出によるモデルマッチングを用いたカメラ校正方法
KR100951309B1 (ko) 2008-07-14 2010-04-05 성균관대학교산학협력단 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8559704B2 (en) 2009-03-12 2013-10-15 Omron Corporation Three-dimensional vision sensor
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
US8654193B2 (en) 2009-03-13 2014-02-18 Omron Corporation Method for registering model data for optical recognition processing and optical sensor
WO2018173205A1 (ja) * 2017-03-23 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、その制御方法、及びプログラム
CN110084854A (zh) * 2009-12-24 2019-08-02 康耐视公司 用于相机校准误差的运行时测定的系统和方法
JP2020161034A (ja) * 2019-03-28 2020-10-01 株式会社AB.do 三次元データスケール付与方法及び三次元データスケール付与プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61277012A (ja) * 1985-06-03 1986-12-08 Nippon Telegr & Teleph Corp <Ntt> カメラ位置姿勢校正方法
JPH05164517A (ja) * 1991-12-18 1993-06-29 Ono Sokki Co Ltd 三次元座標計測方法
JPH0818848A (ja) * 1994-06-27 1996-01-19 Sanyo Electric Co Ltd カメラシステムおよび歪み除去方法
JPH0953914A (ja) * 1995-08-14 1997-02-25 Nec Corp 三次元座標計測装置
JP2002158915A (ja) * 2000-09-05 2002-05-31 Inst Of Physical & Chemical Res 画像のレンズ歪みの補正方法
JP2002535894A (ja) * 1999-01-12 2002-10-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カメラ動きパラメータを推定する方法
JP2003067775A (ja) * 2001-08-24 2003-03-07 Japan Science & Technology Corp テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP2003117041A (ja) * 2001-10-15 2003-04-22 Hamamatsu Photonics Kk ストローク情報測定装置及びストローク情報測定方法
WO2004081853A1 (en) * 2003-03-06 2004-09-23 Animetrics, Inc. Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
JP2004348659A (ja) * 2003-05-26 2004-12-09 Suzuki Motor Corp 被写体形状認識システム及び方法並びに被写体形状認識用プログラム、当該プログラムを記憶した記憶媒体
JP2005174151A (ja) * 2003-12-12 2005-06-30 Topcon Corp 三次元画像表示装置及び方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61277012A (ja) * 1985-06-03 1986-12-08 Nippon Telegr & Teleph Corp <Ntt> カメラ位置姿勢校正方法
JPH05164517A (ja) * 1991-12-18 1993-06-29 Ono Sokki Co Ltd 三次元座標計測方法
JPH0818848A (ja) * 1994-06-27 1996-01-19 Sanyo Electric Co Ltd カメラシステムおよび歪み除去方法
JPH0953914A (ja) * 1995-08-14 1997-02-25 Nec Corp 三次元座標計測装置
JP2002535894A (ja) * 1999-01-12 2002-10-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カメラ動きパラメータを推定する方法
JP2002158915A (ja) * 2000-09-05 2002-05-31 Inst Of Physical & Chemical Res 画像のレンズ歪みの補正方法
JP2003067775A (ja) * 2001-08-24 2003-03-07 Japan Science & Technology Corp テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP2003117041A (ja) * 2001-10-15 2003-04-22 Hamamatsu Photonics Kk ストローク情報測定装置及びストローク情報測定方法
WO2004081853A1 (en) * 2003-03-06 2004-09-23 Animetrics, Inc. Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
JP2006520054A (ja) * 2003-03-06 2006-08-31 アニメトリクス,インク. 不変視点からの画像照合および2次元画像からの3次元モデルの生成
JP2004348659A (ja) * 2003-05-26 2004-12-09 Suzuki Motor Corp 被写体形状認識システム及び方法並びに被写体形状認識用プログラム、当該プログラムを記憶した記憶媒体
JP2005174151A (ja) * 2003-12-12 2005-06-30 Topcon Corp 三次元画像表示装置及び方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250487A (ja) * 2007-03-29 2008-10-16 Kyushu Institute Of Technology エッジ検出によるモデルマッチングを用いたカメラ校正方法
KR100951309B1 (ko) 2008-07-14 2010-04-05 성균관대학교산학협력단 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8559704B2 (en) 2009-03-12 2013-10-15 Omron Corporation Three-dimensional vision sensor
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
US8654193B2 (en) 2009-03-13 2014-02-18 Omron Corporation Method for registering model data for optical recognition processing and optical sensor
CN110084854A (zh) * 2009-12-24 2019-08-02 康耐视公司 用于相机校准误差的运行时测定的系统和方法
WO2018173205A1 (ja) * 2017-03-23 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、その制御方法、及びプログラム
US10798360B2 (en) 2017-03-23 2020-10-06 Sony Interactive Entertainment Inc. Information processing system, method for controlling same, and program
JP2020161034A (ja) * 2019-03-28 2020-10-01 株式会社AB.do 三次元データスケール付与方法及び三次元データスケール付与プログラム
JP7012965B2 (ja) 2019-03-28 2022-01-31 株式会社AB.do 三次元データスケール付与方法及び三次元データスケール付与プログラム

Similar Documents

Publication Publication Date Title
JP2007064836A (ja) カメラキャリブレーションの自動化アルゴリズム
KR102261020B1 (ko) 개선된 카메라 캘리브레이션 시스템, 타겟 및 프로세스
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
CN101299270B (zh) 三维扫描系统中的多个摄像机同步快速标定方法
Santos et al. 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
CN110415304B (zh) 一种视觉标定方法及系统
KR20160031967A (ko) 멀티 프로젝션 시스템 및 이의 프로젝터 캘리브레이션 방법
CN110567441B (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
JP4821009B2 (ja) エッジ検出によるモデルマッチングを用いたカメラ校正方法
JPH04102178A (ja) 物体モデル入力装置
CN107941241B (zh) 一种用于航空摄影测量质量评价的分辨率板及其使用方法
CN116527856B (zh) 球幕影院的播放控制方法、装置、设备及存储介质
CN111260735B (zh) 一种单次拍摄的lidar与全景相机的外参数标定方法
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN113724365B (zh) 一种三维重建方法及装置
CN109410272A (zh) 一种变压器螺母识别与定位装置及方法
CN115841668A (zh) 一种双目视觉苹果识别以及精准定位的方法
Tyukin et al. The development and research of the indoor navigation system for a mobile robot with the possibility of obstacle detection
JP6641313B2 (ja) 領域抽出装置及びプログラム
Southey et al. Object discovery through motion, appearance and shape
JP2002135807A (ja) 3次元入力のためのキャリブレーション方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412