JP6011548B2 - カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム - Google Patents
カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム Download PDFInfo
- Publication number
- JP6011548B2 JP6011548B2 JP2013555009A JP2013555009A JP6011548B2 JP 6011548 B2 JP6011548 B2 JP 6011548B2 JP 2013555009 A JP2013555009 A JP 2013555009A JP 2013555009 A JP2013555009 A JP 2013555009A JP 6011548 B2 JP6011548 B2 JP 6011548B2
- Authority
- JP
- Japan
- Prior art keywords
- normal vector
- rotation matrix
- camera
- image
- camera calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 108
- 239000013598 vector Substances 0.000 claims description 374
- 239000011159 matrix material Substances 0.000 claims description 195
- 238000012545 processing Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 238000002945 steepest descent method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- -1 and the roll Substances 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、カメラの姿勢の校正に用いられるカメラパラメータを推定するカメラ校正装置、カメラ校正方法およびカメラ校正用プログラムに関する。
カメラの姿勢を校正する為に、画像情報と実空間情報とを基にカメラパラメータを推定するカメラ校正装置が知られている。この種のカメラ校正装置は、画像上の2次元座標と実空間上の3次元座標との変換を可能にするカメラパラメータ(具体的には、カメラの姿勢を表す回転行列と並進行列)の推定を行う。このようなカメラ校正装置の一例が、非特許文献1〜3に記載されている。
非特許文献1〜3に記載された装置は、画像上の2次元座標と実空間上の3次元座標とが対応づけられた参照点からカメラパラメータを推定する装置である。まず、校正を行うカメラの視界に、参照点の配置が既知である特別な校正用機材が設置される。参照点の配置が既知であるため、参照点における実空間上の位置関係は既知である。そのため、上記装置は、参照点における実空間上の3次元座標を取得できる。
次に、校正を行うカメラで校正用機材が撮影される。そして、上記装置は、撮影された画像から参照点における画像上の2次元座標を取得する。上記装置は、得られた参照点における画像上の2次元座標と実空間上の3次元座標の対応関係を利用して、射影方程式に基づく演算を行うことでカメラパラメータを推定する。
なお、非特許文献4には、キャリブレーションの一手法であるZhangの手法が記載されている。
Roger Y.Tsai, "An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision", Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, pp. 364-374, 1986
Roger Y.Tsai, "A versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", IEEE Journal of Robotics and Automation, Vol.3, No.4, pp.323-344, 1987
徐剛, 辻三郎, "3次元ビジョン", 共立出版(ISBN4-320-08522-1), pp.79-82, 1998
Z.Zhang, "A flexible new technique for camera calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, 2000
しかし、上述する一般的な装置を用いた場合、実空間に多数の障害物が存在する状況下では、カメラ校正の精度が低下する場合があるという問題がある。その理由は、校正用立体や校正用格子ボード等のような参照点の配置が既知である特別な校正用機材を設置する際、障害物によって校正用機材の設置場所が制限され、撮影される画像から満遍なく参照点が得られないためである。
精度よくカメラを校正するには、できるだけ画面全体の情報が必要である。すなわち、画面上の一部に偏った参照点ではなく、画面上に満遍なく得られた参照点が必要である。さらに、障害物の状況によっては、校正用機材を設置することができず、この場合には、カメラを校正できない。
また、上述する一般的な装置を用いた場合、対象の実空間が広い状況下では、カメラ校正の精度が低下するという問題がある。その理由は、広い実空間において、画面上に満遍なく参照点を得るには、実用上ありえない大きな校正用機材を必要とするためである。
そこで、校正用機材に配置された参照点を、配置の自由な(例えば、マーカーのような)参照点に置き換えることで、上記問題点を改善することは可能である。しかし、このように、配置の自由な参照点に置き換えた場合、カメラ校正の容易さを失うという問題がある。
その理由は、参照点の配置(すなわち、参照点同士の位置関係)が既知である校正用機材を用いて参照点の3次元座標を容易に取得できる場合と異なり、参照点が自由に配置されるため、1つずつ実空間上の3次元座標を計測しなければならないためである。特に、対象の実空間が広く且つ複雑な場合、この3次元座標の計測は、非常に手間のかかる作業になってしまう。
そこで、本発明は、特別な校正用機材の設置や、校正に用いる参照点の3次元座標の計測を行わずに、高精度且つ容易にカメラパラメータを推定できるカメラ校正装置、カメラ校正方法およびカメラ校正用プログラムを提供することを目的とする。
本発明によるカメラ校正装置は、校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得手段と、得られた法線ベクトルを基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが基準となる水平面に対して垂直になることを評価して、カメラの校正に用いられる回転行列を推定する回転行列推定手段とを備えたことを特徴とする。
本発明によるカメラ校正方法は、校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得し、得られた法線ベクトルを基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが基準となる水平面に対して垂直になることを評価して、カメラの校正に用いられる回転行列を推定することを特徴とする。
本発明によるカメラ校正用プログラムは、コンピュータに、校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得処理、および、得られた法線ベクトルを基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが基準となる水平面に対して垂直になることを評価して、カメラの校正に用いられる回転行列を推定する回転行列推定処理を実行させることを特徴とする。
本発明によれば、特別な校正用機材の設置や、校正に用いる参照点の3次元座標の計測を行わずに、高精度且つ容易にカメラパラメータを推定できる。
以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
図1は、本発明によるカメラ校正装置の第1の実施形態の構成例を示すブロック図である。第1の実施形態のカメラ校正装置は、画像供給装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3とを備えている。
図1は、本発明によるカメラ校正装置の第1の実施形態の構成例を示すブロック図である。第1の実施形態のカメラ校正装置は、画像供給装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3とを備えている。
画像供給装置1は、校正を行うカメラの画像を供給する。画像供給装置1は、例えば、ビデオカメラ、デジタルカメラ、メモリやハードディスクなどの画像記録装置、コンピュータなどにより実現される。すなわち、画像供給装置1は、校正を行うカメラの画像を供給できる装置ならどのような装置でもよい。
記憶装置3は、投影用仮想平面記憶手段31と、内部パラメータ記憶手段32とを含んでいる。投影用仮想平面記憶手段31は、地面に対して垂直な平面を表す情報(以下、投影用仮想平面と記す。)を記憶する。なお、本明細書で記載されている地面とは、重力の方向と直角に交わった基準の水平面を意味する。
ここで、地面と世界座標系の関係、および、世界座標系における投影用仮想平面の位置づけを説明する。世界座標系では、地面に対して世界座標系のXY平面が平行になるように設定され、世界座標系のZ軸の方向が地面に対して垂直になるように設定される。よって、投影用仮想平面は、世界座標系のZ軸方向に平行な平面として定義される。
内部パラメータ記憶手段32は、校正を行うカメラの焦点距離、画像中心位置、レンズ歪み係数などのパラメータ(以下、内部パラメータと記す。)を記憶する。内部パラメータは、カメラを設置する前に、例えば、非特許文献4に記載されたZhangの手法等で予め求められる。なお、内部パラメータを求める方法は、Zhangの手法に限定されない。内部パラメータが求められる手法であれば、その他の手法が用いられてもよい。
データ処理装置2は、法線ベクトル取得手段21と、回転行列推定手段22と、並進行列推定手段23とを含んでいる。
法線ベクトル取得手段21は、画像供給装置1から供給された画像から、地面に対して垂直な法線ベクトルを取得する。さらに、法線ベクトル取得手段21は、取得した法線ベクトルの中から、少なくとも1本以上の法線ベクトルを選択する。法線ベクトル取得手段21は、選択した法線ベクトルの両端点(すなわち、2つの端点)の実空間上の高さを示す情報(以下、高さ情報と記す。)を取得する。実空間上の高さ情報は、例えば、世界座標系のZ軸上の値である。
これにより、法線ベクトル取得手段21は、高さ情報が未知な法線ベクトルと、高さ情報が既知な法線ベクトルの2種類の法線ベクトルを得ることができる。
法線ベクトル取得手段21は、法線ベクトルを、1枚の画像からではなく複数の画像や動画像から取得してもよい。法線ベクトル取得手段21は、例えば、固定されたカメラが撮影する複数の画像(動画像)の1枚1枚から法線ベクトルを取得し、それらの法線ベクトルを重ねたものを、法線ベクトル全体の情報としてもよい。
法線ベクトル取得手段21は、例えば、画像に映る机や、棚、ビルなどの人工物体に対して、ユーザ等により指定された部分を法線ベクトルとして取得してもよい。また、画像中の立っている人物や歩行者に着目し、法線ベクトル取得手段21は、ユーザ等により指定されたこれらの人物の頭頂位置と足元位置とを結ぶ直線を法線ベクトルとして取得してもよい。また、法線ベクトル取得手段21は、例えば、ハフ変換による直線検出手法や、頭部または足元を検出する手法などの画像処理を行うことで法線ベクトルを取得してもよい。
法線ベクトルは、地面に対して垂直なベクトル線分であればどの線分であってもよい。また、法線ベクトルの取得方法も、上述する方法を含むどのような方法を用いてもよい。図2は、法線ベクトルの例を示す説明図である。図2(a)に例示する画像が存在する場合、図2(b)に矢印で例示される線分が法線ベクトルである。また、図2(b)に例示する矢印の両端に丸が付加された法線ベクトルは、高さ情報が既知の法線ベクトルを示す。
次に、法線ベクトル取得手段21が高さ情報を取得する方法を説明する。法線ベクトルの端点を示す実空間上の高さ情報は、法線ベクトルを取得する元になった物体などの高さ情報が既知であれば取得できる。法線ベクトルの高さ情報を取得する際、高さ情報以外の3次元情報は必要とされない(すなわち、地面上の座標は必要とされない)。そのため、法線ベクトル取得手段21は、この高さ情報を容易に取得することが可能である。法線ベクトル取得手段21は、例えば、身長が既知な人物が動き回っている移動状態を示す動画像からは、高さ情報が既知な法線ベクトルを自動的に数多く取得することができる。
例えば、世界座標系の原点が地面と同じ高さに設定されているとする。この場合、人物の頭頂位置の実空間上の高さ情報は、既知の身長を示す情報と等しい。また、人物の足元位置の実空間上の高さ情報は0を示すことになる。このような状況を想定すれば、法線ベクトル取得手段21は、頭頂位置と足元位置の高さ情報が既知な法線ベクトルを取得できる。この場合も、法線ベクトル取得手段21は、身長が既知な人物が動き回っている移動状態を示す動画像から、高さ情報が既知な法線ベクトルを自動的に数多く取得することができる。
高さ情報が既知な法線ベクトルを取得する方法は、他にも挙げられる。例えば、撮影空間内の特定空間に、高さ情報の測定に用いられる測定媒体(例えば、メジャーのようなもの)を予め設置しておく。そして、画像供給装置1が、ある移動媒体(例えば、人物など)が特定空間を通過する通過状態を撮影すれば、その移動媒体(人物)の頭頂位置と足元位置の高さ情報を取得することが可能である。
つまり、画像供給装置1が、人物が撮影空間内を動き回っている移動状態と、人物が測定媒体にて高さ情報を取得可能な位置を通過する通過状態とを撮影した動画像を法線ベクトル取得手段21に供給すれば、法線ベクトル取得手段21は、その動画像から、人物を追跡することにより、頭頂位置と足元位置の高さ情報が既知な法線ベクトルを自動的に数多く取得することができる。
回転行列推定手段22は、法線ベクトル取得手段21が取得した法線ベクトルを、基準とする水平面(すなわち、地面)に対して垂直な投影用仮想平面に投影する。そして、回転行列推定手段22は、投影された法線ベクトルが基準となる水平面(すなわち、地面)に対して垂直になる性質を評価して回転行列を推定する。ここで、垂直になる性質を評価するとは、実空間(投影用仮想平面)に投影された法線ベクトルが垂直である度合いを判断することを意味する。また、垂直になる性質のことを、以下、垂直性と記すこともある。
具体的には、回転行列推定手段22は、内部パラメータ記憶手段32に記憶された内部パラメータと、カメラの姿勢を表すカメラパラメータとを用いて、法線ベクトル取得手段21が取得した法線ベクトルを投影用仮想平面記憶手段31に記憶されている投影用仮想平面に投影する。そして、回転行列推定手段22は、投影された法線ベクトルの地面に対する垂直性を評価し、カメラの姿勢を表す回転行列Rを最適化することで回転行列Rを推定する。
以下、回転行列推定手段22が回転行列を推定する方法を詳細に説明する。世界座標系とカメラ座標系とは、以下に示す式1の関係が成り立つ。カメラの姿勢は、式1における回転行列R(Rは、3行3列の行列)と並進行列T(Tは、3行1列の行列)とで表現される。回転行列Rは、カメラの方向を表しており、並進行列Tはカメラの位置を表している。以下、回転行列Rで表わされるカメラの方向を示す情報を方向情報と記す。また、並進行列Tで表わされるカメラの位置を示す情報を位置情報と記す。
ここで、Mwは世界座標系(実空間の座標系)(Mw=[Xw,Yw,Zw]t)を示す。また、Mcはカメラ座標系(Mc=[Xc、Yc、Zc]t)を示す。カメラ座標系とは、カメラの光軸をZ軸にあわせた座標系である。図3は、カメラ座標系の例を示す説明図である。図3に示すように、カメラ座標系において、カメラの光軸方向にZ軸が対応づけられる。
また、ピンホールカメラモデルを想定した場合、カメラ座標系と画像座標系との間で、以下に示す式2の関係が成り立つ。
ここで、mは画像座標系(m=[x、y、1]t)、sはスカラー量、Aは内部パラメータを表す3行3列の内部行列である。内部パラメータAには、内部パラメータ記憶手段32に記憶された内部パラメータが設定される。
上記式1および式2を用いることで、画像座標と世界座標を相互に変換することが可能である。また、本実施形態では、カメラパラメータを推定する際、カメラ座標系と世界座標系の間で位置の制約が設けられる。その制約は、カメラの位置の真下に世界座標系の原点を設定するという制約である。
図4は、カメラ座標系と世界座標系との関係の例を示す説明図である。つまり、図4(a)に例示するように、世界座標系のZ軸上にカメラ座標系の原点があると想定する。この想定により、カメラの位置は世界座標系のZ座標の1次元で表すことができる。また、この想定により、カメラの位置情報を表す並進行列Tも1次元という少ないパラメータで表現することができる。
さらに、カメラ座標系と世界座標系の間で方向(回転)についても制約が設けられる。図4(b)は、世界座標系のZ軸に向かう方向から見た場合の例を示す説明図である。図4(b)に例示するように、この制約は、世界座標系のZ軸に向かう方向から見たときに、世界座標系のY軸とカメラ座標系のZ軸の方向を合わせるという制約である。つまり、カメラの方向(回転)においてヨー回転を0度に固定するということである。
ヨー回転を0度に固定することで、世界座標系のY軸正方向に法線ベクトルを存在させる。これにより、カメラの方向(回転)は、ロー回転とピッチ回転の2次元で表すことができる。また、これにより、カメラの姿勢情報を表す回転行列Rも2次元という少ないパラメータで表現することができる。
図5は、回転行列Rを推定する方法の例を示す説明図である。回転行列Rを推定する際、以下の性質が用いられる。まず、カメラの方向(回転行列)が正しいとする。この場合、図5に例示するように、画像上で得られた地面に対する法線ベクトルH1,H2を地面に対して垂直な投影用仮想平面に投影すると、投影された法線ベクトルh1,h2は、地面に対して垂直になる性質を示す。この性質は、回転行列にのみ依存するものであり、並進行列には依存しない。
以下の説明では、世界座標系の原点を地面に設定し、投影用仮想平面を世界座標系のXZ平面に平行な平面として設定した場合の推定方法を説明する。すなわち、世界座標系のY座標が固定(Yw=Yw0)された位置の集まりを投影用仮想平面と想定する。また、回転行列Rの推定は、上記性質より並進行列に依存しないので、カメラ座標系の原点を世界座標系の原点に設定する。
以上の想定を踏まえ、回転行列Rの具体的な推定方法を説明する。まず、回転行列推定手段22は、法線ベクトル取得手段21が取得した法線ベクトルを、投影用仮想平面記憶手段31が記憶する地面に対して垂直な投影用仮想平面に投影する。
つまり、回転行列推定手段22は、図5に例示するように、上記式1,式2、投影用仮想平面を表す世界座標系のY座標(=Yw0)、T=[0、0、0]tを用いて、画像上の法線ベクトルの2つの端点(mai=[xai、yai、1]t、mbi=[xbi、ybi、1]t)に対応する投影用仮想平面上の点(Mwai=[Xwai、Yw0、Zwai]t、Mwbi=[Xwbi、Yw0、Zwbi]t)を求める。なお、回転行列Rの推定は、並進行列Tに依存しないことからT=0としている。また、iは法線ベクトルの番号を示す。
次に、回転行列推定手段22は、投影された法線ベクトルの地面に対する垂直性を上記で示した性質に基づいて評価し、回転行列Rを推定する。評価の際には、以下の式3に例示する評価指標が用いられる。式3に例示する評価指標は、投影された法線ベクトルが地面に対して垂直になると0に近づく指標である。回転行列推定手段22は、この評価指標を最小になるように回転行列Rを最適化することで回転行列Rを推定する。回転行列推定手段22は、回転行列Rを最適化する方法として、例えば、最急降下法など、最適化手法として知られた手法を用いればよい。
式3におけるWiは法線ベクトルに対する重みであり、nは法線ベクトルの数である。重み付けを行う方法として、例えば、実空間で精度を要求するエリアの法線ベクトルの重みを大きくする、レンズ歪みが少なく安定した変換が行える画像中心の法線ベクトルの重みを大きくする、法線ベクトルの長さが長いほど重みを大きくする、などの方法がある。なお、用途に応じてこれ以外の方法を用いて重み付けを行ってもよい。
以下に示す式4のように、Z軸回転θz、Y軸回転θy、X軸回転θxを用いて、回転行列Rを3次元のパラメータで表すことができる。
図6は、回転行列Rの軸回転とカメラのロール、ピッチおよびヨー回転の関係の例を示す説明図である。カメラ座標系の原点を世界座標系の原点に設定した場合、この回転行列Rは、図6に示すように、RのZ軸回転θzがカメラのロール回転に一致し、RのX軸回転θxがカメラのピッチ回転に一致し、RのY軸回転θyがカメラのヨー回転に一致する。
上述する想定により、回転行列Rを推定する際には、カメラのヨー回転は0で固定される。よって、回転行列RのY軸回転θyは0度に固定される。したがって、回転行列推定手段22は、回転行列Rを、Z軸回転θz(ロール回転)とX軸回転θx(ピッチ回転)の2次元をパラメータとして推定すればよい。
以上が、回転行列Rの推定方法の例である。なお、上記では、回転行列Rを推定する評価指標の算出に式3が用いられる方法を説明した。投影された法線ベクトルが地面に対して垂直になる性質を評価できれば、回転行列推定手段22は、式3により算出される以外の評価指標を用いてもよい。
回転行列推定手段22は、例えば、世界座標系のZ軸に対する投影された法線ベクトルの傾きを評価する方法を用いても、投影された法線ベクトルが地面に対して垂直になることを評価できる。以下に示す式5は、この評価指標を算出する方法を示している。式5により算出される評価指標は、投影された法線ベクトルが地面に対して垂直であるほど、0に近づく指標である。よって、回転行列推定手段22は、回転行列Rを推定する際、式3の評価指標の代わりに、式5の評価指標を用いることも可能である。
式5におけるθiは、世界座標系のZ軸と投影された法線ベクトルとのなす角度であり、Wiは法線ベクトルに対する重みである。世界座標系のZ軸の単位ベクトルと、投影された法線ベクトルの内積を利用することで、cosθiの値を簡単に算出することが可能である。
重み付けを行う方法として、例えば、実空間で精度を要求するエリアの法線ベクトルの重みを大きくする、レンズ歪みが少なく安定した変換が行える画像中心の法線ベクトルの重みを大きくする、法線ベクトルの長さが長いほど重みを大きくする、などの方法がある。なお、用途に応じてこれ以外の方法を用いて重み付けを行ってもよい。
また、回転行列推定手段22は、回転行列Rを推定する際の評価指標に、世界座標系のZ軸の単位ベクトルと投影された法線ベクトルの外積の大きさを用いてもよい。回転行列推定手段22は、この評価指標を用いても、世界座標系のZ軸に対する投影された法線ベクトルの傾きを評価できる。すなわち、投影された法線ベクトルが地面に対して垂直になることが評価される。
なお、法線ベクトル取得手段21が法線ベクトルを自動で取得する場合、外れ値が多く含まれる可能性が高い。そこで、回転行列推定手段22は、回転行列を推定する際、RANSAC(Random sample consensus )等のロバスト推定を行うことで、推定の精度を高めてもよい。
以下、RANSACを用いた回転行列Rの推定方法の例を説明する。まず、回転行列推定手段22は、自動で得られた法線ベクトルn個からランダムにm個をサンプリングする。回転行列推定手段22は、サンプリングしたm個の法線ベクトルを用いて、上記式3や式5を用いた推定方法を用いて、回転行列Rを推定する。
次に、回転行列推定手段22は、推定した回転行列Rを用いて、全ての法線ベクトルn個を投影用仮想平面に投影する。そして、回転行列推定手段22は、投影されたそれぞれの法線ベクトルの傾きを評価する。
ここで、法線ベクトルの傾きを評価するとは、投影された法線ベクトルの端点におけるX座標の誤差(|Xwai−Xwbi|)を評価することや、世界座標系Z軸に対する投影された法線ベクトルの角度誤差(傾き)を評価することを示す。すなわち、法線ベクトルの傾きを評価するとは、投影された法線ベクトルが垂直である度合いを評価することであると言える。
回転行列推定手段22は、誤差が閾値以下になる(すなわち、外れ値でない)法線ベクトルの数を計測する。そして、回転行列推定手段22は、計測された法線ベクトルの数が最も多い回転行列Rを記憶しておく。
回転行列推定手段22は、以上の処理(すなわち、回転行列Rの推定および評価)を複数回試行した後、誤差が閾値以下になる法線ベクトルの数が最も多い回転行列Rを用いて、再度、全ての法線ベクトルを評価する。
そして、回転行列推定手段22は、誤差が閾値以下になる(すなわち、外れ値を除いた)法線ベクトルを抽出し、抽出した法線ベクトルを用いて、上述する方法により回転行列Rを推定する。以上が、RANSACを用いてロバストに回転行列Rを推定する方法の例である。
並進行列推定手段23は、内部パラメータと回転行列Rを用いて実空間上の3次元座標に投影された高さ情報が既知な法線ベクトルと、実空間上の垂直方向とのずれを示す誤差に基づいて、並進行列Tを推定する。
具体的には、並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルの一方の端点を、内部パラメータ記憶手段32に記憶された内部パラメータと回転行列推定手段22が推定した回転行列Rを含むカメラパラメータを用いて実空間に投影する。すなわち、並進行列推定手段23は、画像上の法線ベクトルを実空間上に投影した際の一方の端点の3次元座標を求める。
並進行列推定手段23は、法線ベクトルにおける2つの対になる端点が高さ情報のみ異なることを利用して、投影された一方の端点と対になる他の端点の3次元座標を取得し、取得した3次元座標を画像上へ再投影する。3次元座標を画像上へ再投影する際にも、内部パラメータおよび回転行列Rを含むカメラパラメータが用いられる。このように、並進行列推定手段23は、3次元座標に投影された一方の端点と対になる他の端点を画像上の再投影点として求める。
並進行列推定手段23は、再投影点の座標と画像上から直接得られた他の端点の座標との誤差を評価して並進行列Tを推定する。具体的には、並進行列推定手段23は、再投影点の座標と画像上から直接得られた他の端点の座標の誤差が最小になるよう並進行列Tを最適化することで並進行列Tを推定する。
以下、並進行列推定手段23が並進行列Tを推定する方法を詳細に説明する。図7は、並進行列を推定する方法の例を示す説明図である。
まず、並進行列推定手段23は、高さ情報が既知な法線ベクトルの一方の端点であるC点の座標mLj=[xLj、yLj、1]tを、その端点の実空間上の高さ情報(ここでは、世界座標系のZ座標=hLjとする。)と、上記式1および式2を用いて実空間上に投影する。なお、上記式1における回転行列Rには回転行列推定手段22が推定した回転行列Rが用いられる。
具体的には、並進行列推定手段23は、C点を実空間上の3次元座標に投影したD点の座標MwLj=[XwLj、YwLj、hLj]tを求める。ここで、jは、高さ情報が既知な法線ベクトルの番号である。
本来、法線ベクトルにおいて2つの対になる端点は、実空間において高さ情報が異なるだけである。よって、並進行列推定手段23は、投影された端点(D点)の3次元座標MwLjの高さhLjを、端点と対になる端点の高さ情報(世界座標系のZ座標=hHj)に変更した座標を、他の端点(E点)の座標と推定する。すなわち、並進行列推定手段23は、投影された端点の3次元座標MwLjの高さhLjをhHjに変更することで、端点(D点)と対になる端点(E点)の実空間上の3次元座標MwHj=[XwLj、YwLj、hHj]tを求めることができる。
さらに、並進行列推定手段23は、端点と対になる端点(すなわち、E点)の実空間上の3次元座標MwHjを、上記式1および式2を用いて画像上に再投影し、この点を再投影点(F点)m’Hj=[x’ Hj、y’ Hj、1]tとして求める。なお、上記式1における回転行列Rには、回転行列推定手段22が推定した回転行列Rが用いられる。
本来、用いたカメラパラメータ(R、T)が正しいならば、再投影点として求めた端点(C点)と対になる端点(F点)の座標m’Hjと、直接画像から得られた端点(G点)の座標mHj=[xHj、yHj、1]tとは同じ点になる。すなわち、m’HjとmHjとは一致するはずである。
カメラパラメータのうち、回転行列Rは、回転行列推定手段22が推定済みであり、固定されている。よって、残りのカメラパラメータである並進行列Tが正しければ、再投影点の座標m’Hjと直接画像から得られた端点と対になる端点の座標mHjは一致することになる。
そこで、並進行列推定手段23は、以下に示す式6により算出される評価指標を用いて、再投影点の座標m’Hjと直接画像から得られた端点と対になる端点の座標mHjの誤差(以下、再投影誤差と記す。)を評価する。具体的には、並進行列推定手段23は、再投影誤差が最小になるように並進行列Tを最適化することで並進行列Tを推定する。並進行列推定手段23は、並進行列Tを最適化する方法として、例えば、最急降下法など、最適化手法として知られた手法を用いればよい。
式6において、W’jは法線ベクトルに対する重みであり、lは高さ情報が既知な法線ベクトルの数である。重み付けを行う方法として、例えば、実空間で精度を要求するエリアの法線ベクトルの重みを大きくする、レンズ歪みが少なく安定した変換が行える画像中心の法線ベクトルの重みを大きくする、法線ベクトルの長さが長いほど重みを大きくする、などの方法がある。なお、用途に応じてこれ以外の方法を用いて重み付けを行ってもよい。
並進行列Tは、3次元のパラメータである。上述する想定により、世界座標系のZ軸上にカメラ座標系の原点が設置される、というカメラ座標系と世界座標系の位置に制約が設けられている。そこで、並進行列Tは、以下に示す式7のように、世界座標系のZ座標の1次元のパラメータとして表される。よって、並進行列推定手段23は、このZwpの1次元をパラメータとして並進行列Tを推定すればよい。
式7におけるMwpは、カメラ座標系の原点座標を世界座標系で表した座標である。このように、並進行列推定手段23は、パラメータの探索空間を1次元(Zwp)に限定して並進行列Tを推定すればよい。そのため、容易に探索が可能であると共に、探索を行う際に用いられる情報が少なくても探索可能である。つまり、高さ情報が既知な法線ベクトルが少なくても推定可能であるというメリットが得られる。
以上、並進行列推定手段23が画像上の法線ベクトルの一方の端点を実空間上に投影し、投影した端点に対応する実空間上の他の端点を算出後に、算出された他の端点を画像上に再投影する方法を説明した。以下では、並進行列推定手段23が別の方法を用いて並進行列Tを推定する方法を説明する。
並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルにおける2つの端点を、内部パラメータ記憶手段32に記憶された内部パラメータと回転行列推定手段22が推定した回転行列Rを含むカメラパラメータを用いて、実空間に投影する。これにより、並進行列推定手段23は、画像上の法線ベクトルを実空間上に投影した際の2つの端点の3次元座標を求める。
次に、並進行列推定手段23は、求めた2つの3次元座標からそれぞれ高さ情報を除くことにより、2次元座標を求める。並進行列推定手段23は、対になる2つの端点の2次元座標の誤差を評価する。具体的には、並進行列推定手段23は、対になる2つの端点の2次元座標における誤差が最小になるように並進行列Tを最適化することで並進行列Tを推定する。
以下、並進行列推定手段23が並進行列Tを推定する方法を詳細に説明する。図8は、並進行列を推定する他の方法の例を示す説明図である。
まず、並進行列推定手段23は、高さ情報が既知な法線ベクトルにおける2つの端点であるO点の座標mLj=[xLj、yLj、1]tと、P点の座標mHj=[xHj、yHj、1]tとを、端点の実空間上の高さ情報(ここでは、O点に対応する世界座標系のZ座標=hLj、P点に対応する世界座標系のZ座標=hHj)と、上記式1および式2を用いて実空間上に投影する。なお、上記式1における回転行列Rには回転行列推定手段22が推定した回転行列Rが用いられる。
具体的には、並進行列推定手段23は、O点を実空間上の3次元座標に投影したQ点の座標MwLj=[XwLj、YwLj、hLj]tと、P点を実空間上の3次元座標に投影したR点の座標MwHj=[xwHj、ywHj、hHj]tとを求める。なお、jは、高さ情報が既知な法線ベクトルの番号である。
本来、実空間上の法線ベクトルは、地面に対して垂直なため、用いたカメラパラメータが正しいならば、画像上の法線ベクトルに対する2つの端点の3次元座標は、高さ情報を除いて一致するはずである。
そこで、並進行列推定手段23は、求めた対になる2つの端点の3次元座標MwLj、 MwHjから、それぞれ高さ情報を除いた2次元座標を求める。具体的には、並進行列推定手段23は、3次元座標MwLjから高さ情報を除いた2次元座標M’wLj=[xwLj、ywLj]tを求める。この2次元座標M’wLjをS点とする。同様に、並進行列推定手段23は、3次元座標MwHjから高さ情報を除いた2次元座標M’wHj=[xwHj、ywHj]tを求める。この2次元座標M’wHjをU点とする。
並進行列推定手段23は、以下に示す式8により算出される評価指標を用いて、2次元座標M’wLjとM’wHjの誤差を評価する。具体的には、並進行列推定手段23は、この誤差が最小になるように並進行列Tを最適化することで並進行列Tを推定する。並進行列推定手段23は、並進行列Tを最適化する方法として、例えば、最急降下法など、最適化手法として知られた手法を用いればよい。
式8において、W’jは法線ベクトルに対する重みであり、lは高さ情報が既知な法線ベクトルの数である。重み付けを行う方法として、例えば、実空間で精度を要求するエリアの法線ベクトルの重みを大きくする、レンズ歪みが少なく安定した変換が行える画像中心の法線ベクトルの重みを大きくする、法線ベクトルの長さが長いほど重みを大きくする、などの方法がある。なお、用途に応じてこれ以外の方法を用いて重み付けを行ってもよい。また、並進行列Tは、上述で説明した通り、式7に示すような1次元のパラメータである。
法線ベクトル取得手段21と、回転行列推定手段22と、並進行列推定手段23とは、プログラム(カメラ校正用プログラム)に従って動作するコンピュータのCPU(Central Processing Unit )によって実現される。例えば、プログラムは、カメラ校正装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、法線ベクトル取得手段21、回転行列推定手段22および並進行列推定手段23として動作してもよい。また、法線ベクトル取得手段21と、回転行列推定手段22と、並進行列推定手段23とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態のカメラ校正装置の動作例を説明する。図9は、本実施形態のカメラ校正装置の動作例を示すフローチャートである。画像供給装置1は、校正を行うカメラが撮影する画像を法線ベクトル取得手段21へ供給する。
法線ベクトル取得手段21は、画像供給装置1から供給された画像に映りこむ机や棚、ビルなどの人工物体や、人物などから、手動または自動で地面に対して垂直な法線ベクトルを取得する(ステップS1)。
さらに、法線ベクトル取得手段21は、取得した法線ベクトルのいくつかについて、法線ベクトルを形成する高さ情報が既知な物体などから、法線ベクトルの端点(2点)における実空間上の高さを示す高さ情報を取得する(ステップS2)。高さ情報は、例えば、世界座標系のZ軸の値である。また、なお、高さ情報を取得する際に用いられる物体について、高さ情報以外の3次元情報は不要である。
回転行列推定手段22は、法線ベクトルを用いて回転行列Rを推定する(ステップS3)。具体的には、回転行列推定手段22は、法線ベクトル取得手段21が取得した法線ベクトルを、内部パラメータ記憶手段32に記憶された内部パラメータと、カメラの姿勢を表すカメラパラメータとを用いて、投影用仮想平面記憶手段31に記憶されている地面に対して垂直な投影用仮想平面に投影する。そして、回転行列推定手段22は、投影された法線ベクトルの地面に対する垂直性を評価して、カメラの姿勢を表す回転行列Rを最適化することで回転行列Rを推定する。
ステップS3の処理を、さらに説明する。図10は、回転行列推定手段22が回転行列を推定する処理の例を示すフローチャートである。回転行列推定手段22は、法線ベクトル取得手段21が取得した法線ベクトルを、式1、式2、投影用仮想平面を表す世界座標系のY座標、および、並進行列T=[0、0、0]tを用いて、投影用仮想平面記憶手段31に記憶されている地面に対して垂直な投影用仮想平面に投影する(ステップS301)。なお、回転行列Rの推定は並進行列Tに依存しないため、T=0としている。
次に、回転行列推定手段22は、投影された法線ベクトルの地面に対する垂直性を評価するため、式3または式5を用いて評価指標を算出する(ステップS302)。そして、回転行列推定手段22は、算出された評価指標が最小であるか(すなわち、評価指標が収束したか)否かを判定する(ステップS303)。
評価指標が最小でない(収束していない)場合(ステップS303におけるNo)、回転行列推定手段22は、式3または式5で表わされる評価指標関数(具体的には、式3または式5におけるargmin後部の括弧内に示される関数)の傾きに基づいて、上記の式4におけるZ軸回転θz、X軸回転θxを更新することにより回転行列Rを更新し(ステップS304)、ステップS301〜ステップS303の処理を繰り返す。
評価指標関数の傾きに基づいて回転行列推定手段22が回転行列Rを更新する方法には、一般的な最適化手法が用いられる。最適化手法には、例えば、最急降下法、ニュートン法、共役勾配法、ガウス・ニュートン法、レーベンバーグ・マーカート法などが挙げられるが、最適化手法は、上記方法に限定されない。
一方、評価指標が最小である(収束している)場合(ステップS303におけるYes)、回転行列推定手段22は、現状の回転行列Rを最適化された値と判断し、回転行列Rの推定処理(すなわち、図9におけるステップS3の処理)を終了する。
次に、並進行列推定手段23は、高さ情報が既知な法線ベクトルと推定済みの回転行列Rとを用いて、並進行列Tを推定する(図9におけるステップS4)。具体的には、並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルの一方の端点を、内部パラメータ記憶手段32に記憶された内部パラメータと回転行列推定手段22が推定した回転行列Rを含むカメラパラメータを用いて、実空間に投影することにより3次元座標を求める。そして、並進行列推定手段23は、法線ベクトルの2つの対になる端点が高さ情報のみ異なることを利用して、実空間に投影した一方の端点と対になる他方の端点の実空間上の3次元座標を算出する。
並進行列推定手段23は、算出した他方の端点の実空間上における3次元座標を画像上へ再投影することで、再投影した端点を画像上の一方の端点と対になる再投影点として算出する。並進行列推定手段23は、直接画像から得られた一方の端点と対になる他方の端点の座標と、再投影した端点の座標との誤差を評価する。具体的には、並進行列推定手段23は、誤差が最小になるようカメラの姿勢を表す並進行列Tを最適化することで並進行列Tを推定する。
ステップS4の処理を、さらに説明する。図11は、並進行列推定手段23が並進行列を推定する処理の例を示すフローチャートである。
並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルの一方の端点を、その端点の実空間上の高さ情報と、上記式1および式2を用いて、実空間に投影することで、実空間上の3次元座標を求める(ステップS401)。ここで、式1における回転行列Rには、回転行列推定手段22が推定した回転行列Rが用いられる。
次に、法線ベクトルの2つの対になる端点が実空間上において高さ情報のみ異なることを利用して、並進行列推定手段23は、投影された一方の端点の3次元座標における高さ情報を、その一方の端点と対になる他の端点の高さ情報に変更することで、他の端点の実空間上の3次元座標を算出する(ステップS402)。
並進行列推定手段23は、一方の端点と対になる他の端点の実空間上の3次元座標を、上記式1および式2を用いて画像上に再投影し、再投影した端点を再投影点として算出する(ステップS403)。ここで、式1における回転行列Rには、回転行列推定手段22が推定した回転行列Rが用いられる。
並進行列推定手段23は、再投影点として算出した端点の座標と、直接画像から得られた一方の端点と対になる他の端点の座標との誤差を評価指標として、上記式6を用いて算出する(ステップS404)。なお、この誤差は、両者の一致度合いを示すことから、並進行列推定手段23は、上記式6を用いて両者の一致性を評価していると言うこともできる。
並進行列推定手段23は、算出された評価指標が最小であるか(すなわち、評価指標が収束したか)否かを判定する(ステップS405)。評価指標が最小でない(収束していない)場合(ステップS405におけるNo)、並進行列推定手段23は、評価指標関数の傾きに基づいて、上記の式7におけるZwpを更新することにより並進行列Tを更新し(ステップS406)、ステップS401〜ステップS405までの処理を繰り返す。なお、評価指標関数の傾きに基づいて並進行列推定手段23が並進行列Tを更新する方法には、一般的な最適化手法が用いられる。
一方、評価指標が最小である(収束している)場合(ステップS405におけるYes)、並進行列推定手段23は、現状の並進行列Tを最適化された値と判断し、並進行列Tの推定処理(すなわち、図9におけるステップS4の処理)を終了する。
なお、並進行列推定手段23は、図11に例示するステップS401〜ステップS406の処理の代わりに、図12に例示するステップS410〜ステップS413の処理を行うことで、並進行列を推定してもよい。図12は、並進行列推定手段23が並進行列を推定する他の処理の例を示すフローチャートである。
上述の通り、図9に例示するステップS4において、並進行列推定手段23は、高さ情報が既知な法線ベクトルと推定済みの回転行列Rとを用いて、並進行列Tを推定する。具体的には、並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルの2つの端点を、内部パラメータ記憶手段32に記憶された内部パラメータと回転行列推定手段22が推定した回転行列Rを含むカメラパラメータを用いて、実空間に投影することにより3次元座標を求める。そして、並進行列推定手段23は、求めたそれぞれの端点の3次元座標から高さ情報を除いた2次元座標を算出し、対になる2つの端点の2次元座標の誤差を評価する。具体的には、並進行列推定手段23は、誤差が最小になるようカメラの姿勢を表す並進行列Tを最適化することで並進行列Tを推定する。
ステップS4の処理を、さらに説明する。並進行列推定手段23は、法線ベクトル取得手段21が取得した高さ情報が既知な法線ベクトルにおける2つの端点を、端点の実空間上の高さ情報と、上記式1および式2を用いて、実空間上に投影することで、2つの端点の実空間上の3次元座標を求める(図12におけるステップS410)。ここで、式1における回転行列Rには、回転行列推定手段22が推定した回転行列Rが用いられる。
次に、並進行列推定手段23は、求めた対になる2つの端点の3次元座標からそれぞれ高さ情報を除いた2次元座標を求める(ステップS411)。並進行列推定手段23は、この対になる2つの端点の2次元座標の誤差を評価指標として、上記式8を用いて算出する(ステップS412)。なお、この誤差は、両者の一致度合いを示すことから、並進行列推定手段23は、上記式8を用いて両者の一致性を評価していると言うこともできる。
並進行列推定手段23は、算出された評価指標が最小であるか(すなわち、評価指標が収束したか)否かを判定する(ステップS413)。評価指標が最小でない(収束していない)場合(ステップS413におけるNo)、並進行列推定手段23は、評価指標関数の傾きに基づいて、上記の式7におけるZwpを更新することにより並進行列Tを更新し(ステップS414)、ステップS410〜ステップS413までの処理を繰り返す。なお、評価指標関数の傾きに基づいて並進行列推定手段23が並進行列Tを更新する方法には、一般的な最適化手法が用いられる。
一方、評価指標が最小である(収束している)場合(ステップS413におけるYes)、並進行列推定手段23は、現状の並進行列Tを最適化された値と判断し、並進行列Tの推定処理(すなわち、図9におけるステップS4の処理)を終了する。
以上のように、第1の実施形態によれば、法線ベクトル取得手段21が校正対象のカメラの画像から基準となる水平面に対して垂直な法線ベクトルを取得する。回転行列推定手段22は、得られた法線ベクトルを基準となる水平面(すなわち、地面)に対して垂直な投影用仮想平面に投影する。そして、回転行列推定手段22は、投影された法線ベクトルが基準となる水平面に対して垂直になることを評価して回転行列Rを推定する。そのため、特別な校正用機材の設置や、校正に用いる参照点の3次元座標の計測を行わずに、高精度且つ容易にカメラパラメータを推定できる。
また、並進行列推定手段23が、内部パラメータと回転行列Rを用いて実空間上の3次元座標に投影された高さ情報が既知な法線ベクトルと、実空間上の垂直方向とのずれを示す誤差に基づいて、並進行列Tを推定してもよい。
すなわち、第1の実施形態では、配置が自由で、かつ、画像から数多く容易に取得できる、地面に対して垂直な法線ベクトルを利用する。具体的には、本実施形態では、法線ベクトルと、その法線ベクトルのうち実空間上の高さ情報が既知な数点の法線ベクトルを利用する。この法線ベクトルは、地面上の座標という、3次元座標の計測を必要としない情報である。そして、本実施形態では、次元数を拘束しながら、カメラパラメータである回転行列と並進行列の推定を行うので、特別な校正用機材の設置や、校正に用いられる参照点の3次元座標の計測を行うことなく、高精度かつ容易にカメラパラメータを推定できる。また、本実施形態では、対象の実空間が広い状況下でもカメラパラメータの推定が可能である。
また、本実施形態では、回転行列推定手段22が、法線ベクトルと、地面に対して垂直な投影用仮想平面に投影された法線ベクトルが並進行列Tに依存することなく垂直になる性質と、を用いて回転行列Rを推定する。なお、この法線ベクトルは、画像から数多く容易に取得できる、地面に対して垂直なベクトルである。よって、カメラパラメータから並進行列Tを分離して、回転行列Rのみを高精度に推定できる。
また、本実施形態では、回転行列推定手段22が法線ベクトルを用いて高精度に回転行列Rを推定してから、並進行列推定手段23が、実空間の高さ情報が既知な法線ベクトルを用いて、1次元という極端に拘束されたパラメータの並進行列Tを推定する。よって、実空間から唯一必要な情報である高さ情報の数が少なくても、カメラパラメータを推定することができる。
また、本実施形態では、カメラパラメータの推定において、回転行列推定手段22が、カメラのロール回転とピッチ回転のみの2次元という低い次元のパラメータで回転行列Rを拘束して(すなわち、探索範囲を狭くして)推定する。さらに、並進行列推定手段23が、世界座標系のZ軸上でのカメラ位置の移動のみの1次元という低い次元のパラメータで並進行列Tを拘束して(すなわち、探索範囲を狭くして)推定する。また、カメラパラメータの推定処理は、回転行列の推定処理後に、並進行列の推定処理が行われる。すなわち、これらの推定処理は、2段階で独立に行われる。よって、カメラパラメータの推定が局所解に陥りにくく、推定処理を高速に行うことができる。
また、本実施形態では、画像から得られる地面に対して垂直な法線ベクトルと、実空間上の高さ情報が既知な数点の法線ベクトルのみを用いてカメラパラメータを推定している。また、画像供給装置1が、例えば、校正を行うカメラの前を歩く身長が既知な歩行者を撮影すれば、法線ベクトル取得手段21は、撮影した画像中の頭部と足元を結ぶ法線ベクトルおよび高さ情報が既知な法線ベクトルを大量に得ることが可能である。よって、法線ベクトルのみを用いてカメラパラメータを推定できることと、その推定に必要な法線ベクトルを大量に得ることが可能であることから、容易にカメラパラメータを推定することができるようになる。
実施形態2.
図13は、本発明によるカメラ校正装置の第2の実施形態の構成例を示すブロック図である。なお、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。図13に例示するように、本発明によるカメラ校正装置の第2の実施形態は、図1に例示する第1の実施形態のカメラ校正装置に法線ベクトル選定手段24を追加した構成である。
図13は、本発明によるカメラ校正装置の第2の実施形態の構成例を示すブロック図である。なお、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。図13に例示するように、本発明によるカメラ校正装置の第2の実施形態は、図1に例示する第1の実施形態のカメラ校正装置に法線ベクトル選定手段24を追加した構成である。
法線ベクトル選定手段24は、法線ベクトル取得手段21から地面に対して垂直な法線ベクトルを受け取る。なお、ここでは、法線ベクトル取得手段21は、法線ベクトルを自動で取得したことなどが原因で、大量に誤りを含む法線ベクトルが法線ベクトル選定手段24に通知されると想定する。なお、法線ベクトル取得手段21が通知する情報は法線ベクトルに限られない。法線ベクトル取得手段21は、法線ベクトルを特定した対象の画像を合わせて法線ベクトル選定手段24に通知してもよい。法線ベクトル選定手段24は、ユーザの選択指示により、受け取った法線ベクトルの中から、正しい法線ベクトルを少なくとも1つ以上選択する。
法線ベクトル選定手段24は、選択された正しい法線ベクトルと、受け取った全ての法線ベクトルとを比較する。法線ベクトル選定手段24は、正しい法線ベクトルとして選択された法線ベクトルとの傾きが1つでも閾値以内である法線ベクトルをカメラ校正に有効な法線ベクトルとして選定する。そして、法線ベクトル選定手段24は、選定した法線ベクトルを再び法線ベクトル取得手段21へ通知する。
法線ベクトル選定手段24は、例えば、法線ベクトル取得手段21から通知された法線ベクトルおよび画像を表示する表示装置や、ユーザによる選択指示を受け付ける入力装置等を含むコンピュータにより実現される。
次に、本実施形態のカメラ校正装置の動作例を説明する。図14は、本実施形態のカメラ校正装置の動作例を示すフローチャートである。本実施形態のカメラ校正装置の動作は、図9に例示するフローチャートのステップS1の後に、新たにステップS5が追加されている点において、第1の実施形態のカメラ校正装置の動作と異なる。なお、ステップS1〜ステップS4の動作については、第1の実施形態と同様のため、説明を省略する。
画像供給装置1から法線ベクトル取得手段21に校正を行うカメラの画像が供給され、法線ベクトル取得手段21が法線ベクトルを取得すると、法線ベクトル取得手段21は、取得した法線ベクトルを法線ベクトル選定手段24に通知する。
法線ベクトル選定手段24は、法線ベクトル取得手段21から地面に対して垂直な法線ベクトルを受け取る。法線ベクトル選定手段24は、ユーザが選択した数点の正しい法線ベクトルに基づいて、カメラ校正に有効な法線ベクトルを選定する。そして、法線ベクトル選定手段24は、選定した法線ベクトルを法線ベクトル取得手段21へ通知する(ステップS5)。
ステップS5の処理を、さらに説明する。図15は、法線ベクトル選定手段24が法線ベクトルを選定する処理の例を示すフローチャートである。法線ベクトル選定手段24は、法線ベクトル取得手段21から地面に対して垂直な法線ベクトルを受け取る。法線ベクトル選定手段24は、画像に重畳される法線ベクトルの中から、ユーザの選択指示により、正しい法線ベクトルを少なくとも1つ以上選択する(ステップS501)。
法線ベクトル選定手段24は、全法線ベクトルのうち、比較対象の法線ベクトルを決定する(ステップS502)。法線ベクトル選定手段24は、正しい法線ベクトルとして選択された数点の法線ベクトルと、選択された法線ベクトルとの傾きが1つでも閾値以内か否かを判定する(ステップS503)。
選択された法線ベクトルとの傾きが1つでも閾値以内である場合(ステップS503におけるYes)、法線ベクトル選定手段24は、比較対象の法線ベクトルを蓄積しておく(ステップS504)。一方、選択された法線ベクトルとの傾きが1つも閾値以内でない場合(ステップS503におけるNo)、法線ベクトル選定手段24は、比較対象の法線ベクトルを蓄積しない。
次に、法線ベクトル選定手段24は、全ての法線ベクトルとの比較が終了したか否かを判定する(ステップS505)。残っている法線ベクトルがある場合(ステップS505におけるNo)、法線ベクトル選定手段24は、ステップS502〜ステップS505までの処理を繰り返す。
一方、全ての法線ベクトルとの比較が終了した場合(ステップS505におけるYes)、法線ベクトル選定手段24は、蓄積されている法線ベクトルを、カメラ校正に有効な選定された法線ベクトルとして、法線ベクトル取得手段21へ出力し(ステップS506)、図9におけるステップS5の処理を終了する。
以上のように、第2の実施形態によれば、法線ベクトル選定手段24が、法線ベクトル取得手段21によって取得された全ての法線ベクトルと、その全法線ベクトルからユーザにより選択された法線ベクトルとの傾きを比較する。そして、法線ベクトル選定手段24は、全ての法線ベクトルのうち、選択されたいずれかの法線ベクトルとの傾きが閾値以内である法線ベクトルをカメラ校正に有効な法線ベクトルとして選定する。したがって、第1の実施形態の効果に加え、法線ベクトル取得手段21が取得した法線ベクトルに大量の誤りが含まれる場合であっても、高精度且つ容易にカメラパラメータを推定できる。
すなわち、本実施形態では、法線ベクトル選定手段24が数点の選択された正しい法線ベクトルに基づいて、カメラ校正に有効な法線ベクトルを選定する。そのため、法線ベクトル取得手段21が自動で取得した法線ベクトルに大量に誤りが含まれる場合であっても、カメラパラメータを推定することが可能になる。
実施形態3.
図16は、本発明によるカメラ校正装置の第3の実施形態の構成例を示すブロック図である。本実施形態では、第1の実施形態と同様の画像供給装置1、および、投影用仮想平面記憶手段31と内部パラメータ記憶手段32とを含む記憶装置3が、コンピュータ100に接続されている。また、カメラ校正用プログラム101を記憶するコンピュータ可読記憶媒体102がコンピュータ100に接続されている。
図16は、本発明によるカメラ校正装置の第3の実施形態の構成例を示すブロック図である。本実施形態では、第1の実施形態と同様の画像供給装置1、および、投影用仮想平面記憶手段31と内部パラメータ記憶手段32とを含む記憶装置3が、コンピュータ100に接続されている。また、カメラ校正用プログラム101を記憶するコンピュータ可読記憶媒体102がコンピュータ100に接続されている。
コンピュータ可読記憶媒体102は、磁気ディスクや半導体メモリ等で実現される。コンピュータ可読記憶媒体102に記憶されるカメラ校正用プログラム101は、コンピュータ100の立ち上げ時などに、コンピュータ100に読み取られ、そのコンピュータ100の動作を制御することにより、そのコンピュータ100を、前述した第1の実施形態におけるデータ処理装置2内の法線ベクトル取得手段21、回転行列推定手段22および並進行列推定手段23として機能させる。また、カメラ校正用プログラム101は、コンピュータ100に、図9〜図12に例示する処理を実行させる。
なお、本実施形態では、第1の実施形態のカメラ校正装置をコンピュータとプログラムとで実現する方法を示した。本実施形態と同様の方法で、第2の実施形態のカメラ校正装置をコンピュータとプログラムとで実現することも可能である。
次に、本発明の概要を説明する。図17は、本発明によるカメラ校正装置の概要を示すブロック図である。本発明によるカメラ校正装置は、校正対象のカメラの画像から、基準となる水平面(例えば、地面)に対して垂直な法線ベクトルを取得する法線ベクトル取得手段81(例えば、法線ベクトル取得手段21)と、得られた法線ベクトルを基準となる水平面に対して垂直な投影用仮想平面(例えば、世界座標系のZ軸方向に平行な平面)に投影し、投影された法線ベクトルが基準となる水平面に対して垂直になることを評価して(例えば、垂直である度合いを判断して)、カメラの校正に用いられる回転行列(例えば、回転行列R)を推定する回転行列推定手段82(例えば、回転行列推定手段22)とを備えている。
そのような構成により、特別な校正用機材の設置や、校正に用いる参照点の3次元座標の計測を行わずに、高精度且つ容易にカメラパラメータを推定できる。
また、本発明によるカメラ校正装置は、カメラの校正に用いられる並進行列(例えば、並進行列T)を推定する並進行列推定手段(例えば、並進行列推定手段23)を備えていてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得手段と、得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定する回転行列推定手段とを備えたことを特徴とするカメラ校正装置。
(付記2)カメラの校正に用いられる並進行列を推定する並進行列推定手段を備え、法線ベクトル取得手段は、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、前記並進行列推定手段は、前記高さ情報が取得された法線ベクトルの一方の端点を回転行列推定手段が推定した回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された3次元座標と前記高さ情報を用いて前記一方の端点と対になる他の端点の3次元座標を算出し、算出した他の端点の3次元座標を前記回転行列を用いて画像上に再投影することにより当該画像上の他の端点の座標を算出し、画像上に再投影された前記他の端点の座標と画像から直接得られる前記他の端点の座標との誤差が最小になるように前記並進行列を推定する付記1記載のカメラ校正装置。
(付記3)カメラの校正に用いられる並進行列を推定する並進行列推定手段を備え、法線ベクトル取得手段は、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、前記並進行列推定手段は、前記高さ情報が取得された法線ベクトルの両端点を回転行列推定手段が推定した回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された両端点の3次元座標からそれぞれ高さ情報を除いた2次元座標を算出し、算出された両端点の2次元座標の誤差が最小になるように前記並進行列を推定する付記1記載のカメラ校正装置。
(付記4)高さ情報の測定に用いられる測定媒体が配置された撮影空間内を法線ベクトルで表される移動媒体が動き回っている移動状態と、前記移動媒体が前記測定媒体にて高さ情報を取得可能な位置を通過する通過状態とを撮影した動画像を法線ベクトル取得手段に供給する画像供給手段を備え、法線ベクトル取得手段は、前記画像供給手段から供給される動画像から、前記移動媒体を追跡することにより、高さ情報が既知な法線ベクトルを複数取得する付記2または付記3記載のカメラ校正装置。
(付記5)回転行列推定手段は、世界座標系のZ軸方向に平行な平面として定義される投影用仮想平面に投影された法線ベクトルの当該世界座標系のZ軸に対する傾き量を算出することにより当該法線ベクトルが基準となる水平面に対して垂直になることを評価し、当該傾き量が示す誤差が最小になるように回転行列を推定する付記1から付記4のうちのいずれか1つに記載のカメラ校正装置。
(付記6)回転行列推定手段は、世界座標系のXZ平面に平行な平面として定義される投影用仮想平面に投影された法線ベクトルの両端点におけるX軸方向の誤差を算出することにより当該法線ベクトルが基準となる水平面に対して垂直になることを評価し、当該誤差が最小になるように回転行列を推定する付記1から付記4のうちのいずれか1つに記載のカメラ校正装置。
(付記7)回転行列推定手段は、画像を撮影するカメラの回転をロール回転とピッチ回転のみによる2次元のパラメータで制約することにより回転行列を推定し、並進行列推定手段は、世界座標系のZ軸上にカメラがあると想定し、カメラの位置を当該世界座標系のZ軸上の位置を示す1次元のパラメータで制約することにより並進行列を推定する付記1から付記6のうちのいずれか1つに記載のカメラ校正装置。
(付記8)法線ベクトル取得手段により得られた全法線ベクトルと当該全法線ベクトルからユーザにより選択された正しい選択法線ベクトルとの傾きを比較し、全法線ベクトルのうち、いずれかの前記選択法線ベクトルとの傾きが閾値以内である法線ベクトルをカメラ校正に有効な法線ベクトルとして選定する法線ベクトル選定手段を備えた付記1から付記7のうちのいずれか1つに記載のカメラ校正装置。
(付記9)校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得し、得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定することを特徴とするカメラ校正方法。
(付記10)得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、前記高さ情報が取得された法線ベクトルの一方の端点を推定された回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された3次元座標と前記高さ情報を用いて前記一方の端点と対になる他の端点の3次元座標を算出し、算出した他の端点の3次元座標を前記回転行列を用いて画像上に再投影することにより当該画像上の他の端点の座標を算出し、画像上に再投影された前記他の端点の座標と画像から直接得られる前記他の端点の座標との誤差が最小になるように、カメラの校正に用いられる並進行列を推定する付記9記載のカメラ校正方法。
(付記11)得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、前記高さ情報が取得された法線ベクトルの両端点を推定された回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された両端点の3次元座標からそれぞれ高さ情報を除いた2次元座標を算出し、算出された両端点の2次元座標の誤差が最小になるように、カメラの校正に用いられる並進行列を推定する付記9記載のカメラ校正方法。
(付記12)コンピュータに、校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得処理、および、得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定する回転行列推定処理を実行させるためのカメラ校正用プログラム。
(付記13)コンピュータに、カメラの校正に用いられる並進行列を推定する並進行列推定処理を実行させ、法線ベクトル取得処理で、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得させ、前記並進行列推定処理で、前記高さ情報が取得された法線ベクトルの一方の端点を回転行列推定処理で推定された回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出させ、算出された3次元座標と前記高さ情報を用いて前記一方の端点と対になる他の端点の3次元座標を算出させ、算出した他の端点の3次元座標を前記回転行列を用いて画像上に再投影することにより当該画像上の他の端点の座標を算出させ、画像上に再投影された前記他の端点の座標と画像から直接得られる前記他の端点の座標との誤差が最小になるように前記並進行列を推定させる付記12記載のカメラ校正用プログラム。
(付記14)コンピュータに、カメラの校正に用いられる並進行列を推定する並進行列推定処理を実行させ、法線ベクトル取得処理で、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得させ、前記並進行列推定処理で、前記高さ情報が取得された法線ベクトルの両端点を回転行列推定処理で推定された回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された両端点の3次元座標からそれぞれ高さ情報を除いた2次元座標を算出させ、算出された両端点の2次元座標の誤差が最小になるように前記並進行列を推定させる付記12記載のカメラ校正用プログラム。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2012年1月23日に出願された日本特許出願2012−010640を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、カメラの姿勢を表すカメラパラメータ(回転行列、並進行列)を推定する際、特別な校正用機材の設置や、校正に用いられる参照点の3次元座標の計測を行わないで、高精度且つ容易にカメラパラメータを推定するカメラ校正装置に好適に適用される。また、本発明は、そのカメラ校正装置をコンピュータに実現させるためのプログラムに好適に適用される。
また、本発明は、カメラ映像や蓄積映像から実空間上の3次元座標を必要とする監視分野やマーケティング分野において、物体検出、物体位置推定、動線解析、行動解析を行うための装置等に適用される。
さらに、本発明は、実空間上の3次元座標をカメラ映像や蓄積映像に投影する装置等にも適用される。さらに、本発明は、カメラ映像や蓄積映像に表示される物体の立体構造を復元する装置等にも適用される。さらに、本発明は、カメラ映像や蓄積映像から実空間上の3次元座標を入力する入力インタフェースにも適用される。さらに、本発明は、実空間上の3次元座標をトリガまたはキーとしてカメラ映像や蓄積映像の対象箇所に処理を行わせる装置等にも適用される。
これらの他、本発明は、カメラ設置後、カメラの自重や、地震、環境の振動などによって姿勢ずれを起こす可能性のあるカメラのカメラ姿勢を、リアルタイムに自動補正する装置等に適用される。
1 画像供給装置
2 データ処理装置
3 記憶装置
21 法線ベクトル取得手段
22 回転行列推定手段
23 並進行列推定手段
24 法線ベクトル選定手段
31 投影用仮想平面記憶手段
32 内部パラメータ記憶手段
100 コンピュータ
101 カメラ校正用プログラム
102 コンピュータ可読記憶媒体
2 データ処理装置
3 記憶装置
21 法線ベクトル取得手段
22 回転行列推定手段
23 並進行列推定手段
24 法線ベクトル選定手段
31 投影用仮想平面記憶手段
32 内部パラメータ記憶手段
100 コンピュータ
101 カメラ校正用プログラム
102 コンピュータ可読記憶媒体
Claims (10)
- 校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得手段と、
得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定する回転行列推定手段とを備えた
ことを特徴とするカメラ校正装置。 - カメラの校正に用いられる並進行列を推定する並進行列推定手段を備え、
法線ベクトル取得手段は、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、
前記並進行列推定手段は、前記高さ情報が取得された法線ベクトルの一方の端点を回転行列推定手段が推定した回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された3次元座標と前記高さ情報を用いて前記一方の端点と対になる他の端点の3次元座標を算出し、算出した他の端点の3次元座標を前記回転行列を用いて画像上に再投影することにより当該画像上の他の端点の座標を算出し、画像上に再投影された前記他の端点の座標と画像から直接得られる前記他の端点の座標との誤差が最小になるように前記並進行列を推定する
請求項1記載のカメラ校正装置。 - カメラの校正に用いられる並進行列を推定する並進行列推定手段を備え、
法線ベクトル取得手段は、得られた法線ベクトルのうち、少なくとも1つ以上の法線ベクトルの端点における高さを示す高さ情報を取得し、
前記並進行列推定手段は、前記高さ情報が取得された法線ベクトルの両端点を回転行列推定手段が推定した回転行列を用いて実空間に投影することにより当該実空間上の3次元座標を算出し、算出された両端点の3次元座標からそれぞれ高さ情報を除いた2次元座標を算出し、算出された両端点の2次元座標の誤差が最小になるように前記並進行列を推定する
請求項1記載のカメラ校正装置。 - 高さ情報の測定に用いられる測定媒体が配置された撮影空間内を法線ベクトルで表される移動媒体が動き回っている移動状態と、前記移動媒体が前記測定媒体にて高さ情報を取得可能な位置を通過する通過状態とを撮影した動画像を法線ベクトル取得手段に供給する画像供給手段を備え、
法線ベクトル取得手段は、前記画像供給手段から供給される動画像から、前記移動媒体を追跡することにより、高さ情報が既知な法線ベクトルを複数取得する
請求項2または請求項3記載のカメラ校正装置。 - 回転行列推定手段は、世界座標系のZ軸方向に平行な平面として定義される投影用仮想平面に投影された法線ベクトルの当該世界座標系のZ軸に対する傾き量を算出することにより当該法線ベクトルが基準となる水平面に対して垂直になることを評価し、当該傾き量が示す誤差が最小になるように回転行列を推定する
請求項1から請求項4のうちのいずれか1項に記載のカメラ校正装置。 - 回転行列推定手段は、世界座標系のXZ平面に平行な平面として定義される投影用仮想平面に投影された法線ベクトルの両端点におけるX軸方向の誤差を算出することにより当該法線ベクトルが基準となる水平面に対して垂直になることを評価し、当該誤差が最小になるように回転行列を推定する
請求項1から請求項4のうちのいずれか1項に記載のカメラ校正装置。 - 回転行列推定手段は、画像を撮影するカメラの回転をロール回転とピッチ回転のみによる2次元のパラメータで制約することにより回転行列を推定し、
並進行列推定手段は、世界座標系のZ軸上にカメラがあると想定し、カメラの位置を当該世界座標系のZ軸上の位置を示す1次元のパラメータで制約することにより並進行列を推定する
請求項1から請求項6のうちのいずれか1項に記載のカメラ校正装置。 - 法線ベクトル取得手段により得られた全法線ベクトルと当該全法線ベクトルからユーザにより選択された正しい選択法線ベクトルとの傾きを比較し、全法線ベクトルのうち、いずれかの前記選択法線ベクトルとの傾きが閾値以内である法線ベクトルをカメラ校正に有効な法線ベクトルとして選定する法線ベクトル選定手段を備えた
請求項1から請求項7のうちのいずれか1項に記載のカメラ校正装置。 - 校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得し、
得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、
投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定する
ことを特徴とするカメラ校正方法。 - コンピュータに、
校正対象のカメラの画像から、基準となる水平面に対して垂直な法線ベクトルを取得する法線ベクトル取得処理、および、
得られた法線ベクトルを前記基準となる水平面に対して垂直な投影用仮想平面に投影し、投影された法線ベクトルが前記基準となる水平面に対して垂直になることを評価して、前記カメラの校正に用いられる回転行列を推定する回転行列推定処理
を実行させるためのカメラ校正用プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012010640 | 2012-01-23 | ||
JP2012010640 | 2012-01-23 | ||
PCT/JP2012/007655 WO2013111229A1 (ja) | 2012-01-23 | 2012-11-29 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013111229A1 JPWO2013111229A1 (ja) | 2015-05-11 |
JP6011548B2 true JP6011548B2 (ja) | 2016-10-19 |
Family
ID=48873008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013555009A Active JP6011548B2 (ja) | 2012-01-23 | 2012-11-29 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9875542B2 (ja) |
EP (1) | EP2808645B1 (ja) |
JP (1) | JP6011548B2 (ja) |
WO (1) | WO2013111229A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020188799A1 (ja) * | 2019-03-20 | 2021-12-23 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法、及びプログラム |
US11830223B2 (en) | 2019-04-08 | 2023-11-28 | Nec Corporation | Camera calibration apparatus, camera calibration method, and nontransitory computer readable medium storing program |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10623649B2 (en) * | 2014-07-31 | 2020-04-14 | Hewlett-Packard Development Company, L.P. | Camera alignment based on an image captured by the camera that contains a reference marker |
CN104167001B (zh) * | 2014-08-27 | 2017-02-15 | 大连理工大学 | 基于正交补偿的大视场摄像机标定方法 |
JP6619927B2 (ja) * | 2014-10-24 | 2019-12-11 | 株式会社日立製作所 | キャリブレーション装置 |
JP6580407B2 (ja) * | 2015-07-30 | 2019-09-25 | 株式会社Screenホールディングス | 位置計測装置、データ補正装置、位置計測方法、およびデータ補正方法 |
FR3042893B1 (fr) * | 2015-10-27 | 2017-11-03 | Morpho | Procede de detection de fraude par projection d'image pre-enregistree |
CN105809702B (zh) * | 2016-03-29 | 2018-05-11 | 南京航空航天大学 | 一种基于Tsai算法的改进位姿估计方法 |
EP3264761A1 (en) * | 2016-06-23 | 2018-01-03 | Thomson Licensing | A method and apparatus for creating a pair of stereoscopic images using least one lightfield camera |
FR3053554B1 (fr) * | 2016-06-30 | 2018-08-03 | Continental Automotive France | Procede de calibration rapide d'une camera de vehicule automobile |
US10372970B2 (en) | 2016-09-15 | 2019-08-06 | Qualcomm Incorporated | Automatic scene calibration method for video analytics |
KR101979246B1 (ko) * | 2017-01-26 | 2019-05-16 | (주)로보케어 | 센서 좌표계를 게임 존에 캘리브레이션하는 방법 및 장치 |
US10175700B2 (en) * | 2017-03-22 | 2019-01-08 | The Boeing Company | Methods and apparatus to minimize command dynamics of a satellite |
CN108805934B (zh) * | 2017-04-28 | 2021-12-28 | 华为技术有限公司 | 一种车载摄像机的外部参数标定方法及装置 |
CN109099888A (zh) * | 2017-06-21 | 2018-12-28 | 中兴通讯股份有限公司 | 一种位姿测量方法、设备及存储介质 |
CN108416810A (zh) * | 2018-02-05 | 2018-08-17 | 北京邦天信息技术有限公司 | 相机标定中相机坐标系到世界坐标系的转换方法和装置 |
CN108917604B (zh) * | 2018-07-12 | 2020-07-17 | 上海航天设备制造总厂有限公司 | 一种法向测量装置及其标定方法 |
CN110727966B (zh) * | 2018-07-16 | 2021-11-16 | Oppo广东移动通信有限公司 | 图像处理方法和装置、存储介质、电子设备 |
CN110969664B (zh) * | 2018-09-30 | 2023-10-24 | 北京魔门塔科技有限公司 | 一种相机外部参数的动态标定方法 |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
WO2020073261A1 (zh) * | 2018-10-10 | 2020-04-16 | 深圳配天智能技术研究院有限公司 | 相机标定的装置、系统、方法及具有存储功能的装置 |
JP7211047B2 (ja) * | 2018-12-04 | 2023-01-24 | 株式会社アイシン | 路面検出装置および路面検出プログラム |
JP7096176B2 (ja) * | 2019-02-01 | 2022-07-05 | 株式会社日立製作所 | 物体位置推定装置およびその方法 |
CN111582293B (zh) * | 2019-02-19 | 2023-03-24 | 曜科智能科技(上海)有限公司 | 平面几何一致性检测方法、计算机设备、及存储介质 |
SG10201902705SA (en) * | 2019-03-26 | 2020-10-29 | Nec Asia Pacific Pte Ltd | Method and system for object detection coverage estimation |
TWI720447B (zh) * | 2019-03-28 | 2021-03-01 | 財團法人工業技術研究院 | 影像定位方法及其系統 |
JP7099627B2 (ja) * | 2019-04-24 | 2022-07-12 | 日本電気株式会社 | カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラム |
US11023741B1 (en) * | 2019-10-25 | 2021-06-01 | 7-Eleven, Inc. | Draw wire encoder based homography |
KR102593103B1 (ko) * | 2019-10-28 | 2023-10-24 | 주식회사 케이티 | 카메라를 정렬하는 장치, 방법 및 컴퓨터 프로그램 |
CN113538477B (zh) * | 2020-04-14 | 2023-08-29 | 北京达佳互联信息技术有限公司 | 平面位姿的获取方法、装置、电子设备及存储介质 |
CN113016007B (zh) * | 2020-08-12 | 2023-11-10 | 香港应用科技研究院有限公司 | 估计相机相对于地面的方位的装置和方法 |
CN114119684B (zh) * | 2020-08-31 | 2023-02-28 | 中国移动通信集团浙江有限公司 | 基于四面体结构的标记点配准方法 |
CN112148006A (zh) * | 2020-09-17 | 2020-12-29 | 常州锦瑟医疗信息科技有限公司 | 路径规划辅助调整设备及控制方法 |
CN112419416B (zh) * | 2020-12-10 | 2022-10-14 | 华中科技大学 | 一种基于少量控制点信息估计相机位置的方法和系统 |
CN112785656B (zh) * | 2021-01-29 | 2023-11-10 | 北京罗克维尔斯科技有限公司 | 双立体相机的标定方法及装置、电子设备及存储介质 |
CN113160331B (zh) * | 2021-04-20 | 2023-02-24 | 中国科学院空天信息创新研究院 | 一种基于视觉系统成像的外参数标定方法 |
US20240249433A1 (en) * | 2021-05-17 | 2024-07-25 | Nec Corporation | Imaging condition determination method, imaging condition determination system, imaging condition determination device, and computer readable medium |
CN113465548B (zh) * | 2021-08-23 | 2022-06-07 | 广东维正科技有限公司 | 条纹投影三维测量系统的标定及精度评估方法 |
CN115311359B (zh) * | 2022-07-18 | 2023-06-16 | 北京城市网邻信息技术有限公司 | 相机位姿校正方法、装置、电子设备及存储介质 |
US12094172B2 (en) | 2022-12-22 | 2024-09-17 | Industrial Technology Research Institute | Camera calibration method and camera calibration system |
CN116000391B (zh) * | 2023-01-07 | 2024-06-07 | 中国航空制造技术研究院 | 一种电液束加工电极光影校准调节装置及方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
US7106898B2 (en) * | 1999-12-06 | 2006-09-12 | California Institute Of Technology | 3D scanning using shadows |
KR100468857B1 (ko) * | 2002-11-21 | 2005-01-29 | 삼성전자주식회사 | 2차원 형상에 대한 투사 불변형 표현자를 이용한핸드/아이 캘리브레이션 방법 |
JP3891181B2 (ja) * | 2004-02-20 | 2007-03-14 | 住友電気工業株式会社 | カメラパラメータの自動算出方法及び装置 |
JP4328692B2 (ja) * | 2004-08-11 | 2009-09-09 | 国立大学法人東京工業大学 | 物体検出装置 |
JP4899424B2 (ja) * | 2005-11-04 | 2012-03-21 | トヨタ自動車株式会社 | 物体検出装置 |
US8009930B2 (en) * | 2008-03-26 | 2011-08-30 | City University Of Hong Kong | Auto-calibration method for a projector-camera system |
US8373763B2 (en) * | 2008-05-22 | 2013-02-12 | GM Global Technology Operations LLC | Self calibration of extrinsic camera parameters for a vehicle camera |
EP2154650A1 (en) * | 2008-08-12 | 2010-02-17 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | 3D time-of-flight camera system and position/orientation calibration method therefor |
JP4690476B2 (ja) * | 2009-03-31 | 2011-06-01 | アイシン精機株式会社 | 車載カメラの校正装置 |
US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
JP5331047B2 (ja) | 2010-04-01 | 2013-10-30 | 日本電信電話株式会社 | 撮像パラメータ決定方法、撮像パラメータ決定装置、撮像パラメータ決定プログラム |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
-
2012
- 2012-11-29 WO PCT/JP2012/007655 patent/WO2013111229A1/ja active Application Filing
- 2012-11-29 JP JP2013555009A patent/JP6011548B2/ja active Active
- 2012-11-29 US US14/373,726 patent/US9875542B2/en active Active
- 2012-11-29 EP EP12866684.9A patent/EP2808645B1/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020188799A1 (ja) * | 2019-03-20 | 2021-12-23 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法、及びプログラム |
JP7173285B2 (ja) | 2019-03-20 | 2022-11-16 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法、及びプログラム |
US12067747B2 (en) | 2019-03-20 | 2024-08-20 | Nec Corporation | Camera parameter calculation apparatus, camera parameter calculation method, and non-transitory computer readable medium storing program |
US11830223B2 (en) | 2019-04-08 | 2023-11-28 | Nec Corporation | Camera calibration apparatus, camera calibration method, and nontransitory computer readable medium storing program |
Also Published As
Publication number | Publication date |
---|---|
US9875542B2 (en) | 2018-01-23 |
EP2808645A4 (en) | 2015-11-04 |
EP2808645A1 (en) | 2014-12-03 |
US20150029345A1 (en) | 2015-01-29 |
JPWO2013111229A1 (ja) | 2015-05-11 |
WO2013111229A1 (ja) | 2013-08-01 |
EP2808645B1 (en) | 2019-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6011548B2 (ja) | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム | |
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP6237326B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6338021B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP4976756B2 (ja) | 情報処理方法および装置 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5111210B2 (ja) | 画像処理装置、画像処理方法 | |
WO2016199605A1 (ja) | 画像処理装置および方法、並びにプログラム | |
JP6503906B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2008070267A (ja) | 位置姿勢計測方法及び装置 | |
CN108827341A (zh) | 用于确定图像采集装置的惯性测量单元中的偏差的方法 | |
JP2019020778A (ja) | 情報処理装置、情報処理方法 | |
US10600202B2 (en) | Information processing device and method, and program | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
JP2017090420A (ja) | 3次元情報復元装置及び3次元情報復元方法 | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP6109213B2 (ja) | 情報処理装置および方法、プログラム | |
JP6843552B2 (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
JP2005031044A (ja) | 三次元誤差測定装置 | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
JP2005063012A (ja) | 全方位カメラ運動と3次元情報の復元方法とその装置及びプログラム並びにこれを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6011548 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |