JP4196784B2 - カメラ位置測定装置および方法並びにカメラ位置制御方法 - Google Patents

カメラ位置測定装置および方法並びにカメラ位置制御方法 Download PDF

Info

Publication number
JP4196784B2
JP4196784B2 JP2003302304A JP2003302304A JP4196784B2 JP 4196784 B2 JP4196784 B2 JP 4196784B2 JP 2003302304 A JP2003302304 A JP 2003302304A JP 2003302304 A JP2003302304 A JP 2003302304A JP 4196784 B2 JP4196784 B2 JP 4196784B2
Authority
JP
Japan
Prior art keywords
camera
screen
image
optical center
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003302304A
Other languages
English (en)
Other versions
JP2005073091A (ja
Inventor
俊夫 守屋
史子 紅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003302304A priority Critical patent/JP4196784B2/ja
Publication of JP2005073091A publication Critical patent/JP2005073091A/ja
Application granted granted Critical
Publication of JP4196784B2 publication Critical patent/JP4196784B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、バーチャルリアリティーやシミュレーションなどの分野で利用される広視野角で高精細な映像を取得するための撮影装置を構築するための測定装置および方法並びにカメラ位置制御方法に関する。
特殊な形状をした大型スクリーンに、広視野角で且つ高精細な映像を見るものを取り囲むように表示することで、より豊かな臨場感をもった映像空間を実現する高臨場感ディスプレイシステムと呼ばれる映像表示環境は、バーチャルリアリティーやシミュレーションなどの映像アプリケーションにおいてその効果的な利用が期待されている。
このような広視野角で且つ高精細な映像の撮影は、一般のカメラでは不可能であり、特別な撮影手段が必要になる。その実現形態の1つとして、マルチカメラシステムがある。
異なる方向に向けた複数のカメラで撮影した映像を、幾何学的変形などを施し繋ぎ合わせることで、目的となる1枚の映像を得ることができる。ただし互いの映像が完全にシームレスに繋がるためには、それぞれのカメラの光学中心が一致するという単一視点制約を、撮影時に満たす必要がある。
しかしながら、一般のカメラをそのように配置することは、直接的には不可能である。そこでこの問題を解決する方法として、ミラーを使う方法が考案された。
図2に示すとおり、光学中心の共役点が、ミラーを介して対称の位置となる性質を利用することで、複数のカメラの位置が異なりながらも、単一視点制約を満たす撮影が可能となる。その実現例として、特許文献1では、正十二面体のような多面体の各構成面上に撮影装置を搭載することにより、垂直方向水平方向ともに360°の画像を得る装置について述べており、撮影された各画像の接続を行う方法について述べている。また、非特許文献1においても、ピラミッド型に配置したミラーによるシステムの実現例が記載されている。
特開2001−204015号公報 T. Kawanishi, K. Yamazawa, H. Iwasa, H. Takemura, and N. Yokoya, "Generation of high-resolution stereo panoramic images by omnidirectional imaging sensor using hexagonal pyramidal mirrors," Proc. IAPR, International Conference on Pattern Recognition, I, pp. 485-489, 1998. R. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the shelf TV cameras and lenses," IEEE Journal. RA, Vol. 3, No. 4, 1987. K. Kanatani, Geometric Computation for Machine Vision, Oxford Science Publications, 1993. 守屋 俊夫, 武田 晴夫, 新井 民夫, "投影点観測による複数光線の照射方向推定方法," 電子情報通信学会論文誌, Vol. J86-D-II, No. 4, pp. 479-490, 2003.
背景技術で述べたようなミラー式マルチカメラシステムを実現するためには、各カメラの光学中心を実機上で合わせる作業が必要となる。すなわち、どのようにして光学中心を正確に合わせるかというキャリブレーション方法の確立である。
このようなキャリブレーションは、カメラのパラメータを求めるカメラキャリブレーション手法が適用できる。ここではまず、一般的なカメラキャリブレーションについて説明する。
まず、カメラモデルについて定義する。このカメラモデルには、コンピュータビジョンの分野などで広く用いられる代表的なモデルを仮定する。具体的には、焦点距離f(k)、歪みファクタs(k)、アスペクト比α(k)、画像中心(Δx(k),Δy(k))、湾曲歪みパラメータλ1(k),λ2(k)が定義され、外部パラメータとしては、カメラ位置を示す3次元ベクトルb(k)、カメラ方向を示す3×3の回転行列R(k)が定義される。なおここでkはカメラ番号である。
キャリブレーションパタンとなる3次元空間内の特徴点をpi、その点の第kカメラ画像上の位置をXi(k)=(xi(k),yi(k))とおく。これらの関係式は、
Figure 0004196784
であらわされる。ここで、
Figure 0004196784
で、C(k)()は湾曲歪み変換をおこなうλ1(k),λ2(k)を係数とする関数で、N[]はベクトルの第3要素を1にする正規化操作である。
式(1) から未知数以上の拘束式が得られるように複数点の観測を行い、それらを連立させて解を求めるのが、キャリブレーションの基本的な考え方である。その代表的な手法としては非特許文献2に示された手法などがある。
ところで、マルチカメラを構築する上で必要となるのは、複数カメラの位置b(k) (k=1,2,...) が一致しているかどうかを判別することであり、それ以外のパラメータは必要無い。しかし一般のカメラキャリブレーション手法では、すべての未知パラメータをそれがたとえ間接的であっても正確に求めない限り、b(k)の推定精度を上げることはできず、様々な誤差の影響を考慮する必要がある。
そこで本発明では、必要の無いパラメータに依存しない、複数カメラの光学中心位置一致判別手段及び当該判別手段を用いたカメラ位置の測定装置及び方法並びに制御方法を提供する。
上記課題を解決するため、本発明によるカメラ位置測定装置は、図形を描いた透明盤と、映像投影手段と、該映像投影手段によって投影される映像を表示するスクリーンと該カメラの撮影画像を入力する画像データ入力手段と、該カメラ移動手段を制御するカメラ位置制御手段と、該複数のカメラにふくまれる第1のカメラの撮影画像から、該透明盤に描かれた図形によって隠される該スクリーン上の図形である出力画像データを算出するとともに、該複数のカメラにふくまれかつ該第1のカメラとは異なる第2のカメラの撮影画像から、該第2のカメラの移動パラメータ及び該第1のカメラと該第2のカメラの光学中心位置が一致しているかどうかの情報を算出する演算手段と、該光学中心位置が一致しているかどうかの情報を表示する光学中心位置確認手段を有する。
また、上記装置を用いて実現するカメラ位置測定方法は、該第1のカメラの撮影画像において該透明盤に描かれた図形によって隠される該スクリーン上の図形の位置を探して記録するステップと、該スクリーンに新たに表示する図形の位置を算出して表示するステップと、第2のカメラの撮影画像における該透明盤の図形と該スクリーンに新たに表示された該図形との位置関係から、第2のカメラの移動パラメータを算出するステップとを有する。
また、カメラ位置制御方法は、複数のカメラそれぞれによってミラーを介して撮影されるスクリーン上の図形映像データと透明盤の座標データとによって、複数のカメラそれぞれの位置を制御することを特徴とする。
本発明によれば、ミラー式マルチカメラの光学中心位置を一致させるための測定において、カメラの焦点距離や歪みパラメータなどのカメラの内部パラメータには無関係に測定が行われるために、事前のキャリブレーションは不要であり、誤差の混入する可能性も低くなるため、高精度での測定が可能となる。また、カメラ位置制御方法によって、各カメラの光学中心を実機上で合わせる作業も簡素化され、作業の効率化が図ることが可能となる。
本発明の実施例の構成を図1に示す。
図1は、2台のカメラによるミラー式マルチカメラと、その光学中心位置判別手段を、上から見た図として示したものである。ここでは2台の構成としたが、同じような考え方でそれ以上の台数のものにも対応できる。
まず、ミラー式マルチカメラの原理と構成を説明する。ミラー式マルチカメラは複数のカメラ(310、3020)とミラー(200)によって組み立てられる。各カメラには、光学中心(4010、4020)がある。光学中心とは、図2に示すように、カメラが3次元空間にあるオブジェクト(2000)を透視投影モデルに従い撮像(2010)するとき、その視点(400)に相当するものである。実際のカメラの光学中心は図1に示した位置(4010、4020)にあるが、カメラがミラーに写る被写体を撮影するときは、その光学中心がミラーを介して線対称の位置にある仮想光学中心(305)にあるときと等価な映像が撮影される。よって実質的には、カメラがこの仮想光学中心(305)の位置にあるものと考えることができる。この性質を使うことで、実際のカメラの位置がそれぞれ異なりながらも、あたかも同一の光学中心から撮影したような、異なる方向の画像を複数枚同時に撮影することができる。
背景技術で説明したとおり、複数のカメラの画像をシームレスに接続するためには、各カメラにおける、この仮想光学中心(305)が完全に一致しなければならない。ミラーが固定されているものとすると、仮想光学中心の位置は実際のカメラの光学中心位置によって一意に決まる。よって複数のカメラの仮想光学中心を一致させるには、実際のカメラ(300)の位置を移動させて調整する必要がある。そこで本実施例では、この移動を行うためのXYZ軸方向移動装置(500)にカメラを取り付ける。XYZ軸方向移動装置は、カメラ位置制御手段(550)の指令に従い、カメラの位置を移動させることができる。なお、この仕組みは自動化によるものでなく、手作業によって行うようにすることもできる。以上がミラー式マルチカメラの原理と構成である。
次に、本実施例における上記仮想光学中心を一致させるための測定手段について説明する。
この測定手段は、特徴点(711)を描いた透明盤(710)と、同じく特徴点(721)を投影するプロジェクタ等の映像投影装置(410)および、その投影映像を表示するスクリーン(721)を有する。さらに、カメラからの撮影映像を入力する画像データ入力手段(540)、映像投影装置に表示する映像を作成する画像データ出力手段(560)、コンピュータ等の演算手段(570)、カメラを取り付けたXYZ軸方向移動装置(500)の移動制御を行うカメラ位置制御手段(550)およびモニタディスプレイ等の光学中心位置確認手段(530)を有する。
この構成において実施する、処理の大きな流れを図1と図3を用いて説明する。
まず、透明盤(710)には、あらかじめ決められた位置に点や線を描いておく。これを特徴点(711)と呼ぶ。
演算手段で、画像データ出力手段(560)と映像投影装置(410)を介して、スクリーン(721)のさまざまな位置に、特徴点を表示する(STEP20)。
次に、第1のカメラ(3010)で、この透明盤(710)と、その背後にあるスクリーン(721)を同時に撮影する。撮影された映像は、画像データ入力手段(540)を介して、演算手段(570)に入力する(STEP30)。
このとき、透明盤(710)に描かれた特徴点(711)によってちょうど隠れた位置にスクリーン上の特徴点(721)が表示されているかどうかを、画像データ入力手段(540)から得られた画像から検出し、そうであれば、そのときに表示されているスクリーン(720)上の特徴点(721)の位置を記録する。もし隠れていなかったときは、STEP20に戻る(STEP40)。
以上の処理を複数の特徴点(711)について行う。これにより、透明盤に描かれた特徴点の位置piと、それによって隠されるスクリーン上の特徴点の位置qiを対にした複数の3次元位置情報{pi、qi}(i=1、2、・・・、I)が得られることになる(STEP50)。
記録された特徴点位置情報と、あらかじめ透明盤に描かれた特徴点(711)pj(j=I+1、I+2、・・・、I+J)の位置情報から、演算手段は演算を行い、新たに表示する複数の特徴点(721)の位置情報qj(j=I+1、I+2、・・・、I+J)を求める(STEP60)。画像データ出力手段(560)と映像投影手段(410)により、演算手段(570)で計算されたスクリーン上の位置qj(j=I+1、I+2、・・・、I+J)に特徴点を表示する(STEP70)。
第k(k=2、3、・・・)のカメラで、透明盤(710)とスクリーン(720)を同時に撮影し、撮影した映像は画像データ入力手段(540)を介して演算手段(570)に入力する。(STEP80)。
演算手段(570)は、撮影画像に写る透明盤上の特徴点と、スクリーン上の特徴点の位置関係から、第kのカメラの位置を動かす方向と距離を算出する(STEP90)。
算出結果、動かすべき距離がある値以下であれば、第1のカメラ(3010)と第kのカメラの光学中心位置が一致していると判断する(STEP100)。
一方、動かすべき距離がある値以下にならなかった場合、第kのカメラを移動させる必要が生じた場合は、そのパラメータにしたい演算手段は、カメラ位置制御手段(550)を介して、XYZ軸方向移動装置(500)により第kのカメラを移動させる(STEP120)。
すべてのカメラについて、STEP80以降の処理を繰り返し、各カメラの光学中心位置を一致させる(STEP110)。
以上の処理を行うことで、第1のカメラ(3010)と、それ以外のカメラの光学中心を一致させることができる。
なお、処理の途中において、どの程度光学中心が一致しているかを確認するために、撮影映像を直接表示したり、特徴点位置を表示したり、光学中心のずれ量の推定値を表示するなどの処理を光学中心位置確認手段(530)が行うものとする。
以上が大きな処理の流れである。
ここで、STEP90とSTEP120により、本実施例により各カメラの位置を移動する方法について以下詳述する。
STEP90では、図1における透明盤710に描かれた位置pj(j=I+1、I+2、・・・、I+J)の特徴点と、スクリーン720に写された特徴点qj(j=I+1、I+2、・・・、I+J)の画像上での位置を読み取る。もし、第kカメラの光学中心位置が、第1のカメラの光学中心位置と一致していればこの2つの位置{pj、qj}は一致する。よって例えば、この2つの点の画像上の距離の2乗平均を評価値Eとし、
Figure 0004196784
として求めることができる。ここでF(pj、qj)はpjとqjの画像上の距離で、Jnは観測点の組の数である。また、カメラkを動かす方向は例えば、以下のようにして求めることができる。
もし、カメラkをある方向vに動かすと、画像上の点はエピポーラ拘束の条件に従い、エピポーラ点をとおる線上を移動する。この移動する距離が、pjとqjでは異なることになる。ここで、エピポーラ点は視点から方向vに向かう方向と画像平面が交わる点として定義される。よって、画像上の各2点の組み合わせ{pj、qj}によってつくられる各直線の交点を画像上でuとして求め、この点と視点によって決められる方向が、カメラkを動かす方向vとなる。なお、方向vに動かす距離dは{pj、qj}のずれの程度によってきめてやればよい。すなわち上で求めた評価値Eにある係数にしたがい比例するようにきめることになる。
以上により、算出されたvおよびdのパラメータによりカメラkの動かすパラメータが決定される。このパラメータに従い、図1におけるカメラ位置制御手段(550)はXYZ軸方向移動装置(500)にたいして移動の指令を出し、XYZ軸方向移動装置がそのとおり移動することにより、カメラkの目的の移動が行われることになる。
次に、以上の処理により光学中心位置が一致されることの原理の説明を行う。
まず、基本的な考え方について述べる。一般のカメラキャリブレーションでは、キャリブレーションパタンなどを撮影した画像から、そのパタンの画像上での位置を与えられたものとして読み取る。よって観測パラメータは受動的なものであると言える。
これに対して本実施例では、画像上のある位置を指定し、ここに写る被写体の位置はどこかを調べるという、新たな測定方法を提供する。本方法は前記の方法と対応させて能動的である、ということができる。以下、具体的な手段である、スクリーンに特徴点をプロジェクタで投影し、これをカメラで撮影して指定された位置にそれが写るようにダイナミックにプロジェクタの映像を変えていく手段について説明する。
ある3次元位置既知の特徴点pjの、第kカメラでの画像上位置xj(k)が観測されるとする。
次に、xj(k)と全く同じ場所に写る、pjとは異なる別の特徴点qjの3次元位置が測定されるとする。
このような点pj,qjは式(1)より
Figure 0004196784
を満たすが、C(k)()は1対1写像だから逆関数が存在して
Figure 0004196784
の関係が得られる。ここで、γj(k)は、γj(k)≠0,1なる任意のスカラーである。さらにA(k)・R(k)は正則だから逆行列が存在し
Figure 0004196784
の関係が得られる。
式(6)の幾何学的な意味は、カメラの光学中心b(k)が、2点pj, qj を結ぶ直線上にある、ということである。よって、2つ以上の式(6)が得られれば、すなわち2つ以上の特徴点の組{pj,qj} (j=1,...,j; j>=2) が観測できれば、b(k)を式(6)であらわされる直線の交点として一意に求めることができる。実際に得られる画像は、カメラ内部パラメータとカメラ回転R(k)の影響で、理想的な透視投影画像に比べて、直線が歪んだり、場所が移動したり、あるいは拡大や縮小するなど、幾何学的な変形が行われて写る。しかしながら、もし2点pj,qjと視点b(k)が直線上にあれば、2点の画像はどのような変形が行われようとも、常に同じ点に写る。逆に、画像上で同じ点に写っていれば、pj,qjと視点b(k)は直線上にある。本方法はこの性質を利用したものである。
また、式(6)あるいはその導出過程で、カメラの内部パラメータC(k)(),A(k)やカメラ方向R(k)の値には全く影響されないことを本願発明者らは、見出したことによって、本方法では、カメラ位置のみを、それ以外のパラメータとは無関係に求めることができる。すなわち、他パラメータの誤差の混入する可能性がなくなるため、高精度の測定が期待できる。
以上が、あるカメラの光学中心位置を求める基本的な考え方である。
次に、上述した基本的考えによる方法の拡張方法について説明する。
基本的考えによる方法では、図5(a) に示すように2つの観測値pj,qj(595)(596)の相対位置関係がわかっていなければならない。そのためには、透明盤(710)とスクリーン(720)を完全に平行になるように厳密に設置しなければならなくなり、これは実際上非常に困難である。
そこで、このような設置なしにも、すなわち図5(b)に示すようにpjとq~jがそれぞれ独自の座標系で測定され(595)(597)、お互いの関係がわからないときにも、測定可能となる方法を説明する。
実際の測定の実施容易性から、3次元空間内の特徴点pj (j=1,2,...) は平面上にあり、qj (j=1,2,...) は別の平面上にあることを前提条件とする。
異なる座標系で表現されていることを明示するため、以下2つの観測点をpj,q~jと表記する。q~jをpjと同じ座標系であらわしたものをqjとおくと、両者の関係は
Figure 0004196784
であらわされる。ここで、Cは座標系の回転を示す回転行列、gは座標原点の移動を示す3次元ベクトルで、C,g ともに未知である。
pj,q~jはそれぞれ平面上にあるから、平面の単位法線ベクトルをhp,h~q、原点から平面までの距離をdp,d~qとおくと
Figure 0004196784
Figure 0004196784
の関係が成り立つ。(・,・) は、ベクトルの内積である。pj,q~j (j=1,2,...) が既知なので、hp,h~q,dp,d~qも既知とすることができる。
式(7)(8)(9)より、pjとq~jの間に
Figure 0004196784
の形の、ホモグラフィーと呼ばれる関係が成り立つことがわかる。ここで==は、スケール倍の自由度を残して両辺が等しいことを示す。B(k)は3×3の行列で
Figure 0004196784
である。
式(11)であらわされるB(k)は、4つ以上の観測点の組み合わせpj,q~j(j=1,2,...,J) で求められることが知られており、その最適値は例えば非特許文献3に記載される方法によって
Figure 0004196784
として求められる。
2つのカメラで同一平面を撮影したときにも式(12)の関係が成り立ち、内部パラメータ既知のときにB(k)をカメラ位置等の要素に分解する方法は、数多く示されている。しかし今回のようにB(k)が式(11)で示されるように2つの平面から構成される場合には、同様の手法が利用できず、別の分解方法が必要となる。
そこでこの方法として、非特許文献4に示された方法を適用する。この文献では、レーザビームの複数平面上の投影位置から、ホモグラフィーの関係をあらわす行列Bを求め、それを分解することでレーザビームの位置などを求めている。その問題設定は、今回の問題設定と幾何学的に等価であり、パラメータの表現方法に若干の違いがあるものの、行列Bは式(11)と同じ形式で構成されている。よって、全く同様の手法を今回のB(k)の分解に適用することができる。
結論をいうと、B(k)から式(11)におけるb(k)等の構成要素を一意に求めることはできない。これは、1自由度分、未知パラメータに比べて拘束式の数が足りないからである。わかるのはb(k)が、ある円Ω(k)上に存在する、ということまでである。詳しい説明は参考文献4にゆずるが、この円Ω(k)はB(k)と既知パラメータから以下のように、代数的に求めることができるものである。
Figure 0004196784
Figure 0004196784
Figure 0004196784
ここで、
Figure 0004196784
Figure 0004196784
であり×はベクトルの外積をあらわす。
このように、カメラの光学中心位置を一意に決めることはできないが、複数のカメラの光学中心位置が一致しているかどうかの判別には、上記の知見を利用することができる。これを次に説明する。
第kカメラの光学中心位置をb(k)とし、第k+1カメラの光学中心位置をb(k+1)とし、両者が等しいかどうかの判別を行う。
まず、第kカメラで、2つの平面上の4組以上の特徴点位置pj,q~j (j=1,2,...,J) の読み取りを行う。これを用いて、両者のホモグラフィー変換を行う行列B(k)を式(12)の方法で求める。
次に、第k+1カメラで、上と同じ2つの平面上の4組以上の特徴点位置pj,q~j (j=J+1,J+2,...,) の読み取りを行う。これを用いて、両者のホモグラフィー変換を行う行列B(k+1)を求める。もし、b(k)=b(k+1)であれば、同一の式(12) が構成されるので、B(k)==B(k+1)となることは明らかである。よってB(k)==B(k+1)であることは、b(k)=b(k+1)のための必要条件である。
さらに、平面2の平面1に対する相対的な傾きは、b(k)あるいはb(k+1)がこの円上を動くと変化する。よって、もしb(k)≠b(k+1)と仮定すると、b(k)を用いて求めた平面2の傾きと、b(k+1)を用いて求めた平面2の傾きが異なるものになってしまう。これは、同じ2枚の平面を用いて第kカメラの撮影と第k+1カメラの撮影を行う、という撮影方法に矛盾する。よってb(k)=b(k+1)でなければならない。これよりB(k)==B(k+1)であることは、b(k)=b(k+1)であるための、十分条件である。
したがって、B(k)==B(k+1)が言えるかどうかを調べるだけで、2つのカメラの光学中心位置を、それぞれ値として特定することはできないものの、すなわち、B(k)==B(k+1)なるB(k),B(k+1)が得られても、b(k),b(k+1)がそれぞれ上記の円Ω(k)=Ω(k+1)のどこに存在するかは、決定することはできないが、お互いが一致しているか、あるいは一致していないかの判別は可能であることがわかる。この原理に基づき、図1における第1のカメラ(3010)と第2のカメラ(3020)の光学中心位置が一致しているかどうかの判別が可能になる。
この原理が、実施例で直接用いられている図3中のSTEP60について詳述する。
第1のカメラ(3010)で撮影された、透明盤(710)上の特徴点(711)の3次元位置をpi (i=1,2,...,I) とおく。同じく第1のカメラ(3010)で撮影されたスクリーン上(720)の特徴点(721)の3次元位置をq~i (i=1,2,...,I) とおく。両方は画像上の同じ点に写っている。両者はお互い独自の座標系であらわされているものとする。
次に、第2のカメラ(3020)で撮影される、透明盤上の特徴点の3次元位置をpi (i=I+1,I+2,...,I+J) とおく。
まず、この{pi,q~i}の組(i=1,2,...,I)から、式(11)などを用いて、両者間のホモグラフィーの関係を示す行列Bを計算する。この行列Bを用いて、第2のカメラがもし第1のカメラと光学中心が一致していれば、pi (i=I+1,I+2,...,I+J) と撮影画像上同じ点に写るであろう、スクリーン(720)上の特徴点の位置q~i (i=I+1,I+2,...,I+J) を求める。その具体式は q~i==B・pi である。
求まったq~i (i=I+1,I+2,...,I+J) の位置に映像投影装置で特徴点を表示する。
もし、第1のカメラの光学中心位置と、第2のカメラの光学中心位置が一致していれば、piにある特徴点と、q~iにある特徴点の、第2のカメラによる撮影画像内での位置は一致する。よって、そのような画像が撮れるように第2のカメラを移動させてやれば、目的となる配置のミラー式マルチカメラが構成できることになる。
以上述べてきた方法を適用可能なシステム構成図の例を図6に示す。
データ転送を行うシステムバス(3330)、あらかじめ決められたプログラムやその時の状況に応じて、各種演算処理を行うCPU等の中央演算装置(3340)、プログラムや数値データを保存するメモリ等の主記憶装置(3350)、同じくプログラムや数値データを保存するハードディスク等の外部記憶装置(3360)から構成される。外部記憶装置3360には、図2のSTEP30を行うプログラム(3430)、STEP60を行うプログラム、STEP70を行うプログラム(3470)、STEP90を行うプログラム(3490)、STEP100を行うプログラム(3500)、等が記録されており、これらのプログラムがいったん主記憶装置(3350)に読み出された後に、画像データ入力手段(540)から入力される画像データを用い、演算を行い、画像データ出力手段(560)で出力する画像データを作成し、カメラ位置制御手段(550)で出力するカメラ位置制御情報を作成し、あるいは光学中心位置確認手段(530)で出力する画像データや数値データを作成する処理を行う。処理の途中で用いる画像データや数値データなどは、主記憶装置におけるデータ領域(3600)に記憶される。
なお、ここで記載されるデータの例としては以下のものがある。
例えば、第1のカメラ(3010)で撮影された、透明盤(710)上の特徴点(711)の3次元位置データとして、p1=(324.4, 513.3, 1000.0)、p2=(124.3, -13.6, 1000.0),...がある。
第1のカメラ(3010)で撮影されたスクリーン上(720)の特徴点(721)の3次元位置データとして、q~1=(234.5, 14.3, 1500.0), q~2=(787.4, 52.6, 1500.0), ...がある。
第2のカメラ(3020)で撮影される、透明盤(710)上の特徴点の3次元位置データとして、p21=(59.4, -234.3, 1000.0), p22=(4.2, -3.3, 1000.0), ...がある。
第2のカメラが第1のカメラと光学中心が一致していた場合、p21, p22, ..., と撮影画像上同じ点に写るであろう、スクリーン(720)上の特徴点の位置を上記ホモグラフィーの関係を用いて算出したもの: q~21=(514.0, 52.3, 1500.0), q~22=(87.3, 253.2, 1500.0)がある。また、STEP90において求められたカメラを動かす方向 X=(2.3, 1.1, 0.1)の他、カメラの移動量のしきい値などが挙げられる。カメラの移動量のしきい値は、それぞれのカメラの位置関係により異なる値を用いることもできるほか、一律にしてもよい。以上、述べてきた実施例は、スクリーンに映像投影装置で特徴点を投影する方式をとったものである。
その他、図4に示すように、3次元配置既知の細かい格子模様をカメラで撮影し、指定された画像上の位置に対応するその格子模様上の位置を目視により読み取る方法が考えられる。すなわち、目視により特徴点の位置q~iを読み取る方法である。これは、スクリーンのかわりに座標既知の細かい格子模様を描いた平面(4001)を用意し、第1のカメラ(3010)や第2のカメラ(3020)で撮影した画像(4003)のなかの、指定する位置(4002)が、その平面のどこに相当するかを目視により読み取らせるものである。この場合は図に示すような補助線(4010)が指定する位置に表示されるようにすることで、その読み取りが容易になる。なお図の4020は、撮影画像(4003)の指定位置(4002)付近を拡大したものである。
以上述べてきた実施例では、被写体として点を想定し、これを特徴点とした。しかしこれは点に限定されるわけではなく、特徴線として直線やにすることもできるし、適当な形状の曲線や面図形とすることもできる。また、透明盤は透明な板に限定されるわけではなく、網目の枠や空間上の任意の位置に点や線などを固定できる固定器具にすることもできる。
さて、以上述べてきた測定方法は、全てのカメラの光学中心位置を一致させることが目的であった。ところが実際の装置構成の要件によっては、それとは異なる目的が設定されることがある。これを説明する。
装置構成におけるミラーは、複数の平面ミラーによって構成されることがある。このような構成では、各平面と各平面の境目に、どちらのミラーにも映像が写らない部分、すなわちエッジ部分ができてしまう。このためミラーの隣接部分の画像が欠損してしまう問題が生じる。これを解決させる方法である各カメラの視点位置を故意にずらして撮影を行う方法について以下説明する。後述する方法により、ミラーのエッジにより一つのカメラで撮影できなかった領域が、別のカメラで撮影可能となる。
図7は、各カメラの視点位置を故意にずらして撮影を行う方法の原理を示した図である。ミラーエッジ部分の幅をa[mm]、カメラの光学中心からミラーまでの距離をl[mm]、最も近い位置にある被写体A(7010)までの距離をx[mm] とおく。2つのカメラの光学中心位置(7030)のずれをy[mm] とおく。Aがエッジによる死角にならないような最小のyは、近似的に以下の式で求められる。
Figure 0004196784
一方、光学中心がyずれるということは、同一カメラでyのずれがある被写体を見ることと等価になる。よって、無限遠の被写体がシームレスに繋がるような接続方法をとると、視点からの距離x[mm] の位置にある被写体Aの画像上のずれE[pixel]は近似的に
Figure 0004196784
とあらわすことができる。ここでfはカメラの焦点距離をpixel単位であらわしたものである。式(1)(2) を連立させることで式
Figure 0004196784
が得られるが、これが被写体Aが死角に入らないために、カメラ視点位置を最低限動かした時の、繋ぎ目に生じるずれを示すことになる。よって逆に、これを許容できるずれとすれば、各カメラの光学中心のずれyが式(18)(19)より求められ、これだけずれるように各カメラを調整する。
本発明の実施例における装置の構成である。 透視投影を説明する図である。 本発明の実施例における全体の処理の流れである。 本発明の実施例における測定手段の例を説明する図である。 お互いの相対位置がわかる測定と、お互いの相対位置がわからない測定の違いを説明する図である。 本発明の実施例におけるシステム構成図である。 光学中心位置を故意にずらしたときの死角領域。
符号の説明
530 光学中心位置確認手段
540 画像データ入力手段
550 カメラ位置制御手段
560 画像データ出力手段
570 演算手段
3010 第1のカメラ
3020 第2のカメラ

Claims (5)

  1. 複数のカメラと、ミラーと、カメラの位置を移動させるカメラ移動手段とを有するミラー式マルチカメラの、該複数のカメラの光学中心を一致させるためのカメラ位置測定装置において、
    図形を描いた透明盤と、
    映像投影手段と、
    該映像投影手段によって投影される映像を表示するスクリーンと
    該カメラの撮影画像を入力する画像データ入力手段と、該カメラ移動手段を制御するカメラ位置制御手段と、
    該複数のカメラにふくまれる第1のカメラの撮影画像から、該透明盤に描かれた図形によって隠される該スクリーン上の図形である出力画像データを算出するとともに、該複数のカメラにふくまれかつ該第1のカメラとは異なる第2のカメラの撮影画像から、該第2のカメラの移動パラメータ及び該第1のカメラと該第2のカメラの光学中心位置が一致しているかどうかの情報を算出する演算手段と、
    光学中心位置が一致しているかどうかの情報を表示する光学中心位置確認手段を有することを特徴とするカメラ位置測定装置。
  2. 図形を描いた透明盤と、図形映像を表示するスクリーンとを用いて、第1のカメラと第2のカメラそれぞれの光学中心位置を測定するカメラ位置測定方法において、
    該第1のカメラの撮影画像において該透明盤に描かれた図形によって隠される該スクリーン上の図形の位置を探して記録するステップと、該スクリーンに新たに表示する図形の位置を算出して表示するステップと、第2のカメラの撮影画像における該透明盤の図形と該スクリーンに新たに表示された該図形との位置関係から、第2のカメラの移動パラメータを算出するステップとを有することを特徴とするカメラ位置測定方法。
  3. 請求項2記載のカメラ位置測定方法において、
    前記第2のカメラの移動パラメータを算出するステップでは、該透明盤と該スクリーンとの相対位置関係が未知のときに、第1のカメラの光学中心位置と第2のカメラの光学中心位置が一致しているか否かを判別するステップを有することを特徴とするカメラ位置測定方法。
  4. 記憶装置と複数のカメラそれぞれによって撮影される画像データを入力する画像入力手段と前記入力された画像データを記憶する記憶装置とを有するカメラの位置を制御するカメラ位置制御システムを用いるカメラ位置制御方法であって、
    複数のカメラそれぞれによってミラーを介して撮影される前記スクリーン上の図形映像データと前記スクリーンと同一平面上にない透明盤の第1の任意の座標データとを入力し、
    前記座標データと複数のカメラいずれかである第1のカメラによって撮影された前記図形映像データとが一致するか否かを判断し、
    前記一致した場合は、さらに前記スクリーンに新たに表示する特徴点の位置を算出し、
    前記複数のカメラにふくまれかつ前記第1のカメラとは異なる第2のカメラにより、新たに表示されたスクリーン上の前記特徴点と、前記透明板に描かれた特徴点を撮影して、前記第2のカメラの移動量を算出し、
    前記移動量に基づいて前記第2のカメラを移動させることを特徴とするカメラ位置制御方法。
  5. 請求項4記載のカメラ位置制御方法であって、
    前記算出した移動量が、あらかじめ記憶装置に記憶されているしきい値と比較し、前記比較結果、前記移動量が前記しきい値以下であった場合は、前記第2のカメラを移動させず、
    第3のカメラによって撮影された前記図形映像データと前記第2の任意の座標データとに基づいて前記第3のカメラの位置を制御することを特徴とする請求項4記載のカメラ位置制御方法。
JP2003302304A 2003-08-27 2003-08-27 カメラ位置測定装置および方法並びにカメラ位置制御方法 Expired - Lifetime JP4196784B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003302304A JP4196784B2 (ja) 2003-08-27 2003-08-27 カメラ位置測定装置および方法並びにカメラ位置制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003302304A JP4196784B2 (ja) 2003-08-27 2003-08-27 カメラ位置測定装置および方法並びにカメラ位置制御方法

Publications (2)

Publication Number Publication Date
JP2005073091A JP2005073091A (ja) 2005-03-17
JP4196784B2 true JP4196784B2 (ja) 2008-12-17

Family

ID=34406604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003302304A Expired - Lifetime JP4196784B2 (ja) 2003-08-27 2003-08-27 カメラ位置測定装置および方法並びにカメラ位置制御方法

Country Status (1)

Country Link
JP (1) JP4196784B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107438152B (zh) * 2016-05-25 2023-04-07 中国民用航空总局第二研究所 一种运动摄像机对全景目标快速定位捕捉方法及系统
CN113163130B (zh) * 2021-03-25 2023-04-07 维沃移动通信有限公司 拍摄辅助设备、图像对采集的标定方法及电子设备
CN113766083B (zh) * 2021-09-09 2024-05-14 思看科技(杭州)股份有限公司 跟踪式扫描系统的参数配置方法、电子装置和存储介质

Also Published As

Publication number Publication date
JP2005073091A (ja) 2005-03-17

Similar Documents

Publication Publication Date Title
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP6079333B2 (ja) 校正装置、方法及びプログラム
JP6067175B2 (ja) 位置測定装置及び位置測定方法
WO2013111229A1 (ja) カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム
JP7218435B2 (ja) キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法
JP2009042162A (ja) キャリブレーション装置及びその方法
CN109155070A (zh) 使用平面镜校准立体成像系统的方法和计算机程序产品
JP5388921B2 (ja) 3次元距離計測装置及びその方法
JP7151879B2 (ja) カメラ校正装置、カメラ校正方法、及びプログラム
JPH11118425A (ja) キャリブレーション方法及び装置、並びにキャリブレーション用データ生成方法
US20110235898A1 (en) Matching process in three-dimensional registration and computer-readable storage medium storing a program thereof
Sagawa et al. Calibration of lens distortion by structured-light scanning
JP2002516443A (ja) 3次元表示のための方法および装置
CN113744340A (zh) 用轴向视点偏移的非中心相机模型校准相机并计算点投影
Liu et al. Epipolar rectification method for a stereovision system with telecentric cameras
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
JP4764896B2 (ja) カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびそのプログラムを記録した記録媒体
WO2015159835A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2007033087A (ja) キャリブレーション装置及び方法
JP4196784B2 (ja) カメラ位置測定装置および方法並びにカメラ位置制御方法
JP2018004554A (ja) 対象物の特徴点の三次元座標を算出するための装置及び方法
Cui et al. Plane-based external camera calibration with accuracy measured by relative deflection angle
JP6073123B2 (ja) 立体表示システム、立体像生成装置及び立体像生成プログラム
JP5901379B2 (ja) 撮像装置校正方法および画像合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080922

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4196784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

EXPY Cancellation because of completion of term