JP2010074730A - 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム - Google Patents

放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム Download PDF

Info

Publication number
JP2010074730A
JP2010074730A JP2008242524A JP2008242524A JP2010074730A JP 2010074730 A JP2010074730 A JP 2010074730A JP 2008242524 A JP2008242524 A JP 2008242524A JP 2008242524 A JP2008242524 A JP 2008242524A JP 2010074730 A JP2010074730 A JP 2010074730A
Authority
JP
Japan
Prior art keywords
camera
pattern
zoom lens
parameter
pan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008242524A
Other languages
English (en)
Other versions
JP4960941B2 (ja
Inventor
Hidehiko Okubo
英彦 大久保
Yuiko Yamauchi
結子 山内
Hideki Mitsumine
秀樹 三ッ峰
Takashi Fukaya
崇史 深谷
Seiki Inoue
誠喜 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2008242524A priority Critical patent/JP4960941B2/ja
Publication of JP2010074730A publication Critical patent/JP2010074730A/ja
Application granted granted Critical
Publication of JP4960941B2 publication Critical patent/JP4960941B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】バーチャルスタジオのカメラシステムにおいてCGと実写映像との合成精度を高める。
【解決手段】カメラキャリブレーション装置6は、ズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を広角から望遠へ向かって離散的に切り替えるときに、設置されたキャリブレーション用のパターンを撮影したパターン画像が撮影画面に収まるように、パターンを取り替えることと位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいてカメラシステムおよびズームレンズをキャリブレーションする装置であって、記憶手段18にセッティングバリエーションの変更直後に変更直前のズームレンズ状態に維持して得られたパターン画像と、パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を示す第1入力パラメータとを記憶する。
【選択図】図4

Description

この発明は、放送用バーチャルスタジオのズームレンズ搭載カメラのカメラパラメータやズームレンズをキャリブレーションするカメラキャリブレーション装置、その方法およびそのプログラムに関するものである。
放送用バーチャルスタジオは、カメラの動きにつじつまの合ったCG(Computer Graphics)を生成することで、実写との合成時に違和感のない複合現実世界をつくり、放送コンテンツにできるシステムである。そのためには、現実の撮影カメラの位置・姿勢などを表す状態をデータとして取得し、そこからCGの仮想カメラの位置・姿勢などのパラメータとしてCG描画装置に与えてやる必要がある。このように、現実の撮影カメラから仮想カメラに関する各種パラメータを求めるプロセスのこと、また、そのパラメータにカメラをセッティングすることを、一般的にはカメラキャリブレーションという。ここでは、前者のカメラのパラメータを求めるプロセスをカメラキャリブレーションと呼び、後者のカメラヘのパラメータ適用をカメラセッティングと分けて呼ぶこととする。これらの2つのプロセスを経てCGの仮想カメラで撮影した画角でCG描画が行われ、現実のカメラで撮影した画角の実写の映像と合成しオンエアにいたる。
現状では、2種類のカメラキャリブレーションが主流となっている。1つが、メカニカル、あるいは光学的なセンサなどを利用して、物理的な特徴として、現実のカメラの移動量および姿勢変化(パン・チルトの回転量など)の相対値を計測し、その間接的なデータを元にカメラの各種パラメータを求めるものである。そのためには、事前に、間接的なデータとしての測定値からカメラの各種パラメータヘのデータ変換手段(例えば、変換用のデータベース)を準備しておく必要がある。
もう1つのカメラキャリブレーション方法は、撮影画像自体から画像解析によって特徴点を抽出し、そこから、カメラの撮影位置などのパラメータを計算によって直接的に求めるものである。例えば、特徴点として用いるために、既知の位置情報をもった2次元または3次元のパターン(キャリブレーションパターン)を予め用意しておき、それを撮影する場合がある。また、そういった既知パターンを利用せずに、カメラの移動について時間方向に情報を蓄積し、その結果として、視差のある複数のカメラから撮影した場合と同じ手法で、特徴点の位置関係とカメラの位置情報を割り出す場合もある。
放送用バーチャルスタジオのカメラシステムに特徴的なことは、安定したフレーミングとなめらかなカメラワークのために、カメラが雲台にマウントされていることが多いということである。このようにカメラが雲台にマウントされている場合、さらにはペデスタルにもマウントされる場合も多い。
現在、特撮用のスタジオなどで一般的に利用されているバーチャルスタジオ用のカメラシステムでは、カメラを搭載した雲台に回転量検知のセンサが取り付けられており、これにより、カメラ自体の向いている方向の変化を検知している。そして、ベデスタルにも同様に回転量検知のセンサが取り付けられており、これにより、カメラの水平および垂直方向の相対的な移動量を測定することができる。さらに、ズームレンズには、そのズーム量およびフォーカス位置を測定するセンサが取り付けられており、そのズーム量およびフォーカス位置を、画角および理論的レンズ位置などの情報を得るための間接的なデータとして利用するようにしている。
前記したように、これらの間接的なデータから、CGの描画のための仮想的なカメラ位置および方向、そして画角などのパラメータに変換するためには、例えば、それぞれのセンサから得られる値を、必要なパラメータに変換するためのデータベースを準備する必要かある。また、カメラキャリブレーション時のカメラシステム状況と、カメラセッティング時のカメラシステム状況とは、異なることがほとんどである。そのため、それら2つの異なる状況を補正するためのプロセスが必要となってくる。この補正プロセスは、ほとんどの場合は、オンエア前に行われる。このような理由から、この補正プロセスは、短時間で実行可能である単純な初期化プロセスや、見た目による局所的なパラメータ補正となる。すなわち、従来のキャリブレーションには、これら間接的なデータ変換プロセスと、手法的に誤差を含むような補正プロセスとを実行されることが必要となっている。
しかし、間接的なデータを変換するプロセスにおいては、雲台やズームレンズなどの各センサから得られるそれぞれの間接的なデータの1つ1つは、独立したカメラパラメータに作用するわけではなく、複数の間接的なデータが、複数のカメラパラメータに複雑に関係してくる。したがって、その関係性を、正確に記述できないと、系全体での誤差が予測できない。それを可能にするためには、雲台を含めた系全体のモデル化が必要である。また、補正プロセスにおいては、例えば、カメラセッティング時の、見た目による局所的なパラメータ補正は、着目している箇所では合っているが、その箇所から外れたエリアでのCGの合成精度の保証は不可能である。つまり、間接的なデータから、カメラシステムを記述するためのパラメータに変換し、それを補正する際に、原理的に精度が低下してしまうプロセスを含んでいるためにカメラシステム全体で合成精度を落とす結果を生み出していた。
このような中、特撮用のスタジオなどで利用されているバーチャルスタジオ用のカメラシステムにおいては、カメラパラメータのキャリブレーションを高い精度で行うためには、雲台の相対回転量などの間接的なデータを利用しながらも、画像処理を利用したキャリブレーションプロセスと同様に、必要なパラメータをダイレクトに最適化して求める方が効果的であると考えられる。そして、雲台を含めた系全体のモデル化の一例として、非特許文献1には、回転雲台モデルによる最適化の実装とその効果が記載されている。非特許文献1に記載の技術は、三脚および雲台上に設置されたカメラで、任意の位置に固定された1つの2次元パターンを撮影した撮影画像を用いてキャリブレーションをするものである。
ただし、非特許文献1の記載の技術では、ズームが固定されている。ズームレンズの場合には、構造上、ズーム量およびフォーカス位置の操作により光学系(内部パラメータ)の変化だけでなく雲台を基準としたカメラ位置および姿勢(外部パラメータ)が変化する。
コンピュータビジョンの成果である、既知パターンを用いた画像処理によるカメラキャリブレーションを考えた場合、最適化プロセスでは、カメラの内部パラメータ(画角や光軸中心、レンズ歪み係数)は固定であることか前提である。すると、それらのカメラキャリブレーションアルゴリズムは、ズームレンズに対しては明らかに適用することができない。一般的なズームレンズのモデル的な取り扱いが難しいことは、ロボット工学の分野において知られている(非特許文献2参照)。非特許文献2では、自動ズームレンズを備えたカメラシステムにおいて、レンズパラメータを可変とするために、ズームレンズの多項式モデル化を提案している。
そこで、非特許文献1に記載の回転雲台モデルを、ズームレンズ部分のキャリブレーションのために、拡張する試みがなされている(非特許文献3参照)。非特許文献3には、非特許文献2で述べられたズームレンズの基本的なモデル化を参考にした上で、非特許文献1で提案されたカメラモデルにおいて、ズームによって変化するパラメータを限定することで、ズームレンズのパラメータを可変とするように回転雲台モデルを拡張できる可能性が示唆されている。非特許文献3では、非特許文献1と同様にして、任意の位置に固定された1つの2次元パターンをレンズのズーム値(焦点距離)を3通りに変更して撮影した撮影画像を用いてキャリブレーションをするものである。
大久保 英彦、外4名、「バーチャルスタジオにおけるカメラキャリブレーション高精度化の考察」、FIT2007、2007、p.541-542 R. Willson, "Modeling and Calibration of Automated Zoom Lenses", PhD thesis, Carnegie Mellon University, Pittsburgh, Pennsylvania, Jan. 1994. 大久保 英彦、外2名、「バーチャルスタジオにおけるズームレンズのキャリブレーションに関する考察」、FIT2008、2008、p.543-544
しかしながら、非特許文献3に記載の技術は、レンズのズーム値(焦点距離)を変更して撮影画像を取得する際に、任意の位置に固定された1つの2次元パターンを用いている。つまり、外部パラメータのうち雲台中心位置がすべての撮影画像で共通であるものとしている。そのため、いくつかのサンプルズーム値におけるそれらのカメラキャリブレーションアルゴリズムの適用結果を得たとしても、その間接的なデータの変換プロセスで得られた各パラメータを、補正プロセスでそれぞれ補間した結果のパラメータは、その非線形性から鑑みて、キャリブレーションの精度を期待できない。
さらに、ズームが高倍率になり、フォーカスまで考慮すると、対象とするズーム範囲を、物理的に1つのパターンでは補いきれず、さらに1つの設置位置パターンでは補いきれない。よって、複数のパターンが必要であり、それら複数のパターンの相対位置関係を正確に把握することが必要になる。そうすると、複数のパターンを物理的に精度高く設置する必要が生じてしまうために、それに見合うように装置が複雑化してしまうためコスト等の理由から現実的ではない。したがって、当然の帰結として、そのような複雑な装置が準備できなければCGの合成精度を保証できないことになる。
本発明は、以上のような問題点に鑑みてなされたものであり、バーチャルスタジオ用のカメラシステムにおいて簡易な構成でCGと実写の幾何的な合成精度を高めることのできる技術を提供することを目的とする。
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載のカメラキャリブレーション装置は、バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションするカメラキャリブレーション装置であって、記憶手段と、キャリブレーションパターン解析手段と、パラメータ算出手段と、データベース作成手段とを備えることとした。
かかる構成によれば、カメラキャリブレーション装置は、記憶手段に、前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像を記憶すると共に、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第1入力パラメータとして記憶する。そして、カメラキャリブレーション装置は、キャリブレーションパターン解析手段によって、前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化する。そして、カメラキャリブレーション装置は、パラメータ算出手段によって、前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出する。そして、カメラキャリブレーション装置は、データベース作成手段によって、前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成する。
また、請求項2に記載のカメラキャリブレーション装置は、請求項1のカメラキャリブレーション装置で作成されたデータベースを記憶したカメラキャリブレーション装置であって、記憶手段と、キャリブレーションパターン解析手段と、パラメータ算出手段と、データベース作成手段とを備えることとした。
かかる構成によれば、カメラキャリブレーション装置は、記憶手段に、2次元または3次元の特徴点を分布させた1つのキャリブレーション用のパターンを、オンエア前のカメラセッティングにおいて撮影した複数のパターン画像を記憶すると共に、前記複数のパターン画像それぞれが撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第2入力パラメータとして記憶する。そして、カメラキャリブレーション装置は、キャリブレーションパターン解析手段によって、前記記憶された前記カメラセッティングにおいて撮影されたパターン画像を解析することで、当該パターンの特徴点の観測された座標位置を算出し、インデックス化する。そして、カメラキャリブレーション装置は、パラメータ算出手段によって、前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて第2入力パラメータとして記憶された雲台のパン・チルト状態と、前記データベースに格納された各パラメータとを既知として、前記カメラセッティングにおいて撮影されたパターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラセッティングに対応した雲台の位置および姿勢を示すパラメータを、評価すべきパラメータとして算出する。そして、カメラキャリブレーション装置は、データベース作成手段によって、前記算出したパラメータを追加することで前記データベースを更新する。
また、請求項3に記載のカメラキャリブレーション装置は、請求項2のカメラキャリブレーション装置で更新されたデータベースを記憶したカメラキャリブレーション装置であって、パラメータを読出(あるいは参照)して、パラメータの補間を行うパラメータ補間手段を備えることとした。
かかる構成によれば、カメラキャリブレーション装置は、パラメータ補間手段によって、オンエア中のズームレンズ状態をキーとして前記更新されたデータベースからパラメータを読み出し補間し、オンエア中の現在の雲台のパン・チルト状態を用いて、CGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータを生成し、その生成したCGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータをCG描画装置に出力する。
また、請求項4に記載のカメラキャリブレーション方法は、バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションする処理手段と記憶手段とを備えたカメラキャリブレーション装置のカメラキャリブレーション方法であって、前記処理手段が、入力ステップと、画像特徴点観測ステップと、パラメータ算出ステップと、データベース作成ステップと、を含んで実行することとした。
かかる手順によれば、カメラキャリブレーション装置の処理手段は、入力ステップにて、前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像と、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第1入力パラメータとして前記記憶手段に格納する。そして、処理手段は、画像特徴点観測ステップにて、前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化する。そして、処理手段は、パラメータ算出ステップにて、前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出する。そして、処理手段は、データベース作成ステップにて、前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成する。
また、請求項5に記載のカメラキャリブレーションプログラムは、バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションするために、前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像を記憶すると共に、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第1入力パラメータとして記憶する記憶手段を備えたコンピュータを、キャリブレーションパターン解析手段、パラメータ算出手段、データベース作成手段として機能させることとした。
かかる構成によれば、カメラキャリブレーションプログラムは、キャリブレーションパターン解析手段によって、前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化する。そして、カメラキャリブレーションプログラムは、パラメータ算出手段によって、前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出する。そして、カメラキャリブレーションプログラムは、データベース作成手段によって、前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成する。
請求項1または請求項4に記載の発明によれば、カメラキャリブレーション装置は、複数のパターンでズームレンズのズーム範囲をカバーしつつ、セッティングバリエーションを変更した直後に、セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像を用いて雲台マウントのカメラモデルにより算出した内外パラメータをデータベース化するので、ズームレンズの対象とするズーム範囲全体をキャリブレーションすることができる。したがって、作成されたデータベースを、補正プロセスに用いたときに、正確にカメラ位置を特定できる。その結果、バーチャルスタジオ用のカメラシステムにおいて簡易な構成でCGと実写の幾何的な合成精度を高めることができる。
請求項2に記載の発明によれば、カメラキャリブレーション装置は、間接的なデータをパラメータに変換するプロセスで作成されたデータベースと、オンエア前のカメラセッティングにおいて設置された1つのパターンを撮影したパターン画像とを用いて雲台マウントのカメラモデルにより算出した雲台の位置および姿勢を示すパラメータをデータベースに追加するので、更新されたデータベースを、補正プロセスに用いたときに、正確にカメラ位置を特定できる。また、追加されたパラメータを検索条件とすることで、オンエア中の雲台の位置および姿勢に対応したパラメータを取得することができる。その結果、バーチャルスタジオ用のカメラシステムにおいて簡易な構成でCGと実写の幾何的な合成精度を高めることができる。
請求項3に記載の発明によれば、カメラキャリブレーション装置は、オンエア中に被写体を撮影したときに測定されたズームレンズ状態を検索条件として、更新されたデータベースからパラメータを読み出し補間すると同時に、ダイレクトに雲台のパン・チルト状態を利用するので、オンエア中に被写体の実写映像と精度よく合成できるCG画像を描画するためのカメラ位置等のパラメータを正確に求めることができる。その結果、バーチャルスタジオ用のカメラシステムにおいて簡易な構成でCGと実写の幾何的な合成精度を高めることができる。
請求項5に記載の発明によれば、カメラキャリブレーションプログラムがインストールされたコンピュータは、請求項1に記載の発明と同様な効果を奏することができる。
以下、図面を参照して本発明のカメラキャリブレーション装置を実施するための最良の形態(以下「実施形態」という)について詳細に説明する。
[カメラキャリブレーション装置の概要]
図1は、本発明の実施形態に係るカメラキャリブレーション装置を含むカメラシステムを模式的に示す構成図であり、図2は、図1に示した撮影装置の外観の一例を模式的に示す図、図3は、図1のカメラシステムの処理の全体の流れを示すフローチャートである。また、図4は、本発明の実施形態に係るカメラキャリブレーション装置の構成を示すブロック図であって、データベース作成時の情報の流れを示している。
カメラシステム1は、放送局の特撮スタジオで利用されるものであって、図1に示すように、撮影装置2と、CG描画装置3と、映像合成装置4と、記憶装置5と、カメラキャリブレーション装置6とを備える。
撮影装置2は、現在、特撮用のスタジオなどで一般的に利用されているバーチャルスタジオ用の撮影装置であって、図1に示すように、カメラ7と、ズームレンズ8と、レンズデータ検出センサ8aと、雲台9と、雲台姿勢検出センサ9aと、ペデスタル10と、ペデスタルデータ検出センサ10aとを備えている。
カメラシステム1は、図3に示すように、大別して、オンエア以前の撮影装置2のカメラパラメータおよびズームレンズのキャリブレーション(データベース構築)のフェーズ、オンエア以前のカメラセッティングのフェーズ、および、オンエア中のCG合成のフェーズの3段階で利用される。
図1に示すカメラシステム1では、予め用意された2次元の特徴点を分布させた複数の異なるキャリブレーション用のパターン(以下、単にパターンという)を撮影装置2でそれぞれ撮影し、カメラキャリブレーション装置6が、それぞれの撮影画像から画像解析によって特徴点を抽出し、その情報によって、カメラの撮影位置などのパラメータを計算により直接的に求める。パターンのサイズや個数は、ズームレンズ8のズーム量やフォーカス位置(ズームレンズデータ)に応じて適宜変更可能である。撮影者はズームレンズ8のズームレンズ状態に合わせて適切なパターンを選択し、選択したパターンを複数のバリエーションで配置し、それぞれの配置状態において複数枚の静止画像を撮影する。各パラメータは最終的にバンドル調整(格子交点の予測位置と観測位置の幾何学的距離の2乗和の最小化)を行うことにより、高い精度での校正が可能である。このバンドル調整を効果的におこなうためには、撮影されるパターンに充分な数の特徴点を含むことと、それが画面全体の領域でくまなくサンプルされるように適切な撮影状態を選択することが重要である(例えば、左上、右上、左下、右下、中央の5箇所や、例えば、左上、左下、中央上、中央下、右上、右下の6箇所)。本実施形態では、図1に示すように、2次元の市松模様格子のパターンPa,Pbを用意した。パターンPa,Pbの模様の縦の寸法は、それぞれ90cm、42.5cmであって、パターンPa,Pbは、同じ模様の拡大縮小関係にあるものとした。つまり、パターンPa,Pbは、特徴点の間隔のサイズが異なる。
なお、放送用バーチャルスタジオのカメラシステム1において、多様な演出に対応するために、例えば、10数倍程度のズームを想定することができる。通常のズームレンズのズーム領域全体をカバーし、かつ、高精度のキャリブレーションを実行するためには、1つのパターンでは2倍程度のズームにしか対応できないと考えられるので、本実施形態では、複数の異なるパターンを用いてキャリブレーションを行う。
レンズデータは、レンズデータ検出センサ8aで検出される測定値(間接的なデータ)であって、画角(言い換えると焦点距離)などのパラメータに変換されるデータである。このズームレンズデータは、カメラキャリブレーション装置6に入力する。また、カメラキャリブレーション装置6に入力する測定値(間接的なデータ)としては、他に、雲台姿勢検出センサ9aで検出される雲台9の姿勢(パン・チルトデータ)がある。撮影時のパン・チルトデータおよびレンズデータも、撮影された静止画像(撮影画像)と共に記録しておく。カメラキャリブレーション装置6は、間接的なデータを利用しながらも、画像処理を利用したキャリブレーションプロセスと同様にして、必要なパラメータをダイレクトに最適化して求める。そこで、本実施形態では、それを可能にするために、後記するように、カメラ7が雲台9に搭載されているという拘束条件を課した雲台9を含めた系全体のカメラモデルを導入した。
[カメラシステムの構成の詳細]
図1に示すカメラ7は、被写体を撮影するものであり、撮影した被写体の実写映像(映像信号)をカメラキャリブレーション装置6に出力している。
ズームレンズ8は、焦点距離が連続的に変化できるように構成されている。
レンズデータ検出センサ8aは、ズームレンズ8の画角を決定するレンズデータ(ズーム量とフォーカス位置の2変数)を検出するものである。このレンズデータ検出センサ8aは、例えば、距離エンコーダ等から構成される。レンズデータ検出センサ8aの検出するレンズデータは、距離エンコーダパルス値等のメカニカルな数値である。カメラキャリブレーション装置6においては、このレンズデータを記憶手段18(図4参照)に格納し必要に応じて参照するか、あるいは、この検出したレンズデータに何らかの正規化を行った変換値等をあらためてレンズデータとして利用する。ズームレンズ8のレンズデータは、通常、ズーム量とフォーカス位置という2変数から構成されている。どちらを操作しても画角が変化するので、この2個のデータから画角が一意に決まることになる。なお、単焦点レンズの場合には、基本的に画角は変化しないので、単焦点レンズのレンズデータとはフォーカス位置のデータのみを意味する。
雲台9は、搭載固定されたカメラ7を、操作者の操作によって、横方向(パン)および上下方向(チルト)に回転できるように構成されている。
雲台姿勢検出センサ9aは、カメラ7の横方向(パン)の回転角および上下方向(チルト)の回転角(以下、合わせて、パン・チルトデータと呼称する)を検出する。この雲台姿勢検出センサ9aは、例えば、ロータリーエンコーダ等から構成される。
ペデスタル10は、雲台9を搭載固定するものであり、雲台9上のカメラ7を上下方向(ハイト)に移動できるように構成されている。また、ペデスタル10には、キャスターが取り付けられており、撮影装置2は、床面上を移動できるように構成されている。
ペデスタルデータ検出センサ10aは、ペデスタル10の初期状態における雲台の位置(雲台中心の3次元位置)と、ペデスタル10の上下方向および床面上の移動によって変化した雲台の位置とのオフセット値(以下、ペデスタルデータと呼称する)を検出し、検出したペデスタルデータをカメラキャリブレーション装置6に出力する。このペデスタルデータ検出センサ10aは、例えば、ロータリーエンコーダ等から構成される。なお、カメラキャリブレーション装置6は、オンエア前のキャリブレーションでは、ペデスタルデータを使用せずに、オンエア中にのみ相対的な移動量として利用する。その理由は、ペデスタル10は、移動の際にカウンターがすべることがあり、長時間の移動の結果、それが蓄積することにより出力値に信頼性がないためである。
CG描画装置3は、予め定められた描画用情報に基づいて仮想空間データを生成するものである。CG描画装置3は、CG用仮想カメラの位置および姿勢を示すCG用外部パラメータ、さらに画角などの内部パラメータとして、カメラキャリブレーション装置6から出力されるパラメータを用いてCG画像を生成する。また、CG描画装置3には、CG描画の際にレンズ歪を再現できる描画装置を採用することができる。なお、カメラキャリブレーション装置6に対して、レンズ歪を補正した実写画像を入力する場合には、CG描画装置3には、そのようなCG描画の際にレンズ歪を再現できる描画装置を採用する必要はない。
映像合成装置4は、カメラ7から出力される実写映像と、CG描画装置3で生成されたCG映像とを合成するものである。これらCG描画装置3と、映像合成装置4とは、例えば、GPU(Graphics Processing Unit)、または、CPUやFPGA(Field Programmable Gate Array)から構成され、所定のプログラムをRAMに展開して実行することで前記した機能を果たす。
記憶装置5は、例えば、一般的なハードディスク等から構成され、カメラキャリブレーション装置6によって作成されたデータベース5aを記憶するものである。なお、前記したCG描画装置3と、映像合成装置4と、記憶装置5とをカメラキャリブレーション装置6に含んで構成することもできる。
カメラキャリブレーション装置6は、バーチャルスタジオ用のカメラシステム1の雲台9に搭載されたカメラ7のズームレンズ8のズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置されたパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、セッティングバリエーションを随時変更して得られる複数のパターン画像に基づいてカメラシステム1およびズームレンズ8をキャリブレーションするものである。ここで、セッティングバリエーションとは、パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと、設置位置を変更すること、との少なくとも一方を行うことに対応している。
[カメラキャリブレーション装置の構成]
カメラキャリブレーション装置6は、図4に示すように、実写映像入力手段11と、パラメータ入力手段12と、処理手段として機能するキャリブレーションパターン解析手段13、最適化キャリブレーション処理手段14およびパラメータ補間手段17と、記憶手段18とを備えている。
実写映像入力手段11は、カメラ7から出力される実写映像を入力するものである。この実写映像入力手段11は、所定の入力インタフェース等から構成される。
実写映像入力手段11は、オンエア時には、実写映像(映像信号)を、キャリブレーションパターン解析手段13へ入力すると共に、映像合成装置4へも入力する。
パラメータ入力手段12は、雲台姿勢検出センサ9aで検出された雲台9の姿勢を示すパラメータ(パン・チルトの2種類の回転角を示す信号)と、レンズデータ検出センサ8aで検出されたレンズデータ(2変数)とを最適化キャリブレーション処理手段14へ入力するものである。このパラメータ入力手段12は、所定の入力インタフェース等から構成される。
キャリブレーションパターン解析手段13は、実写映像入力手段11から入力された既知のパターンや記憶されたパターン画像を解析することで、パターンの特徴点の観測された座標位置を算出し、インデックス化するものである。本実施形態では、キャリブレーションパターン解析手段13は、一例として、図1に示した2次元の市松模様の既知のパターンPa,Pbを解析し、パターンPa,Pbの特徴点として、市松模様格子の交点701(図7参照)の画像座標を算出し、インデックス化するものとして説明する。
また、キャリブレーションパターン解析手段13は、入力装置Mから、パターンの形状(マス目の個数)やパターンのサイズといった情報(キャリブレーションパターンデータ)の入力を受け付け、記憶手段18に格納する。入力装置Mは、例えば、キーボードやマウス等から構成される。なお、図示は省略するが、カメラキャリブレーション装置6は、各種情報の入力状態を表示する表示手段(例えば、液晶ディスプレイ等)を備えている。
最適化キャリブレーション処理手段14は、パラメータ算出手段15およびデータベース作成手段16を備えている。
パラメータ算出手段15は、雲台9に搭載されたカメラ7に対応して予め設定された後記するカメラモデルを用いて第1入力パラメータ18aとして記憶された雲台のパン・チルト状態(パン・チルトデータ)を既知として、パターンの特徴点の座標位置を推定し、推定された座標位置と観測された座標位置との誤差関数を含む目的関数が最小化するように、当該カメラモデルにおける外部パラメータと、ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出するものである。また、パラメータ算出手段15は、反復によるパラメータ最適化プロセスにおいて、例えば、公知の非線形最小二乗法で利用される方法を用いることができる。
データベース作成手段16は、パラメータ算出手段15で算出された評価すべきパラメータのうち、雲台9からカメラ7の光軸方向のオフセットを示すパラメータと、内部パラメータと、ズームレンズ状態に依存しない外部パラメータとを格納したデータベース5aを作成するものである。
パラメータ補間手段17は、オンエア前のプロセスでは利用されないので、後記するオンエア中の動作において説明する。
記憶手段18は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、所定のプログラム等を記憶し、また、カメラキャリブレーション装置6による演算処理等に利用される。
記憶手段18は、データベース構築のフェーズにおいてパラメータ入力手段12から入力されたデータを、第1入力パラメータ18aとして記憶する。
記憶手段18は、データベース構築のフェーズにおいて実写映像入力手段11から入力された画像データを、第1画像情報18bとして記憶する。
ここで、第1画像情報18bは、複数のパターンから選択された1つのパターンを、ズーム範囲で離散的に変更されたズームレンズ状態それぞれにおいて少なくとも2つの位置に設置して撮影されたパターン画像、および、当該パターンを設置されたそれぞれの位置において、少なくとも2つのズームレンズ状態にて撮影されたパターン画像である。また、第1入力パラメータ18aは、複数のパターン画像それぞれが撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態の測定値である。
また、記憶手段18は、データベース構築のフェーズにおいてキャリブレーションパターン解析手段13で観測した特徴点の座標を、第1観測座標18cとして記憶する。
記憶手段18は、データベース構築のフェーズにおいてパラメータ算出手段15で推定した特徴点の座標を、第1推定座標18dとして記憶する。
なお、キャリブレーションパターン解析手段13と、最適化キャリブレーション処理手段14と、パラメータ補間手段17とは、例えば、CPU(Central Processing Unit)が所定のプログラムをRAMに展開して実行することで前記した機能を果たす。
[カメラシステムの全体処理の流れ]
図1のカメラシステム1の全体処理の流れについて図3を参照(適宜図1および図4参照)して説明する。図3は、図1のカメラシステムの処理の全体の流れを示すフローチャートである。データベース構築のフェーズにおいて、カメラキャリブレーション装置6は、実写映像入力手段11から入力される実写映像と、パラメータ入力手段12から入力されるズームレンズデータおよびパン・チルトデータと、入力装置Mから入力されるキャリブレーションパターンデータとを記憶手段18に格納する(ステップS1:DB作成用データ入力処理)。そして、カメラキャリブレーション装置6は、キャリブレーションパターン解析手段13によって、画像特徴点観測処理を実行する(ステップS2)。そして、カメラキャリブレーション装置6は、パラメータ算出手段15によって、パラメータ算出処理を実行し(ステップS3)、データベース作成手段16によって、データベース5aを作成する(ステップS4)。
カメラセッティングのフェーズは、雲台位置および姿勢をキャリブレーションするプロセスである。このカメラセッティングのフェーズにおいて、カメラキャリブレーション装置6は、実写映像入力手段11から入力される実写映像と、パラメータ入力手段12から入力されるズームレンズデータおよびパン・チルトデータと、入力装置Mから入力されるキャリブレーションパターンデータとを記憶手段18に格納する(ステップS5:カメラセッティング用データ入力処理)。そして、カメラキャリブレーション装置6は、パラメータ算出手段15によって、カメラセッティング時のパラメータを算出し、データベース作成手段16によって、カメラセッティング対応のパラメータをデータベース5aに追加する(ステップS6)。
CG合成のフェーズにおいて、カメラキャリブレーション装置6は、パラメータ入力手段12から入力されるズームレンズデータおよびパン・チルトデータをオンエアデータとして入力する(ステップS7)。そして、カメラキャリブレーション装置6は、入力されたパン・チルトデータと、ズームレンズデータをキーとしてデータベース5aから読み出したパラメータの補間値から生成したパラメータをCG描画装置3に出力する。CG描画装置3は、取得したカメラパラメータに基づいてCGを描画する(ステップS8)。映像合成装置4は、CGと実写映像とから合成映像を生成し、図示しない表示装置等に出力する(ステップS9)。
[カメラシステムの個別処理の流れ]
<DB作成用データ入力処理>
DB作成用データ入力処理においては、各ズームレンズ状態にふさわしいパターンを適切な位置に設置し撮影を行う。具体的には、ズームが広角の場合は一マスが大きな市松模様を使用し、望遠時には一マスが小さな市松模様を使用すると同時に、設置位置もフォーカス位置などにあわせて適切な位置に設置する。カメラキャリブレーション装置6に入力する実写映像として撮影される2つのパターンの配置例を平面視で図5に示す。大きいサイズのパターンPaが位置501または502に設置されて撮影され、小さいサイズのパターンPbが位置503,504または505に設置されて撮影される様子を示している。なお、図5のOは撮影位置を示し、角度α以下は望遠、角度β以上は広角を示す。また、図5に示すように、まず、パターンPaはカメラに遠いほうに配置され、ここではバラエティーに富んだ配置となるように設定されている。そして、パターンは、立体的な3Dのパターンでも構わないが、ここでは2次元のパターンを例示している。
前記したように、セッティングバリエーションは、他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応している。ここでは、パターンと設置位置との組み合わせを示す識別子のことをセッティングバリエーションhと呼ぶことにする。パターンの設置位置は、カメラとパターンの相対的な位置関係を表し、後記する式(23)のMpに相当する。表1にセッティングバリエーションhを例示する。
Figure 2010074730
表1の例では、セッティングバリエーションhはH種類存在し、これは設置位置の数に一致していることを示している。また、いくつかの設置位置では同じキャリブレーションパターン(例えば、市松模様の一マスの大きさによって1,2,…,Lと名付ける。)を使いまわす可能性があることを示している。各セッティングバリエーションhにおいて、いくつかのズームレンズ状態mにおけるパターン撮影を行う。その際のズームレンズ状態mとセッティングバリエーションhとの関係を、表2に例示する。
Figure 2010074730
表2において、mの添字が大きくなるほど望遠ズームになり、かつ、hの数値が大きいほど設置位置が遠くなることを示している。表2中の○が記載された部分が、ズームレンズ状態mでキャリブレーションに使用するセッティングバリエーションhに対応することを示す。表2中のすべてのマスに該当する条件で撮影する必要はなく、ズームレンズ状態mを広角から望遠に変更させていくときに、パターン画像が撮影画面の所定範囲に収まるように、セッティングバリエーションhを適宜変更すればよい。このため、表のほぼ対角線上に○が記載されている。なお、表2において、mの添字が大きくなるほど広角ズームになり、かつ、hの数値が大きいほど設置位置が近くなるように配列し、ズームレンズ状態mを望遠から広角に変更させていくときに、パターン画像が撮影画面の所定範囲に収まるように、セッティングバリエーションhを適宜変更するようにすることもできる。
表2が示す最も特徴的な部分は、各セッティングバリエーションhがサンプルするズームレンズ状態mを一部オーバーラップさせている点である。つまり、セッティングバリエーションを変更した直後に、セッティングバリエーションの変更直前のズームレンズ状態に維持してパターン画像を得ている。これは、例えばh=1とh=2のときのm2のことを指す。このようにすることで、各セッティングバリエーションhごとに独立してしまうMp(後記する式(23)参照)のようなパラメータに対して、ズーム状態全体にわたるグローバルな最適化の結果に影響を与えることを可能にする。
なお、解析するための画像は、それぞれのセッティングバリエーションにおいて、いくつかのパン・チルトを変化させて撮影し、これらのすべての画像から、一度にすべてのパラメータを最適化して求める。パン・チルト値は、データとして与えられるので、後記する式(23)におけるMPanTiltは既知となる。
図6は、図3に示すDB作成用データ取得処理の流れを示すフローチャートである。
カメラキャリブレーション装置6は、初期状態のセッティングバリエーションでパターンが設置された状態と、初期状態のレンズ状態に調整された状態とを、セッティングバリエーションh=1、ズームレンズ状態m=m1とする(ステップS11)。そして、カメラキャリブレーション装置6は、現在のセッティングバリエーションhおよびズームレンズ状態mの組み合わせの状態において、パターンの画像データと、入力パラメータとの組み合わせを複数の画像データについて取得する(ステップS12)。次いで、カメラキャリブレーション装置6は、現在のセッティングバリエーションhにおいて必要なすべてのズームレンズ状態mでデータを取得したか否かを判別する(ステップS13)。現在のセッティングバリエーションhにおいて必要なすべてのズームレンズ状態mでデータを取得していない場合(ステップS13:No)、カメラキャリブレーション装置6は、ズームレンズ状態mを変更し(ステップS14)、ステップS12に戻る。
一方、現在のセッティングバリエーションhにおいて必要なすべてのズームレンズ状態mでデータを取得した場合(ステップS13:Yes)、カメラキャリブレーション装置6は、現在のセッティングバリエーションhに1を加え(h=h+1)、次のセッティングバリエーションにパターンが設置された状態で入力データを受け付ける(ステップS15)。そして、カメラキャリブレーション装置6は、対象となるすべてのズームレンズ状態mでデータを取得したか否かを判別する(ステップS16)。対象となるすべてのズームレンズ状態mでデータを取得していない場合(ステップS16:No)、ステップS12に戻る。一方、対象となるすべてのズームレンズ状態mでデータを取得した場合(ステップS16:Yes)、このDB作成用データ入力処理を終了する。
<画像特徴点観測処理>
図8は、図3に示す画像特徴点観測処理の流れを示すフローチャートである。
ここで、パターンPaの市松模様の特徴点(交点701;図7参照)がN個あってそのインデックスをn(1≦n≦N)とする。例えば、図7に示すパターンPaは、縦9マス×横11マスなので、縦線と横線の交点701の個数Nは8×10個である。また、パターンPaを撮影した画像がK枚あってそのインデックスをk(1≦k≦K)とする。また、画像kの観測された交点nの座標を画像座標系で、e0(n,k)とベクトル表記する。また、カメラキャリブレーション装置6で扱うカメラモデルを介して計算で得られる交点nの座標を画像座標系で、ed(n,k)とベクトル表記する。
カメラキャリブレーション装置6は、キャリブレーションパターン解析手段13によって、k番目の画像を選択する(ステップS21)。そして、キャリブレーションパターン解析手段13は、k番目の画像においてn番目の特徴点を選択する(ステップS22)。そして、キャリブレーションパターン解析手段13は、特徴点の位置座標e0(n,k)を観測し(ステップS23)、特徴点の位置座標e0(n,k)を保存する(ステップS24)。次に、キャリブレーションパターン解析手段13は、全特徴点を選択したか否かを判別する(ステップS25)。まだ選択されていない特徴点がある場合(ステップS25:No)、キャリブレーションパターン解析手段13は、nをインクリメントして(ステップS26)、ステップS22に戻る。一方、全特徴点を選択した場合(ステップS25:Yes)、キャリブレーションパターン解析手段13は、すべての画像を選択したか否かを判別する(ステップS27)。まだ選択されていない画像がある場合(ステップS27:No)、kをインクリメントして(ステップS28)、キャリブレーションパターン解析手段13は、ステップS21に戻る。一方、すべての画像を選択した場合(ステップS27:Yes)、キャリブレーションパターン解析手段13は、この画像特徴点観測処理を終了する。
<パラメータ算出処理>
パラメータ算出手段15は、最適化処理によりパラメータを算出する。目的関数を評価するパラメータベクトルθは、式(1)で表される。なお、各セッティングバリエーションhにおける設置位置に対応するパラメータベクトルは、目的関数を評価するために必要であり、計算過程で解が得られるが、データベースに登録するパラメータではない(図4参照)。
Figure 2010074730
最適化のプロセスは、一般的にはバンドル調整とよばれ、画像座標系におけるパターンの特徴点の観測位置と、カメラモデルを経て計算により推定した特徴点の位置との差を評価する目的関数を作成して、それを最適化することで、前記した式(1)のパラメータをすべて求めるものである。
前記したように画像座標系におけるパターンの特徴点の観測位置をe0(n,k)、カメラモデルを経て計算により推定した特徴点の位置をed(n,k)とすると、パラメータを最適化によって求める際の評価関数、すなわち、目的関数J(θ)は、式(2)で示される。なお、nは特徴点の個数(n=1,…,N)、kは画像の枚数(k=1,…,K)を表す。さらに、Vは観測誤差の共分散行列を表す。
Figure 2010074730
最適化としては、式(2)のJ(θ)を最小にするθを求めればよいことになる。ゆえに、パラメータ算出手段15は、式(4)に示す計算を実行する。式(4)からJが最小のときのθを求める計算には、例えば、公知のLevenberg-Marquardt法が最適化問題として利用できる。
Figure 2010074730
また、前記した式(2)に示す観測誤差の共分散行列Vは、式(5)で表される。なお、式(6)のEは誤差関数を示す。
Figure 2010074730
図11は、図3に示すパラメータ算出処理の流れを示すフローチャートである。
パラメータ算出手段15は、k番目の画像について、撮影時の入力パラメータ(ズームレンズデータ、パン・チルトデータ、キャリブレーションパターンデータ)を既知データとして、その画像のn番目の特徴点の位置座標ed(n,k)を推定する(ステップS31)。そして、パラメータ算出手段15は、すべての特徴点において位置を推定したか否かを判別する(ステップS32)。まだ推定されていない特徴点がある場合(ステップS32:No)、パラメータ算出手段15は、nをインクリメントして(ステップS37)、ステップS31に戻る。一方、すべての特徴点において位置を推定した場合(ステップS32:Yes)、パラメータ算出手段15は、すべての画像について特徴点位置を推定したか否かを判別する(ステップS33)。まだ推定されていない画像がある場合(ステップS33:No)、パラメータ算出手段15は、kをインクリメントして(ステップS38)、ステップS31に戻る。一方、すべての画像において特徴点位置を推定した場合(ステップS33:Yes)、前記した式(3)で示される現在のy(θ)を用いて、前記した式(2)で示される目的関数J(θ)を算出する(ステップS34)。そして、パラメータ算出手段15は、J(θ)の値が収束したか否かを判別する(ステップS35)。J(θ)の値が収束しなければ(ステップS35:No)、パラメータ算出手段15は、ステップS31に戻る。一方、J(θ)の値が収束した場合(ステップS35:Yes)、現在の評価パラメータベクトルθのパラメータを出力し(ステップS36)、このパラメータ算出処理を終了する。
<カメラセッティング時>
次に、カメラキャリブレーション装置6に関して、カメラセッティングフェーズの機能について図12を参照して説明する。図12は、本発明の実施形態に係るカメラキャリブレーション装置においてカメラセッティング時の情報の流れを示す図である。なお、データベース構築時(キャリブレーション時)と同一の機能については説明を省略する。
パラメータ入力手段12は、雲台姿勢検出センサ9aで検出された雲台9の姿勢を示すパラメータ(パン・チルトの2種類の回転角を示す信号)と、レンズデータ検出センサ8aで検出されたレンズデータ(2変数)とに加えて、ペデスタルデータ検出センサ10aで検出されたペデスタルデータ(ペデスタル10の移動によって変化した雲台の位置とのオフセット値)をパラメータ算出手段15へ入力する。
キャリブレーションパターン解析手段13は、記憶されたカメラセッティングにおいて撮影されたパターン画像を解析することで、当該パターンの特徴点の観測された座標位置を算出し、インデックス化する。
パラメータ算出手段15は、雲台9に搭載されたカメラ7に対応して予め設定された後記するカメラモデルを用いて第2入力パラメータ18eとして記憶された雲台のパン・チルト状態と、データベース5aに格納された各パラメータとを既知として、カメラセッティングにおいて撮影されたパターンの特徴点の座標位置を推定し、推定された座標位置と観測された座標位置との誤差関数を含む目的関数が最小化するように、カメラセッティングに対応した雲台の位置および姿勢を示すパラメータを、評価すべきパラメータとして算出する。
データベース作成手段16は、パラメータ算出手段15で算出したパラメータを追加することでデータベース5aを更新する(図12参照)。
なお、カメラセッティング時のパラメータ算出手段15の機能は、作成されたデータベース5aに格納された各パラメータ(前記した式(1)の各セッティングバリエーションhにおける設置位置に対応するパラメータベクトル以外のデータ)で構成されるデータ曲面を正解として、それがセッティング時の雲台位置の状態に合うようにフィッティング(最適化)するプロセスである。このプロセスのため、予めデータベース構築時に扱うデータとして、パターンをある位置に設置したときに5〜10枚のパターン画像を取得する際に、なるべくズームなどの内部パラメータを変化させた画像を入れることが望ましい。その理由は、このようにしなければ、フィッティングするためのデータ曲面のサンプル方向を1つ無駄にしてしまうことにより精度が悪化する可能性があるからである。
記憶手段18は、カメラセッティングのフェーズにおいてパラメータ入力手段12から入力されたデータを、第2入力パラメータ18eとして記憶する。
記憶手段18は、カメラセッティングのフェーズにおいて実写映像入力手段11から入力された画像データを、第2画像情報18fとして記憶する。
ここで、第2画像情報18fは、オンエア前のカメラセッティングにおいて撮影した複数のパターン画像である。また、第2入力パラメータ18eは、複数のパターン画像それぞれが撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態の測定値である。
また、記憶手段18は、カメラセッティングのフェーズにおいてキャリブレーションパターン解析手段13で観測した特徴点の座標を、第2観測座標18gとして記憶する。
記憶手段18は、カメラセッティングのフェーズにおいてパラメータ算出手段15で推定した特徴点の座標を、第2推定座標18hとして記憶する。
<カメラセッティング用データ入力処理>
図13は、図3に示すカメラセッティング用データ入力処理の流れを示すフローチャートである。カメラキャリブレーション装置6は、カメラセッティング時に固定配置された1つのパターンについての複数の画像データと、入力パラメータとの組み合わせを取得する(ステップS51)。そして、カメラキャリブレーション装置6は、必要な組み合わせのデータ(例えば5〜10組)をすべて取得したか否かを判別する(ステップS52)。まだ取得されていないデータがある場合(ステップS52:No)、ステップS51に戻る。一方、必要な組み合わせのデータをすべて取得した場合(ステップS52:Yes)、カメラキャリブレーション装置6は、このカメラセッティング用データ入力処理を終了する。なお、複数の画像データを取得するときに、パン・チルトを変更するだけではなく、ズームレンズ状態を適宜変更する。
<オンエア中>
次に、カメラキャリブレーション装置6に関して、オンエア中のパラメータ設定モードの機能について図14を参照して説明する。図14は、本発明の実施形態に係るカメラキャリブレーション装置においてオンエア中の情報の流れを示す図である。なお、オンエア以前の機能については説明を省略する。オンエア中においては、キャリブレーションパターン解析手段13および最適化キャリブレーション処理手段14を用いない。
パラメータ補間手段17は、オンエア中のズームレンズ状態をキー(クエリー)として、雲台位置および姿勢のパラメータがキャリブレーションされて更新されたデータベース5aからパラメータを読み出し(リザルト)、補間し、オンエア中の現在の雲台のパン・チルト状態を用いて、CGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータを生成し、その生成したCGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータをCG描画装置3に出力するものである。本実施形態では、撮影装置2にペデスタル10を備えているので、ペデスタルデータ(雲台9の中心位置に加えるオフセット値)にも合わせてパラメータを補間する。また、パラメータ補間手段17は、仮想カメラの位置および姿勢のパラメータについては、以下で説明するカメラモデルにおいて後記する式(23)の計算を行う。同様に、仮想カメラの内部パラメータについては、パラメータ補間手段17は、後記する式(25)に示す内部パラメータを補間により求める。この場合、出力するパラメータの個数の最小値は、ズームレンズ状態mが1つである場合であって、12変数の外部パラメータと、8変数の内部パラメータとなる。また、パラメータ補間手段17が、更新されたデータベース5aから読み出すパラメータには、カメラセッティング時に追加された、セッティングバリエーションhにおける設置位置に対応するパラメータベクトル(前記した式(1)参照)が含まれている。なお、補間の方法は、例えば、平均値補間、あるいは、スプライン曲線やベジェ曲線を用いて滑らかな曲線を描くように補間することができる。
記憶手段18は、オンエア中にパラメータ入力手段12から入力されたデータを、第3入力パラメータ18jとして記憶する。
ここで、第3入力パラメータ18jは、被写体画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態であり、ズームレンズ状態は検索条件として利用される。
[カメラモデル]
ここで、一般的なカメラモデルと対比させながら、本実施形態のカメラキャリブレーション装置6で前提としているカメラモデル(回転雲台モデル)について詳細に説明する(非特許文献1、3参照)。
まず、一般的なカメラモデルとしてピンホールカメラモデルにおける座標軸間の関係を図15に示す。図15に示すピンホールカメラモデルでは、任意の世界座標上の点P(X,Y,Z)を、ピンホールを視点として撮影する。世界座標上の点P(X,Y,Z)は、ピンホールを原点とする座標(カメラ座標)でみると、カメラ座標上の点P(xc,yc,zc)として撮影される。このカメラ座標上の点P(xc,yc,zc)を画像座標平面に投影すると、点P(xc,yc,zc)とピンホール(原点)とを結ぶ直線と画像座標平面との交点の位置(xn)に映るはずであるが、実際には、カメラ歪みの影響で、画像座標平面において、点P(xc,yc,zc)と原点とを結ぶ直線との交点からずれた位置(xd)に映ってしまう。なお、位置xn,xdについて図15ではベクトル表記した。
次に、本実施形態のカメラキャリブレーション装置6で扱うカメラモデルについて図9と以下の変換関係式とを参照して説明する。図9に示すカメラモデルは、世界座標(以下、wで表す)と、カメラ座標(以下、cで表す)と、画像座標(u軸およびv軸で示す)との他に、雲台座標(以下、pで表す)と、パン・チルトデータ座標(以下、dataで表す)とを有している。このうち、世界座標(w)とカメラ座標(c)と画像座標とは、図15に示したピンホールカメラモデルと同様なものである。
Figure 2010074730
なお、式(8)において、fは画角(焦点距離に対応)、sはアスペクト比、u0およびv0は光軸中心位置(図9に示すOiの座標)を示す。また、式(9)において、Rw→cは3×3の回転行列、tw→cは3×1の平行移動を示す列ベクトル、0は1×3の行ベクトルを示す。また、式(10)において、Mw→pは世界座標から雲台座標への変換行列、Mp→dataは雲台座標からパン・チルトデータ座標への変換行列、Mdata→cはパン・チルトデータ座標からカメラ座標への変換行列をそれぞれ示している。
また、本実施形態のカメラキャリブレーション装置6で扱うカメラモデルでは、式(11)〜式(16)によりレンズ歪みを考慮している。
Figure 2010074730
ここで、式(11)は、図9に示す画像座標上に図示した2点のうち、歪みを含んだ座標を示し、式(12)は、無歪の座標を示す。なお、Tは転置を表す。また、式(13)〜式(15)は、式(11)に示した歪みを含んだ座標と光軸中心位置(図9に示すOiの座標)との距離の関係を示す。また、式(16)は、式(11)〜式(15)で定まるものであって、歪を含んだ座標系から無歪座標系への変換を示す。ここで、k1、k2は、放射方向のレンズ歪み、p1、p2は接線方向のレンズ歪みを示す。
したがって、内部パラメータ(光学的パラメータ)は、式(8)に示す「画角(焦点距離に対応)f」と「アスペクト比s」、「光軸中心位置u0,v0」と、式(16)に示す「レンズ歪パラメータk1、k2、p1、p2」とからなる8変数である。なお、本アルゴリズムは、接線方向のレンズ歪パラメータp1、p2を考慮しないカメラモデルにも適用できる(p1=p2=0でもよい)。
また、外部パラメータは、式(10)に示す変換行列Mw→pで示される雲台位置x,y,zと雲台姿勢w,p,rと、変換行列Mp→dataで示されるパン・チルト量と、変換行列Mdata→cで示される雲台を基準としたカメラオフセット位置(カメラレンズオフセット位置)x,y,zおよびカメラオフセット姿勢(カメラレンズオフセット姿勢)w,p,rとからなる14変数である。ただし、パン・チルト量は常に与えられるので、求めるべき未知のパラメータは12変数である。
以下では、ズームレンズ状態を考慮して、前記した8変数の内部パラメータをベクトル化する。ここで、ズームレンズ状態の異なる2つのカメラ座標系の一例を図10に示す。図10は、ズームレンズ状態の異なる2つのカメラ座標系を示す図であって、(a)はズームレンズ状態m1、(b)はズームレンズ状態m2をそれぞれ示している。なお、zc軸が光軸方向であり、fは焦点距離を示す。
この場合、一般的にカメラの位置・姿勢をあらわす外部パラメータ(以下、extで表す)は、式(17)に示すように、各座標軸方向の平行移動と回転を表す6つのパラメータで規定される。なお、z軸が光軸方向である。
Figure 2010074730
ズームレンズ8の使用を考慮すると、その構造的な性質から、ズーム量およびフォーカス位置の変化に伴ってカメラ位置(カメラレンズ位置)を変化させる必要がある。ここで、ズームレンズ状態として、式(18)のmを定義する。以下、単独で“m”と表記した場合に式(18)を示すこととする。
Figure 2010074730
z、mfはそれぞれズーム量およびフォーカス位置を表す。一般的なシステムにおいては、それぞれのロータリーエンコーダのカウンタパルスの数値に相当する。つまり、このmにより、カメラ位置が変化するために、前記した式(17)の外部パラメータは式(21)で表されることになる。さらに、式(21)の外部パラメータは、剛体変換をあらわす回転Rと平行移動tからなる式(22)の行列M(m)で表されることと同等である。
Figure 2010074730
ここで、空間に任意の世界座標を考えることにする。雲台9のパン・チルト回転軸は直交し一点で交差していると仮定する。逆に言えばそのような仮定にあう雲台9を利用する。この交差点を雲台中心と呼ぶとする。この雲台9は世界座標の位置・姿勢Mpで設置されているとする。さらに、その雲台中心からオフセットされたカメラレンズ位置・姿勢をMcとし、パン・チルト量をMPanTiltで表すとすると、カメラ位置・姿勢を示す式(22)の行列M(m)は、最終的には、式(23)で表される。
Figure 2010074730
ズームレンズ8に関しては、ズーム量およびフォーカス位置によって影響を受ける外部パラメータとしては光軸方向の位置シフトのみを考慮した。つまりM(m)においては、Mcのみがmの関数であり、しかも実際には光軸方向のシフトのみがmの関数であるとした。
Figure 2010074730
続いて、ズームレンズ状態におけるベクトルである内部パラメータθintとしては、式(25)に示すように、Heikkilaのモデル(アスペクト比s、焦点距離f、画像中心座標u0,v0、レンズ歪係数k1,k2,p1,p2の8パラメータ)を採用し、これはすべてズームレンズ状態mの関数とした。
Figure 2010074730
従来の一般的なキャリブレーションの場合においては、内部パラメータは固定、かつ、カメラの位置・姿勢に拘束条件を与えないために、K枚の画像を利用する場合には、内部パラメータと、それぞれの画像に対応した外部パラメータ(カメラ位置・姿勢)とを未知パラメータとして扱うことになる。すなわち、その際のズームレンズ状態にあたる固定値をm0、評価すべきパラメータベクトルをθとすると、その転置ベクトルは式(26)で表される。ここで、θext(m0,k)は、ズームレンズ状態がm0であるk枚目の画像に対応した外部パラメータ(撮影カメラ位置・姿勢)ベクトルを表す。
Figure 2010074730
本実施形態では、ズームレンズ8を対象とするために、ズームレンズ状態mに対する内部・外部パラメータを、データとして得る必要がある。しかし、すべてのレンズ状態を連続してサンプルすることは不可能であるために、レンズ状態としては、いくつかの状態を離散的にサンプルし、それらの離散レンズ状態のサンプルから、ズームレンズ8全体の内部・外部パラメータを算出し、得られた各パラメータを、ズームレンズ状態に対して補間することとする。なお、これは、各離散レンズ状態においてそれぞれのバンドル調整結果から得られる各パラメータを補間することとは全く異なる。
サンプルしたズームレンズ状態m=m1,m2,…,mM、セッティングバリエーション h=1,2,3,…,Hのもとで評価されるパラメータベクトルθは、前記した式(1)となる。
本実施形態のカメラキャリブレーション装置6によれば、バーチャルスタジオの放送時に使用する既存のシステムに加えて、既知のパターン(例えば市松模様)が2,3種類準備できれば、それだけでズームレンズ8が全域で正確にキャリブレートできる。
以上、本実施形態について説明したが、本発明はこれに限定されるものではなく、その趣旨を変えない範囲で様々に実施することができる。例えば、パターンは2次元の市松模様として説明したが、特徴点が3次元の位置情報を持つものであってもよい。
また、カメラキャリブレーション装置6は、一般的なコンピュータを、前記したキャリブレーションパターン解析手段13と、最適化キャリブレーション処理手段14として機能させるプログラム(カメラキャリブレーションプログラム)により動作させることで実現することができる。このプログラムは、通信回線を介して提供することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。このプログラムをインストールされたコンピュータは、CPUが、ROM等に格納されたこのプログラムをRAMに展開することにより、カメラキャリブレーション装置6と同等の効果を奏することができる。
本発明は、放送用バーチャルスタジオカメラのキャリブレーションだけでなく、一般的なVR(virtual reality)、MR(mixed reality)、AR(augmented reality)などの実写とCGを合成する場合のカメラシステム全体またはレンズのキャリブレーションに使用できる。さらに、正確なキャリブレーションを行った撮影システムを利用すればイメージベーストモデリングなどの三次元情報の取得精度向上につながる。
本発明の実施形態に係るカメラキャリブレーション装置を含むカメラシステムを模式的に示す構成図である。 図1に示した撮影装置の外観の一例を模式的に示す図である。 図1のカメラシステムの処理の全体の流れを示すフローチャートである。 本発明の実施形態に係るカメラキャリブレーション装置の構成を示すブロック図であって、データベース作成時の情報の流れを示している。 本発明の実施形態に係るカメラキャリブレーション装置に入力する実写映像として撮影される2つのパターンの配置例を示す図である。 図3に示すDB作成用データ取得処理の流れを示すフローチャートである。 本発明の実施形態に係るカメラキャリブレーション装置に入力する実写映像の特徴点の一例を示す図である。 図3に示す画像特徴点観測処理の流れを示すフローチャートである。 本発明の実施形態に係るカメラキャリブレーション装置で用いるカメラモデルの説明図である。 ズームレンズ状態の異なる2つのカメラ座標系を示す図であって、(a)はズームレンズ状態m1、(b)はズームレンズ状態m2をそれぞれ示している。 図3に示すパラメータ算出処理の流れを示すフローチャートである。 本発明の実施形態に係るカメラキャリブレーション装置においてカメラセッティング時の情報の流れを示す図である。 図3に示すカメラセッティング用データ入力処理の流れを示すフローチャートである。 本発明の実施形態に係るカメラキャリブレーション装置においてオンエア中の情報の流れを示す図である。 従来のカメラキャリブレーションにおける座標軸間の関係を示す説明図である。
符号の説明
1 カメラシステム
2 撮影装置
3 CG描画装置
4 映像合成装置
5 記憶装置
5a データベース
6 カメラキャリブレーション装置
7 カメラ
8 ズームレンズ
8a レンズデータ検出センサ
9 雲台
9a 雲台姿勢検出センサ
10 ペデスタル
10a ペデスタルデータ検出センサ
11 実写映像入力手段
12 パラメータ入力手段
13 キャリブレーションパターン解析手段
14 最適化キャリブレーション処理手段
15 パラメータ算出手段
16 データベース作成手段
17 パラメータ補間手段
18 記憶手段
M 入力装置

Claims (5)

  1. バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションするカメラキャリブレーション装置であって、
    前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像を記憶すると共に、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第1入力パラメータとして記憶する記憶手段と、
    前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化するキャリブレーションパターン解析手段と、
    前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出するパラメータ算出手段と、
    前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成するデータベース作成手段と、
    を備えることを特徴とするカメラキャリブレーション装置。
  2. 請求項1のカメラキャリブレーション装置で作成されたデータベースを記憶したカメラキャリブレーション装置であって、
    2次元または3次元の特徴点を分布させた1つのキャリブレーション用のパターンを、オンエア前のカメラセッティングにおいて撮影した複数のパターン画像を記憶すると共に、前記複数のパターン画像それぞれが撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第2入力パラメータとして記憶する記憶手段と、
    前記記憶された前記カメラセッティングにおいて撮影されたパターン画像を解析することで、当該パターンの特徴点の観測された座標位置を算出し、インデックス化するキャリブレーションパターン解析手段と、
    前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて第2入力パラメータとして記憶された雲台のパン・チルト状態と、前記データベースに格納された各パラメータとを既知として、前記カメラセッティングにおいて撮影されたパターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラセッティングに対応した雲台の位置および姿勢を示すパラメータを、評価すべきパラメータとして算出するパラメータ算出手段と、
    前記算出したパラメータを追加することで前記データベースを更新するデータベース作成手段と、
    を備えることを特徴とするカメラキャリブレーション装置。
  3. 請求項2のカメラキャリブレーション装置で更新されたデータベースを記憶したカメラキャリブレーション装置であって、
    オンエア中のズームレンズ状態をキーとして前記更新されたデータベースからパラメータを読み出し補間し、オンエア中の現在の雲台のパン・チルト状態を用いて、CGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータを生成し、その生成したCGの仮想カメラの位置および姿勢のパラメータおよび内部パラメータをCG描画装置に出力するパラメータ補間手段を備えることを特徴とするカメラキャリブレーション装置。
  4. バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションする処理手段と記憶手段とを備えたカメラキャリブレーション装置のカメラキャリブレーション方法であって、
    前記処理手段は、
    前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像と、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を示す第1入力パラメータとの入力を受け付けて前記記憶手段に格納する入力ステップと、
    前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化する画像特徴点観測ステップと、
    前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出するパラメータ算出ステップと、
    前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成するデータベース作成ステップと、
    を含んで実行することを特徴とするカメラキャリブレーション方法。
  5. バーチャルスタジオ用のカメラシステムの雲台に搭載されたカメラのズームレンズのズーム量およびフォーカス値で示すズームレンズ状態を、広角と望遠のうちの一方から他方へ向かって離散的に切り替えるときに、所定位置に設置された2次元または3次元の特徴点を分布させたキャリブレーション用のパターンを撮影したパターン画像が撮影画面の所定範囲に収まるように、前記パターンの特徴点の間隔のサイズが異なる他のパターンと取り替えることと設置位置を変更することとの少なくとも一方を行うことに対応したセッティングバリエーションを随時変更して得られる複数のパターン画像に基づいて前記カメラシステムおよび前記ズームレンズをキャリブレーションするために、前記セッティングバリエーションを変更した直後に、前記セッティングバリエーションの変更直前のズームレンズ状態に維持して得られたパターン画像を記憶すると共に、前記パターン画像が撮影されたときに測定されたズームレンズ状態および雲台のパン・チルト状態を第1入力パラメータとして記憶する記憶手段を備えたコンピュータを、
    前記記憶されたパターン画像を解析することで、前記パターンの特徴点の観測された座標位置を算出し、インデックス化するキャリブレーションパターン解析手段、
    前記雲台に搭載されたカメラに対応して予め設定されたカメラモデルを用いて前記第1入力パラメータとして記憶された雲台のパン・チルト状態を既知として、前記パターンの特徴点の座標位置を推定し、前記推定された座標位置と前記観測された座標位置との誤差関数を含む目的関数が最小化するように、前記カメラモデルにおける外部パラメータと、前記ズームレンズ状態に依存した内部パラメータとを、評価すべきパラメータとして算出するパラメータ算出手段、
    前記算出された評価すべきパラメータのうち、前記雲台から前記カメラの光軸方向のオフセットを示すパラメータと、前記内部パラメータと、前記ズームレンズ状態に依存しない外部パラメータとを格納したデータベースを作成するデータベース作成手段、
    として機能させることを特徴とするカメラキャリブレーションプログラム。
JP2008242524A 2008-09-22 2008-09-22 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム Expired - Fee Related JP4960941B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008242524A JP4960941B2 (ja) 2008-09-22 2008-09-22 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008242524A JP4960941B2 (ja) 2008-09-22 2008-09-22 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2010074730A true JP2010074730A (ja) 2010-04-02
JP4960941B2 JP4960941B2 (ja) 2012-06-27

Family

ID=42206060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008242524A Expired - Fee Related JP4960941B2 (ja) 2008-09-22 2008-09-22 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム

Country Status (1)

Country Link
JP (1) JP4960941B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178704A (ja) * 2016-06-30 2016-10-06 富士フイルム株式会社 レンズ情報登録システム,ならびにレンズ情報登録システムに用いられるレンズ情報サーバおよびその動作制御方法
KR101901236B1 (ko) * 2016-11-29 2018-09-28 경북대학교 산학협력단 스테레오 카메라 보정 방법 및 장치
CN111698390A (zh) * 2020-06-23 2020-09-22 网易(杭州)网络有限公司 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统
CN113888640A (zh) * 2021-09-07 2022-01-04 浙江大学 一种适用于无人机云台相机的改进标定方法
US11317077B1 (en) * 2017-03-16 2022-04-26 Amazon Technologies, Inc. Collection of camera calibration data using augmented reality
CN116233392A (zh) * 2022-12-29 2023-06-06 北京元客视界科技有限公司 虚拟拍摄系统的校准方法、装置、电子设备及存储介质
WO2024070763A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、撮影システム、情報処理方法、プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6622503B2 (ja) * 2014-11-25 2019-12-18 日本放送協会 カメラモデルパラメータ推定装置及びそのプログラム
CN106506974A (zh) * 2016-12-13 2017-03-15 北京鸿合智能系统股份有限公司 一种自动拍照方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003065714A (ja) * 2001-08-21 2003-03-05 Sony Corp カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003065714A (ja) * 2001-08-21 2003-03-05 Sony Corp カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016178704A (ja) * 2016-06-30 2016-10-06 富士フイルム株式会社 レンズ情報登録システム,ならびにレンズ情報登録システムに用いられるレンズ情報サーバおよびその動作制御方法
KR101901236B1 (ko) * 2016-11-29 2018-09-28 경북대학교 산학협력단 스테레오 카메라 보정 방법 및 장치
US11317077B1 (en) * 2017-03-16 2022-04-26 Amazon Technologies, Inc. Collection of camera calibration data using augmented reality
CN111698390A (zh) * 2020-06-23 2020-09-22 网易(杭州)网络有限公司 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统
CN113888640A (zh) * 2021-09-07 2022-01-04 浙江大学 一种适用于无人机云台相机的改进标定方法
CN113888640B (zh) * 2021-09-07 2024-02-02 浙江大学 一种适用于无人机云台相机的改进标定方法
WO2024070763A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、撮影システム、情報処理方法、プログラム
CN116233392A (zh) * 2022-12-29 2023-06-06 北京元客视界科技有限公司 虚拟拍摄系统的校准方法、装置、电子设备及存储介质
CN116233392B (zh) * 2022-12-29 2024-03-29 北京元客视界科技有限公司 虚拟拍摄系统的校准方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP4960941B2 (ja) 2012-06-27

Similar Documents

Publication Publication Date Title
JP4960941B2 (ja) 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム
JP2009017480A (ja) カメラキャリブレーション装置およびそのプログラム
CN105096329B (zh) 一种精确校正超广角摄像头图像畸变的方法
CN101563709B (zh) 校准照相机系统
JP4307934B2 (ja) 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法
US20170287166A1 (en) Camera calibration method using a calibration target
US7102666B2 (en) System and method for stabilizing rotational images
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
Zhang et al. A universal and flexible theodolite-camera system for making accurate measurements over large volumes
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP2019502181A (ja) 合成画像を用いたカメラ較正
JP5666069B1 (ja) 座標算出装置及び方法、並びに画像処理装置及び方法
JP6217227B2 (ja) 校正装置、方法及びプログラム
JP2010014450A (ja) 位置測定方法、位置測定装置、およびプログラム
KR20090078463A (ko) 왜곡 영상 보정 장치 및 방법
KR20130121290A (ko) 회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법
JP2004037396A (ja) 三次元データ取得装置
JP2000011172A (ja) 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
JP2008217243A (ja) 画像生成装置
JP2002516443A (ja) 3次元表示のための方法および装置
JP2022500793A (ja) 多自由度可動視覚システムのキャリブレーション方法
Barazzetti et al. Fisheye lenses for 3D modeling: Evaluations and considerations
JP4809134B2 (ja) 画像処理装置及びその処理方法
JP2003296708A (ja) データ処理方法、データ処理プログラムおよび記録媒体
JP2007033087A (ja) キャリブレーション装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4960941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees