JPWO2004061387A1 - 多視点ビデオキャプチャシステム - Google Patents
多視点ビデオキャプチャシステム Download PDFInfo
- Publication number
- JPWO2004061387A1 JPWO2004061387A1 JP2004564493A JP2004564493A JPWO2004061387A1 JP WO2004061387 A1 JPWO2004061387 A1 JP WO2004061387A1 JP 2004564493 A JP2004564493 A JP 2004564493A JP 2004564493 A JP2004564493 A JP 2004564493A JP WO2004061387 A1 JPWO2004061387 A1 JP WO2004061387A1
- Authority
- JP
- Japan
- Prior art keywords
- camera
- information
- video data
- video
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
しかし、実際に評価したい人や物体は様々な環境下で作業を行うため、必ずしもこれら情報を取得するに適した場所ではない。また、現実世界を行われている事象をそのまま計算機上に取り込むには、人や物体等の対象物やその周辺環境に時間をとらせず、作業に支障が生じないことが必要である。
従来、このような現実の世界にある物体を計算機上に取り込む手法として、モーションキャプチャと呼ばれるものが知られている。このモーションキャプチャは、人などの動体の動きをシミュレートするものである。モーションキャプチャ装置として、例えば文献1が知られている。文献1には、モーションキャプチャとして、例えば代表的なものとして光学式、機械式、磁気式が知られ、光学式のモーションキャプチャでは、演技者の体の動きを計測したい場所にマーカを取り付け、このマーカをカメラで撮像することにより、マーカの位置から各部の動きを計測し、機械式のモーションキャプチャでは、演技者の体に角度検出器や感圧器を取り付け、関節部の折れ曲がり角度を検出することにより演技者の動きを検出し、磁気式のモーションキャプチャでは、演技者の身体の各部に磁気センサを取り付け、人工的に生成された磁場の中で演技者を動かして、磁力線のの密度と角度を磁気センサによって検出することにより、磁気センサが存在する絶対的な位置を導出して演技者の動きを検出することが記載されている。
文献1:特許公開公報 特開2000−321044(段落番号0002〜段落番号0005)
さらに、従来のモーションキャプチャでは、対象物に定めた代表点のみの位置情報を計測し、これに基づいて動きを検出しており、対象物の映像情報は含まれていない。従来の光学式のモーションキャプチャはカメラを備えるものの、このカメラは被験者等の対象物の画像から代表位置に取り付けたマーカの位置情報を取1り出し、対象物の画像データは廃棄しており、対象物の本来の動きを取り込んでいない。そのため、従来のモーションキャプチャで得られる対象物の動きは、例えばワイヤーフレームの形態で表現することになり、対象物の本来の動きを再現することができないという問題がある。
また、従来のシステムでは、対象物の画像を高精度で取得するには高価なカメラが必要であり、特に広い範囲の画像を取得するにはより高価なカメラが必要となる。
ビデオカメラで撮像した画像を用いて対象物の位置や姿勢を取得するには、画像(フレーム)列に対して個々のフレーム上に写り込んでいる被写体の位置や姿勢を解析する必要がある。この解析精度は、一般に被写体が大きく写り込んでいるほど向上する。その理由は、被写体の実世界における位置のずれが、被写体の視野角に対する割合が大きくなればなるほど、フレーム上の位置(ピクセル位置)のずれとして反映されるためである。
精度を上げる一つの方法として、フレーム上のピクセルの密度を上げる方法がある。しかしながら、この方法はビデオカメラの撮像素子の性能に限界があり、画像伝送のデータ量が極端に増えるという問題があるため、実用的ではない。そこで、被写体を大きく捕らえるには、カメラマンがカメラの視野の移動(パン、チルト)、あるいはズームアップを行えば良い。さらに、カメラ自体を被写体の動きに合わせて移動させればさらに良い。
しかしながら、カメラをパン,チルト,ズーム、及びカメラ自体の移動などのカメラパラメータを撮影中に変化させると、位置や姿勢の解析ができないという問題がある。通常の解析方法では、最初にカメラの空間的な位置、視線方向、視野広さ(焦点距離から求める)などのカメラパラメータと呼ばれるデータを取得しておき、このカメラパラメータと個々のフレーム上での画像解析の結果(被写体の上での位置)とを合わせるための演算式(キャリブレーション式)を作成し、現実世界での被写体位置を演算する。さらに、2台以上のビデオカメラのフレームデータに対してこの演算を行うことにより、空間位置を推定することができる。このような被写体位置の演算において、撮影中にカメラパラメータが変化すると、画像データを正確にキャリブレーションすることができなくなる。
そこで、本発明は前記した従来の問題点を解決し、対象物の映像を含む実際の動きを、測定環境に依存することなく取得することを目的とする。また、高価なカメラを用いることなく、広範囲の映像を高精度で取得することを目的とする。
本発明は、複数のカメラで対象物を撮影して多視点による映像データを取得することにより被験者等の対象物の負担を少なくすると共に、カメラの姿勢やズーム等のカメラパラメータを映像データと共に取得することにより、対象物の映像を含む実際の動きを測定環境に依存することなく取得する。
本発明は、単に映像データとカメラパラメータを取得するのではなく、カメラの撮影時に、複数カメラを同期させて映像データを取得すると共に、この映像データと同期してカメラパラメータをフレーム毎に取得することにより、対象物の実際の動きを測定環境に依存することなく取得し、また、代表点のみの動きではなく対象物の映像自体の動きを取得することができる。
本発明は、対象物の映像情報を多視点から取得する多視点ビデオキャプチャシステム(多視点映像システム)、対象物の映像情報を多視点から取得する制御をコンピュータに実行させるプログラムの記憶媒体、多視点から取得した対象物の映像情報を記憶する記憶媒体の各態様を含む。
本発明の多視点ビデオキャプチャシステム(多視点映像システム)の第1の形態は、対象物の映像情報を多視点から取得するビデオキャプチャシステムであって、互いに同期して動作する複数のカメラから取得される映像データ及び各カメラのカメラパラメータに、相互間を対応付ける情報を付加して出力する。出力した映像データ及びカメラパラメータは記憶することができ、映像データ及びカメラパラメータをフレーム毎に記憶する。
本発明の多視点ビデオキャプチャシステムの第2の形態は、対象物の映像情報を多視点から取得するビデオキャプチャシステムであって、動画像を取得する複数のカメラと、各カメラのカメラパラメータを取得する検出手段と、複数のカメラを同期して動画像を取得させる同期手段と、各カメラの映像データ間、及び映像データとカメラパラメータとの間を対応付けるデータ付加手段とを備える構成とする
同期手段により複数のカメラを同期して映像データを取得させ、データ付加手段により各カメラで取得した各映像データ間を同期させると共に、映像データとカメラパラメータを同期させる。これにより、同時刻における複数カメラの映像データとカメラパラメータを求めることができる。
また、第2の形態は、さらに、対応付けの情報を付加した映像データをフレーム毎に記憶する映像データ記憶手段と、対応付けの情報を付加したカメラパラメータを記憶するカメラパラメータ記憶手段とを備える。この態様によれば、互いに対応付ける情報を含む映像データ及びカメラパラメータをそれぞれ記憶することができる。なお、映像データ記憶手段とカメラパラメータ記憶手段は、異なる記憶手段とすることも同一の記憶手段とすることもできる。また、同一の記憶手段においては、映像データとカメラパラメータをそれぞれ異なる領域に記憶することも、あるいは同じ領域に記憶することもできる。
上記形態において、対応付けの情報は、複数のカメラの1つのカメラから取得される映像データのフレームカウントとすることができる。フレームカウントを参照することにより、複数のカメラから取得される映像データの各フレーム間の対応関係を知り、同時刻における映像データを同期して処理することができる他、同時刻の映像データに対応するカメラパラメータを求めて同期して処理することができる。
カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ズーム情報を含む。パンは、例えばカメラの横方向の首振り角度であり、チルトは、例えばカメラの縦方向の首振り角度であり、それぞれカメラが撮像する撮像方向に係わる姿勢情報である。また、ズーム情報は、例えばカメラの焦点位置であり、カメラの撮像画面にとらえられる視野範囲に係わる情報である。このカメラの姿勢情報、ズーム情報により、カメラが撮影する撮影範囲を知ることができる。
本発明は、カメラパラメータとして、パン及びチルトのカメラの姿勢情報に加えてズーム情報を備えることにより、映像データの分解能の向上と取得範囲の拡大の両方を得ることができる。
さらに、本発明の多視点ビデオキャプチャシステムは、カメラパラメータとしてカメラの二次元又は3次元の位置情報を含むこともできる。この位置情報を含むことにより、カメラ自体が空間内で移動した場合であっても、各カメラの映像データ間の空間的関係を把握することができ、少ないカメラ台数で広範囲を映像情報を取得することができる。さらに、移動する対象物を追跡しながら画像情報を取得することができる。
また、フレーム毎に記憶するデータは、前記したカメラパラメータの他に、測定データなど各種データとすることもでき、映像データやカメラパラメータと同期して測定した測定データを同期して記憶することができる。
本発明のプログラムの記憶媒体の態様は、対象物の映像情報を多視点から取得する制御をコンピュータに実行させるプログラムの記憶媒体であって、複数のカメラから取得した各フレームの映像データに同期用の共通のフレームカウントを順次付加する第1のプログラムコード手段と、各カメラのカメラパラメータに、前記映像データに対応するフレームカウントを順次付加する第2のプログラムコード手段とを記憶したプログラムの記憶媒体である。
第1のプログラムコード手段は、フレームカウントを付加した映像データの第1の記憶手段への記憶を含み、また、第2のプログラムコード手段は、フレームカウントを付加したカウントパラメータの第2の記憶手段への記憶を含む。このプログラムは、前記データ付加手段が実行する処理を制御する。
また、カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ないしズーム情報を含む。また、カメラの二次元又は3次元の位置情報を含むようにしても良い。さらに、例えば、音情報、温度、湿度など撮影環境や周囲の種々の情報を映像データと関連付けて記憶しても良い。
このカメラパラメータの他に、他の情報を映像データと関連付けて記憶する構成とすることにより、例えば、衣服に体温や外気温や各種ガスを測定するセンサを設け、カメラが撮像する映像データに加えてこれらセンサで形成した測定データを取り込み、映像データと関連付けて記憶することにより、同時点の映像データと測定データを容易に解析することができる。
また、本発明は、カメラがパンやチルトした際に生じるカメラパラメータのずれを補正することができる。この補正は、カメラをパン及び/又はチルトさせて複数の回転位置における画像を取得する工程と、画像からカメラの焦点位置と回転軸の中心位置との対応関係を求める工程と、カメラのカメラパラメータを取得する工程と、カメラパラメータを前記対応関係に基づいて補正する工程とを備える。
本発明の映像情報の記憶媒体の態様は、多視点から取得した対象物の映像情報を記憶する記憶媒体であって、複数のカメラから取得した各フレームの映像データに同期用の共通のフレームカウントを順次付加された第1の映像情報と、各カメラのカメラパラメータに映像データに対応するフレームカウントが順次付加された第2の映像情報とを記憶した映像情報の記憶媒体である。カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ないしズーム情報を含み、また、カメラの二次元又は3次元の位置情報を含むようにしても良い。また、映像データと関連付けられた種々の情報を含めても良い。
測定環境を、均質光としたり、校正を容易とするのためのスタジオ等の限られた空間とする等の制約条件を付加することなく、映像情報を取得することができる。
本発明により取得された映像情報は、対象物の動きや姿勢の解析に適用することができる。
図1は、本発明の多視点ビデオキャプチャシステム(多視点映像システム)の概略を説明するための構成図である。図1において、多視点ビデオキャプチャシステム1は、対象物10の動画像の映像データを取得する複数のカメラ2(図ではカメラ2A〜カメラ2Dを示している)と、各カメラ2のカメラパラメータを取得するセンサ3(図ではセンサ3A〜センサ3Dを示している)と、複数のカメラ2を同期して動画像を取得させる同期手段4(図では同期信号のみ示している)と、各カメラ2の映像データ間、及び映像データとカメラパラメータ間の対応付けを行うデータ付加手段6とを備え、互いに同期して動作する複数のカメラから取得される映像データ、及び各カメラのカメラパラメータに、相互を対応付ける情報を付加して出力する。
データ付加手段6が付加する対応付け情報は、例えば、1つのカメラの映像データから抽出したフレームカウントに基づいて設定することができる。このフレームカウントは、後述するフレームカウンタ装置7によって求めることができる。
また、多視点ビデオキャプチャシステム1は、データ付加手段6で対応付け情報を付加した映像データを記憶する映像データ記憶手段11、データ付加手段6で対応付け情報を付加したカメラパラメータを記憶するカメラパラメータ記憶手段12を備えることができる。
複数のカメラ2A〜2Dは、対象物10の周囲の任意の位置に設けることができ、固定あるいは移動可能とすることができる。これらの複数のカメラ2A〜2Dは、同期手段4が生成する同期信号により同期して対象物10の動画像の撮像する。なお、同期合わせは、カメラ2が撮像する各フレーム毎に行うことも、所定フレーム単位に行うこともできる。これにより、各カメラ2A〜2Dから得られる映像データは、フレーム単位で同期あわせされ、同時刻の映像データとなる。各カメラ2から取得された映像データはデータ付加手段6に収集される。
また、各カメラ2A〜2Dには、各カメラのパンやチルト等のカメラの姿勢情報や焦点距離等のズーム情報などのカメラパラメータを検出するセンサ3A〜3Dが設けられ、各センサ3で検出されたカメラパラメータはデータ収集手段5に収集される。
対応付け情報として用いるフレームカウントは、例えば、複数のカメラ2の内の1つのカメラから映像データを取り込み、この映像データの各フレームをカウントして取得することができる。取得したフレームカウントは、各映像データ間を同期させて対応付ける情報となると共に、映像データとカメラパラメータとを対応付る情報となる。
データ付加手段6は、映像データ及びデータ収集手段5で収集したカメラパラメータに、フレームカウントに基づいて形成した対応付け情報を付加する。対応付け情報が付加された映像データは映像データ記憶手段11に記憶され、対応付け情報が付加されたカメラパラメータはカメラパラメータ記憶手段12に記憶される。
なお、本発明の多視点ビデオキャプチャシステム1は、映像データ記憶手段11及びカメラパラメータ記憶手段12を含まない構成とすることも、あるいは映像データ記憶手段11及びカメラパラメータ記憶手段12を含む構成とすることもできる。
図2は、本発明の多視点ビデオキャプチャシステムが備える複数のカメラ構成の一例を示している。なお、図2では複数のカメラとしてカメラ2A〜2Dの4台のカメラ構成の例を示しているが、カメラの台数は2台以上の任意の台数とすることができる。以下、カメラ2Aを代表として説明する。
カメラ2Aはカメラ本体2aを備え、このカメラ本体2aにはカメラパラメータを形成するためのセンサ3Aが設けられる。センサ3Aは、姿勢センサ3aとレンズセンサ3bとセンサケーブル3cとデータ中継器3dを備える。カメラ本体2aは、少なくとも2軸で回動あるいは回転自在とする雲台上に支持され、パン(横方向の首振り)及びチルト(縦方向の首振り)自在としている。なお、カメラ2を雲台に対して横向きに取り付けた場合には、前記したパンは縦方向の首振りとなり、チルトは横方向の首振りとなる。雲台は、三脚上に設置することもできる。
姿勢センサ3aは、カメラの首振りの方向及び角度を検出するセンサであり、雲台に設けることにより、カメラ2Aの首振りの程度をパン情報及びチルト情報として検出し出力する。また、レンズセンサ3bは、カメラ2Aのズーム情報を検出するセンサであり、例えば焦点距離を検出することによりレンズのズーム位置を取得することができる。
姿勢センサ3a及びレンズセンサ3bは、回転軸の連結したロータリエンコーダにより構成することができ、例えば、基準回転位置に対して、いずれの方向(例えば、右回転方向や左回転方向)にどの程度回転したかを、回転方向と回転角により検出する。なお、回転方向のデータは、例えば基準回転方向を正としたとき、正(+)あるいは負(−)により表すことができる。また、ロータリエンコーダはアブソリュート型を用いて得られる絶対角度位置を用いることもできる。 姿勢センサ3a及びレンズセンサ3bから得られたパン,チルト,ズームの各カメラパラメータは、センサケーブル3cを介してデータ中継器3dに集められた後、データ収集手段5に収集される。
次に、本発明の多視点ビデオキャプチャシステムが備えるカメラにより撮影される映像について、図3,4を用いて説明する。
図3は、カメラのズームを調整して広い視野を撮影した場合を示し、図3(b)は映像データ例を示している。この場合には、広い視野が得られる代わりに、各像の大きさは小さくなる。そのため、例えば対象物10中の対象物10aをより詳細に観察することは困難である。
この状態で、カメラのズーム機能により対象物10中の対象物10aを拡大することにより、対象物10aを高い解像度で観察することができるが、代わりに視野範囲が狭まることになる。本発明の多視点ビデオキャプチャシステムは、この像の拡大と視野範囲の狭さとの相反する問題を、パン及びチルトのカメラ姿勢情報とズーム情報とを用いることで調整し、ズームにより像を拡大した場合にもパンやチルトにより広い視野範囲を確保する。
図4は、ズームとパンやチルトとを組み合わせた状態を示している。図4(d)中のCは、図4(b)の位置における対象物10aの拡大像を示している。このズームにより狭まった視野範囲を広げるため、例えば、図4(a)に示すように左方向にパンさせることにより、図4(d)中のC−Lに示す左方向の像を取得することができ、図4(c)に示すように右方向にパンさせることにより、図4(d)中のC−Rに示す右方向の像を取得することができる。また、上方向あるいは下方向にチルトさせることにより、図4(d)中のC−U,C−Dに示す上方向や下方向の像を取得することができる。また、パンとチルトを組み合わせることにより、図4(d)中のC−R−Uに示す右上方向の像を取得することができる。
次に、本発明の多視点ビデオキャプチャシステムのより詳細な構成例について、図5〜図9を用いて説明する。なお、図5は多視点ビデオキャプチャシステムを説明するための構成図であり、図6は映像データ及びカメラパラメータの取得状態を説明するための時間軸上のデータ列の一例を示す図であり、図7は記憶手段に記憶される映像データ及びカメラパラメータの一例を示す図であり、図8は映像データ及びカメラパラメータの通信データのフォーマットの一例を示す図であり、図9はカメラパラメータの通信データの構造の一例を示す図である
図5において、多視点ビデオキャプチャシステム1は、複数のカメラ2(図ではカメラ2A〜カメラ2Dを示している)と、各カメラ2のカメラパラメータを取得するセンサ3(図ではセンサ3A〜センサ3Dを示している)と、複数のカメラ2を同期して動画像を取得させる同期手段4(同期発生手段4a,分配手段4b)と、各センサ3からのカメラパラメータを収集するデータ収集器5と、各カメラ2の映像データ間、及び映像データとカメラパラメータ間の対応付けを行うデータ付加手段6(通信データ制御手段6a,RGB重畳手段6b)と、対応付けを行う情報としてフレームカウントを出力するフレームカウンタ装置7とを備える。また、データ付加手段6が出力する映像データを記憶する映像データ記憶手段11、及びカメラパラメータを記憶するカメラパラメータ記憶手段12を備える。
同期手段4は、同期発生手段4aで発生した同期信号を分配手段4bにより各カメラ2A〜2Dに分配する。各カメラ2A〜2Dはこの同期信号に基づいて撮像し、映像データのフレーム毎に取得する。図6において、図6(b)はカメラAが取得する映像データを示し、同時信号に同期して映像データA1,A2,A3,…,An,…をフレーム単位で出力する。同様に、図6(g)はカメラBが取得する映像データを示し、同時信号に同期して映像データB1,B2,B3,…,Bn,…をフレーム単位で出力する。
各フレーム単位の映像データは、例えば、RGB信号とSYNC信号(垂直同期信号)を含み、SYNC信号はフレームをカウントし、フレーム間及び映像データとカメラパラメータとの間の対応付けを行うフレームカウントの生成に用いる。なお、RGB信号はアナログ信号とすることもデジタル信号のいずれの信号形態としてもよい。
また、同期信号は、各フレーム単位で出力することも、あるいは所定フレーム数毎に出力してもよい。所定フレーム数毎に同期信号を出力する場合には、同期信号間のフレーム取得は各カメラが備えるタイミングで行い、所定フレーム数毎に同期信号によって各カメラ間のフレーム取得を同期させる。
データ収集器5は、各カメラに設けたセンサ3(姿勢センサ3a,レンズセンサ3b)で検出したカメラパラメータ(カメラのパン情報、チルト情報、ズーム情報)を収集する。なお、各センサ3は、例えば、ロータリエンコーダ等から出力されるエンコーダパルスの信号形態で出力される。このエンコーダパルスは、パン,チルトについては雲台に対する回転角及び回転方向の情報を含み、ズームについてはカメラレンズの移動(あるいはズーム機構の回転量)及び方向の情報を含む。
データ収集器5は、これら各センサ3A〜3Dから出力されるエンコーダパルスを、映像データ中のSYNC信号(垂直同期信号)に同期して読み込み、データ付加手段6にシリアル通信する。
図6(c)は、データ収集器で収集されるセンサ3Aのカメラパラメータを示している。カメラパラメータPA1は、映像データA1のSYNC信号(垂直同期信号)に同期して読み込まれ、次のカメラパラメータPA2は、映像データA2のSYNC信号(垂直同期信号)に同期して読み込まれ、同様にして順次各映像データのSYNC信号(垂直同期信号)に同期して読み込みが行われる。
このカメラパラメータの読み込みの際に同期信号として用いるSYNC信号(垂直同期信号)は、複数のカメラの内の1つのカメラから取得される映像データが用いられる。図5,6に示す例では、カメラ2Aの映像データを用いた例を示している。
したがって、データ収集器に収集されるセンサ3Bのカメラパラメータは、図6(h)に示すように、カメラパラメータPB1は、映像データA1のSYNC信号(垂直同期信号)に同期して読み込まれ、次のカメラパラメータPB2は、映像データA2のSYNC信号(垂直同期信号)に同期して読み込まれ、同様にして順次カメラ3Aの映像データAnのSYNC信号(垂直同期信号)に同期して読み込みが行われる。これにより、データ収集器5に収集される各カメラ3A〜3Dのカメラパラメータの同期合わせを行うことができる。
フレームカウンタ装置7は、各カメラ2A〜2Dの映像データの各フレーム単位での対応付けと、映像データとカメラパラメータとの各フレーム単位での対応付けを行うための情報として、フレームカウントを形成して出力する。このフレームカウントは、例えば、複数のカメラ2の内の1つのカメラから映像データを取り込み、この映像データの各フレームをカウントすることで取得される。映像データの取り込みは、例えば同期信号発生装置などの外部信号を同期信号として用いてもよい。図5,6に示す例では、カメラ2Aの映像データを用いた例を示している。
図6(c)は、映像データA1〜An,…に基づいて取得したフレームカウントを示している。なお、ここでは、説明の便宜上、映像データA1のフレームに対してフレームカウント1を対応付け、次の映像データA2のフレームに対してフレームカウント2を対応付けし、順次フレームカウントを増やす例を示しているが、フレームカウントの初期値やカウントの増加数(あるいは減少数)は任意とすることができる。なお、フレームカウンタのリセットは、電源投入時あるいはフレームカウンタリセット釦を操作することにより任意の時点で行うことができる。
データ収集器5は、収集したカウントパラメータにこのフレームカウントを付加して、データ付加手段6に通信する。
データ付加手段6は、通信データ制御手段6aとRGB重畳装置6bを備える。このデータ付加手段6は、例えば、パーソナルコンピュータで構成することもできる。
通信データ制御手段6aは、データ収集器5からカメラパラメータとフレームカウントの情報を受け取り、カメラパラメータ記憶手段12に記憶すると共に、フレームカウントの情報を抽出する。
RGB重畳装置6bは、各カメラ2A〜2Dからの映像データを取り込むと共に、通信データ制御手段6aからフレームカウントを取り込み、映像データのRGB信号にフレームカウントを重畳させて、映像データ記憶手段11に記憶する。フレームカウントの重畳は、例えば、フレームカウントをコード化してフレームコードとし、映像データを構成する走査信号中の信号再生に邪魔にならない部分に付加することで行うことができる。
図6(e),(i)は、映像データ記憶手段への映像データ及びフレームカウントの記憶状態を示している。例えば、カメラ2Aの映像データについては、図6(e)に示すように、映像データA1のフレームはフレームカウント1がフレームコード1として重畳されて記憶され、映像データA2のフレームはフレームカウント2がフレームコード2として重畳されて記憶され、以下順に、映像データに対応するフレームコードが重畳されて記憶される。また、カメラ2Bの映像データについては、図6(i)に示すように、映像データB1のフレームはフレームカウント1がフレームコード1として重畳されて記憶され、映像データB2のフレームはフレームカウント2がフレームコード2として重畳されて記憶され、以下順に、映像データに対応するフレームコードが重畳されて記憶される。多のカメラの映像データについても、同様に映像データに対応するフレームコードが重畳されて記憶される。この映像データにフレームコードを重畳して記憶することにより、複数のカメラで取得した各映像データのフレーム単位の同期合わせが可能となる。
図6(f),(j)は、カメラパラメータ記憶手段へのカメラパラメータ及びフレームカウントの記憶状態を示している。例えば、センサ3Aのカメラパラメータについては、図6(f)に示すように、カメラパラメータPA1はフレームカウント1がフレームコード1として重畳されて記憶され、カメラパラメータPA2のフレームはフレームカウント2がフレームコード2として重畳されて記憶され、以下順に、カメラパラメータに対応するフレームコードが重畳されて記憶される。また、センサ3Bのカメラパラメータについては、図6(j)に示すように、カメラパラメータPB1はフレームカウント1がフレームコード1として重畳されて記憶され、カメラパラメータPB2のフレームはフレームカウント2がフレームコード2として重畳されて記憶され、以下順に、カメラパラメータに対応するフレームコードが重畳されて記憶される。このカメラパラメータにフレームコードを重畳して記憶することにより、複数のカメラの映像データと複数のセンサのカメラパラメータとをフレーム単位の同期合わせが可能となる。
図7は、映像データ記憶手段に記憶される映像データ例、及びカメラパラメータ記憶手段に記憶されるカメラパラメータ例を示している。
図7(a)は映像データ記憶手段に記憶される映像データ例であり、カメラ2A〜2Dについて示している。例えば、カメラ2Aの映像データは、各フレーム毎に映像データA1〜Anと、フレームコード1〜nとが重畳されて記憶される。
また、図7(b)はカメラパラメータ記憶手段に記憶されるカメラパラメータ例であり、センサ3A〜3Dについて示している。例えば、センサ3Aのカメラパラメータは、各フレーム毎にカメラパラメータPA1〜PAnと、フレームコード1〜nとが重畳されて記憶される。
各記憶手段に記憶された映像データ及びカメラパラメータは、付加されたフレームコードを用いることにより、同期した同時刻のデータを抽出することができる。
次に、カメラパラメータのデータ構成例について図8,9を用いて説明する。
図8はカメラパラメータの通信データのフォーマット例である。この例では、1パケット当たり29バイトで形成する。0バイト目のHEDはヘッダ情報を格納し、1〜28バイト目のA〜αはカメラパラメータに関するデータを格納し、29バイト目のSUMはチェックサムであり、0バイト目(HED)から27バイト目(α)の合計値と所定値とのANDをとることにより、データチェックを行う。
また、図9はカメラパラメータの通信データ例である。A〜Cにはフレームカウントのデータが格納され、D〜Iには第1のセンサから取得されるカメラパラメータが格納され、J〜Oには第2のセンサから取得されるカメラパラメータが格納され、P〜Uには第3のセンサから取得されるカメラパラメータが格納され、V〜αには第4のセンサから取得されるカメラパラメータが格納される。各カメラパラメータには、パン,チルト,ズームの各データが符号(Pf(パン情報の符号),Tf(チルト情報の符号),Zf(ズーム情報の符号))が格納される。
次に、カメラキャリブレーションについて説明する。
3次元位置を特定するには、現実の世界の3次元位置と、カメラ画像において対応するピクセル位置が正確に合っていえる必要があるが、実際の撮像では種々の要因により正確な対応付けができていない。そのため、キャリブレーションにより補正が行われる。補正手法として、対応付けられた画像上に点と現実の3次元座標との組からカメラパラメータを推定する方法が用いられている。この方法として、カメラのひずみも考慮して焦点距離やカメラの位置、姿勢などの物理量を求めるTsaiのアルゴリズムと呼ばれる方法が知られている。Tsaiのアルゴリズムでは、多数の世界座標系の点とそれらの点に対応する画像座標上の点の組を用い、外部パラメータとして回転行列(パラメータ3個)と平行移動パラメータ(パラメータ3個)を求め、内部パラメータとして焦点距離f、レンズひずみκ1,κ2、スケール係数sx、画像原点(Cx,Cy)を求める。撮影時に変化するには、回転行列と平行移動行列、焦点距離であり、これらのカメラパラメータを映像データと共に記録する。
キャリブレーションは、複数の各カメラにより基準物体を撮影し、写しこんだ基準物体の画像上のピクセル位置と対応した基準物体のある点を複数組用いて行う。キャリブレーションの手順は、3次元位置が既知である物体を写し込み、画像上に点と対応付けを行ってカメラパラメータを取得し、また、画像上における対象物体を取得し、個々のカメラで得られたカメラパラメータ及び画像上で取得された対象物体の位置を基に、対象物体の3次元空間の位置を算出する。
従来行われているキャリブレーションは、固定したカメラのカメラパラメータを校正するものである。これに対して、本発明の多視点ビデオキャプチャシステムでは、撮影中にパン、チルト、ズームを行い、カメラパラメータが変化する。こうようにカメラのパン、チルト、ズームが変化すると、固定したカメラには無い新たな問題が生じる。
図10は、カメラの回転中心とカメラに焦点位置との関係を説明するための概略図である。図10において、Aはカメラの焦点であり、Bはカメラのパン回転の中心位置Bであり、Cはカメラのチルト回転の中心位置である。カメラ2は、少なくともパンやチルトの2軸で回転自在に支持する雲台13と、この雲台13を回転自在に支持する三脚14とを備える。各中心位置B,C,Dとカメラの焦点Aとは、必ずしも一致してしない。そのため、パンやチルトは、カメラの焦点を中心として回転するのではなく、雲台等のカメラを固定している部分の回転軸を中心として回転する。
図11は、回転中心とカメラの焦点との関係を説明するための概略図である。なお、以下では、カメラは三脚の設置中心位置に正確に固定されているものとして説明する。カメラの焦点位置とパン回転座標系、カメラの焦点位置とチルト回転座標系との間には、図11に示すように、円周上の1点と円の中心座標との関係が保持される。図11(a)はカメラをパンした場合の回転軸中心Oとカメラの焦点位置Fとの関係を示し、図11(b)はカメラをチルトした場合の回転軸中心Oとカメラの焦点位置Fとの関係を示している。
図11に示すように、回転軸中心Oとカメラの焦点位置Fとが一致していないため、回転軸中心Oを中心として回転すると、その回転に応じてカメラの焦点位置Fがずれる。この焦点位置Fのずれにより、カメラの撮像面上の点と実際の3次元位置との間にずれが生じ、求めたカメラパラメータに誤差が生じ、正確な位置を取得することができないことになる。このカメラパラメータを補正するには、この回転軸とカメラの焦点の位置関係を正確に定める必要がある。
図12は、本発明のキャリブレーションにおけるカメラパラメータの補正を説明するための概略図である。なお、図12では、複数のカメラとしてカメラ2A〜2Dの4台のカメラの例を示しているが任意の複数台とすることができる
図12において、複数のカメラ2A〜2Dから映像データを取得すると共に、各カメラに設けたセンサからカメラパラメータを取得する。従来のモーションキャプチャ等の映像システムでは、各固定カメラから取得したカメラパラメータを、予め求めておいた実際の位置と画像上の位置との位置関係に基づいてキャリブレーションしている(図12中の一点鎖線)。
これに対して、本発明の多視点ビデオキャプチャシステムでは、カメラがパン、チルト、及びズームすることにより生じるカメラパラメータのずれを、カメラの焦点位置と回転軸の中心位置との関係に基づいて補正する。このカメラパラメータの補正は、各カメラ毎に、カメラの画像データに基づいてカメラの焦点位置と回転軸の中心位置との関係を求め、この位置関係から補正前後のカメラパラメータの対応関係を求め、この対応関係に基づいてキャリブレーションされたカメラパラメータを変換することで行われる。
なお、キャリブレーション及びカメラの焦点位置と回転軸の中心位置との関係は、基準物体を撮像することにより取得することができ、画像データの取得する前に予め求めておく。
次に、カメラパラメータの補正の手順について図13のフローチャート、図14の説明図にしたがって説明する。なお、図14中のSの番号は、フローチャート中のSの番号と対応している。
図11において、カメラをパン(又はチルト)させた時の複数の焦点の位置座標を取得することができれば、パン(又はチルト)の回転座標値を算出することができ、これから焦点の位置座標とパン(又はチルト)の回転座標値との関係を求めることができる。センサから取得されるカメラパラメータは、回転軸の中心位置を基準とするものであるので、上記の関係を用いてカメラパラメータを変換することにより、焦点の位置を基準とするカメラパラメータを取得することができる。
以下、チルトについても同様であるため、パンを例にして説明する。
はじめに、ステップS1〜ステップS9により回転に中心位置を求める。カメラをパン方向に振ってパン位置を定める。このパン位置は任意の位置とすることができる(ステップS1)。定めたパン位置において画像を取得する。このとき、キャリブレーション及び補正を行うために、撮像対象として基準物体を用いる(ステップS2)。パン位置を変えながら複数の画像を取得する。取得する画像数は、2以上の任意の数とすることができる。図14では、取得した画像として画像1〜画像5を示している(ステップS3)。
取得した画像からあるパン位置の画像を読み出し(ステップS4)、読み出した画像から基準物体の基準位置(Xw,Yw,Zw)のカメラ座標上の座標位置(u,v)を求める。図15は、現実世界の座標を表す3次元の世界座標系と、カメラ側の2次元の座標系との関係を示している。図15において、世界座標系にある3次元位置P(Xw,Yw,Zw)は、カメラ側の2次元の座標系においてP(u,v)に対応する。この対応関係は、基準物体上に定めた基準位置を指標として求めることができる(ステップS5)。
この現実世界の位置がカメラ画像上のどのピクセルに射影されるかは、図15に示すように、全ての光が一点(焦点)に集約されるピンホールカメラモデルにより考えることができ、世界座標系の3次元位置P(Xw,Yw,Zw)とカメラ画像上の2次元の座標系のP(u,v)との関係は、以下の行列式で表すことができる。
この行列式の内、未知の値であるr11〜r34の12値は、既知の点(Xw,Yw,Zw)と点(u,v)の対応の組を少なくとも6組用いることで求めることができる(ステップS6)。
求めたr11〜r34の値を用いてカメラパラメータを校正することによりカメラパラメータのキャリブレーションを行う。カメラパラメータは、内部変数及び外部変数を含む。内部変数としては、例えば焦点距離、画像中心、画素サイズ、レンズのゆがみ係数があり、外部変数としては、例えばパン、チルトなどの回転角度、やカメラ位置がある。ここでは、キャリブレーションによりパン位置での焦点位置(x,y,z)を求める(ステップS7)。
前記ステップS1〜ステップS3の工程で取得した画像について、ステップS4〜ステップS7の工程を繰り返して、パン位置での焦点位置を求める。図14では、画像1〜画像5から焦点位置F1(x1,y1,z1)〜F5(x5,y5,z5)を求める場合を示している。なお、回転軸中心を算出するには、焦点位置は少なくとも3点求めればよいが、算出に用いる焦点位置を増やすことにより回転軸中心の位置精度を高めることができる(ステップS8)。
次に、求めた焦点位置からパン回転の中心位置O(x0,y0,z0)を求める。図16は焦点位置から中心位置の算出の一例を説明するための図である。
求めた複数の焦点位置から任意の2点を選出し、この2点を結ぶ直線に垂直2等分線を取得する。この垂直2等分線を少なくとも2本求め、この垂直2等分線の交点からパン回転の中心位置O(x0,y0,z0)を求める。
なお、交点が2つ以上求められた場合には、例えば、これら交点位置の平均を求め、この位置をパン回転の中心位置O(x0,y0,z0)とする(ステップS9)。
上記工程によりパン回転の中心位置O(x0,y0,z0)と各焦点位置とが求められたので、この位置関係から、パン回転の中心位置Oにおけるパンの回転角度θと、各焦点位置におけるパンの回転角度θ′との対応関係を幾何学的に求めることができる(ステップS10)。求めた対応関係に基づいて、パンの回転角度を補正する(ステップS11)。
上記説明ではパンを例としているが、チルトについても同様に補正することができる。
図17は、基準物体の一例である。上記補正の精度を高めるには、各カメラに様々な角度(パン角、チルト角)を取得する必要があり、自動的に取得することが望ましい。この自動取得には、現実の3次元位置とカメラの撮像面上の2次元位置との対応関係を取得するために、パン及びチルトの振り角度が大きい場合であっても、基準位置が撮像される必要がある。
このために、基準物体は、パン及びチルトの大きな振り角に対しても基準位置が撮像面に写し込まれる形状であることが望まれる。図17の基準物体15はその一例であり、例えば、8角形の上底と下底を持ち、この上底と下底の間を2層に側面部分で結び、各層部分は8個の4角形の面により構成し、層が隣接する部分に径は上底及び下底よりも大径としている。これにより、各頂点は凸状態となり、頂点を基準位置とする場合に、位置検出を容易とすることができる。各面には、格子状(チェッカーフラッグ)の模様を設してもよい。
なお、この形状は一例であり、上底と下底は8角形に限らず任意の多角形とする他、層の数も2以上としてもよい。多角形の数、及び層数を増やすほど、パンやチルトの振り角を大きくとった場合でも、撮像画面上において基準位置の写し込みが容易となる。
次に、カメラ自体を空間内で移動させる場合について説明する。カメラを空間内で3次元的に移動させることにより、基準物体や撮像対象の一部が隠れてしまうことを防ぐことができる。カメラを空間内で3次元的に移動させる手段として、クレーンを用いることができる。図18は、カメラをクレーンで3次元的に移動させる例を示している。
クレーンは、通常三脚等の支持部分のヘッド部に伸縮自在のロッド材を取り付けてなり、カメラを常に水平にして3次元的に遠隔制御することができる。なお、カメラのパン、チルトは、クレーンの制御位置と同位置で制御することができ、カメラのズームはカメラコントロールユニットからの操作で制御することができる。
また、ロッド材を支持する雲台17にパン角、チルト角、伸縮度を検出するセンサを設けることにより、クレーンの動作パラメータを取得することができ、カメラパラメータと同様に、映像データと関連づけて同期して記憶することができる。
本発明では、各カメラにフレーム同期のための信号(ゲインロック信号)を送ると同時に、カメラから出力されたフレームデータ(画像データ)に、同期に合わせたフレーム番号のデータを重畳して記録装置に書き込む。同様に、同期信号に合わせて、カメラに取り付けた測定器からパン、チルト,ズーム、及びカメラ自体の位置データを取得する。これらのカメラパラメータデータは、全部を毎回取得しても、例えば4バイト×6データを毎秒60フレーム取得したとして14400ビット/秒にしかならず、通常のシリアルラインを使ってもカメラから伝送することができる。さらに、各カメラからのカメラパラメータデータは、一台のパソコンを用いて十分に集約できるデータ量であり、仮に8台程度のビデオカメラを用いたとしても、フレーム番号を付け足しても1時点で200バイト、1秒間で12キロバイト程度と非常に少なくて済むため、ディスク等の記録媒体に保存することも容易である。すなわち、カメラパラメータを分離して記録した場合であっても、フレーム取得時点とフレーム番号とに厳密にて対応づけてあるため、解析が可能である。さらに、本発明によれば、例えば温度センサ等の他のセンサで取得した任意のデータをフレーム取得時点と対応させて記録することができ、画像との対応関係を明確にしたデータ解析を行うことができる。
上記各態様において、カメラパラメータは、各カメラのパン情報、チルト情報、ズーム情報に各カメラの位置情報を加えてもよい。このカメラの位置情報を加えることにより、カメラ自体が移動した場合であっても、取得して映像データ上の対象物やその位置を求めることができ、対象物が広範囲を移動した場合においても、多数のカメラを設置することなく少ないカメラ台数で、映像データを取得できない範囲を生じさせることなく対応することができる。
また、カメラパラメータは、カメラの姿勢情報やズーム情報の他、音情報、温度、湿度など撮影環境や周囲の種々の情報を映像データと関連付けて記憶しても良い。例えば、衣服に体温や外気温や各種ガスを測定するセンサや圧力センサを設け、カメラが撮像する映像データに加えてこれらセンサで形成した測定データを取り込み、映像データと関連付けて記憶するようにしてもよい。これにより、外気温や大気成分などの人が作業する外部環境や、人体の体温や人体の各部位に加わる圧力等負荷などの内部環境など、撮像される環境と関連する種々のデータを、映像データと同時に関連づけて記憶することができ、同時点の映像データと測定データを容易に読み出して解析することができる。
本発明の態様によれば、測定環境に対して、均質光としたり、校正を容易とするためのスタジオ等の限られた空間とする等の制約条件を付加することなく、映像情報を取得することができる。
本発明により取得された映像情報は、対象物の動きや姿勢の解析に適用することができる。
以上説明したように、本発明によれば、対象物の映像を含む実際の動きを、測定環境に依存することなく取得することができる。また、本発明によれば、広範囲の映像を高精度で取得することができる。
Claims (17)
- 対象物の映像情報を多視点から取得するビデオキャプチャシステムであって、
3次元に可動で対象物の動きを追尾可能とする複数のカメラを備え、前記複数のカメラを互いに同期して得られる動画像の映像データ、当該各カメラのカメラパラメータ、及び前記動画像の映像データとカメラパラメータとを相互にフレーム毎に対応付ける対応付情報を取得し、
前記動画像の映像データを前記対応付情報に基づいて対応するカメラパラメータによりキャリブレーションし、対象物の動き及び姿勢を解析するための情報を得ることを特徴とする、多視点ビデオキャプチャシステム。 - 前記動画像の映像データ及びカメラパラメータを記憶し、当該映像データ及びカメラパラメータを各フレーム毎に記憶することを特徴とする、請求の範囲第1項に記載の多視点ビデオキャプチャシステム。
- 対象物の映像情報を多視点から取得するビデオキャプチャシステムであって、
動画像の映像データを取得する複数の3次元に可動なカメラと、
前記各カメラのカメラパラメータを取得する検出手段と、
前記複数のカメラを同期させる同期手段と、
各カメラの同期した動画像の映像データ間、及び動画像の映像データとカメラパラメータ間の対応付ける対応付情報を付加するデータ付加手段と、
前記各動画像の映像データを前記対応付情報に基づいて対応するカメラパラメータでキャリブレーションし、対象物の動き及び姿勢を解析するための情報を得るキャリブレーション手段とを備えることを特徴とする、多視点ビデオキャプチャシステム。 - 前記対応付情報を付加した映像データをフレーム毎に記憶する映像データ記憶手段と、
前記対応付情報を付加したカメラパラメータを記憶するカメラパラメータ記憶手段とを備えることを特徴とする、請求の範囲第3項に記載の多視点ビデオキャプチャシステム。 - 前記対応付情報は、前記複数のカメラの1つのカメラから取得される動画像の映像データのフレームカウントであることを特徴とする、請求の範囲第1項乃至第4項の何れかに記載の多視点ビデオキャプチャシステム。
- 前記カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ないしズーム情報を含むことを特徴とする、請求の範囲第1項乃至第5項の何れかに記載の多視点ビデオキャプチャシステム。
- 前記カメラパラメータは、カメラの二次元又は3次元の位置情報を含むことを特徴とする、請求の範囲第6項に記載の多視点ビデオキャプチャシステム。
- フレーム毎に記憶するデータは測定データを含むことを特徴とする、請求の請求第項2又は第4項に記載の多視点ビデオキャプチャシステム。
- 対象物の映像情報を多視点から取得する制御をコンピュータに実行させるプログラムの記憶媒体であって、
複数のカメラから取得した各フレームの映像データに同期用の共通のフレームカウントを順次付加する第1のプログラムコード手段と、
各カメラのカメラパラメータに、前記映像データに対応するフレームカウントを順次付加する第2のプログラムコード手段とを記憶したプログラムの記憶媒体。 - 前記第1のプログラムコード手段は、フレームカウントを付加した映像データの第1の記憶手段への記憶を含むことを特徴とする、請求の範囲第9項に記載プログラムの記憶媒体。
- 前記第2のプログラムコード手段は、フレームカウントを付加したカウントパラメータの第2の記憶手段への記憶を含むことを特徴とする、請求の範囲第9項に記載プログラムの記憶媒体。
- 前記カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ないしズーム情報を含むことを特徴とする、請求の範囲第9項乃至第11項の何れかに記載のプログラムの記憶媒体。
- 前記カメラパラメータは、カメラの二次元又は3次元の位置情報を含むことを特徴とする、請求の範囲第12項に記載プログラムの記憶媒体。
- 多視点から取得した対象物の映像情報を記憶する記憶媒体であって、
複数のカメラから取得した各フレームの映像データに同期用の共通のフレームカウントが順次付加された第1の映像情報と、
各カメラのカメラパラメータに、前記映像データに対応するフレームカウントが順次付加された第2の映像情報とを記憶した映像情報の記憶媒体。 - 前記カメラパラメータは、カメラのパン及びチルトのカメラの姿勢情報、ないしズーム情報を含むことを特徴とする、請求の範囲第14項に記載映像情報の記憶媒体。
- 前記カメラパラメータは、カメラの二次元又は3次元の位置情報を含むことを特徴とする、請求の範囲第14項に記載映像情報の記憶媒体。
- カメラをパン及び/又はチルトさせて複数の回転位置における画像を取得する工程と、
前記画像からカメラの焦点位置と回転軸の中心位置との対応関係を求める工程と、カメラのカメラパラメータを取得する工程と、
前記カメラパラメータを前記対応関係に基づいて補正する工程とを備えることを特徴とするカメラパラメータの補正方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002379536 | 2002-12-27 | ||
JP2002379536 | 2002-12-27 | ||
PCT/JP2003/016078 WO2004061387A1 (ja) | 2002-12-27 | 2003-12-16 | 多視点ビデオキャプチャシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004061387A1 true JPWO2004061387A1 (ja) | 2006-05-18 |
JP3876275B2 JP3876275B2 (ja) | 2007-01-31 |
Family
ID=32708393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004564493A Expired - Fee Related JP3876275B2 (ja) | 2002-12-27 | 2003-12-16 | 多視点ビデオキャプチャシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20060146142A1 (ja) |
EP (1) | EP1580520A1 (ja) |
JP (1) | JP3876275B2 (ja) |
CN (1) | CN100523715C (ja) |
AU (1) | AU2003289106A1 (ja) |
WO (1) | WO2004061387A1 (ja) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4716083B2 (ja) * | 2004-07-27 | 2011-07-06 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
US7990386B2 (en) * | 2005-03-24 | 2011-08-02 | Oracle America, Inc. | Method for correlating animation and video in a computer system |
US8659668B2 (en) | 2005-10-07 | 2014-02-25 | Rearden, Llc | Apparatus and method for performing motion capture using a random pattern on capture surfaces |
CN100438632C (zh) * | 2006-06-23 | 2008-11-26 | 清华大学 | 一种交互式多视点视频的编码方法 |
CN101166282B (zh) * | 2006-10-16 | 2010-12-08 | 华为技术有限公司 | 摄像机参数编码传输的方法 |
JP2008294065A (ja) * | 2007-05-22 | 2008-12-04 | Juki Corp | 電子部品の実装方法及び装置 |
FI123049B (fi) * | 2007-09-03 | 2012-10-15 | Mapvision Ltd Oy | Tallentava konenäköjärjestelmä |
CN101127128B (zh) * | 2007-09-14 | 2010-06-09 | 清华大学 | 一种环形摄像机阵列校准系统及其方法 |
CN101540916B (zh) * | 2008-03-20 | 2010-12-08 | 华为技术有限公司 | 一种编解码方法及装置 |
US9390516B2 (en) * | 2008-09-29 | 2016-07-12 | Two Pic Mc Llc | Asynchronous streaming of data for validation |
US9325972B2 (en) | 2008-09-29 | 2016-04-26 | Two Pic Mc Llc | Actor-mounted motion capture camera |
US8289443B2 (en) * | 2008-09-29 | 2012-10-16 | Two Pic Mc Llc | Mounting and bracket for an actor-mounted motion capture camera system |
US8970690B2 (en) | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
JP5210203B2 (ja) * | 2009-02-25 | 2013-06-12 | ローランドディー.ジー.株式会社 | 画像の差分による高精度ステレオカメラキャリブレーション |
KR101594048B1 (ko) * | 2009-11-09 | 2016-02-15 | 삼성전자주식회사 | 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치 |
JP2011227073A (ja) * | 2010-03-31 | 2011-11-10 | Saxa Inc | 3次元位置測定装置 |
US11117033B2 (en) | 2010-04-26 | 2021-09-14 | Wilbert Quinc Murdock | Smart system for display of dynamic movement parameters in sports and training |
EP2569951B1 (en) | 2010-05-14 | 2020-08-12 | Hewlett-Packard Development Company, L.P. | System and method for multi-viewpoint video capture |
JP2011259365A (ja) | 2010-06-11 | 2011-12-22 | Sony Corp | カメラシステム、映像選択装置及び映像選択方法 |
US9338483B2 (en) | 2010-06-11 | 2016-05-10 | Sony Corporation | Camera system, video selection apparatus and video selection method |
KR101755599B1 (ko) * | 2011-01-24 | 2017-07-07 | 삼성전자주식회사 | 디지털 촬영 장치 및 그의 이미지 제공 방법 |
JP5299460B2 (ja) * | 2011-03-25 | 2013-09-25 | コニカミノルタ株式会社 | 人検知装置及び該人検知装置を備えた画像形成装置 |
US9066024B2 (en) * | 2011-06-08 | 2015-06-23 | Christopher C. Chang | Multi-camera system and method of calibrating the multi-camera system |
CN102843507B (zh) * | 2011-06-23 | 2015-11-25 | 上海通用汽车有限公司 | 气囊爆破过程的视觉检测处理系统以及方法 |
CN102997898B (zh) * | 2011-09-16 | 2015-07-08 | 首都师范大学 | 一种时间同步的控制方法和控制系统 |
CN103227918B (zh) * | 2012-01-31 | 2017-08-15 | 浙江大学 | 一种视频序列码流及其解码方法 |
JP5855538B2 (ja) * | 2012-06-28 | 2016-02-09 | カシオ計算機株式会社 | 撮像装置、撮像システム、撮像方法及びプログラム |
US9210384B2 (en) * | 2012-09-20 | 2015-12-08 | NAE Systems Information and Electronic Systems Integration Inc. | System and method for real time registration of images |
CN103813129A (zh) * | 2012-11-07 | 2014-05-21 | 浙江大华技术股份有限公司 | 图像采集时间控制方法、装置、系统及视频处理服务器 |
JP6180925B2 (ja) * | 2013-12-26 | 2017-08-16 | 日本放送協会 | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム |
KR101649753B1 (ko) * | 2014-04-30 | 2016-08-19 | 주식회사 이에스엠연구소 | 다시점 카메라가 획득한 영상을 정합하는 방법 및 다시점 카메라 제어 시스템 |
JP6336856B2 (ja) * | 2014-08-26 | 2018-06-06 | 日本放送協会 | 多視点映像表現装置及びそのプログラム |
US20160103200A1 (en) * | 2014-10-14 | 2016-04-14 | Telemetrics Inc. | System and method for automatic tracking and image capture of a subject for audiovisual applications |
CN105890577B (zh) * | 2015-01-23 | 2018-09-14 | 北京空间飞行器总体设计部 | 一种适用于深空探测器在轨多个天体合影成像方法 |
CN104717426B (zh) * | 2015-02-28 | 2018-01-23 | 深圳市德赛微电子技术有限公司 | 一种基于外部传感器的多摄像机视频同步装置及方法 |
JP6615486B2 (ja) * | 2015-04-30 | 2019-12-04 | 株式会社東芝 | カメラキャリブレーション装置、方法及びプログラム |
CN104853181B (zh) * | 2015-05-13 | 2017-06-23 | 广东欧珀移动通信有限公司 | 旋转摄像头相对位置检测方法和系统 |
CN104887238A (zh) * | 2015-06-10 | 2015-09-09 | 上海大学 | 基于动作捕捉的手康复训练评估系统和方法 |
KR20170012979A (ko) * | 2015-07-27 | 2017-02-06 | 삼성전자주식회사 | 영상 공유 서비스를 위한 전자 장치 및 방법 |
CN106488143B (zh) * | 2015-08-26 | 2019-08-16 | 刘进 | 一种生成视频数据、标记视频中物体的方法、系统及拍摄装置 |
KR101729164B1 (ko) | 2015-09-03 | 2017-04-24 | 주식회사 쓰리디지뷰아시아 | 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법 |
CN106657871A (zh) * | 2015-10-30 | 2017-05-10 | 中国电信股份有限公司 | 基于视频拼接的多角度动态视频监控方法及装置 |
CN112954295B (zh) * | 2016-09-01 | 2023-08-04 | 松下知识产权经营株式会社 | 多视点摄像系统、三维空间重构系统及三维空间识别系统 |
CN106934840B (zh) * | 2017-03-02 | 2018-06-19 | 山东朗朗教育科技股份有限公司 | 一种教育云课实景图生成方法和装置 |
US10698068B2 (en) | 2017-03-24 | 2020-06-30 | Samsung Electronics Co., Ltd. | System and method for synchronizing tracking points |
JP7002007B2 (ja) * | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
US11074463B2 (en) * | 2017-05-02 | 2021-07-27 | Qualcomm Incorporated | Dynamic sensor operation and data processing based on motion information |
JP2020537242A (ja) * | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 複数の可動センサを含むセンサシステムの校正 |
CN107770491A (zh) * | 2017-10-11 | 2018-03-06 | 太原理工大学 | 基于机器视觉的煤矿井下人员异常轨迹检测系统和方法 |
US10701253B2 (en) | 2017-10-20 | 2020-06-30 | Lucasfilm Entertainment Company Ltd. | Camera systems for motion capture |
DE102017126495B4 (de) * | 2017-11-10 | 2022-05-05 | Zauberzeug Gmbh | Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters |
CN108259921B (zh) * | 2018-02-08 | 2020-06-16 | 青岛一舍科技有限公司 | 一种基于场景切换的多角度直播系统及切换方法 |
CN109263253B (zh) * | 2018-10-11 | 2022-12-13 | 广东科隆威智能装备股份有限公司 | 基于机器视觉的晶硅光伏太阳能电池印刷定位平台标定方法及装置 |
US11153603B2 (en) * | 2019-06-10 | 2021-10-19 | Intel Corporation | Volumetric video visibility encoding mechanism |
JP7356697B2 (ja) * | 2019-06-11 | 2023-10-05 | 国立大学法人静岡大学 | 画像観察システム |
CN110426674B (zh) * | 2019-07-17 | 2021-12-14 | 浙江大华技术股份有限公司 | 一种空间位置确定方法、装置、电子设备及存储介质 |
CN112361962B (zh) * | 2020-11-25 | 2022-05-03 | 天目爱视(北京)科技有限公司 | 一种多俯仰角度的智能视觉3d信息采集设备 |
CN112762831B (zh) * | 2020-12-29 | 2022-10-11 | 南昌大学 | 一种采用多相机实现多自由度运动物体姿态重建方法 |
US11956537B2 (en) * | 2021-03-19 | 2024-04-09 | Casio Computer Co., Ltd. | Location positioning device for moving body and location positioning method for moving body |
CN114067071B (zh) * | 2021-11-26 | 2022-08-30 | 湖南汽车工程职业学院 | 一种基于大数据的高精地图制作系统 |
CN117056560B (zh) * | 2023-10-12 | 2024-02-06 | 深圳市发掘科技有限公司 | 一种云菜谱的自动生成方法、装置以及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2677312B2 (ja) * | 1991-03-11 | 1997-11-17 | 工業技術院長 | カメラワーク検出方法 |
US6356671B1 (en) * | 1991-07-05 | 2002-03-12 | Fanuc Ltd. | Image processing method for an industrial visual sensor |
JP2921718B2 (ja) * | 1991-07-05 | 1999-07-19 | ファナック株式会社 | 産業用視覚センサにおける画像処理方法 |
US6525761B2 (en) * | 1996-07-23 | 2003-02-25 | Canon Kabushiki Kaisha | Apparatus and method for controlling a camera connected to a network |
US7027083B2 (en) * | 2001-02-12 | 2006-04-11 | Carnegie Mellon University | System and method for servoing on a moving fixation point within a dynamic scene |
WO2002065761A2 (en) * | 2001-02-12 | 2002-08-22 | Carnegie Mellon University | System and method for stabilizing rotational images |
JP2002257543A (ja) * | 2001-03-05 | 2002-09-11 | National Aerospace Laboratory Of Japan Mext | 連続フレーム画像を用いた高精度ステレオビジョン |
US20030076413A1 (en) * | 2001-10-23 | 2003-04-24 | Takeo Kanade | System and method for obtaining video of multiple moving fixation points within a dynamic scene |
-
2003
- 2003-12-16 EP EP03778951A patent/EP1580520A1/en active Pending
- 2003-12-16 US US10/540,526 patent/US20060146142A1/en not_active Abandoned
- 2003-12-16 JP JP2004564493A patent/JP3876275B2/ja not_active Expired - Fee Related
- 2003-12-16 CN CNB2003801076224A patent/CN100523715C/zh not_active Expired - Fee Related
- 2003-12-16 WO PCT/JP2003/016078 patent/WO2004061387A1/ja active Application Filing
- 2003-12-16 AU AU2003289106A patent/AU2003289106A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP3876275B2 (ja) | 2007-01-31 |
EP1580520A1 (en) | 2005-09-28 |
AU2003289106A1 (en) | 2004-07-29 |
CN100523715C (zh) | 2009-08-05 |
CN1732370A (zh) | 2006-02-08 |
US20060146142A1 (en) | 2006-07-06 |
WO2004061387A1 (ja) | 2004-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3876275B2 (ja) | 多視点ビデオキャプチャシステム | |
JP6702323B2 (ja) | カメラモジュール、固体撮像素子、電子機器、および撮像方法 | |
JP4010753B2 (ja) | 形状計測システムと撮像装置と形状計測方法及び記録媒体 | |
JP3869876B2 (ja) | 画像計測方法及び画像計測装置 | |
JPWO2019049421A1 (ja) | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 | |
JP2010136302A5 (ja) | 撮像装置、撮像装置の制御方法、およびプログラム | |
JP2009017480A (ja) | カメラキャリブレーション装置およびそのプログラム | |
Zhang et al. | A universal and flexible theodolite-camera system for making accurate measurements over large volumes | |
WO2003036567A1 (en) | Camera system with both a wide angle view and a high resolution view | |
JP7218435B2 (ja) | キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法 | |
JP4960941B2 (ja) | 放送用バーチャルスタジオのズームレンズ搭載カメラのカメラキャリブレーション装置、その方法およびそのプログラム | |
JP2009284188A (ja) | カラー撮像装置 | |
JP2008217243A (ja) | 画像生成装置 | |
JP2003179800A (ja) | 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム | |
JP4649192B2 (ja) | ステレオ画像作成方法及び3次元データ作成装置 | |
JP5363878B2 (ja) | ステレオ画像撮影装置及びその方法 | |
JP2002072050A (ja) | カメラの較正を行うための方法及び装置 | |
JP4860431B2 (ja) | 画像生成装置 | |
US20050168485A1 (en) | System for combining a sequence of images with computer-generated 3D graphics | |
KR20160031464A (ko) | 비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템 | |
WO2019087253A1 (ja) | ステレオカメラのキャリブレーション方法 | |
JP4391137B2 (ja) | 3次元曲面形状の測定装置及び測定方法 | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
JPH11337322A (ja) | 2次元画像比較による外観の測定方法および装置 | |
JP5925109B2 (ja) | 画像処理装置、その制御方法、および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20050609 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20050628 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20050830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050908 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050628 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101110 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101110 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111110 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |