JP4231216B2 - Virtual scene shooting method and apparatus - Google Patents

Virtual scene shooting method and apparatus Download PDF

Info

Publication number
JP4231216B2
JP4231216B2 JP2001232024A JP2001232024A JP4231216B2 JP 4231216 B2 JP4231216 B2 JP 4231216B2 JP 2001232024 A JP2001232024 A JP 2001232024A JP 2001232024 A JP2001232024 A JP 2001232024A JP 4231216 B2 JP4231216 B2 JP 4231216B2
Authority
JP
Japan
Prior art keywords
virtual
camera
real space
video
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001232024A
Other languages
Japanese (ja)
Other versions
JP2003046842A (en
Inventor
崇史 深谷
大一郎 加藤
誠喜 井上
結子 山内
秀樹 三ッ峰
祐里 畠山
貴生 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2001232024A priority Critical patent/JP4231216B2/en
Publication of JP2003046842A publication Critical patent/JP2003046842A/en
Application granted granted Critical
Publication of JP4231216B2 publication Critical patent/JP4231216B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は仮想シーン撮影方法及びその装置に関し、特に、仮想空間でのカメラワークと実空間でのカメラワークを連動させ、同じ動きの両映像を合成して仮想シーンを生成する仮想シーン撮影方法及びその装置に関する。
【0002】
【従来の技術】
従来、カメラは、カメラマンが操作することによりレンズの前に広がる実世界および被写体をファインダで捉え、実写として撮影するものである。また、人物や動物などの動く被写体を撮影する場合、カメラマンはファインダによる被写体の追尾に加え、時にはファインダから目を離し、直接、被写体を目で確認しながら被写体の動きを観察して予測し、カメラを被写体に対して適切な画角に合わせている。
【0003】
また、実空間と仮想空間の空間条件を一致させ、実写映像とコンピュータグラフィックス(以降、「CG」と記す)映像とを映像合成して同一画面に表示し鑑賞を可能にしたバーチャルスタジオと呼ばれているシステムは、実空間のカメラの向きや位置及びレンズ値などの変化を仮想空間のカメラ(以降、「仮想カメラ」と呼ぶ)に対応させ、実空間と仮想空間との空間的な位置関係の整合性を取っている。つまり、カメラ動作の主体は、カメラマンが動かす実空間の側にあった。
【0004】
【発明が解決しようとする課題】
近年、バーチャルスタジオを利用した実写映像とCG映像との映像合成による番組制作や映像制作などが増えるにつれ、実空間では見ることができない仮想空間内の被写体(以降、「仮想被写体」と呼ぶ)の動きを、カメラマンが追いかけなければならない場合が増えてきた。
【0005】
ところがカメラマンは、仮想被写体であるCG映像をカメラファインダもしくはフロアモニタで実写映像と合成された映像でしか見ることができず、これまでのようにカメラファインダから目を離し、実世界を見ながら仮想被写体の動きを予測し、撮影することができない。
【0006】
カメラファインダなどで見ることのできるCG映像と実写映像の合成映像は、映像合成処理を行うために、1フレーム(NTSC方式の場合約33ms)以上の遅延が発生し、更に、合成された映像を見ながら行うカメラ操作では、カメラワークが遅れる結果となる。このため、仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことは非常に困難であるという問題があった。
【0007】
本発明は、上記の点に鑑みなされたもので、仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことができ、仮想被写の動きを正確に追尾する合成映像を得ることができる仮想シーン撮影方法及びその装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
請求項1に記載の発明は、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で前記仮想被写体を撮影する仮想カメラの動きデータを設定し、
前記仮想カメラの動きデータを、前記仮想カメラの動きに対応する実空間を撮影する実空間のカメラの制御データに変換し
前記制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得ることにより、
仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことができ、仮想被写の動きを正確に追尾する合成映像を得ることができる。
【0009】
請求項2に記載の発明は、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で前記仮想被写体を撮影する仮想カメラの動きデータを設定する仮想カメラ動作設定手段と、
前記仮想カメラの動きデータを、前記仮想カメラの動きに同調して実空間を撮影する実空間のカメラの制御データに変換する実空間カメラ動作設定手段と、
前記実空間カメラ動作設定手段で設定された制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得る映像合成手段とを有することにより、
仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことができ、仮想被写の動きを正確に追尾する合成映像を得ることができる。
【0010】
請求項3に記載の発明は、請求項2記載の仮想シーン撮影装置において、
前記実空間カメラ動作設定手段で設定された制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像との少なくともいずれか一方を遅延する遅延手段を有することにより、
実空間のカメラで撮影された映像と、コンピュータグラフィックスによる仮想被写体の映像との動きのタイミングを合わせることができる。
【0011】
【発明の実施の形態】
図1は、本発明の仮想シーン撮影装置の第1実施例のブロック構成図を示す。この実施例は、仮想被写体の動きが予め決まっている場合に、それをもとにした仮想カメラの動きを設定し、その仮想カメラの動きデータを実空間内の自動撮影カメラ装置へ適応させ、仮想空間内を動く仮想被写体を自動撮影カメラ装置で撮影するものである。
【0012】
図1において、初期設定として、自動撮影カメラ装置10における実空間と、CG映像生成装置20における仮想空間とのスケールを合致させる。ここでは、図2(A)に示す実空間と、図2(B)に示す仮想空間とのスケールを合致させるため、実空間に想定した原点O=(0,0,0)と、仮想空間の原点O=(0,0,0)とを合わせ、実空間の横幅x、高さy、奥行きzを、仮想空間のx軸、y軸、z軸にそれぞれ対応させる。
【0013】
そして、実空間における例えば長さ1mが仮想空間の単位長となるように仮想空間の縮尺を設定し、実空間の点Aの座標(x,y,z)が(x,y,z)であった場合、仮想空間内で対応する点Aの座標(x,y,z)が(x,y,z)となるようにする。
【0014】
次に、図3(A)に示す実空間のカメラCと、図3(B)に示す仮想カメラCの位置や向きなどを一致させる。実空間のカメラ位置(x,y,z)=(x,y,z)は、先に設定した実空間の原点からの横幅x、高さy、奥行きz方向をもとにした測量で求める。そして、この実空間のカメラ位置に相当する仮想空間の位置(x,y,z)=(x,y,z)に、実空間と同じレンズスケール、アパーチャースケールを持った仮想カメラCを設定する。そして、実空間のカメラCと仮想カメラCの向きを合わせる。
【0015】
例えば、実空間のカメラCの位置(x,y,z)=(x,y,z)から原点Oを見たときのカメラ方向は(−x,−y,−z)となり、これは仮想カメラCも同じである。そして、この仮想カメラCの方向(−x,−y,−z)を基準にし、図4に示すように2つの空間のカメラの回転量(θx,θy,θz)を一致させる。結果として、2つのカメラC,Cは、あたかも同じ空間内の同じ場所にある同じカメラで、同じ方向を撮影しているように同調する。
【0016】
一方、図1に示すCG映像生成装置20内の仮想被写体動作設定部21で、仮想被写体Hは、図5に示すように、仮想空間の点(x,y,z)=(x,y,z)を中心として、x,z平面と平行な平面上で半径=rの円周上をt秒で1周する動作を行うように設定する。この仮想被写体Hの動きは実空間に置き換えると、点(x,y,z)=(x,y,z)を中心に、床面と平行に半径rmの円周上をt秒で1周することに相当する。
【0017】
仮想カメラ動作設定部22では、この仮想被写体Hを仮想カメラCで適切な画角で撮影できる位置(x,y,z)=(x,y,z)を決定する。そして、仮想被写体Hの動きを追ってt秒で一順するような仮想カメラCのカメラワークを、仮想カメラCのファインダに相当する画面を見ながら設定し、その動きデータを保存する。
【0018】
続いて、仮想カメラ動作設定部22は、実空間内の自動撮影カメラ装置の位置を仮想空間内の仮想カメラCの位置に相当する地点(x,y,z)=(x,y,z)に移動させる。そして、仮想カメラCの動きデータを、撮影部12の制御データに変換して自動撮影カメラ装置10の駆動制御部11に供給する。
【0019】
駆動制御部11は、供給された制御データに基づいて撮影部12を駆動してカメラワークを実行し実空間の様子を撮影する。撮影部12で得た実空間の映像は例えばNTSC方式の映像信号として出力され、映像遅延装置15を通して画像合成装置30に供給される。
【0020】
CG映像生成装置20内のレンダリング部23では、設定されたカメラワークを行う仮想カメラCで撮影された仮想被写体Hの画像を、NTSC方式の映像信号に変換(レンダリング)して出力する。この映像信号は映像遅延装置25を通して画像合成装置30に供給される。
【0021】
画像合成装置30は、CG映像生成装置20からの仮想被写体Hの映像信号と、自動撮影カメラ装置10によって撮影された実空間の映像との画像合成を行うことにより、実空間には存在しない仮想被写体Hが実空間の中を動いている映像として表示することができる。
【0022】
例えば仮想被写体の動きデータを自動撮影カメラ装置の制御データに変換する際に遅延が発生するなどによって実空間の映像の遅延が大きくなり、画像合成の段階で両映像の動きのタイミングがずれる場合、映像遅延装置25で、それと同等の遅延を仮想被写体の映像に加えることによって、両者のタイミングを合わせる。逆に、仮想被写体の映像の遅延が大きい場合には映像遅延装置15で、それと同等の遅延を実空間の映像に加えることによって、両者のタイミングを合わせる。
【0023】
本発明では、CGの仮想被写体の位置および動きデータをもとに、仮想カメラの向きや動きやレンズ情報などを設定し、これに合わせて自動撮影カメラ装置を駆動して実空間の撮影を行うことにより、より高速、かつ正確に仮想被写体を追尾することが可能になり、従来、人間では完全には追従することができなかった仮想被写体の動きに対して、実空間のカメラが正確に追尾することができるようになり、信頼性の高い自動撮影、効率的な制作が実現できる。
【0024】
図6は、本発明の仮想シーン撮影装置の第2実施例のブロック構成図を示す。この実施例は、人的操作などにより、仮想被写体を任意に動かす場合、または乱数などによって仮想被写体の動きが自動的に算出される場合など、動きが予め決まっていない仮想被写体を自動撮影カメラ装置で撮影するものである。
【0025】
図6において、初期設定として、自動撮影カメラ装置10における実空間と、CG映像生成装置40における仮想空間とのスケールを合致させる。ここでは、図2(A)に示す実空間と、図2(B)に示す仮想空間とのスケールを合致させるため、実空間に想定した原点O=(0,0,0)と、仮想空間の原点O=(0,0,0)とを合わせ、実空間の横幅x、高さy、奥行きzを、仮想空間のx軸、y軸、z軸にそれぞれ対応させる。
【0026】
そして、実空間における例えば長さ1mが仮想空間の単位長となるように仮想空間の縮尺を設定し、実空間の点Aの座標(x,y,z)が(x,y,z)であった場合、仮想空間内で対応する点Aの座標(x,y,z)が(x,y,z)となるようにする。
【0027】
次に、図3(A)に示す実空間のカメラCと、図3(B)に示す仮想カメラCの位置や向きなどを一致させる。実空間のカメラ位置(x,y,z)=(x,y,z)は、先に設定した実空間の原点からの横幅x、高さy、奥行きz方向をもとにした測量で求める。そして、この実空間のカメラ位置に相当する仮想空間の位置(x,y,z)=(x,y,z)に、実空間と同じレンズスケール、アパーチャースケールを持った仮想カメラCを設定する。そして、実空間のカメラCと仮想カメラCの向きを合わせる。
【0028】
例えば、実空間のカメラCの位置(x,y,z)=(x,y,z)から原点Oを見たときのカメラ方向は(−x,−y,−z)となり、これは仮想カメラCも同じである。そして、この仮想カメラCの方向(−x,−y,−z)を基準にし、図4に示すように2つの空間のカメラの回転量(θx,θy,θz)を一致させる。結果として、2つのカメラC,Cは、あたかも同じ空間内の同じ場所にある同じカメラで、同じ方向を撮影しているように同調する。ここまでは、第1実施例と同じである。
【0029】
図7に示すように、実空間のスタジオには、クロマキーバックのセット100の中に3本の木の柱101,102,103が立っており、その中を仮想被写体が飛び回るシーンを生成する。仮想被写体を動かすオペレータ105は、実空間の柱に相当する3本の仮想の柱106,107,108が存在する仮想空間全体を表示するモニタ画面109を見ながら、ジョイスティック等の制御入力デバイス110を用いて、柱106,107,108を避けるように仮想被写体112を移動させる。
【0030】
この制御入力デバイス110の出力する制御入力情報が図6に示す端子41からCG映像生成装置40の仮想被写体動作設定部42及び仮想カメラ動作設定部43に供給される。仮想被写体動作設定部42は、制御入力情報に基づいて仮想被写体112が仮想空間内を飛び回る映像を生成してレンダリング部45に供給する。
【0031】
仮想カメラ動作設定部43は、制御入力情報に基づいて仮想被写体112を撮影するための仮想カメラの最適画角を決めると共に、仮想カメラのカメラワークに対応する動きデータを生成してデータ変換部44及びレンダリング部45に供給する。データ変換部44は、仮想カメラの動きデータを自動撮影カメラ装置の制御データに変換して自動撮影カメラ装置10の駆動制御部11に供給する。
【0032】
駆動制御部11は、供給された制御データに基づいて撮影部12を駆動してカメラワークを実行し、クロマキーバックのセット100の中に3本の木の柱101,102,103が立った実空間の様子を撮影する。図8(B)に示すように木の柱101を撮影した実空間の映像は、例えばNTSC方式の映像信号として出力され、映像遅延装置15を通して画像合成装置30に供給される。
【0033】
CG映像生成装置40内のレンダリング部45では、設定されたカメラワークを行う仮想カメラで撮影された図8(A)に示すように仮想空間を飛び回る仮想被写体112の画像をNTSC方式の映像信号に変換して出力する。この映像信号は映像遅延装置25を通して画像合成装置30に供給される。
【0034】
画像合成装置30は、図8(A)に示すCG映像生成装置40からの仮想被写体112の映像信号と、図8(B)に示す自動撮影カメラ装置10によって撮影された柱101の映像との画像合成を行うことにより、仮想被写体112が実空間の中を飛び回る図8(C)に示す映像として表示することができる。
【0035】
なお、画像合成の段階で両映像の動きのタイミングがずれる場合に映像遅延装置15,25を用いて両者のタイミングを合わせることは第1実施例と同様である。
【0036】
この他にも、レンダリングされた仮想被写体の映像から、本出願人の提案になる特願平8−153133号に記載の自動撮影カメラシステムを用いて自動的かつ高速に仮想カメラの最適画角を決定し、その最適画角をもとに自動撮影カメラ装置10を制御し、仮想カメラと連動して実空間を撮影するという方法もある。なお、上記の特願平8−153133号に記載の自動撮影カメラシステムは、カメラ操作者の視野に相当する広角画像を撮影するセンサカメラと、外部からの制御信号により撮影方向を含むカメラ操作の制御が可能な撮影用カメラと、前記センサカメラで撮影された広角画像内の静止体又は移動体の中から撮影対象の被写体を認識し、該被写体の3次元空間内の現在位置を逐次計測すると共に、当該計測情報の信頼度を示す信頼度情報を作成して前記計測情報と共に送出する3次元位置計測部と、前記3次元位置計測部からの計測情報に基づいて前記被写体の3次元空間内の動きを解析する動き解析部と、前記3次元位置計測部からの信頼度情報に基づいて当該計測情報の信頼度を算出する信頼度算出部と、前記撮影用カメラのカメラワークの形態毎に制御モードを複数持ち、前記信頼度算出部で算出した信頼度に応じて当該制御モードを自動的に切替え、切替え後の制御モードの制御パラメータに従って前記撮影用カメラのカメラワークを制御するカメラワーク制御部とを備え、
【0037】
さらに、前記形態が自動追尾の制御形態を含み、前記信頼度が閾値を越えていない場合には、前記動き解析部で解析した被写体の動きに応じて自動追尾を制御する前記自動追尾の制御形態の第1の制御モードで制御し、
前記信頼度が閾値を越えている場合には、現時点までの複数の計測情報から求めた前記被写体の動きの予測情報に基づいて自動追尾を制御する前記自動追尾の制御形態の第2の制御モードに切替え、前記信頼度が閾値以下となるまで前記第2の制御モードによって制御し、
前記形態が自動追尾の制御形態を含み、前記信頼度が閾値を越えている期間が許容期間を越えた場合、現在の制御モードを前記被写体の動きのモデル式に基づいて自動追尾を制御する前記自動追尾の制御形態の第3の制御モードに切替え、前記信頼度が閾値以下となるまで前記第3の制御モードによって制御し、
前記形態が撮影用カメラの視野の制御形態を含み、前記信頼度が閾値を越えている場合には、前記撮影用カメラの視野を許容値まで拡大する前記視野の制御形態の第1の制御モードに切替え、前記信頼度が閾値以下となるまで前記視野の制御形態の第1の制御モードによって制御し、
前記3次元位置計測部からの信頼度情報が、前記センサカメラの障害を示す第1の情報及び前記認識した被写体の大きさを示す第2の情報のうち少なくとも1つの情報を含み、
前記撮影対象の3次元空間内の現在位置を2つのセンサカメラを用いて計測する構成の場合、前記3次元位置計測部は、いずれか一方のセンサカメラの障害を検出した時点から前記障害の回復を検出する時点までは前記現在位置の他方のセンサカメラからの広角画像に基づいて計測し、
前記信頼度が閾値を越えている場合或いは前記計測情報の入力が無い場合で且つ前記撮影用カメラの視野内の前記被写体が含まれるときには前記撮影用カメラの撮影画像内の静止体又は移動体の中から前記撮影対象の被写体を認識し、該被写体の画面内の現在位置を計測した計測情報を前記3次元位置計測部からの計測情報とする計測情報作成部を備えることによって、撮影対象を自動追尾して無人での撮影を可能としたものである。
【0038】
次に、本発明の仮想シーン撮影方法の第3実施例について説明する。この実施例は、撮影すべき動きの主体が、実空間の被写体から仮想被写体に、途中で替わるシーンを、自動撮影カメラ装置で撮影するものである。
【0039】
この実施例においても、初期設定で実空間のカメラと仮想カメラが同じ空間内の同じ場所にある同じカメラで、同じ方向を撮影しているように同調する処理は第1,第2実施例と同様である。
【0040】
図9は、本発明の仮想シーン撮影装置の第3実施例のブロック構成図を示す。図9において、初期設定として、自動撮影カメラ装置50における実空間と、CG映像生成装置60における仮想空間とのスケールを合致させる。
【0041】
次に、実空間の出演者の動きを、特願平8−153133号に記載の自動撮影カメラシステムの自動撮影カメラ装置50を用いて撮影する。図10(A)に示す出演者117は弓118を持っている。図10(B)に示すように、弓の上端位置、弓の中心位置、弓の下端位置、弦の中心位置それぞれには例えば磁気センサなどの弓に搭載可能な小型位置センサ119,120,121,122が取り付けられており、この小型位置センサ119〜122により、図10(B),(C)に示すような弓118の形状の変化や、図11(A)に示すような実空間における弓118の位置をリアルタイムで計測することができる。なお、磁気センサの他にも光学式センサや超音波センサなどを使用しても良い。
【0042】
上記小型位置センサ119〜122それぞれの検出信号が図9に示す端子66からCG映像生成装置60の位置検出部61に供給され、位置情報と形状情報が得られる。この位置情報と形状情報は仮想被写体動作設定部62及び仮想カメラ動作設定部63に供給される。仮想被写体動作設定部62は、位置情報と形状情報に基づいてCGの矢の映像を生成してレンダリング部65に供給する。図11(B)に示す仮想空間には仮想被写体としてCGの矢124があり、図11(A)に示す実空間における弓118の位置情報と形状情報をもとに、仮想空間内での矢124の位置や向き、動きなどを生成する。
【0043】
仮想カメラ動作設定部63は、位置情報と形状情報に基づいてCGの矢124を撮影するための仮想カメラの最適画角を決めると共に、仮想カメラのカメラワークに対応する動きデータを生成してデータ変換部64及びレンダリング部65に供給する。データ変換部64は、仮想カメラの動きデータを自動撮影カメラ装置の制御データに変換して自動撮影カメラ装置50の駆動制御部51に供給する。
【0044】
この場合、仮想空間の矢柄の位置D=(x,y,z)は、実空間の弓118の弦の中心位置D=(x,y,z)に相当し、矢124は弓の弦の中心位置D=(x,y,z)と弓118の中心位置E=(x,y,z)を結んだ延長線方向(x−x,y−y,z−z)を向いている。
【0045】
出演者117はこの弓118を引き、引き切ったところD=(x,y,z)で引き手を放す。弦を引いている出演者117の指先には、例えば接触していると弱電流が流れる小型の電極スイッチ126が仕込んであり、指を放した瞬間に電極スイッチ126に電流が流れなくなる。この電極スイッチ126の信号は図9に示す端子67からCG映像生成装置60の仮想被写体動作設定部62と仮想カメラ動作設定部63、及び自動撮影カメラ装置50の駆動制御部51に供給される。
【0046】
CGの矢124は、弓118の中心位置E=(x,y,z)と弦の中心位置D=(x,y,z)を結んだ延長線方向(x−x,y−y,z−z)に向かって飛び出す。このCGの矢124が飛び出す速度は予め設定しておき、矢124の向きから、矢124が飛んでゆく動きを算出する。また、データ変換部64は矢124の向きと速度から仮想カメラの動きを表す動きデータも算出すると共に、その動きデータを自動撮影カメラ装置64の制御データに変換して自動撮影カメラ装置50の駆動制御部51に供給し撮影部52を駆動する。そして、これらは全て指を放した瞬間から動作を開始する。
【0047】
つまり、撮影すべき動きの主体が、実空間の出演者117から仮想被写体の矢124に移ることになる。そして、仮想カメラで撮影された仮想被写体の矢124のレンダリング映像と、自動撮影カメラ装置50によって撮影された実空間の映像を画像合成することにより、結果として、実空間では存在しない高速で動く仮想被写体の矢124を、あたかも実空間の中で高速に動いている映像として表示することができる。
【0048】
この合成段階で、動きのタイミングがずれている場合、例えば仮想カメラによって撮影された仮想被写体をレンダリングする際に遅延が発生した場合、それと同等の遅延を自動撮影カメラ装置で撮影した映像に発生させるなどして、両者のタイミングを合わせることは第1,第2実施例と同様である。
【0049】
このようにして、仮想被写体ならではのダイナミックな動きや不可思議な動きに対応して実空間のカメラで正確に実空間を撮影することができる。また、何度も同じ撮影を繰り返すことが可能なため、多重合成などの特殊撮影や、出演者と仮想被写体との共演時におけるシミュレーションやリハーサルを行うこともでき、実写と仮想被写体の合成映像制作、いわゆる仮想シーン生成の作業の効率化に貢献できる。
【0050】
なお、仮想カメラ動作設定部22,43,63が請求項記載の仮想カメラ動作設定手段に対応し、仮想カメラ動作設定部22,データ変換部44,64が実空間カメラ動作設定手段に対応し、映像合成装置30が映像合成手段に対応し、映像遅延装置15,25が遅延手段に対応する。
【0051】
【発明の効果】
上述の如く、請求項1に記載の発明は、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で仮想被写体を撮影する仮想カメラの動きデータを設定し、仮想カメラの動きデータを、仮想カメラの動きに同調して実空間を撮影する実空間のカメラの制御データに変換し制御データに基づいて駆動した実空間のカメラで撮影された映像と、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得ることにより、仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことができ、仮想被写の動きを正確に追尾する合成映像を得ることができる。
【0052】
請求項2に記載の発明は、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で仮想被写体を撮影する仮想カメラの動きデータを設定する仮想カメラ動作設定手段と、仮想カメラの動きデータを、仮想カメラの動きに同調して実空間を撮影する実空間のカメラの制御データに変換する実空間カメラ動作設定手段と、実空間カメラ動作設定手段で設定された制御データに基づいて駆動した実空間のカメラで撮影された映像と、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得る映像合成手段とを有することにより、仮想被写の瞬発的な動きや高速移動に追従して実空間のカメラを動かすことができ、仮想被写の動きを正確に追尾する合成映像を得ることができる。
【0053】
請求項3に記載の発明では、実空間カメラ動作設定手段で設定された制御データに基づいて駆動した実空間のカメラで撮影された映像と、コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像との少なくともいずれか一方を遅延する遅延手段を有することにより、実空間のカメラで撮影された映像と、コンピュータグラフィックスによる仮想被写体の映像との動きのタイミングを合わせることができる。
【図面の簡単な説明】
【図1】本発明の仮想シーン撮影装置の第1実施例のブロック構成図である。
【図2】実空間のカメラと仮想カメラとを同調する処理を説明するための図である。
【図3】実空間のカメラと仮想カメラとを同調する処理を説明するための図である。
【図4】実空間のカメラと仮想カメラとを同調する処理を説明するための図である。
【図5】実空間のカメラと仮想カメラとを同調する処理を説明するための図である。
【図6】本発明の仮想シーン撮影装置の第2実施例のブロック構成図である。
【図7】本発明の第2実施例を説明するための図である。
【図8】本発明の第2実施例を説明するための図である。
【図9】本発明の仮想シーン撮影装置の第3実施例のブロック構成図である。
【図10】本発明の第3実施例を説明するための図である。
【図11】本発明の第3実施例を説明するための図である。
【符号の説明】
10,50 自動撮影カメラ装置
11,51 駆動制御部
12,52 撮影部
15,25 映像遅延装置
20 CG映像生成装置
21,42,62 仮想被写体動作設定部
22,43,63 仮想カメラ動作設定部
23,45,65 レンダリング部
30 映像合成装置
44,64 データ変換部
61 位置検出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a virtual scene shooting method and an apparatus therefor, and in particular, a virtual scene shooting method for generating a virtual scene by synthesizing both images of the same movement by linking camera work in virtual space and camera work in real space. It relates to the device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a camera captures the real world and a subject that are spread in front of a lens by a cameraman with a viewfinder, and shoots it as a real photograph. When shooting a moving subject such as a person or animal, in addition to tracking the subject with the finder, the cameraman sometimes keeps an eye on the finder to observe and predict the subject's movement while checking the subject directly, The camera is set to an appropriate angle of view for the subject.
[0003]
Also called a virtual studio where the space conditions of the real space and the virtual space are matched, and the live-action video and computer graphics (hereinafter referred to as “CG”) video are combined and displayed on the same screen for viewing. In this system, changes in the direction and position of the camera in the real space and the lens value correspond to the camera in the virtual space (hereinafter referred to as “virtual camera”), and the spatial position between the real space and the virtual space. Consistency of relationship. In other words, the subject of the camera operation was on the side of the real space moved by the cameraman.
[0004]
[Problems to be solved by the invention]
In recent years, as program production and video production by video composition of live-action video and CG video using virtual studios increase, subjects in virtual space that cannot be seen in real space (hereinafter referred to as “virtual subjects”) More and more photographers have to follow the movement.
[0005]
However, the cameraman can only see the CG video that is the virtual subject in the camera finder or the video that is combined with the live-action video on the floor monitor. The subject's movement cannot be predicted and shot.
[0006]
The combined video of CG video and live-action video that can be viewed with a camera finder, etc., causes a delay of one frame (about 33 ms in the case of NTSC system) in order to perform video synthesis processing. Camera operations performed while looking at the camera result in a delay in camera work. Because of this, virtual body There was a problem that it was very difficult to move the camera in real space following the instantaneous movement and high-speed movement of the camera.
[0007]
The present invention has been made in view of the above points. body The real-time camera can be moved following the instantaneous movement and high-speed movement of the virtual object. body It is an object of the present invention to provide a virtual scene photographing method and apparatus capable of obtaining a composite image that accurately tracks the movement of the camera.
[0008]
[Means for Solving the Problems]
The invention according to claim 1 is a motion of a virtual camera that captures the virtual subject in a virtual space based on the motion of the virtual subject by computer graphics or control information thereof. data Set
Above Virtual camera movement data , A real space camera that captures the real space corresponding to the movement of the virtual camera Converted to control data ,
Driven based on the control data By synthesizing the video photographed by the real space camera and the video photographed by the virtual camera based on the movement of the virtual object by the computer graphics or the control information thereof, to obtain the video of the virtual scene ,
Virtual subject body The real-time camera can be moved following the instantaneous movement and high-speed movement of the virtual object. body It is possible to obtain a composite image that accurately tracks the movement of the video.
[0009]
According to the second aspect of the present invention, the movement of the virtual camera that captures the virtual subject in the virtual space based on the movement of the virtual subject by computer graphics or the control information thereof. data Virtual camera operation setting means for setting,
Above Synchronize the movement data of the virtual camera with the movement of the virtual camera Real space camera to shoot real space Convert to control data Real space camera operation setting means,
Set by the real space camera operation setting means The drive based on the control data Video synthesizing means for synthesizing a video photographed by a camera in a real space and a video photographed by the virtual camera based on the movement of the virtual subject by the computer graphics or the control information thereof to obtain a video of the virtual scene And having
Virtual subject body The real-time camera can be moved following the instantaneous movement and high-speed movement of the virtual object. body It is possible to obtain a composite image that accurately tracks the movement of the video.
[0010]
The invention according to claim 3 is the virtual scene photographing device according to claim 2,
Set by the real space camera operation setting means The drive based on the control data Delay means for delaying at least one of a video photographed by a camera in a real space and a video photographed by the virtual camera based on the movement of the virtual object by the computer graphics or control information thereof; By
It is possible to synchronize the motion timing of the video captured by the real space camera and the video of the virtual subject by computer graphics.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram of a first embodiment of the virtual scene photographing apparatus of the present invention. In this embodiment, when the movement of the virtual subject is determined in advance, the movement of the virtual camera is set based on the movement, and the movement data of the virtual camera is adapted to the automatic photographing camera device in the real space, A virtual subject moving in a virtual space is photographed by an automatic photographing camera device.
[0012]
In FIG. 1, as an initial setting, the scales of the real space in the automatic photographing camera device 10 and the virtual space in the CG video generation device 20 are matched. Here, in order to match the scales of the real space shown in FIG. 2A and the virtual space shown in FIG. r = (0,0,0) and the origin O of the virtual space v = (0,0,0) and the width x of the real space r , Height y r , Depth z r X in the virtual space v Axis, y v Axis, z v Correspond to each axis.
[0013]
Then, the scale of the virtual space is set so that, for example, the length 1 m in the real space becomes the unit length of the virtual space, and the point A of the real space r Coordinates (x r , Y r , Z r ) Is (x 1 , Y 1 , Z l ), The corresponding point A in the virtual space v Coordinates (x v , Y v , Z v ) Is (x 1 , Y 1 , Z 1 ).
[0014]
Next, the camera C in the real space shown in FIG. r And the virtual camera C shown in FIG. v Match the position and orientation of the. Real space camera position (x r , Y r , Z r ) = (X 2 , Y 2 , Z 2 ) Is the width x from the origin of the real space set earlier r , Height y r , Depth z r Obtained by surveying based on direction. Then, the position of the virtual space (x v , Y v , Z v ) = (X 2 , Y 2 , Z 2 ), Virtual camera C with the same lens scale and aperture scale as real space v Set. And real space camera C r And virtual camera C v Adjust the direction of.
[0015]
For example, real space camera C r Position (x r , Y r , Z r ) = (X 2 , Y 2 , Z 2 ) To origin O r Camera direction when looking at (-x 2 , -Y 2 , -Z 2 This is virtual camera C v Is the same. And this virtual camera C v Direction (-x 2 , -Y 2 , -Z 2 ) With reference to the rotation amount of the camera in two spaces (θx as shown in FIG. 3 , Θy 3 , Θz 3 ). As a result, two cameras C r , C v Tune as if they were shooting in the same direction with the same camera in the same place in the same space.
[0016]
On the other hand, in the virtual subject motion setting unit 21 in the CG video generation device 20 shown in FIG. 1, the virtual subject H is a point (x v , Y v , Z v ) = (X 4 , Y 4 , Z 4 ) Is set to perform an operation of making one round in t seconds on a circumference of radius = r on a plane parallel to the x and z planes. When the movement of the virtual subject H is replaced with real space, a point (x r , Y r , Z r ) = (X 4 , Y 4 , Z 4 ) Around the circumference of the radius rm in parallel with the floor surface.
[0017]
In the virtual camera operation setting unit 22, the virtual subject H is assigned to the virtual camera C. v The position (x v , Y v , Z v ) = (X 5 , Y 5 , Z 5 ). A virtual camera C that follows the movement of the virtual subject H and moves in t seconds. v The camera work of the virtual camera C v Set while looking at the screen corresponding to the viewfinder, and save the motion data.
[0018]
Subsequently, the virtual camera operation setting unit 22 determines the position of the automatic shooting camera device in the real space and the virtual camera C in the virtual space. v Point corresponding to the position of (x r , Y r , Z r ) = (X 5 , Y 5 , Z 5 ). And virtual camera C v Is converted into control data for the photographing unit 12 and supplied to the drive control unit 11 of the automatic photographing camera device 10.
[0019]
The drive control unit 11 drives the imaging unit 12 based on the supplied control data, executes camera work, and images the real space. The real space video obtained by the imaging unit 12 is output as, for example, an NTSC video signal and supplied to the image composition device 30 through the video delay device 15.
[0020]
In the rendering unit 23 in the CG video generation device 20, a virtual camera C that performs the set camera work. v The image of the virtual subject H photographed in step (2) is converted (rendered) into an NTSC video signal and output. This video signal is supplied to the image composition device 30 through the video delay device 25.
[0021]
The image composition device 30 performs image composition of the image signal of the virtual subject H from the CG image generation device 20 and the image of the real space photographed by the automatic photographing camera device 10, thereby causing a virtual that does not exist in the real space. It can be displayed as an image of the subject H moving in real space.
[0022]
For example, when the movement data of the virtual subject is converted into the control data of the automatic shooting camera device, the delay of the real space video is increased due to a delay, and the timing of the movement of both videos is shifted at the stage of image synthesis. The video delay device 25 adds the same delay to the video of the virtual subject, thereby matching the timings of both. Conversely, when the delay of the video of the virtual subject is large, the video delay device 15 adds the same delay to the video in the real space, thereby matching the timings of both.
[0023]
In the present invention, the orientation and movement of the virtual camera, lens information, and the like are set based on the position and movement data of the virtual subject of the CG, and the automatic shooting camera device is driven in accordance with this to perform shooting in real space. This makes it possible to track a virtual subject faster and more accurately, and a real-world camera accurately tracks the movement of a virtual subject that could not be completely followed by humans. This makes it possible to achieve highly reliable automatic shooting and efficient production.
[0024]
FIG. 6 shows a block diagram of a second embodiment of the virtual scene photographing apparatus of the present invention. In this embodiment, a virtual subject whose movement is not determined in advance, such as a case where a virtual subject is arbitrarily moved by a human operation or the like, or a case where the motion of a virtual subject is automatically calculated by a random number or the like, is automatically taken. It is something to shoot with.
[0025]
In FIG. 6, as an initial setting, the scales of the real space in the automatic photographing camera device 10 and the virtual space in the CG video generation device 40 are matched. Here, in order to match the scales of the real space shown in FIG. 2A and the virtual space shown in FIG. r = (0,0,0) and the origin O of the virtual space v = (0,0,0) and the width x of the real space r , Height y r , Depth z r X in the virtual space v Axis, y v Axis, z v Correspond to each axis.
[0026]
Then, the scale of the virtual space is set so that, for example, the length 1 m in the real space becomes the unit length of the virtual space, and the point A of the real space r Coordinates (x r , Y r , Z r ) Is (x 1 , Y 1 , Z l ), The corresponding point A in the virtual space v Coordinates (x v , Y v , Z v ) Is (x 1 , Y 1 , Z 1 ).
[0027]
Next, the camera C in the real space shown in FIG. r And the virtual camera C shown in FIG. v Match the position and orientation of the. Real space camera position (x r , Y r , Z r ) = (X 2 , Y 2 , Z 2 ) Is the width x from the origin of the real space set earlier r , Height y r , Depth z r Obtained by surveying based on direction. Then, the position of the virtual space (x v , Y v , Z v ) = (X 2 , Y 2 , Z 2 ), Virtual camera C with the same lens scale and aperture scale as real space v Set. And real space camera C r And virtual camera C v Adjust the direction of.
[0028]
For example, real space camera C r Position (x r , Y r , Z r ) = (X 2 , Y 2 , Z 2 ) To origin O r Camera direction when looking at (-x 2 , -Y 2 , -Z 2 This is virtual camera C v Is the same. And this virtual camera C v Direction (-x 2 , -Y 2 , -Z 2 ) With reference to the rotation amount of the camera in two spaces (θx as shown in FIG. 3 , Θy 3 , Θz 3 ). As a result, two cameras C r , C v Tune as if they were shooting in the same direction with the same camera in the same place in the same space. Up to this point, the process is the same as in the first embodiment.
[0029]
As shown in FIG. 7, in a studio in real space, three wooden pillars 101, 102, and 103 stand in a chroma key back set 100, and a scene in which a virtual subject jumps around is generated. The operator 105 that moves the virtual subject moves the control input device 110 such as a joystick while viewing the monitor screen 109 that displays the entire virtual space where the three virtual pillars 106, 107, and 108 corresponding to the pillars of the real space exist. The virtual subject 112 is moved so as to avoid the pillars 106, 107 and 108.
[0030]
Control input information output from the control input device 110 is supplied from the terminal 41 shown in FIG. 6 to the virtual subject motion setting unit 42 and the virtual camera motion setting unit 43 of the CG video generation device 40. Based on the control input information, the virtual subject motion setting unit 42 generates a video in which the virtual subject 112 flies around in the virtual space and supplies the video to the rendering unit 45.
[0031]
The virtual camera operation setting unit 43 determines the optimal angle of view of the virtual camera for photographing the virtual subject 112 based on the control input information, and generates motion data corresponding to the camera work of the virtual camera to generate the data conversion unit 44. And supplied to the rendering unit 45. The data conversion unit 44 converts the movement data of the virtual camera into control data of the automatic shooting camera device and supplies the control data to the drive control unit 11 of the automatic shooting camera device 10.
[0032]
The drive control unit 11 drives the photographing unit 12 based on the supplied control data to execute camera work, and the three wooden pillars 101, 102, and 103 stand in the chroma key back set 100. Shoot the state of the space. As shown in FIG. 8B, the real space video obtained by photographing the wooden pillar 101 is output as, for example, an NTSC video signal and supplied to the image composition device 30 through the video delay device 15.
[0033]
In the rendering unit 45 in the CG video generation device 40, the image of the virtual subject 112 flying around the virtual space as shown in FIG. 8A photographed by the virtual camera that performs the set camera work is converted into an NTSC video signal. Convert and output. This video signal is supplied to the image composition device 30 through the video delay device 25.
[0034]
The image synthesizing device 30 includes the video signal of the virtual subject 112 from the CG video generating device 40 shown in FIG. 8A and the video of the pillar 101 taken by the automatic photographing camera device 10 shown in FIG. 8B. By performing image composition, the virtual subject 112 can be displayed as an image shown in FIG.
[0035]
It is to be noted that, when the timing of movement of both videos is shifted at the stage of image synthesis, the timing of both is matched using the video delay devices 15 and 25 as in the first embodiment.
[0036]
In addition to this, the optimum angle of view of the virtual camera can be automatically and quickly determined from the rendered image of the virtual subject using the automatic photographing camera system described in Japanese Patent Application No. 8-153133 proposed by the present applicant. There is also a method in which the automatic photographing camera device 10 is controlled based on the optimum angle of view and the real space is photographed in conjunction with the virtual camera. The automatic photographing camera system described in the above Japanese Patent Application No. 8-153133 includes a sensor camera for photographing a wide-angle image corresponding to the field of view of the camera operator, and a camera operation including a photographing direction by a control signal from the outside. A subject to be photographed is recognized from a controllable photographing camera and a stationary body or moving body in a wide-angle image photographed by the sensor camera, and the current position of the subject in a three-dimensional space is sequentially measured. And a three-dimensional position measurement unit that generates reliability information indicating the reliability of the measurement information and transmits the reliability information together with the measurement information, and the measurement information from the three-dimensional position measurement unit in the three-dimensional space of the subject A motion analysis unit that analyzes the motion of the camera, a reliability calculation unit that calculates the reliability of the measurement information based on the reliability information from the three-dimensional position measurement unit, and the camera work of the imaging camera There are a plurality of control modes for each form, the control mode is automatically switched according to the reliability calculated by the reliability calculation unit, and the camera work of the photographing camera is controlled according to the control parameter of the control mode after the switching. A camera work control unit,
[0037]
Further, when the form includes an automatic tracking control form and the reliability does not exceed a threshold, the automatic tracking control form for controlling automatic tracking according to the motion of the subject analyzed by the motion analysis unit Control in the first control mode of
When the reliability exceeds a threshold value, a second control mode of the automatic tracking control mode that controls automatic tracking based on prediction information of the movement of the subject obtained from a plurality of measurement information up to the present time And control by the second control mode until the reliability is equal to or less than a threshold value,
The form includes an automatic tracking control form, and when the period in which the reliability exceeds the threshold exceeds an allowable period, the current control mode is controlled based on a model expression of the movement of the subject. Switch to the third control mode of the automatic tracking control mode, and control according to the third control mode until the reliability is equal to or less than a threshold,
A first control mode of the field-of-view control mode in which the form includes a field-of-view control mode of the shooting camera, and when the reliability exceeds a threshold value, the field of view of the shooting camera is expanded to an allowable value. And control by the first control mode of the visual field control mode until the reliability is equal to or lower than a threshold value,
The reliability information from the three-dimensional position measurement unit includes at least one information of first information indicating a failure of the sensor camera and second information indicating the size of the recognized subject,
In the case where the current position in the three-dimensional space to be imaged is measured using two sensor cameras, the three-dimensional position measurement unit recovers the failure from the point in time when a failure of one of the sensor cameras is detected. Until the time of detecting the measurement based on the wide-angle image from the other sensor camera of the current position,
When the reliability exceeds a threshold or when the measurement information is not input and the subject in the field of view of the photographing camera is included, a stationary body or a moving body in the photographed image of the photographing camera is included. A measurement information creation unit that recognizes the subject to be photographed from the inside and uses the measurement information obtained by measuring the current position in the screen of the subject as measurement information from the three-dimensional position measurement unit, thereby automatically This enables tracking and unattended shooting.
[0038]
Next, a third embodiment of the virtual scene shooting method of the present invention will be described. In this embodiment, a scene in which the subject of motion to be photographed changes from a real space subject to a virtual subject on the way is photographed by an automatic photographing camera device.
[0039]
Also in this embodiment, the process of synchronizing the camera in the real space and the virtual camera at the same location in the same place in the same place so as to photograph the same direction is the same as in the first and second embodiments. It is the same.
[0040]
FIG. 9 shows a block diagram of a third embodiment of the virtual scene photographing apparatus of the present invention. In FIG. 9, as an initial setting, the scales of the real space in the automatic photographing camera device 50 and the virtual space in the CG video generation device 60 are matched.
[0041]
Next, the movement of the performer in the real space is photographed using the automatic photographing camera device 50 of the automatic photographing camera system described in Japanese Patent Application No. 8-153133. The performer 117 shown in FIG. 10A has a bow 118. As shown in FIG. 10B, small position sensors 119, 120, and 121 that can be mounted on a bow such as a magnetic sensor are provided at the upper end position of the bow, the center position of the bow, the lower end position of the bow, and the center position of the string, respectively. , 122 are attached, and the small position sensors 119 to 122 are used to change the shape of the bow 118 as shown in FIGS. 10B and 10C or in the real space as shown in FIG. The position of the bow 118 can be measured in real time. In addition to the magnetic sensor, an optical sensor or an ultrasonic sensor may be used.
[0042]
Detection signals from the small position sensors 119 to 122 are supplied from a terminal 66 shown in FIG. 9 to the position detection unit 61 of the CG image generation device 60, and position information and shape information are obtained. The position information and shape information are supplied to the virtual subject operation setting unit 62 and the virtual camera operation setting unit 63. The virtual subject motion setting unit 62 generates an image of a CG arrow based on the position information and the shape information and supplies it to the rendering unit 65. The virtual space shown in FIG. 11B includes a CG arrow 124 as a virtual subject. Based on the position information and shape information of the bow 118 in the real space shown in FIG. The position, orientation, movement, etc. of 124 are generated.
[0043]
The virtual camera operation setting unit 63 determines the optimum angle of view of the virtual camera for photographing the CG arrow 124 based on the position information and the shape information, and generates motion data corresponding to the camera work of the virtual camera to generate data. The data is supplied to the conversion unit 64 and the rendering unit 65. The data conversion unit 64 converts the movement data of the virtual camera into control data of the automatic shooting camera device and supplies the control data to the drive control unit 51 of the automatic shooting camera device 50.
[0044]
In this case, the position D of the arrow in the virtual space v = (X 6 , Y 6 , Z 6 ) Is the center position D of the string of the bow 118 in the real space. r = (X 6 , Y 6 , Z 6 ), And the arrow 124 is the center position D of the bow string. r = (X 6 , Y 6 , Z 6 ) And the center position E of the bow 118 r = (X 7 , Y 7 , Z 7 ) Connecting the extension line direction (x 6 -X 7 , Y 6 -Y 7 , Z 6 -Z 7 )
[0045]
Performer 117 draws this bow 118 and pulls it away. r = (X 6 , Y 6 , Z 6 ) Release the puller. The fingertip of the performer 117 who is pulling a string is loaded with a small electrode switch 126 through which a weak current flows, for example, when in contact, and the current does not flow through the electrode switch 126 at the moment when the finger is released. The signal of the electrode switch 126 is supplied from a terminal 67 shown in FIG. 9 to the virtual subject operation setting unit 62 and virtual camera operation setting unit 63 of the CG video generation device 60 and the drive control unit 51 of the automatic photographing camera device 50.
[0046]
The CG arrow 124 indicates the center position E of the bow 118. r = (X 7 , Y 7 , Z 7 ) And the center position D of the string r = (X 6 , Y 6 , Z 6 ) Connecting the extension line direction (x 6 -X 7 , Y 6 -Y 7 , Z 6 -Z 7 ) The speed at which the arrow 124 of the CG pops out is set in advance, and the movement of the arrow 124 is calculated from the direction of the arrow 124. The data converter 64 also calculates motion data representing the motion of the virtual camera from the direction and speed of the arrow 124, and converts the motion data into control data for the automatic camera device 64 to drive the automatic camera device 50. It supplies to the control part 51 and drives the imaging | photography part 52. FIG. All of these operations start from the moment the finger is released.
[0047]
That is, the subject of the movement to be photographed moves from the performer 117 in the real space to the arrow 124 of the virtual subject. Then, the rendered image of the arrow 124 of the virtual subject photographed by the virtual camera and the real space image photographed by the automatic photographing camera device 50 are combined, resulting in a virtual moving at high speed that does not exist in the real space. The arrow 124 of the subject can be displayed as an image moving at high speed in the real space.
[0048]
If the timing of movement is shifted at this compositing stage, for example, if a delay occurs when rendering a virtual subject shot by the virtual camera, a delay equivalent to that is generated in the video shot by the automatic shooting camera device. Thus, matching the timings of both is the same as in the first and second embodiments.
[0049]
In this way, the real space can be accurately photographed by the real space camera in response to the dynamic movement and the strange movement unique to the virtual subject. In addition, because the same shooting can be repeated many times, special shooting such as multiple composition, simulation and rehearsal when performing with a performer and a virtual subject can also be performed, and composite video production of live action and virtual subject This can contribute to the efficiency of so-called virtual scene generation work.
[0050]
The virtual camera operation setting units 22, 43, 63 correspond to the virtual camera operation setting means described in the claims, the virtual camera operation setting unit 22, the data conversion units 44, 64 correspond to the real space camera operation setting means, The video composition device 30 corresponds to the video composition means, and the video delay devices 15 and 25 correspond to the delay means.
[0051]
【The invention's effect】
As described above, the invention according to claim 1 is a motion of a virtual camera that captures a virtual subject in a virtual space based on the motion of the virtual subject by computer graphics or control information thereof. data Set Virtual camera movement data The movement of the virtual camera In synchrony Real space camera to shoot real space Converted to control data , Driven based on control data A virtual scene image is obtained by synthesizing an image captured by a real space camera and an image captured by the virtual camera based on the movement of a virtual object by computer graphics or control information thereof to obtain a virtual scene image. Subject body The real-time camera can be moved following the instantaneous movement and high-speed movement of the virtual object. body It is possible to obtain a composite image that accurately tracks the movement of the video.
[0052]
According to the second aspect of the present invention, the movement of the virtual camera that captures the virtual subject in the virtual space based on the movement of the virtual subject by computer graphics or the control information thereof. data Virtual camera operation setting means for setting, Synchronize virtual camera movement data with virtual camera movement Real space camera to shoot real space Convert to control data Set by the real space camera operation setting means and the real space camera operation setting means. Driven based on control data Video synthesizing means for synthesizing a video photographed by a camera in a real space and a video photographed by the virtual camera based on the movement of a virtual object by computer graphics or control information thereof to obtain a video of a virtual scene; By having a virtual subject body The real-time camera can be moved following the instantaneous movement and high-speed movement of the virtual object. body It is possible to obtain a composite image that accurately tracks the movement of the video.
[0053]
In the invention according to claim 3, it is set by the real space camera operation setting means. Driven based on control data By having delay means for delaying at least one of a video photographed by a real space camera and a video photographed by the virtual camera based on the movement of a virtual object by computer graphics or control information thereof. It is possible to synchronize the motion timing of the video captured by the camera in the real space and the video of the virtual subject by computer graphics.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of a virtual scene photographing apparatus of the present invention.
FIG. 2 is a diagram for explaining processing for synchronizing a real space camera and a virtual camera;
FIG. 3 is a diagram for explaining processing for synchronizing a real space camera and a virtual camera;
FIG. 4 is a diagram for explaining a process of synchronizing a real-space camera and a virtual camera.
FIG. 5 is a diagram for explaining a process of synchronizing a real-space camera and a virtual camera.
FIG. 6 is a block diagram of a second embodiment of the virtual scene photographing apparatus of the present invention.
FIG. 7 is a diagram for explaining a second embodiment of the present invention.
FIG. 8 is a diagram for explaining a second embodiment of the present invention.
FIG. 9 is a block diagram of a third embodiment of the virtual scene photographing apparatus of the present invention.
FIG. 10 is a diagram for explaining a third embodiment of the present invention.
FIG. 11 is a diagram for explaining a third embodiment of the present invention.
[Explanation of symbols]
10,50 Automatic camera device
11, 51 Drive control unit
12, 52 Shooting unit
15, 25 Video delay device
20 CG image generator
21, 42, 62 Virtual subject operation setting section
22, 43, 63 Virtual camera operation setting unit
23, 45, 65 Rendering part
30 Video composition device
44, 64 data converter
61 Position detector

Claims (3)

コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で前記仮想被写体を撮影する仮想カメラの動きデータを設定し、
前記仮想カメラの動きデータを、前記仮想カメラの動きに同調して実空間を撮影する実空間のカメラの制御データに変換し
前記制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得ることを特徴とする仮想シーン撮影方法。
Based on the movement of the virtual subject by computer graphics or its control information, set the motion data of the virtual camera that captures the virtual subject in the virtual space,
The virtual camera motion data is converted into real space camera control data for photographing the real space in synchronization with the virtual camera motion,
A video shot by the real space camera driven based on the control data is combined with a video shot by the virtual camera based on the movement of the virtual object by the computer graphics or control information thereof. A virtual scene photographing method characterized by obtaining a video of a virtual scene.
コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに、仮想空間で前記仮想被写体を撮影する仮想カメラの動きデータを設定する仮想カメラ動作設定手段と、
前記仮想カメラの動きデータを、前記仮想カメラの動きに同調して実空間を撮影する実空間のカメラの制御データに変換する実空間カメラ動作設定手段と、
前記実空間カメラ動作設定手段で設定された制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像とを合成して仮想シーンの映像を得る映像合成手段とを
有することを特徴とする仮想シーン撮影装置。
A virtual camera operation setting means for setting motion data of a virtual camera for photographing the virtual subject in a virtual space based on the movement of the virtual subject by computer graphics or control information thereof;
Real space camera operation setting means for converting the movement data of the virtual camera into control data of a real space camera for photographing the real space in synchronization with the movement of the virtual camera ;
The virtual camera based on the video captured by the real space camera driven based on the control data set by the real space camera operation setting means and the movement of the virtual subject by the computer graphics or the control information thereof A virtual scene photographing apparatus comprising: a video composition unit that synthesizes a video of a virtual scene by synthesizing with the video photographed by the computer.
請求項2記載の仮想シーン撮影装置において、
前記実空間カメラ動作設定手段で設定された制御データに基づいて駆動した前記実空間のカメラで撮影された映像と、前記コンピュータグラフィックスによる仮想被写体の動きまたはその制御情報をもとに前記仮想カメラによって撮影された映像との少なくともいずれか一方を遅延する遅延手段を
有することを特徴とする仮想シーン撮影装置。
The virtual scene photographing device according to claim 2, wherein
The virtual camera based on the video captured by the real space camera driven based on the control data set by the real space camera operation setting means and the movement of the virtual subject by the computer graphics or the control information thereof A virtual scene photographing device comprising: delay means for delaying at least one of the images photographed by the camera.
JP2001232024A 2001-07-31 2001-07-31 Virtual scene shooting method and apparatus Expired - Fee Related JP4231216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001232024A JP4231216B2 (en) 2001-07-31 2001-07-31 Virtual scene shooting method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001232024A JP4231216B2 (en) 2001-07-31 2001-07-31 Virtual scene shooting method and apparatus

Publications (2)

Publication Number Publication Date
JP2003046842A JP2003046842A (en) 2003-02-14
JP4231216B2 true JP4231216B2 (en) 2009-02-25

Family

ID=19064001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001232024A Expired - Fee Related JP4231216B2 (en) 2001-07-31 2001-07-31 Virtual scene shooting method and apparatus

Country Status (1)

Country Link
JP (1) JP4231216B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732988B2 (en) * 2011-04-08 2015-06-10 ソニー株式会社 Image processing apparatus, display control method, and program
CN109240499B (en) * 2018-08-31 2022-02-08 云南师范大学 Virtual camera simulation interaction control system and method, and information data processing terminal
CN112929750B (en) * 2020-08-21 2022-10-28 海信视像科技股份有限公司 Camera adjusting method and display device
CN115802165B (en) * 2023-02-10 2023-05-12 成都索贝数码科技股份有限公司 Lens moving shooting method applied to live broadcast connection of different places and same scene
CN116260956B (en) * 2023-05-15 2023-07-18 四川中绳矩阵技术发展有限公司 Virtual reality shooting method and system
CN116320363B (en) * 2023-05-25 2023-07-28 四川中绳矩阵技术发展有限公司 Multi-angle virtual reality shooting method and system

Also Published As

Publication number Publication date
JP2003046842A (en) 2003-02-14

Similar Documents

Publication Publication Date Title
US9736356B2 (en) Photographing apparatus, and method for photographing moving object with the same
US20030202120A1 (en) Virtual lighting system
US8711230B2 (en) Image capture apparatus and program
JP2006101186A (en) Camera
JP2014057247A (en) Imaging apparatus, imaging processing method and program
JP2001358984A (en) Moving picture processing camera
US20200099854A1 (en) Image capturing apparatus and image recording method
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
TWI477887B (en) Image processing device, image processing method and recording medium
CN114638918A (en) Real-time performance capturing virtual live broadcast and recording system
JP4231216B2 (en) Virtual scene shooting method and apparatus
JPH0628449A (en) Image synthesizing device
JP5044582B2 (en) Photography camera learning device and program thereof
JP2018061729A (en) Image processing system and control method thereof
JP2002081909A (en) Device and method for position detection and entertainment device
US20140015966A1 (en) Imaging apparatus and imaging method
JP3615868B2 (en) Automatic camera system
JP3615867B2 (en) Automatic camera system
CN107667522A (en) Adjust the length of live image
JP2013074466A (en) Moving image capturing system, moving image analysis device, moving image analysis method, and computer program
JPH1023465A (en) Image pickup method and its device
JPH07212653A (en) Picture processing unit
JP2019134204A (en) Imaging apparatus
JP2018201095A (en) Imaging apparatus having motion prediction function
JP2010141911A (en) Image recording method, image recording apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees