JP5044582B2 - 撮影カメラ学習装置及びそのプログラム - Google Patents

撮影カメラ学習装置及びそのプログラム Download PDF

Info

Publication number
JP5044582B2
JP5044582B2 JP2009025531A JP2009025531A JP5044582B2 JP 5044582 B2 JP5044582 B2 JP 5044582B2 JP 2009025531 A JP2009025531 A JP 2009025531A JP 2009025531 A JP2009025531 A JP 2009025531A JP 5044582 B2 JP5044582 B2 JP 5044582B2
Authority
JP
Japan
Prior art keywords
camera
subject
photographing
video
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009025531A
Other languages
English (en)
Other versions
JP2010183384A (ja
Inventor
誠 奥田
誠喜 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009025531A priority Critical patent/JP5044582B2/ja
Publication of JP2010183384A publication Critical patent/JP2010183384A/ja
Application granted granted Critical
Publication of JP5044582B2 publication Critical patent/JP5044582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、放送番組、映画、遠隔講義等の映像を自動撮影する撮影カメラの機械学習を行う撮影カメラ学習装置及びそのプログラムに関する。
従来から、番組の制作支援の1つとして、撮影フロアを移動可能な撮影カメラ(ロボットカメラ)に、熟練のカメラマンが操作して撮影したような自然なカメラワークを機械学習させる技術が開示されている(特許文献1及び非特許文献1参照)。
例えば、特許文献1に記載のカメラワーク学習装置は、TVML(TV program Making Language)で記述した番組台本をカメラファインダに表示させ、このカメラファインダに表示された番組台本を、撮影カメラでカメラマンが撮影するときの操作技法を機械学習するものである。
また、例えば、非特許文献1に記載のカメラワーク分析手法は、カメラマンが実在する被写体を撮影カメラで撮影し、このカメラマンの撮影技法を機械学習するものである。
特開2001−128032号公報
カメラワーク分析と映像の主観評価実験、加藤他、映像情報メディア学会誌Vol.53、No.9、pp.1315〜1324
しかし、特許文献1に記載のカメラワーク学習装置では、これで機械学習した操作技法を用いて、臨場感のある番組の撮影が難しいという問題がある。具体的には、特許文献1に記載のカメラワーク学習装置では、被写体の位置や動きを考慮せずに、例えば、撮影開始から3秒後には撮影カメラのパン角を10°、5秒後にはパン角を15°といったように時間軸だけでカメラマンの撮影技法を機械学習する。このため、特許文献1に記載のカメラワーク学習装置では、前記した番組台本と放送番組との間で被写体の位置や動きとが時間軸で一致しない場合には、不適切な撮影ショットになることや被写体が映らないことが多くある。さらに、特許文献1に記載のカメラワーク学習装置では、実際の撮影スタジオではなく、TVMLで記述されたCG背景でカメラマンの撮影技法を機械学習しているので、CG背景と撮影スタジオとの間でカメラマンのカメラ操作が異なることがあり、放送番組の臨場感が失われてしまう。
また、非特許文献1に記載のカメラワーク分析手法では、実在する被写体を撮影するため、この被写体の動きに制限があり、及び、被写体の動きの繰り返し精度が低くなってしまう。例えば、非特許文献1に記載のカメラワーク分析手法では、歩行するモデルを実写被写体としてカメラマンの撮影技法を分析する場合、何回かモデルを撮影する必要がある。このとき、複数回にわたり、モデルの歩行速度を厳密に一致させること、又は、モデルに全く同じ動きを行わせることが困難なため、この繰り返し精度が低くなってしまう。このため、非特許文献1に記載のカメラワーク分析手法では、カメラマンの撮影技法の学習が十分に行えず、臨場感のある放送番組を、容易に撮影できないという問題がある。
そこで、本発明は、臨場感のある番組を容易に撮影可能な撮影カメラ学習装置及びそのプログラムを提供することを目的とする。
前記した課題を解決するため、請求項1に係る撮影カメラ学習装置は、予め設定された動きを行うCG被写体と、撮影カメラで撮影した実写背景とを含むCG合成映像を用いて、当該撮影カメラの学習を行う撮影カメラ学習装置であって、CG映像出力手段と、カメラパラメータ制御手段と、映像合成手段と、被写体情報出力手段と、機械学習手段と、を備えることを特徴とする。
かかる構成によれば、撮影カメラ学習装置は、CG映像出力手段によって、カメラパラメータを任意に変更できる仮想カメラでCG被写体を撮影したようなCG映像を出力する。また、撮影カメラ学習装置は、カメラパラメータ制御手段によって、撮影カメラのカメラパラメータが入力されると共に、仮想カメラのカメラパラメータの値を撮影カメラのカメラパラメータの値に変更する。これによって、撮影カメラ学習装置は、撮影カメラでCG被写体を撮影したようなCG映像をCG映像出力手段に出力させる。そして、撮影カメラ学習装置は、映像合成手段によって、撮影カメラが撮影する実写背景の映像と、CG映像出力手段が出力するCG映像とを合成したCG合成映像を出力する。
また、撮影カメラ学習装置は、被写体情報出力手段によって、CG映像出力手段が出力するCG映像におけるCG被写体の位置を示す位置情報を含む被写体情報を出力する。そして、撮影カメラ学習装置は、機械学習手段によって、CG被写体をカメラマンが撮影する操作に応じた撮影カメラのカメラパラメータと、被写体情報とが入力され、撮影カメラのカメラパラメータと被写体情報に基づいて、撮影カメラのカメラパラメータの予測値である予測カメラパラメータを機械学習する。これによって、撮影カメラ学習装置は、撮影フロア等の実写背景において、全く同じ動きを何回も可能とする繰り返し精度が高いCG被写体を用いて、CG被写体の位置や動き等の被写体情報に応じた予測カメラパラメータを機械学習できる。
カメラパラメータは、撮影カメラのパン角、チルト角、ズーム位置及びフォーカス位置の何れかを1以上含むものであり、これらの全てを含んでも良い。なお、カメラパラメータは、パン角、チルト角、ズーム位置及びフォーカス位置に限定されず、撮影カメラのロール(回転)角や3次元位置(3次元座標)等のその他パラメータを含んでも良い。
また、予測カメラパラメータは、撮影カメラのパン角、チルト角、ズーム位置及びフォーカス位置の何れかの予測値を1以上含むものであり、これらの全てを含んでも良い。なお、予測カメラパラメータは、パン角、チルト角、ズーム位置及びフォーカス位置に限定されず、撮影カメラのロール角や3次元位置等のその他パラメータを含んでも良い。
また、請求項2に係る撮影カメラ学習装置は、請求項1に記載の撮影カメラ学習装置において、被写体情報出力手段から被写体情報が入力されると共に、被写体情報が示すCG被写体の位置情報と機械学習手段が機械学習した予測カメラパラメータとで撮影カメラを制御する撮影カメラ制御手段をさらに備えることを特徴とする。これによって、撮影カメラ学習装置は、CG被写体が実在するかのように、機械学習した予測カメラパラメータで撮影カメラを制御させて、本番の放送番組の自動撮影が可能であるか否かの検証を事前に行うことができる。
また、請求項3に係る撮影カメラ学習装置は、請求項2に記載の撮影カメラ学習装置において、実在する実写被写体の位置を検出する被写体位置検出手段をさらに備え、被写体情報出力手段は、被写体情報として、被写体位置検出手段が検出した実写被写体の位置情報を出力し、撮影カメラ制御手段は、実写被写体の位置情報と機械学習手段が機械学習した予測カメラパラメータとで撮影カメラを制御して、撮影カメラに、実写被写体を撮影させることを特徴とする。これによって、撮影カメラ学習装置は、被写体情報として、実写被写体の位置情報を出力するので、機械学習した予測カメラパラメータで、実写被写体が含まれる本番の放送番組を自動撮影することができる。
また、請求項4に係る撮影カメラ学習装置は、請求項1から請求項3の何れか一項に記載の撮影カメラ学習装置において、映像合成手段が出力したCG合成映像を表示するCG合成映像表示手段をさらに備えることを特徴とする。これによって、撮影カメラ学習装置は、CG合成映像表示手段に表示されたCG被写体をカメラマンが撮影できる。
また、請求項5に係る撮影カメラ学習装置は、請求項1から請求項4の何れか一項に記載の撮影カメラ学習装置において、映像合成手段が出力したCG合成映像を録画するCG合成映像録画手段をさらに備えることを特徴とする。これによって、撮影カメラ学習装置は、録画したCG合成映像と撮影カメラが自動撮影した映像とを比較することができ、本番の放送番組の自動撮影が可能であるか否かの検証が行いやすくなる。
また、前記した課題を解決するため、請求項6に係る撮影カメラ学習プログラムは、予め設定された動きを行うCG被写体と、撮影カメラで撮影した実写背景とを含むCG合成映像を用いて、当該撮影カメラの機械学習を行うために、コンピュータを、CG映像出力手段、カメラパラメータ制御手段、映像合成手段、被写体情報出力手段、機械学習手段、として機能させることを特徴とする。
かかる構成によれば、撮影カメラ学習プログラムは、CG映像出力手段によって、カメラパラメータを任意に変更できる仮想カメラでCG被写体を撮影したようなCG映像を出力する。また、撮影カメラ学習プログラムは、カメラパラメータ制御手段によって、撮影カメラのカメラパラメータが入力されると共に、仮想カメラのカメラパラメータの値を撮影カメラのカメラパラメータの値に変更する。これによって、撮影カメラ学習プログラムは、撮影カメラでCG被写体を撮影したようなCG映像をCG映像出力手段に出力させる。そして、撮影カメラ学習プログラムは、映像合成手段によって、撮影カメラが撮影する実写背景の映像と、CG映像出力手段が出力するCG映像とを合成したCG合成映像を出力する。
また、撮影カメラ学習プログラムは、被写体情報出力手段によって、CG映像出力手段が出力するCG映像におけるCG被写体の位置を示す位置情報を含む被写体情報を出力する。そして、撮影カメラ学習プログラムは、機械学習手段によって、CG被写体をカメラマンが撮影する操作に応じた撮影カメラのカメラパラメータと、被写体情報とが入力され、撮影カメラのカメラパラメータと被写体情報に基づいて、撮影カメラのカメラパラメータの予測値である予測カメラパラメータを機械学習する。これによって、撮影カメラ学習プログラムは、撮影フロア等の実写背景において、全く同じ動きを何回も可能とする繰り返し精度が高いCG被写体を用いて、CG被写体の位置や動き等の被写体情報に応じた予測カメラパラメータを機械学習できる。
本発明によれば、以下のような優れた効果を奏する。
請求項1,6に係る発明によれば、実写背景において、繰り返し精度が高いCG被写体を用いて、CG被写体の位置や動き等の被写体情報に応じた予測カメラパラメータを機械学習できるため、臨場感のある番組を容易に撮影できる。
請求項2に係る発明によれば、本番の放送番組の自動撮影が可能であるか否かの検証を事前にできるため、本番の放送番組を自動撮影するときの撮影ミスを低減することができる。
請求項3に係る発明によれば、機械学習した予測カメラパラメータで実写被写体が含まれる本番の放送番組を自動撮影することができる。
請求項4に係る発明によれば、CG合成映像表示手段に表示されたCG被写体をカメラマンが撮影するため、カメラマンによる撮影カメラの学習効率が向上する。
請求項5に係る発明によれば、本番の放送番組の自動撮影が可能であるか否かの検証が行いやすくなる。
本発明の第1実施形態に係る撮影カメラ学習装置の構成を示すブロック図である。 図1の撮影カメラ操作器の概略図である。 (a)は図1のTVMLプレーヤが出力するCG映像を示す図であり、(b)は図1の撮影カメラが実写背景を撮影した映像を示す図であり、(c)は図1の映像合成手段が合成したCG合成映像を示す図である。 図1の機械学習手段による機械学習を説明する図である。 図1の撮影カメラ学習装置の動作を示すフローチャートである。 本発明の第2実施形態に係る撮影カメラ学習装置の構成を示すブロック図である。 図6の変形例を示すブロック図である。
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段及び同一の部材には同一の符号を付し、説明を省略した。
(第1実施形態)
[撮影カメラ学習システムの概略]
図1及び図2を参照して、本発明の第1実施形態に係る撮影カメラ学習装置を含む撮影カメラ学習システムの概略について説明する。図1に示すように、撮影カメラ学習システム100は、カメラマン(不図示)の撮影によって撮影カメラ2の機械学習を行うものであり、撮影カメラ学習装置1と、撮影カメラ2と、撮影カメラ操作器3とを備える。
撮影カメラ学習装置1は、予め設定された動きを行うCG被写体ob1と、撮影カメラ2で撮影した実写背景bgとを含むCG合成映像を用いて、撮影カメラ2の機械学習を行うものである。ここで、例えば、撮影カメラ学習装置1は、TVMLプレーヤの機能を利用して、CG合成映像を出力している。なお、撮影カメラ学習装置1の構成については後記する。
撮影カメラ2は、カメラマンの操作に応じて撮影カメラ操作器3から出力される制御信号に基づいて、図3(b)に示すような実写背景bgの撮影を行うロボットカメラである。ここで、例えば、撮影カメラ2は、撮影カメラ本体と、この撮影カメラ本体のカメラパラメータを制御可能な雲台と、撮影カメラ本体及び雲台を搭載し、移動機構となるペデスタルとを備える。このとき、撮影カメラ2は、無線LAN等の無線通信又は有線通信によって、撮影カメラ学習装置1及び撮影カメラ操作器3との間で各種の信号を入出力が可能である。
撮影カメラ本体は、例えば、小型のハイビジョンカメラである。
雲台は、例えば、撮影カメラ操作器3からの制御信号に応じて、撮影カメラ2のパン角及びチルト角を制御するACサーボモータと、これらパン角及びチルト角の測定値を出力するロータリエンコーダとを備える。さらに、雲台は、例えば、ズーム位置と垂直画角とを対応づけるズーム位置変換テーブルと、撮影カメラ2と被写体との距離からフォーカス位置を算出するフォーカス位置変換テーブルとを予め記憶する。そして、雲台は、撮影カメラ操作器3からの制御信号に応じてズーム位置及びフォーカス位置を制御でき、これらズーム位置及びフォーカス位置の測定を可能としている。そして、撮影カメラ2は、雲台が測定したパン角、チルト角、ズーム位置及びフォーカス位置をカメラパラメータとして撮影カメラ学習装置1に出力する。
ペデスタルは、例えば、撮影カメラ本体及び雲台を搭載し、撮影スタジオ等を移動可能な4輪方式の移動機構である。
なお、撮影カメラ2の詳細は、例えば、文献「スタジオ番組用移動ロボットカメラの開発、津田他、映像情報メディア学会誌、Vol.62、No.1、pp.84−91」に記載されている。
撮影カメラ操作器3は、カメラマンの操作に応じた制御信号を撮影カメラ2に出力するものである。ここで、撮影カメラ操作器3は、例えば、操作レバー3aを備え、この操作レバー3aを上下左右に動かす操作に応じて、撮影カメラ2のパン角及びチルト角を制御する制御信号を出力する。また、撮影カメラ操作器3は、操作レバー3aのグリップをひねる動作に応じて、撮影カメラ2のズーム位置及びフォーカス位置を制御する制御信号を出力する。
また、図2に示すように、撮影カメラ操作器3は、カメラファインダ(CG合成映像表示手段)19が装着される。このカメラファインダ19は、撮影カメラ2で撮影した実写背景bgと後記するCG被写体ob1とのCG合成映像が撮影カメラ学習装置1から入力され、このCG合成映像を表示する。そして、カメラマンは、このカメラファインダ19を目視し、カメラファインダ19に表示されたCG被写体を撮影するように、撮影カメラ操作器3を操作する。これによって、撮影カメラ学習装置1は、実在しないCG被写体を撮影するときのカメラマンの操作を機械学習することができる。
なお、CG合成映像表示手段をカメラファインダ19として備える例を説明したが、これに限定されない。例えば、CG合成映像表示手段は、一般的なディスプレイ(不図示)にCG合成映像が表示されるものとしても良い。
[撮影カメラ学習装置の構成]
以下、図1に戻り、撮影カメラ学習装置1の構成について説明する。
図1に示すように、撮影カメラ学習装置1は、TVMLスクリプト記述手段11と、TVMLスクリプト出力手段12と、TVMLプレーヤ(CG映像出力手段)13と、カメラパラメータ制御手段14と、映像合成手段15と、被写体情報出力手段16と、機械学習手段17と、CG合成映像録画手段18とを備える。
TVMLスクリプト記述手段11は、図示を省略したキーボード、マウス等の入力手段を介して、撮影カメラ学習装置1のオペレータ等が、TVMLスクリプトを記述するエディタである。そして、TVMLスクリプト記述手段11は、記述されたTVMLスクリプトをTVMLスクリプト出力手段12に出力する。
このTVMLスクリプトは、例えば、CG映像を任意の視点で撮影する仮想カメラのカメラパラメータ、及び、CG映像に含まれるCG被写体ob1の動き及び発話を記述できる。例えば、TVMLスクリプトにおいて、仮想カメラのカメラパラメータやCG被写体ob1の動きは、以下のように記述できる
<TVMLスクリプトの第1例:仮想カメラのカメラパラメータ>
camera:movement(name=ACam,x=0.0,y=0.782,z=2.0,pan=0.0)
この第1例は、ACamという仮想カメラについて、3次元座標を(0.0,0.782,2.0)、及び、パン角を0°に設定することを示す。
<TVMLスクリプトの第2例:CG被写体の動き>
character:walk(name=CharacterA,x=0.3,pitch=1.5)
この第2例は、CharacterAというCG被写体について、x座標0.3まで速度1.5で移動させることを示す。
前記した第2例のように、撮影カメラ学習システム100では、このTVMLスクリプトに、CG被写体ob1をある位置から別の位置まで移動させるといったCG被写体ob1の動きを記述する。さらに、撮影カメラ学習システム100では、TVMLスクリプトに、後記する映像合成手段15がクロマキー処理を行うため、CG映像の背景を一色(例えば、青色)に記述することが好ましい。
TVMLスクリプト出力手段12は、TVMLスクリプト記述手段11からのTVMLスクリプトを、TVMLプレーヤに出力するものである。
TVMLプレーヤ13は、TVMLスクリプト記述手段11からのTVMLスクリプトに従って、CGスタジオにおいて、仮想カメラでCG被写体ob1を撮影したようなCG映像(CG番組)を出力するものである。なお、TVMLプレーや13の詳細は、例えば、文献「TVMLによるコンテンツ制作、道家他、映像情報メディア学会誌、Vol.61、No.11、pp.1593−1598」に記載されている。
カメラパラメータ制御手段14は、撮影カメラ2のカメラパラメータが入力されると共に、TVMLプレーヤ13における仮想カメラのカメラパラメータの値を撮影カメラ2のカメラパラメータの値に変更するものである。これによって、カメラパラメータ制御手段14は、撮影カメラ2でCG被写体ob1を撮影したようなCG映像をCG映像出力手段13に出力させる。ここで、カメラパラメータ制御手段14は、TVMLプレーヤ13を外部から制御できる外部制御ライブラリであるTvIFを用いて、TVMLプレーヤ13における仮想カメラのカメラパラメータを撮影カメラ2のカメラパラメータに一致させる。そして、カメラパラメータ制御手段14は、例えば、図3に示すような人間をCG描写したCG被写体ob1を含むCG映像を、映像合成手段15及び被写体情報出力手段16に対して、TVMLプレーヤ13に出力させている。なお、カメラパラメータ制御手段14の詳細は、例えば、文献「TVMLプレーヤー外部制御の高機能化、2008年映像情報メディア学会年次大会、17−4」に記載されている。
映像合成手段15は、撮影カメラ2が撮影する実写背景bgの映像と、TVMLプレーヤ13が出力するCG映像とを合成したCG合成映像を出力するものである。ここで、映像合成手段15は、実写背景bgの映像が撮影カメラ2から入力される。そして、映像合成手段15は、例えば、図3(b)に示すような実写背景bgの映像と、図3(a)に示すようなCG映像とをクロマキー処理でCG合成し、図3(c)に示すようなCG合成映像をCG合成映像録画手段18及び撮影カメラ操作器3のカメラファインダ(CG合成映像表示手段)19に出力する。なお、映像合成手段15は、実写背景bgの一部又は全部をCGで描写することも考えられる。
被写体情報出力手段16は、TVMLプレーヤ13が出力するCG映像において、CG被写体ob1の位置を示す位置情報を含む被写体情報を機械学習手段17に出力するものである。ここで、被写体情報出力手段16は、一定時間(例えば、17ミリ秒)毎にCG被写体ob1の位置を示す3次元座標を、API(Application Programming Interface)関数を用いて取得する。例えば、被写体情報出力手段16は、CG被写体ob1が座標(0.0,0.0,0.0)から座標(5.0,0.0,0.0)まで移動する場合、座標(0.1,0.0,0.0),座標(0.3,0.0,0.0),座標(0.6,0.0,0.0),・・・,座標(5.0,0.0,0.0)といった位置情報を17ミリ秒毎に取得する。
機械学習手段17は、撮影カメラ操作器3のカメラファインダ19に表示されたCG被写体をカメラマンが撮影する操作に応じた撮影カメラ2のカメラパラメータと、被写体情報出力手段16からの被写体情報とが入力されるものである。そして、機械学習手段17は、撮影カメラ2のカメラパラメータと被写体情報に基づいて、撮影カメラ2のカメラパラメータの予測値である予測カメラパラメータを機械学習する。このとき、機械学習手段17は、撮影カメラ2を介して、撮影カメラ操作器3からの制御信号を入力しても良い。なお、機械学習手段17による機械学習の詳細は、後記する。
CG合成映像録画手段18は、映像合成手段15が出力したCG合成映像を録画するものである。ここで、CG合成映像録画手段18は、ハードディスク等の記憶手段にCG合成映像を録画し、図2のカメラファインダ19やディスプレイ(不図示)にこの録画したCG合成映像を出力しても良い。これによって、撮影カメラ学習装置1は、CG合成映像録画手段18に録画されたCG合成映像を参照することで、機械学習手段17による学習結果を用いて番組の自動撮影が可能であるか否かの検証が行いやすくなる。
<機械学習手段による機械学習>
以下、図4を参照し、図1の機械学習手段による機械学習について説明する(適宜図1〜図3参照)。なお、図4では、白丸が各層のユニットを示す。ここで、機械学習手段17は、図4に示すように、ニューラルネットワークによって、予測カメラパラメータを機械学習する。具体的には、機械学習手段17は、入力層の各ユニットに、ある時刻tから一定時間過去uまでの時刻t−uについて、CG被写体ob1の位置情報s(t)・・・s(t−u)をそれぞれ入力する。そして、機械学習手段17は、入力層の各ユニットが、CG被写体ob1の位置情報を中間層及び出力層の各ユニットに出力する
また、機械学習手段17は、中間層の各ユニットが、入力層の各ユニットからの入力値(位置情報)のそれぞれに重み付けを行ってこれらの総和を算出し、この総和をシグモイド関数に入力して出力値を算出する。そして、機械学習手段17は、中間層と同様に、出力層の各ユニットが、入力層又は中間層の各ユニットからの入力値に重み付けを行って総和を算出し、この総和をシグモイド関数に入力して出力値(予測カメラパラメータ)を算出する。つまり、機械学習手段17は、入力された位置情報に対して最適な予測カメラパラメータの値をニューラルネットワークで機械学習している。
このとき、機械学習手段17は、撮影カメラ2から入力された制御信号を教師信号として、Cascade−Correlation法(CC法)により機械学習を行うことが好ましい。この場合、機械学習手段17は、出力層の各ユニットの出力値(予測カメラパラメータ)と教師信号(制御信号)との誤差を算出する。そして、機械学習手段17は、この誤差が一定値以下になるように、出力層から入力層に向けてユニット間の重み付けを修正する。つまり、教師信号として制御信号を用いると、機械学習手段17は、予測カメラパラメータの値を、撮影カメラ2を実際の制御信号の値に近づけることができる。これによって、撮影カメラ学習装置1は、学習回数を抑えつつ、臨場感のある番組を撮影可能な予測カメラパラメータを機械学習できる。なお、機械学習手段17による機械学習の詳細は、例えば、文献「ロボットカメラ機械学習システムの試作、2008年電子情報通信学会総合大会、奥田他、D−8−32,p.140、Mar.2008」に記載されている。
なお、機械学習手段17は、予測カメラパラメータのうち、例えば、パン角の予測値のみを機械学習しても良く、パン角、チルト角、ズーム位置及びフォーカス位置の全ての予測値を機械学習しても良い。さらに、機械学習手段17は、予測カメラパラメータとして、撮影カメラ2のロール角や3次元位置等のその他パラメータの予測値を機械学習しても良い。
なお、機械学習手段17は、CC法を用いて機械学習を行ったが、これに限定されない。ここで、機械学習手段17は、CC法以外の階層型ニューラルネットワーク、又は、相互結合型ニューラルネットワークによって予測カメラパラメータの機械学習を行っても良い。さらに、機械学習手段17は、頻出パターン抽出、クラス分類、回帰分析、クラスタリング等によって予測カメラパラメータの機械学習を行っても良い。
[撮影カメラ学習装置の動作]
以下、図5を参照し、図1の撮影カメラ学習装置の動作について説明する(適宜図1参照)。なお、図5では、記述されたTVMLスクリプトがTVMLプレーヤ13に出力されたこととして説明する。
撮影カメラ学習装置1は、TVMLプレーヤ13によって、初期設定を行う。例えば、TVMLプレーヤ13は、CG映像の背景を青一色とし、CG被写体ob1を座標(0.0,0.0,0.0)に描写し、CGスタジオの照明をTVMLで記述された初期値に設定する(ステップS1)。また、撮影カメラ学習装置1は、TVMLプレーヤ13によって、初期設定したCG映像を出力する(ステップS2)。
ステップS2の処理に続いて、撮影カメラ学習装置1は、撮影を開始するか否かを判定する(ステップS3)。ここで、キーボード等の入力手段により撮影開始の指示が入力された場合(ステップS3でYes)、撮影カメラ学習装置1は、ステップS4の処理を行う。このとき、撮影カメラ学習装置1は、撮影開始の指示が入力された後に一定時間(例えば、5秒)待ってから、ステップS4の処理を行っても良い。一方、学習開始の指示が入力されない場合(ステップS3でNo)、撮影カメラ学習装置1は、ステップS2の処理に戻る。
ステップS3の処理に続いて、撮影カメラ学習装置1は、カメラパラメータ制御手段14によって、TVMLプレーヤ13における仮想カメラのカメラパラメータの値を撮影カメラ2のカメラパラメータの値に変更する(ステップS4)。
ステップS4の処理に続いて、撮影カメラ学習装置1は、映像合成手段15によって、撮影カメラ2が撮影する実写背景bgの映像と、TVMLプレーヤ13が出力するCG映像とを合成したCG合成映像を出力する(ステップS5)。つまり、ステップS4及びステップS5の処理で、撮影カメラ学習装置1は、TVMLプレーヤ13が、予め設定された動きを行うCG被写体ob1と実写背景bgとを含み、かつ、撮影カメラ2で撮影したようなCG合成映像を出力する。
また、撮影カメラ学習装置1は、被写体情報出力手段16によって、TVMLプレーヤ13が出力するCG映像において、CG被写体ob1の位置を示す位置情報を含む被写体情報を出力する(ステップS6)。そして、撮影カメラ学習装置1は、撮影カメラ2のカメラパラメータが機械学習手段17に出力される(ステップS7)。
ステップS7の処理に続いて、撮影カメラ学習装置1は、撮影を終了するか否かを判定する(ステップS8)。ここで、予め設定された撮影終了条件を満たすとき(ステップS8でYes)、撮影カメラ学習装置1は、撮影を終了し、ステップS10の処理に進む。一方、撮影終了条件を満たさないとき(ステップS8でNo)、撮影カメラ学習装置1は、ステップS4の処理に戻る。
ステップS8の処理に続いて、撮影カメラ学習装置1は、機械学習手段17によって、撮影カメラ2のカメラパラメータの予測値である予測カメラパラメータを機械学習する(ステップS9)。
以上のように、本発明の第1実施形態に係る撮影カメラ学習装置1は、予め設定された動きを何度も繰り返し可能なCG被写体ob1と、本番の放送番組さながらの実写背景bgとを合成したCG合成映像を用いる。これによって、撮影カメラ学習装置1は、繰り返し精度を高くすると共に、カメラマンが本番の放送番組と同様の撮影操作を可能とし、CG被写体ob1の位置や動き等の被写体情報に応じた予測カメラパラメータを機械学習できる。さらに、撮影カメラ学習装置1は、この学習結果を用いれば、臨場感のある番組を容易に撮影できる。さらに、実在するモデル等の実写被写体を必要とせずに、ニューラルネットワークによる機械学習を十分に行うことができるため、撮影カメラ学習装置1は、学習回数が多くなる場合であっても安値な学習を可能とし、コスト面で優れる。
なお、第1実施形態では、撮影スタジオにおけるロボットカメラを例に説明したが、これに限定されない。例えば、本発明の第1実施形態に係る撮影カメラ学習装置1は、スポーツ中継等の放送番組を自動撮影する撮影カメラ、又は、映画や遠隔地での講義を自動撮影する撮影カメラに用いることができる。
なお、第1実施形態では、本発明に係る撮影カメラ学習装置1を独立した装置として説明したが、本発明では、一般的なコンピュータのCPU、記憶手段等のハードウェア資源を、前記した各手段として協調機能させるプログラムによって動作させることもできる。このプログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布しても良い。
なお、第1実施形態では、TVMLを用いる例を説明したが、本発明は、これに限定されない。例えば、TVMLの他に、仮想カメラのカメラパラメータを制御でき、かつ、CG被写体ob1の被写体情報を取得できるソフトウェアを用いることができる。このようなソフトウェアとしては、Brainstorm Multimedia社製の「Brainstorm eStudio」やvizrt社製の「viz ON AIR Graphics」がある。
なお、第1実施形態では、被写体情報として、CG被写体ob1の位置情報を用いたが、これに限定されない。例えば、被写体情報は、CG被写体ob1の顔の向き等のカメラマンが撮影に必要となる情報であれば良い。
(第2実施形態)
[撮影カメラ学習装置の構成]
図6を参照して、本発明の第2実施形態に係る撮影カメラ学習装置について、第1実施形態と異なる点を主に説明する。図6に示すように、撮影カメラ学習装置1Bは、TVMLスクリプト記述手段11と、TVMLスクリプト出力手段12と、TVMLプレーヤ(CG映像出力手段)13と、カメラパラメータ制御手段14と、映像合成手段15と、被写体情報出力手段16Bと、機械学習手段17Bと、CG合成映像録画手段18と、撮影カメラ制御手段19とを備える。
撮影カメラ学習装置1Bは、カメラマンの操作によって予測カメラパラメータを学習した後、学習した予測カメラパラメータで撮影カメラ2を自動制御し、本番の放送番組の自動撮影が可能であるか否かの検証を事前に行うものである。
被写体情報出力手段16Bは、TVMLプレーヤ13が出力するCG映像において、CG被写体ob1の位置を示す位置情報を含む被写体情報を機械学習手段17B及び撮影カメラ制御手段19に出力するものである。なお、被写体情報出力手段16Bは、図1の被写体情報出力手段16と同様に被写体情報を取得できるため、その詳細を省略する。
機械学習手段17Bは、図1の機械学習手段17と同様に学習を行うと共に、学習した撮影カメラ2の予測カメラパラメータを、撮影カメラ制御手段19に出力するものである。
撮影カメラ制御手段19は、写体情報出力手段16Bから被写体情報が入力されると共に、被写体情報が示すCG被写体ob1の位置情報と機械学習手段17Bが学習した予測カメラパラメータとで撮影カメラ2を制御する。ここで、前記したように、機械学習手段17Bが、CG被写体ob1の位置情報に対して最適な予測カメラパラメータの値をニューラルネットワークで機械学習している。このため、撮影カメラ制御手段19は、機械学習手段17Bが機械学習したニューラルネットワークにCG被写体ob1の位置情報を入力することで、CG被写体ob1の位置情報に応じた最適な予測カメラパラメータが出力される。そこで、撮影カメラ制御手段19は、この予測カメラパラメータで、CG被写体ob1が実在するかのように撮影カメラ2を制御することができる。
なお、TVMLスクリプト記述手段11と、TVMLスクリプト出力手段12と、TVMLプレーヤ(CG映像出力手段)13と、カメラパラメータ制御手段14と、映像合成手段15と、CG合成映像録画手段18とは、図1の各手段と同様のものであるため、その説明を省略する。
以上のように、本発明の第2実施形態に係る撮影カメラ学習装置1Bは、機械学習手段17Bが学習した予測カメラパラメータで、本番の放送番組の自動撮影が可能であるか否かの検証を事前にできる。これによって、撮影カメラ学習装置1Bは、本番の放送番組を自動撮影するとき、撮影カメラ2の撮影ミスを低減することができる。
また、例えば、撮影カメラ学習装置1Bは、番組毎にCG被写体ob1の動きをTVMLスクリプトで記述し、番組毎に異なる撮影セット(撮影スタジオ)を実写背景bgとして、番組毎に撮影カメラ2の予測カメラパラメータを学習させておく。これによって、撮影カメラ学習装置1Bは、様々な放送番組に応じたモデルやアナウンサ等の実写被写体を準備することなく、各放送番組の自動撮影が可能であるか否かの検証を容易できる。
<変形例>
さらに、本発明の撮影カメラ学習装置は、撮影カメラ2の予測カメラパラメータを学習した後、この予測カメラパラメータを用いて、アナウンサ等の実在する被写体、つまり、実際に放送する番組を撮影することもできる。以下、第2実施形態の変形例として、実在する被写体を撮影する撮影カメラ学習装置1Cについて説明する。
図7に示すように、撮影カメラ学習装置1Cは、TVMLスクリプト記述手段11と、TVMLスクリプト出力手段12と、TVMLプレーヤ(CG映像出力手段)13と、カメラパラメータ制御手段14と、映像合成手段15と、被写体情報出力手段16Cと、機械学習手段17Cと、CG合成映像録画手段18と、撮影カメラ制御手段19Cと、センサカメラ(被写体位置検出手段)20とを備える。
センサカメラ20は、被写体を撮影し、実写被写体ob2の位置を算出するのに必要となる映像信号を生成するものである。ここで、センサカメラ20は、内蔵する演算手段にて、生成した映像信号フレーム画像ごとに実写被写体ob2を検出し、撮影スタジオ内における実写被写体ob2の位置を算出する。そして、センサカメラ20は、実写被写体ob2の位置を被写体情報出力手段16Cに出力する。なお、センサカメラ20は、被写体が撮影できる位置に設置されていればよく、例えば、実写被写体ob2の上方や背後に設置されることとしてもよい。また、センサカメラ20の個数はこれに限定されることなく、任意の個数にすることができる。
なお、センサカメラ20を被写体位置検出手段として説明したが、これに限定されない。例えば、被写体位置検出手段は、実写被写体ob2に装着され、実写被写体ob2のGPS座標等の位置情報を被写体情報出力手段16Cに出力する位置センサ(GPSセンサ)としても良い(不図示)。
被写体情報出力手段16Cは、被写体情報として、前記したCG被写体ob1の位置情報の代わりに、センサカメラ20からの実写被写体ob2の位置情報を出力するものである。
機械学習手段17Cは、図6の機械学習手段17Bと同様のものである。
撮影カメラ制御手段19Cは、機械学習手段17Cが学習した予測カメラパラメータで撮影カメラ2を制御して、撮影カメラ2に実写被写体ob2を撮影させるものである。ここで、前記したように、機械学習手段17Bが、CG被写体ob1の位置情報に対して最適な予測カメラパラメータの値をニューラルネットワークで機械学習している。このため、撮影カメラ制御手段19は、機械学習手段17Cが機械学習したニューラルネットワークに実写被写体ob2の位置情報を入力することで、実写被写体ob2の位置情報に応じた最適な予測カメラパラメータが出力される。そこで、撮影カメラ制御手段19は、この予測カメラパラメータで、撮影カメラ2が実写被写体ob2を撮影するように制御することができる。
以上のように、本発明の第2実施形態の変形例に係る撮影カメラ学習装置1Cは、機械学習手段17Cが学習した予測カメラパラメータで、臨場感のある放送番組を自動撮影することができる。これによって、撮影カメラ学習装置1Cは、放送番組の制作にかかる手間を削減できるので、安値で良質な放送番組を提供することができる。
なお、撮影カメラ学習装置1Cは、撮影カメラ2の予測カメラパラメータを学習した後、本番の放送番組を撮影するときは、TVMLスクリプト記述手段11と、TVMLスクリプト出力手段12と、TVMLプレーヤ(CG映像出力手段)13と、映像合成手段15と、CG合成映像録画手段18とを必要としない。
1,1B,1C 撮影カメラ学習装置
11 TVMLスクリプト記述手段
12 TVMLスクリプト出力手段
13 TVMLプレーヤ(CG映像出力手段)
14 カメラパラメータ制御手段
15 映像合成手段
16,16B,16C 被写体情報出力手段
17,17B,17C 機械学習手段
18 CG合成映像録画手段
19 撮影カメラ制御手段
20 センサカメラ(被写体位置検出手段)
2 撮影カメラ
3 撮影カメラ操作器
bg 実写背景
ob1 CG被写体
ob2 実写被写体

Claims (6)

  1. 予め設定された動きを行うCG被写体と、撮影カメラで撮影した実写背景とを含むCG合成映像を用いて、当該撮影カメラの学習を行う撮影カメラ学習装置であって、
    カメラパラメータを任意に変更できる仮想カメラで前記CG被写体を撮影したCG映像を出力するCG映像出力手段と、
    前記撮影カメラのカメラパラメータが入力されると共に、前記仮想カメラのカメラパラメータの値を前記撮影カメラのカメラパラメータの値に変更するカメラパラメータ制御手段と、
    前記撮影カメラが撮影する実写背景の映像と、前記CG映像出力手段が出力するCG映像とを合成した前記CG合成映像を出力する映像合成手段と、
    前記CG映像出力手段が出力する前記CG映像における前記CG被写体の位置を示す位置情報を含む被写体情報を出力する被写体情報出力手段と、
    前記CG被写体をカメラマンが撮影する操作に応じた前記撮影カメラのカメラパラメータと、前記被写体情報とが入力され、当該撮影カメラのカメラパラメータと当該被写体情報に基づいて、前記撮影カメラのカメラパラメータの予測値である予測カメラパラメータを機械学習する機械学習手段と、
    を備えることを特徴とする撮影カメラ学習装置。
  2. 前記被写体情報出力手段から被写体情報が入力されると共に、当該被写体情報が示す前記CG被写体の位置情報と前記機械学習手段が機械学習した予測カメラパラメータとで前記撮影カメラを制御する撮影カメラ制御手段をさらに備えることを特徴とする請求項1に記載の撮影カメラ学習装置。
  3. 実在する実写被写体の位置を検出する被写体位置検出手段をさらに備え、
    前記被写体情報出力手段は、前記被写体情報として、前記被写体位置検出手段が検出した実写被写体の位置情報を出力し、
    前記撮影カメラ制御手段は、前記実写被写体の位置情報と前記機械学習手段が機械学習した予測カメラパラメータとで前記撮影カメラを制御して、当該撮影カメラに、前記実写被写体を撮影させることを特徴とする請求項2に記載の撮影カメラ学習装置。
  4. 前記映像合成手段が出力したCG合成映像を表示するCG合成映像表示手段をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の撮影カメラ学習装置。
  5. 前記映像合成手段が出力したCG合成映像を録画するCG合成映像録画手段(18)をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載の撮影カメラ学習装置。
  6. 予め設定された動きを行うCG被写体と、撮影カメラで撮影した実写背景とを含むCG合成映像を用いて、当該撮影カメラの学習を行うために、コンピュータを、
    カメラパラメータを任意に変更できる仮想カメラで前記CG被写体を撮影したCG映像を出力するCG映像出力手段、
    前記撮影カメラのカメラパラメータが入力されると共に、前記仮想カメラのカメラパラメータの値を前記撮影カメラのカメラパラメータの値に変更するカメラパラメータ制御手段、
    前記撮影カメラが撮影する実写背景の映像と、前記CG映像出力手段が出力するCG映像とを合成した前記CG合成映像を出力する映像合成手段、
    前記CG映像出力手段が出力する前記CG映像における前記CG被写体の位置を示す位置情報を含む被写体情報を出力する被写体情報出力手段、
    前記CG被写体をカメラマンが撮影する操作に応じた前記撮影カメラのカメラパラメータと、前記被写体情報とが入力され、当該撮影カメラのカメラパラメータと当該被写体情報に基づいて、前記撮影カメラのカメラパラメータの予測値である予測カメラパラメータを機械学習する機械学習手段、
    として機能させることを特徴とする撮影カメラ学習プログラム。
JP2009025531A 2009-02-06 2009-02-06 撮影カメラ学習装置及びそのプログラム Active JP5044582B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009025531A JP5044582B2 (ja) 2009-02-06 2009-02-06 撮影カメラ学習装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009025531A JP5044582B2 (ja) 2009-02-06 2009-02-06 撮影カメラ学習装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2010183384A JP2010183384A (ja) 2010-08-19
JP5044582B2 true JP5044582B2 (ja) 2012-10-10

Family

ID=42764555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009025531A Active JP5044582B2 (ja) 2009-02-06 2009-02-06 撮影カメラ学習装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP5044582B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3139239B1 (en) 2014-04-30 2019-01-16 SZ DJI Osmo Technology Co., Ltd. Control apparatus, cradle head using same, and cradle head control method
JP6912890B2 (ja) * 2017-01-13 2021-08-04 キヤノン株式会社 情報処理装置、情報処理方法、システム
JP6546618B2 (ja) * 2017-05-31 2019-07-17 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP6822929B2 (ja) 2017-09-19 2021-01-27 株式会社東芝 情報処理装置、画像認識方法および画像認識プログラム
US11436470B2 (en) * 2019-09-13 2022-09-06 Kyndryl, Inc. Generating simulated image training data
WO2023238646A1 (ja) * 2022-06-07 2023-12-14 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム

Also Published As

Publication number Publication date
JP2010183384A (ja) 2010-08-19

Similar Documents

Publication Publication Date Title
KR101566543B1 (ko) 공간 정보 증강을 이용하는 상호 인터랙션을 위한 방법 및 시스템
EP2583449B1 (en) Mobile and server-side computational photography
US20140378222A1 (en) Mobile virtual cinematography system
JP4760892B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP5044582B2 (ja) 撮影カメラ学習装置及びそのプログラム
JP4115117B2 (ja) 情報処理装置および方法
US20130215229A1 (en) Real-time compositing of live recording-based and computer graphics-based media streams
JP2019160318A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2011064918A1 (ja) 画像データ作成支援装置および画像データ作成支援方法
US11232626B2 (en) System, method and apparatus for media pre-visualization
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2015506030A (ja) ビデオムービーを撮影するためのシステム
JP2019045991A (ja) 生成装置、生成方法、及びプログラム
JP2021532649A (ja) 画像の合成のための方法及びデータ処理システム
US20230360333A1 (en) Systems and methods for augmented reality video generation
CN103139479A (zh) 一种结束全景预览扫描方法及装置
WO2002033660A1 (fr) Dispositif de production d'informations video
JP2022102923A (ja) バーチャルスタジオシステム
JPH10320590A (ja) 合成映像作成装置及び合成映像作成方法
KR102474451B1 (ko) 버추얼 프로덕션의 데이터 기록 방법, 장치, 시스템 및 프로그램
JP4781981B2 (ja) 動画像生成方法及びシステム
KR102561903B1 (ko) 클라우드 서버를 이용한 ai 기반의 xr 콘텐츠 서비스 방법
WO2018195892A1 (zh) 三维立体水印添加方法、装置及终端
JP4899733B2 (ja) 画像生成方法及び画像生成システム
AU2018203096B2 (en) System, method and apparatus for rapid film pre-visualization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120713

R150 Certificate of patent or registration of utility model

Ref document number: 5044582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250