JP2020147105A - カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム - Google Patents

カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム Download PDF

Info

Publication number
JP2020147105A
JP2020147105A JP2019044853A JP2019044853A JP2020147105A JP 2020147105 A JP2020147105 A JP 2020147105A JP 2019044853 A JP2019044853 A JP 2019044853A JP 2019044853 A JP2019044853 A JP 2019044853A JP 2020147105 A JP2020147105 A JP 2020147105A
Authority
JP
Japan
Prior art keywords
camera
robot
slave
master
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019044853A
Other languages
English (en)
Inventor
健佑 池谷
Takesuke Iketani
健佑 池谷
健介 久富
Kensuke Hisatomi
健介 久富
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019044853A priority Critical patent/JP2020147105A/ja
Publication of JP2020147105A publication Critical patent/JP2020147105A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】適切な輻輳角でロボットカメラを全天周状に配置できるカメラ制御装置を提供する。【解決手段】カメラ制御装置10は、マスタードローンCmの注視点を算出する注視点算出部11と、注視点が中心、かつ、デプスが半径となる仮想球体を生成する仮想球体生成部12と、スレーブドローンCnの位置が仮想球体の球面上で予め設定される位置設定部13と、スレーブドローンCnの位置で注視点を向いた方向をスレーブドローンCnの姿勢として算出する姿勢算出部14と、を備える。【選択図】図4

Description

本発明は、多視点映像を撮影するためのカメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステムに関する。
従来技術として、動く被写体をパンフォローした多視点映像を撮影する多視点ロボットカメラシステムが知られている(非特許文献1,2)。多視点ロボットカメラシステムは、複数台のロボットカメラを協調制御するシステムであり、1人のカメラマンの操作によって各ロボットカメラを空間中の被写体へ一斉に方向制御し、被写体の多視点映像を撮影する。例えば、多視点映像を用いて、被写体の3次元モデルを生成することができる。
この多視点ロボットカメラシステムでは、複数台のロボットカメラのうち、カメラマンが操作する1台のロボットカメラをマスターカメラとして設定し、マスターカメラ以外のロボットカメラをスレーブカメラとする。多視点ロボットカメラシステムでは、マスターカメラの光軸上に注視点を設定し、スレーブカメラが注視点を向くようにスレーブカメラを方向制御する。従って、カメラマンがマスターカメラを操作して注視点を被写体上に設定すると、各ロボットカメラが自動的に方向制御され、多視点映像を撮影することができる。
冨山仁博、岩舘祐一、「多視点ハイビジョン映像生成システムの開発」、映像情報メディア学会誌、64、4、pp.622−628(2010) 「多視点ロボットカメラシステムを用いた映像制作」、兼六館出版「放送技術」、2013年66巻11月号、pp.102−105
多視点映像を撮影する場合、ロボットカメラを全天周状に配置することが好ましい。しかし、従来のロボットカメラは、基本的に地面に設置するものであり、全天周状に設置することが困難である。また、多視点映像を撮影する場合、隣り合うロボットカメラ同士の輻輳角を適切に保つことが好ましい。しかし、従来のロボットカメラは、設置位置が固定されている一方、被写体の移動により輻輳角が変化するため、適切な輻輳角を保つのが困難である。
なお、輻輳角とは、隣接するロボットカメラの光軸同士が交わる角度である。つまり、輻輳角は、あるロボットカメラと被写体とを結ぶ直線と、別のロボットカメラと被写体とを結ぶ直線とのなす角になる。
そこで、本発明は、適切な輻輳角でロボットカメラを全天周状に配置できるカメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステムを提供することを課題とする。
前記した課題に鑑みて、本発明に係るカメラ制御装置は、空間内を自在に移動可能な移動体及び移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するためにロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、注視点算出部と、仮想球体生成部と、位置設定部と、姿勢算出部と、を備える構成とした。
かかるカメラ制御装置は、注視点算出部が、ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、マスターカメラから被写体までの距離であるデプスとが入力される。そして、注視点算出部は、入力されたマスターカメラの位置からマスターカメラの光軸方向でデプスが示す距離にある注視点の位置を算出する。
仮想球体生成部が、注視点が中心、かつ、デプスが半径となる仮想球体を生成する。
位置設定部が、マスターカメラ以外のロボットカメラであるスレーブカメラの位置が仮想球体の球面上に予め設定される。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
また、前記した課題に鑑みて、本発明に係るカメラ制御装置は、空間内を自在に移動可能な移動体及び移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するためにロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、注視点算出部と、仮想球体生成部と、位置算出部と、姿勢算出部と、を備える構成とした。
かかるカメラ制御装置は、注視点算出部が、ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、マスターカメラから被写体までの距離であるデプスとが入力される。そして、注視点算出部は、入力されたマスターカメラの位置からマスターカメラの光軸方向でデプスが示す距離にある注視点の位置を算出する。
仮想球体生成部が、注視点が中心、かつ、デプスが半径となる仮想球体を生成する。
位置算出部が、複数の点を仮想球体上に分布させる球面分布処理により、仮想球体の球面上に位置する点の位置を、マスターカメラ以外のロボットカメラであるスレーブカメラの位置として算出する。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
また、前記した課題に鑑みて、本発明に係る多視点ロボットカメラシステムは、複数台のロボットカメラと、本発明に係るカメラ制御装置とを備える多視点ロボットカメラシステムであって、ロボットカメラが、複数のプロペラにより空間内を自在に移動可能なマルチコプタと、マルチコプタに搭載された撮影カメラと、マルチコプタの位置を制御するマルチコプタ制御部と、撮影カメラの姿勢を制御するカメラ制御部と、を備える構成とした。
なお、本発明に係るカメラ制御装置は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した各手段として協調動作させるプログラムで実現することもできる。
本発明によれば、ロボットカメラを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。
第1実施形態に係る多視点ロボットカメラシステムの概略図である。 第1実施形態において、注視点の設定を説明する説明図である。 第1実施形態におけるドローンの外観図である。 第1実施形態に係る多視点ロボットカメラシステムの構成を示すブロック図である。 第1実施形態において、仮想球体の生成を説明する説明図である。 (a)及び(b)は、第1実施形態において、スレーブドローンの位置を1次元方向に設定する説明図である。 第1実施形態において、スレーブドローンの位置を2次元方向に設定する説明図である。 第1実施形態において、スレーブドローンの姿勢の算出を説明する説明図である。 第1実施形態に係る多視点ロボットカメラシステムの動作を示すフローチャートである。 第2施形態に係る多視点ロボットカメラシステムの構成を示すブロック図である。 第2施形態において、仮想球体の生成を説明する説明図である。 第2施形態において、球面分布処理を説明する説明図である。 第2施形態に係る多視点ロボットカメラシステムの動作を示すフローチャートである。 第3形態に係る多視点ロボットカメラシステムの構成を示すブロック図である。 第3施形態に係る多視点ロボットカメラシステムの動作を示すフローチャートである。
(第1実施形態)
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
[多視点ロボットカメラシステムの概略]
図1を参照し、第1実施形態に係る多視点ロボットカメラシステム1の概略について、説明する。
多視点ロボットカメラシステム1は、空間内を自在に移動可能なドローン(ロボットカメラ)Cを複数台用いて、同一時刻の被写体90を異なる視点で撮影した多視点映像を生成するものである。本実施形態では、多視点ロボットカメラシステム1は、ステージ上の歌手を被写体90として、多視点映像を生成することとする。
この多視点ロボットカメラシステム1では、撮影カメラ200(図2)を搭載している複数台のドローンCを協調制御する。
複数台のドローンCのうちカメラマンが操作する1台のドローンCをマスタードローン(マスターカメラ)Cとする。マスタードローンCの光軸上には注視点Pが設定される。マスタードローンCと注視点Pとの距離をデプスとし、デプスを操作することで注視点Pの位置をマスタードローンCの光軸上で移動させることができる。
マスタードローンC以外のドローンCをスレーブドローン(スレーブカメラ)Cとする。スレーブドローンCの台数は、複数であればよく、例えば、多視点映像の数(視点数)と同数になる。なお、図面を見やすくするため、スレーブドローンCを2台(n=2)のみ図示した。
以下、多視点ロボットカメラシステム1による多視点映像の撮影について説明する。
操作者91は、マスタードローンCの画面中央に被写体90を捉えるように、操作インターフェース部20を操作して、マスタードローンCの位置及び姿勢を変える。また、マスタードローンCは、図2に示すように、撮影カメラ200の光軸Oxに注視点Pが設定されている。そこで、操作者91は、操作インターフェース部20を操作して、マスタードローンCと注視点Pとの距離であるデプスを変更し、注視点Pと被写体90とを一致させる。このとき、マスタードローンCは、マスタードローンCの位置及び姿勢を計測し、計測したデータをカメラ制御装置10に出力する。
カメラ制御装置10は、原点を注視点Pとし、半径をデプスとする仮想球体を空間中に生成する。また、仮想球体の上側半球面上にスレーブドローンCをどのように配置するかを設定しておく。そして、カメラ制御装置10は、スレーブドローンCを適切な輻輳角で全天周状に配置できるように、仮想球体の上側半球面上でスレーブドローンCの位置及び姿勢を算出、制御する。なお、全天周状の配置とは、球面の一部にスレーブドローンCを配置することであり、例えば、球面の上側半分にスレーブドローンCを配置することである。
[多視点ロボットカメラシステムの構成]
図1〜図3を参照し、多視点ロボットカメラシステム1の構成について説明する。
図1に示すように、多視点ロボットカメラシステム1は、カメラ制御装置10と、操作インターフェース部20と、ドローンCと、を備える。また、多視点ロボットカメラシステム1では、カメラ制御装置10、操作インターフェース部20及びドローンCの間で無線通信を行うこととする。
カメラ制御装置10は、多視点映像を撮影するために、スレーブドローンCの位置及び姿勢を制御するものである。例えば、被写体90がステージ上を移動するため、輻輳角を保てるように、各スレーブドローンCの位置や姿勢を予め決めることが困難である。そこで、カメラ制御装置10は、各スレーブドローンCが適切な輻輳角を保ち、各スレーブドローンCが全天周状に配置されるように、各スレーブドローンCの位置や姿勢を制御する。
なお、カメラ制御装置10の詳細は、後記する。
操作インターフェース部20は、マスタードローンCを操作するものである。例えば、操作インターフェース部20は、マスタードローンCの位置、姿勢及びデプスを制御するためのスティックやレバーを有する。そして、操作インターフェース部20は、操作者(カメラマン)91の操作に応じて、操作情報(位置、姿勢及びデプスの制御信号)を生成し、生成した操作情報をマスタードローンCに出力する。さらに、操作インターフェース部20は、操作者91の操作に応じて、デプスをカメラ制御装置10に出力する。
ドローンC(C,C)は、空間内を自在に移動可能なマルチコプタ本体(移動体)100、及び、マルチコプタ本体100に搭載された撮影カメラ200からなるマルチコプタ型のロボットカメラである。図3に示すように、ドローンC(C,C)は、マルチコプタ本体(移動体)100と、撮影カメラ200とで構成される。
マルチコプタ本体100は、腕が十字方向に延長された筐体101を有する。筐体101は、それぞれの腕先端部に回転モータ110(図4)が格納される。また、プロペラ102は、回転モータ110の回転軸先端に計4個取り付けられる。そして、マルチコプタ本体100は、各プロペラ102の回転を制御することで、上下左右に自在に空中を移動できる。また、筐体101には、2本の脚部103が垂直に設けられている。脚部103は、撮影カメラ200が着地面に接地しない高さを有し、撮影カメラ200よりも広い幅を有する。このような構造により、脚部103は、安定した着地を可能にすると共に、撮影カメラ200を保護している。
撮影カメラ200は、雲台201を介して、マルチコプタ本体100の下部に取り付けられる。雲台201は、撮影カメラ200が所望の姿勢を取るように可動する。
なお、マルチコプタ本体100及び撮影カメラ200は、下記の参考文献1に記載されているため、これ以上の説明を省略する。また、マスタードローンC及びスレーブドローンCに固有の構成は後記する。
参考文献1:[online],[平成31年1月29日検索],インターネット<URL:http://www.dji.com/ja/product/phantom-2>
[マスタードローンの構成]
図4を参照し、マスタードローンC、カメラ制御装置10及びスレーブドローンCの構成について順に説明する。
図4に示すように、マスタードローンCは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210とを備える。
回転モータ110は、後記するマルチコプタ制御部120からの指令に応じて、プロペラ102を回転させる一般的なモータである。この回転モータ110としては、例えば、ブラシレスDCモータをあげることができる。
マルチコプタ制御部120は、マスタードローンCのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部120は、操作インターフェース部20から入力された操作情報(位置の制御信号)に従ってプロペラ102を回転させ、マスタードローンCを移動させる。本実施形態では、マルチコプタ制御部120は、マルチコプタ本体100が常に水平を保つように、マスタードローンC(マルチコプタ本体100)を制御することとする。
なお、マスタードローンCは、マルチコプタ本体100の位置を計測するために、GPS、加速度センサ等の位置計測手段(不図示)を備える。そして、マルチコプタ制御部120は、位置計測手段で計測された位置をカメラ制御装置10に出力する。
撮影カメラ200は、被写体90を撮影する一般的なビデオカメラである。また、撮影カメラ200は、撮影した映像を外部(例えば、図示を省略した多視点映像生成装置)に出力する。
撮影カメラ制御部210は、マスタードローンCの撮影カメラ200を制御するものである。つまり、撮影カメラ制御部210は、操作インターフェース部20から入力された操作情報(姿勢の制御信号)に従って、撮影カメラ200が注視点Pを向くように雲台201を駆動する。さらに、撮影カメラ制御部210は、操作インターフェース部20から入力された操作情報(デプスの制御信号)に従って、撮影カメラ200のデプスを制御する。
なお、マスタードローンCは、撮影カメラ200の姿勢を計測するために、ロータリエンコーダ等の姿勢計測手段を備える。そして、撮影カメラ制御部210は、姿勢計測手段で計測された姿勢をカメラ制御装置10に出力する。
[カメラ制御装置の構成]
図4に示すように、カメラ制御装置10は、注視点算出部11と、仮想球体生成部12と、位置設定部13と、姿勢算出部14と、を備える。
注視点算出部11は、マスタードローンCから入力された位置及び姿勢と、操作インターフェース部20から入力されたデプスとを用いて、注視点Pの位置を算出するものである。注視点Pは、マスタードローンCの位置から、マスタードローンCの光軸Oxに向かって、デプスが示す距離にある(図2参照)。
ここで、スレーブドローンCの並進ベクトルをT、回転行列をR、下付きの添え字nをスレーブドローンCのカメラ番号1〜Nとする(但し、Nは1を超える自然数)。このとき、世界座標系Wとカメラ座標系Wとの関係は、以下の式(1)で表される。
Figure 2020147105
この場合、注視点Pの位置(世界座標)は、以下の式(2)〜式(4)で表わされる。なお、rが姿勢を表す行列の一成分を表し、OptaxisがマスタードローンCの光軸を表し、TがマスタードローンCの並進ベクトルを表し、Depthがデプスを表す。また、式(4)の左辺は、注視点Pの位置を表す。
Figure 2020147105
Figure 2020147105
Figure 2020147105
この姿勢を表す行列の一成分r及びマスタードローンCの光軸Optaxisは、マスタードローンCの姿勢から求められる。また、マスタードローンCの並進ベクトルTは、マスタードローンCの位置から求められる。つまり、注視点算出部11は、式(2)〜式(4)を用いて、注視点Pの位置(世界座標)を算出できる。
その後、注視点算出部11は、注視点Pの位置及びデプスを仮想球体生成部12に出力する。
仮想球体生成部12は、図5に示すように、仮想球体VCを生成するものである。この仮想球体VCは、注視点算出部11から入力された注視点Pが仮想球体VCの中心となり、注視点算出部11から入力されたデプスが仮想球体VCの半径lとなる。そして、仮想球体生成部12は、生成した仮想球体VCの情報を位置設定部13に出力する。
なお、図5では、マスタードローンCが被写体90の真上に位置し、撮影カメラ200が真下の被写体90を向いている。このマスタードローンCから見たときの水平方向をx軸、垂直方向をy軸、奥行き方向をz軸として図示した。つまり、マスタードローンCの光軸方向がz軸方向となる。
位置設定部13は、仮想球体生成部12から入力された仮想球体VCの情報を参照し、仮想球体VC上において、スレーブドローンCの位置が予め設定されるものである。例えば、操作者91は、図示を省略したマウス、キーボード等の操作手段を操作して、スレーブドローンCの位置を位置設定部13に入力(設定)する。このとき、隣接するスレーブドローンCが等間隔となるように、スレーブドローンCの位置を仮想球体VCの上側半分の表面上に設定するとよい。
例えば、位置設定部13では、スレーブドローンCの位置を1次元方向に設定する。図6(a)に示すように、マスタードローンCが被写体90の真上に位置する場合を考える。この場合、図6(b)に示すように、各スレーブドローンCの位置は、仮想球体VCの表面上であって、y−z平面上で1次元方向に14個設定されている。
なお、z軸を水平方向に設定し、各スレーブドローンCを水平方向に配置することもできる。
また、例えば、位置設定部13では、スレーブドローンCの位置を2次元方向に設定する。マスタードローンCが被写体90の真上に位置する場合を考える。この場合、図7に示すように、各スレーブドローンCの位置は、仮想球体VCの表面上であって、x軸方向及びy軸方向で整列するように2次元方向に36個設定されている。
なお、図6及び図7では、各スレーブドローンCの位置を黒丸で図示した。また、図6(b)は、図6(a)の仮想球体VCをz軸方向から見た図である。また、図6(b)及び図7では、仮想球体VCの表面上に位置するため、各点の等間隔がz軸から離れるほど狭くなるように図示した。
また、図6(b)及び図7では、スレーブドローンCの位置をそれぞれ14個、36個図示したが、実際には、スレーブドローンCの位置はその台数分だけ設定すればよい。
その後、位置設定部13は、設定されたスレーブドローンCの位置及び仮想球体VCの情報を姿勢算出部14に出力する。
姿勢算出部14は、位置設定部13から入力されたスレーブドローンCの位置で注視点Pを向いた方向をスレーブドローンCの姿勢として算出するものである。そして、姿勢算出部14は、スレーブドローンCの位置及び姿勢をスレーブドローンC(マルチコプタ制御部130及び撮影カメラ制御部220)に出力する。
<スレーブドローンの姿勢算出>
図8を参照し、スレーブドローンCの姿勢算出について、具体的に説明する。
図8に示すように、スレーブドローンCの位置が(l,θ,φ)であることとする。ここで、lは、注視点PからスレーブドローンCまでの距離、つまり、仮想球体VCの半径lを表す。また、θは、x−z平面上において、z軸を基準としたスレーブドローンCの角度(緯度)を表す。また、φは、x−y平面上において、y軸を基準としたスレーブドローンCの角度(経度)を表す。
マスタードローンCのカメラ座標系において、スレーブドローンCの位置xへの変換は、以下の式(5)で表される。式(5)では、球面座標系におけるスレーブドローンCの位置(l,θ,φ)を、カメラ座標系におけるスレーブドローンCの位置xに変換する。このカメラ座標系は、マスタードローンCの位置を原点とする。すなわち、球面座標系におけるスレーブドローンCの位置(l,θ,φ)をカメラ座標系(直交直線座標)に変換し、マスタードローンCの光軸方向にデプスだけ平行移動させる。このとき、カメラ座標系における注視点pの位置は、以下の式(6)で表される。
Figure 2020147105
Figure 2020147105
マスタードローンCの位置をt、マスタードローンCの姿勢をRとする。世界座標系において、スレーブドローンCの位置Xへの変換は、以下の式(7)で表される。つまり、式(7)を用いて、カメラ座標系におけるスレーブドローンCの位置xを、世界座標系におけるスレーブドローンCの位置Xに変換する。このとき、世界座標系における注視点Pの位置は、以下の式(8)で表される。
Figure 2020147105
Figure 2020147105
スレーブドローンCの姿勢Rは、スレーブドローンCの位置Xで注視点Pを向いた方向となり、以下の式(9)及び式(10)で表される。ここで、vは、地面と垂直のベクトルを表す。
Figure 2020147105
Figure 2020147105
以上より、姿勢算出部14は、式(5)〜式(10)を用いて、スレーブドローンCの姿勢を算出する。そして、姿勢算出部14は、スレーブドローンCが位置Xで姿勢Rを取るように制御すればよい。
[スレーブドローンの構成]
図4に示すように、スレーブドローンCは、回転モータ110と、マルチコプタ制御部130と、撮影カメラ200と、撮影カメラ制御部220とを備える。
なお、回転モータ110及び撮影カメラ200は、マスタードローンCと同様のため、これ以上の説明を省略する。
マルチコプタ制御部130は、スレーブドローンCのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部130は、姿勢算出部14から入力された位置xにスレーブドローンCを移動させる。
撮影カメラ制御部220は、スレーブドローンCの撮影カメラ200を制御するものである。つまり、撮影カメラ制御部220は、撮影カメラ200が姿勢算出部14から入力された姿勢Rを取るように、雲台201を駆動する。
このようにして、スレーブドローンCが位置xに移動し、撮影カメラ200が注視点Pを向くことになる。
[多視点ロボットカメラシステムの動作]
図9を参照し、多視点ロボットカメラシステム1の動作について説明する。
ステップS1において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCの位置及び姿勢を制御する。
ステップS2において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCのデプスを制御する。
ステップS3において、注視点算出部11は、マスタードローンCの位置と姿勢とデプスとを用いて、注視点Pの位置を算出する。そして、仮想球体生成部12は、注視点Pが中心となり、デプスが半径となる仮想球体VCを生成する。
ステップS4において、位置設定部13は、スレーブドローンCの位置を仮想球体VC上に設定する。
ステップS5において、姿勢算出部14は、式(5)を用いて、球面座標系からカメラ座標系にスレーブドローンCの位置を変換する。
ステップS6において、姿勢算出部14は、式(7)を用いて、カメラ座標系におけるスレーブドローンCの位置xを、世界座標系におけるスレーブドローンCの位置Xに変換する。
ステップS7において、姿勢算出部14は、式(9)及び式(10)を用いて、スレーブドローンCの姿勢Rを算出し、スレーブドローンCを制御する。
ステップS8において、カメラ制御装置10は、多視点映像の撮影が完了したか否かを判定する。例えば、カメラマンが、操作インターフェース部20を用いて、撮影完了をカメラ制御装置10に指令した場合、カメラ制御装置10は、多視点映像の撮影が完了したと判定する。
多視点映像の撮影が完了した場合(ステップS8でYes)、カメラ制御装置10は、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8でNo)、カメラ制御装置10は、ステップS2の処理に戻る。
[作用・効果]
以上のように、多視点ロボットカメラシステム1は、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。例えば、この多視点映像を用いれば、被写体の周囲を滑らかに視点が回り込むような映像表現において、その品質を向上させることができる(参考文献2参照)。
参考文献2:「小多視点ロボットカメラによる「ぐるっとビジョン」を用いた新しい映像表現技術の開発」、[online],[平成31年1月29日検索],インターネット<URL:https://www.hbf.or.jp/magazine/article/hbf2016_vol3>
3次元モデルを生成するためには、ドローンCを全天周状に配置することが好ましい。従来のロボットカメラは基本的に地面に設置するものであり、空間中への設置が困難である。その一方、多視点ロボットカメラシステム1は、ドローンCを空間中に全天周状に配置することができる。その結果、多視点映像から生成した3次元モデルを用いて、高品質なIP立体映像を提供することが可能となる。
多視点映像を撮影する際、隣り合うロボットカメラの輻輳角を適切に保つことが好ましい。従来のロボットカメラは、設置位置が固定されているが、被写体の移動により輻輳角が変化するので、適切な輻輳角を保つのが困難である。その一方、多視点ロボットカメラシステム1は、ドローンCが空間中を自在に移動できるので、ドローンCを適切な輻輳角に保って多視点映像を撮影することができる。
従来のロボットカメラの設営には、ロボットカメラの設置、ケーブルの敷設等の労力がかかる。その一方、多視点ロボットカメラシステム1は、カメラの設置及びケーブルの敷設が不要であり、設営の労力を削減することができる。
(第2実施形態)
[多視点ロボットカメラシステムの構成]
図10を参照し、第2実施形態に係る多視点ロボットカメラシステム1Aの構成について、第1実施形態と異なる点を説明する。
第1実施形態では、スレーブドローンCの位置を手動で設定したのに対し、第2実施形態では、後記する球面分布処理によりスレーブドローンCの位置を算出する点が異なる。
図10に示すように、多視点ロボットカメラシステム1Aは、カメラ制御装置10Aと、操作インターフェース部20と、マスタードローンCと、スレーブドローンCと、を備える。
なお、カメラ制御装置10A以外は、第1実施形態と同様のため、説明を省略する。
カメラ制御装置10Aは、多視点映像を撮影するために、スレーブドローンCの位置及び姿勢を制御するものである。本実施形態では、カメラ制御装置10Aは、各スレーブドローンCが適切な輻輳角を保ち、各スレーブドローンCが全天周状に配置されるように、球面分布処理によりスレーブドローンCの位置を算出する。
[カメラ制御装置の構成]
カメラ制御装置10Aは、注視点算出部11と、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11及び仮想球体生成部12は、第1実施形態と同様のため、説明を省略する。
位置算出部15は、球面分布処理により、仮想球体VCの上側半球面上に位置する点の位置を、スレーブドローンカメラのC位置として算出するものである。
球面分布処理とは、複数の点を仮想球体の表面上に一様に分布させる処理のことである。例えば、球面分布処理としては、一般化螺旋集合、一様乱数、等積投影法の逆投影、及び、正多面体の頂点に基づく手法があげられる。ここで、簡易な演算で一様性が高い点集合を算出できるため、一般化螺旋集合を用いることが好ましい(参考文献3参照)。本実施形態では、一般化螺旋集合を用いることとして説明する。
参考文献3:「多数の点を球面状に一様分布させるソフトウェアGSS Generator」、山路敦、情報地質、第12巻、第1号、3−12頁、2001年
<スレーブドローンの位置算出>
図11〜図13を参照し、スレーブドローンCの姿勢算出について具体的に説明する。
図11に示すように、第1実施形態と同様、球面座標系(仮想球体VC)が設定されていることとする。この球面座標系では、n番目の点の位置を緯度θと経度φとで表現し、各点がn台目のドローンCの位置を表すこととする(但し、1≦n≦N)。まず、図12に示すように、一般化螺旋集合により、仮想球体VCの球面上で2N台分のドローンCの配置位置を求め、その後、N台のドローンCを仮想球体VCの球面の上側半分に均一に配置する。この場合、2N台のドローンCのうち、n台目のドローンCの位置は、式(11)〜式(13)によって算出できる。
Figure 2020147105
Figure 2020147105
Figure 2020147105
ここで、θ=π、θ=0、φ=0とする。すなわち、一般化螺旋集合では、式(11)のパラメータhを使って、n番目の点の座標(θ,φ)を式(12)及び式(13)の漸化式で表すことができる。
1台目(n=1)のドローンCが南極に位置し、2N台目(n=2N)のドローンCが北極に位置する。球面座標系の南極及び北極では歪みが生じるため、一様性が損なわれる。このため、n番目の点を終点とする単位ベクトルをaとし、単位ベクトルa,a2Nを以下の式(14)及び式(15)で算出する。
Figure 2020147105
Figure 2020147105
そして、球面座標系の上側半分にあたるN+1個目から2N個目までの点の位置を、N+1台目から2N台目までのドローンCの位置として用いる。このとき、マスタードローンCの位置を北極とし、それ以外の位置をスレーブドローンCの位置とすればよい。
以上より、位置算出部15は、一般化螺旋集合で定義される式(11)〜式(15)を用いて、スレーブドローンCの位置を算出する。
その後、位置算出部15は、算出したスレーブドローンCの位置及び仮想球体VCの情報を姿勢算出部14Aに出力する。
図10に戻り、カメラ制御装置10Aの構成について、説明を続ける。
姿勢算出部14Aは、位置算出部15から入力されたスレーブドローンCの位置で注視点Pを向いた方向をスレーブドローンCの姿勢として算出するものである。
マスタードローンCのカメラ座標系において、スレーブドローンCの位置xへの変換は、以下の式(16)で表される。式(16)では、球面座標系におけるスレーブドローンCの位置(l=1,θ,φ)を、カメラ座標系におけるスレーブドローンCの位置xに変換する。すなわち、球面座標系におけるスレーブドローンCの位置(l,θ,φ)をカメラ座標系(直交直線座標)に変換し、一般化螺旋集合の北極が直交直線座標系の原点と一致するように平行移動させる。この式(16)では、球面座標系におけるスレーブドローンCの位置が(l=1,θ,φ)で表される。
Figure 2020147105
なお、姿勢算出部14Aは、式(5)の代わりに式(16)を用いる以外、第1実施形態と同様のため、これ以上の説明を省略する。
[多視点ロボットカメラシステムの動作]
図13を参照し、多視点ロボットカメラシステム1Aの動作について説明する。
ステップS1〜S3の処理は、第1実施形態と同様のため、説明を省略する。
ステップS4Bにおいて、位置算出部15は、球面分布処理により、仮想球体VCの上側半球面に位置する点の位置を、スレーブドローンのC位置として算出する。具体的には、位置算出部15は、一般化螺旋集合で定義される式(11)〜式(15)を用いて、スレーブドローンCの位置を算出する。
ステップS5Bにおいて、姿勢算出部14Aは、式(16)を用いて、球面座標系からカメラ座標系にスレーブドローンCの位置を変換する。
ステップS6〜S8の処理は、第1実施形態と同様のため、説明を省略する。
[作用・効果]
以上のように、多視点ロボットカメラシステム1Aは、第1実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Aは、スレーブドローンCの位置を手動で設定する必要がないので、多視点映像の撮影に要する労力を削減することができる。
(第3実施形態)
[多視点ロボットカメラシステムの構成]
図14を参照し、第3実施形態に係る多視点ロボットカメラシステム1Bの構成について、第2実施形態と異なる点を説明する。
第2実施形態では、カメラマンがマスタードローンCを手動で操作したのに対し、第3実施形態では、マスタードローンCが被写体90に自動追随する点が異なる。
図14に示すように、多視点ロボットカメラシステム1Bは、カメラ制御装置10Bと、マスタードローンCBと、スレーブドローンCと、を備える。すなわち、多視点ロボットカメラシステム1Bは、操作インターフェース部20を備えていない。
なお、スレーブドローンCは、第2実施形態と同様のため、説明を省略する。
カメラ制御装置10Bは、多視点映像を撮影するために、スレーブドローンCの位置及び姿勢を制御するものである。本実施形態では、カメラ制御装置10Bは、操作インターフェース部20からの操作情報を用いずに、マスタードローンCBの光軸と地面との交点を注視点Pとして算出する。
[カメラ制御装置の構成]
カメラ制御装置10Bは、注視点算出部11Bと、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11B以外は、第2実施形態と同様のため、説明を省略する。
注視点算出部11Bは、マスタードローンCから入力された位置及び姿勢を用いて、注視点P及びデプスを算出するものである。すなわち、注視点算出部11Bは、マスタードローンCBが備える撮影カメラ200の光軸と、地面を想定した平面との交点を注視点Pとして算出する。このとき、注視点算出部11Bは、より正確な注視点Pを算出するため、予め設定した高さ(例えば、人間の平均身長の半分)を注視点Pの高さに加えることが好ましい。さらに、注視点算出部11Bは、マスタードローンCの位置と算出した注視点Pとの距離をデプスとして算出する。
[マスタードローンの構成]
図14を参照し、マスタードローンCBの構成について説明する。
図14に示すように、マスタードローンCBは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210と、被写体追随部230と、を備える。
なお、被写体追随部230以外は、第2実施形態と同様のため、説明を省略する。
被写体追随部230は、マスタードローンCBを被写体の真上に追随させるものである。すなわち、被写体追随部230は、地面上の被写体に対し、地面から垂直方向の上空にマスタードローンCBが位置するように、マスタードローンCBを任意の手法で自動追随させる。例えば、被写体追随部230は、撮影カメラ200を真下に向けるように撮影カメラ制御部210に指令する。そして、被写体追随部230は、撮影カメラ制御部210の撮影画像から被写体の位置を検出する。さらに、被写体追随部230は、撮影画像の中央に被写体が映る位置にマスタードローンCBを移動させる指令をマルチコプタ制御部120に出力する。
なお、マスタードローンCBを被写体の真上に追随させる手法は、前記に限定されない。例えば、位置計測手段を被写体に装着し、その計測位置に基づいてマスタードローンCBを追随させてもよい。
[多視点ロボットカメラシステムの動作]
図15を参照し、多視点ロボットカメラシステム1Bの動作について説明する。
ステップS4B〜S7の処理は、第2実施形態と同様のため、説明を省略する。
ステップS9において、被写体追随部230は、マスタードローンCBを被写体の真上に追随させる。そして、注視点算出部11Bは、マスタードローンCから入力された位置及び姿勢を用いて、注視点P及びデプスを算出する。
ステップS8Bにおいて、例えば、カメラマンが、図示を省略したマウス、キーボード等の操作手段を用いて、撮影完了をカメラ制御装置10Bに指令した場合、カメラ制御装置10Bは、多視点映像の撮影が完了したと判定する。
多視点映像の撮影が完了した場合(ステップS8BでYes)、カメラ制御装置10Bは、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8BでNo)、カメラ制御装置10Bは、ステップS9の処理に戻る。
[作用・効果]
以上のように、多視点ロボットカメラシステム1Bは、第2実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Bは、カメラマンがマスタードローンCを操作する必要がないので、多視点映像の撮影に要する労力をさらに削減することができる。
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
スレーブドローンの位置及び間隔は、多視点映像の用途(アプリケーション)に応じて任意に設定可能である。つまり、スレーブドローンの位置は、上側半球面上に限定されず、仮想球体の球面上(例えば、半球面上)であればよい。また、隣接するスレーブドローンの間隔は、等間隔でなくともよい。
マルチコプタ本体の構造(例えば、筐体の形状、プロペラの数)は、前記した各実施形態に限定されない。つまり、マルチコプタ本体は、カメラ本体を搭載又は内蔵し、飛行可能なものであればよい。
前記した各実施形態では、マスターカメラがマルチコプタ型のロボットカメラであることとして説明したが、一般的な撮影カメラであってもよい。例えば、マスターカメラとして、三脚に搭載される撮影カメラ、又は、カメラマンの肩に担がれる撮影カメラがあげられる。
前記した各実施形態では、操作インターフェース部でマスターカメラの位置及び姿勢を操作することとして説明したが、マスターカメラのズーム、フォーカス及びアイリスも操作可能としてもよい。さらに、マスターカメラのズーム、フォーカス及びアイリスは、自動で調整してもよい。
前記した各実施形態では、操作インターフェース部が制御装置から独立したものとして説明したが、制御装置が操作インターフェース部の機能を備えてもよい。
前記した各実施形態では、移動体がマルチコプタであることとして説明したが、これに限定されない。例えば、移動体として、ラジオコントロール型のヘリコプタ(ラジコンヘリコプタ)があげられる。
前記した各実施形態では、カメラ制御装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したカメラ制御装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1,1A,1B 多視点ロボットカメラシステム(多視点ロボットカメラシステム)
10,10A,10B カメラ制御装置
11,11B 注視点算出部
12 仮想球体生成部
13 位置設定部
14,14A 姿勢算出部
15 位置算出部
20 操作インターフェース部
90 被写体
91 操作者
100 マルチコプタ本体(移動体)
101 筐体
102 プロペラ
103 脚部
110 回転モータ
120,130 マルチコプタ制御部
200 撮影カメラ
201 雲台
210,220 撮影カメラ制御部
230 被写体追随部
C ドローン(ロボットカメラ)
,CB マスタードローン(マスターカメラ)
スレーブドローン(スレーブカメラ)

Claims (8)

  1. 空間内を自在に移動可能な移動体及び前記移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するために前記ロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、
    前記ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、前記マスターカメラから被写体までの距離であるデプスとが入力され、入力された前記マスターカメラの位置から前記マスターカメラの光軸方向で前記デプスが示す距離にある注視点の位置を算出する注視点算出部と、
    前記注視点が中心、かつ、前記デプスが半径となる仮想球体を生成する仮想球体生成部と、
    前記マスターカメラ以外のロボットカメラであるスレーブカメラの位置が前記仮想球体の球面上に予め設定される位置設定部と、
    前記スレーブカメラの位置で前記注視点を向いた方向を前記スレーブカメラの姿勢として算出する姿勢算出部と、
    を備えることを特徴とするカメラ制御装置。
  2. 前記位置設定部は、前記仮想球体上において、1次元方向又は2次元方向で前記スレーブカメラの位置が予め設定されることを特徴とする請求項1に記載のカメラ制御装置。
  3. 空間内を自在に移動可能な移動体及び前記移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するために前記ロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、
    前記ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、前記マスターカメラから被写体までの距離であるデプスとが入力され、入力された前記マスターカメラの位置から前記マスターカメラの光軸方向で前記デプスが示す距離にある注視点の位置を算出する注視点算出部と、
    前記注視点が中心、かつ、前記デプスが半径となる仮想球体を生成する仮想球体生成部と、
    複数の点を前記仮想球体上に分布させる球面分布処理により、前記仮想球体の球面上に位置する点の位置を、前記マスターカメラ以外のロボットカメラであるスレーブカメラの位置として算出する位置算出部と、
    前記スレーブカメラの位置で前記注視点を向いた方向を前記スレーブカメラの姿勢として算出する姿勢算出部と、
    を備えることを特徴とするカメラ制御装置。
  4. 前記位置算出部は、前記球面分布処理として、一般化螺旋集合、一様乱数、等積投影法の逆投影、又は、正多面体の頂点に基づく手法の何れかを行うことを特徴とする請求項3に記載のカメラ制御装置。
  5. 前記移動体は、複数のプロペラにより前記空間内を移動可能なマルチコプタであることを特徴とする請求項1から請求項4の何れか一項に記載のカメラ制御装置。
  6. コンピュータを、請求項1から請求項4の何れか一項に記載のカメラ制御装置として機能させるためのプログラム。
  7. 複数台のロボットカメラと、請求項1から請求項5の何れか一項に記載のカメラ制御装置とを備える多視点ロボットカメラシステムであって、
    前記ロボットカメラは、
    複数のプロペラにより空間内を自在に移動可能なマルチコプタと、
    前記マルチコプタに搭載された撮影カメラと、
    前記マルチコプタの位置を制御するマルチコプタ制御部と、
    前記撮影カメラの姿勢を制御するカメラ制御部と、
    を備えることを特徴とする多視点ロボットカメラシステム。
  8. 前記ロボットカメラのうちの1台がマスターカメラとして予め設定され、
    前記マスターカメラは、前記マスターカメラを前記被写体の真上に追随させる被写体追随部、をさらに備えることを特徴とする請求項7に記載の多視点ロボットカメラシステム。
JP2019044853A 2019-03-12 2019-03-12 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム Pending JP2020147105A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044853A JP2020147105A (ja) 2019-03-12 2019-03-12 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044853A JP2020147105A (ja) 2019-03-12 2019-03-12 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム

Publications (1)

Publication Number Publication Date
JP2020147105A true JP2020147105A (ja) 2020-09-17

Family

ID=72431576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044853A Pending JP2020147105A (ja) 2019-03-12 2019-03-12 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム

Country Status (1)

Country Link
JP (1) JP2020147105A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150536A (ja) * 2005-11-25 2007-06-14 Hitachi Displays Ltd 立体映像撮影表示装置
JP2015531175A (ja) * 2012-05-22 2015-10-29 オトイ、インコーポレイテッド ポータブルモバイル照明ステージ
JP2016171478A (ja) * 2015-03-13 2016-09-23 日本放送協会 カメラ制御装置及びそのプログラム
WO2017057157A1 (ja) * 2015-09-30 2017-04-06 株式会社ニコン 飛行装置、移動装置、サーバおよびプログラム
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150536A (ja) * 2005-11-25 2007-06-14 Hitachi Displays Ltd 立体映像撮影表示装置
JP2015531175A (ja) * 2012-05-22 2015-10-29 オトイ、インコーポレイテッド ポータブルモバイル照明ステージ
JP2016171478A (ja) * 2015-03-13 2016-09-23 日本放送協会 カメラ制御装置及びそのプログラム
WO2017057157A1 (ja) * 2015-09-30 2017-04-06 株式会社ニコン 飛行装置、移動装置、サーバおよびプログラム
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US7663649B2 (en) Information processing device and method for aiding control operations relating to controlling the position and orientation of a virtual object and method for changing the positioning and orientation of a virtual object
WO2018076154A1 (zh) 一种基于鱼眼摄像机空间位姿标定的全景视频生成方法
JP5093053B2 (ja) 電子カメラ
JP5054971B2 (ja) ディジタル3d/360度カメラシステム
JP7223449B2 (ja) 撮影に基づく3dモデリングシステム
Onoe et al. Visual surveillance and monitoring system using an omnidirectional video camera
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP4115117B2 (ja) 情報処理装置および方法
US6088527A (en) Apparatus and process for producing an image sequence
CN111801198A (zh) 一种手眼标定方法、系统及计算机存储介质
CN110332930B (zh) 一种位置确定方法、装置及设备
US20210392275A1 (en) Camera array for a mediated-reality system
WO2019119426A1 (zh) 基于无人机的立体成像方法和装置
JP6450226B2 (ja) カメラ制御装置及びそのプログラム
KR101588935B1 (ko) 가상현실 이미지 프레젠테이션 및 3d 공간 내에서의 컨트롤을 위한 3d 기하학 데이터의 이용방법
CN113763480A (zh) 一种多镜头全景摄像机组合标定方法
JP6622621B2 (ja) 多視点カメラ制御装置及びそのプログラム、並びに、多視点映像撮影システム
CN107492124A (zh) 鱼眼摄像头的平面标定装置
JP2020147105A (ja) カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム
JP2017134775A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019133214A (ja) 画像表示装置、該装置を含む映像表示システム、画像表示方法および画像表示用プログラム
JP6073114B2 (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
KR20200030205A (ko) 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법
JP5878511B2 (ja) 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法
JP7068906B2 (ja) 多視点カメラ制御装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230620