JP2020147105A - カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム - Google Patents
カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム Download PDFInfo
- Publication number
- JP2020147105A JP2020147105A JP2019044853A JP2019044853A JP2020147105A JP 2020147105 A JP2020147105 A JP 2020147105A JP 2019044853 A JP2019044853 A JP 2019044853A JP 2019044853 A JP2019044853 A JP 2019044853A JP 2020147105 A JP2020147105 A JP 2020147105A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- robot
- slave
- master
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 64
- 238000000034 method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 5
- 241000219198 Brassica Species 0.000 description 35
- 235000003351 Brassica cretica Nutrition 0.000 description 35
- 235000003343 Brassica rupestris Nutrition 0.000 description 35
- QKSKPIVNLNLAAV-UHFFFAOYSA-N bis(2-chloroethyl) sulfide Chemical compound ClCCSCCCl QKSKPIVNLNLAAV-UHFFFAOYSA-N 0.000 description 35
- 235000010460 mustard Nutrition 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
【課題】適切な輻輳角でロボットカメラを全天周状に配置できるカメラ制御装置を提供する。【解決手段】カメラ制御装置10は、マスタードローンCmの注視点を算出する注視点算出部11と、注視点が中心、かつ、デプスが半径となる仮想球体を生成する仮想球体生成部12と、スレーブドローンCnの位置が仮想球体の球面上で予め設定される位置設定部13と、スレーブドローンCnの位置で注視点を向いた方向をスレーブドローンCnの姿勢として算出する姿勢算出部14と、を備える。【選択図】図4
Description
本発明は、多視点映像を撮影するためのカメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステムに関する。
従来技術として、動く被写体をパンフォローした多視点映像を撮影する多視点ロボットカメラシステムが知られている(非特許文献1,2)。多視点ロボットカメラシステムは、複数台のロボットカメラを協調制御するシステムであり、1人のカメラマンの操作によって各ロボットカメラを空間中の被写体へ一斉に方向制御し、被写体の多視点映像を撮影する。例えば、多視点映像を用いて、被写体の3次元モデルを生成することができる。
この多視点ロボットカメラシステムでは、複数台のロボットカメラのうち、カメラマンが操作する1台のロボットカメラをマスターカメラとして設定し、マスターカメラ以外のロボットカメラをスレーブカメラとする。多視点ロボットカメラシステムでは、マスターカメラの光軸上に注視点を設定し、スレーブカメラが注視点を向くようにスレーブカメラを方向制御する。従って、カメラマンがマスターカメラを操作して注視点を被写体上に設定すると、各ロボットカメラが自動的に方向制御され、多視点映像を撮影することができる。
冨山仁博、岩舘祐一、「多視点ハイビジョン映像生成システムの開発」、映像情報メディア学会誌、64、4、pp.622−628(2010)
「多視点ロボットカメラシステムを用いた映像制作」、兼六館出版「放送技術」、2013年66巻11月号、pp.102−105
多視点映像を撮影する場合、ロボットカメラを全天周状に配置することが好ましい。しかし、従来のロボットカメラは、基本的に地面に設置するものであり、全天周状に設置することが困難である。また、多視点映像を撮影する場合、隣り合うロボットカメラ同士の輻輳角を適切に保つことが好ましい。しかし、従来のロボットカメラは、設置位置が固定されている一方、被写体の移動により輻輳角が変化するため、適切な輻輳角を保つのが困難である。
なお、輻輳角とは、隣接するロボットカメラの光軸同士が交わる角度である。つまり、輻輳角は、あるロボットカメラと被写体とを結ぶ直線と、別のロボットカメラと被写体とを結ぶ直線とのなす角になる。
そこで、本発明は、適切な輻輳角でロボットカメラを全天周状に配置できるカメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステムを提供することを課題とする。
前記した課題に鑑みて、本発明に係るカメラ制御装置は、空間内を自在に移動可能な移動体及び移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するためにロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、注視点算出部と、仮想球体生成部と、位置設定部と、姿勢算出部と、を備える構成とした。
かかるカメラ制御装置は、注視点算出部が、ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、マスターカメラから被写体までの距離であるデプスとが入力される。そして、注視点算出部は、入力されたマスターカメラの位置からマスターカメラの光軸方向でデプスが示す距離にある注視点の位置を算出する。
仮想球体生成部が、注視点が中心、かつ、デプスが半径となる仮想球体を生成する。
位置設定部が、マスターカメラ以外のロボットカメラであるスレーブカメラの位置が仮想球体の球面上に予め設定される。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
位置設定部が、マスターカメラ以外のロボットカメラであるスレーブカメラの位置が仮想球体の球面上に予め設定される。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
また、前記した課題に鑑みて、本発明に係るカメラ制御装置は、空間内を自在に移動可能な移動体及び移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するためにロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、注視点算出部と、仮想球体生成部と、位置算出部と、姿勢算出部と、を備える構成とした。
かかるカメラ制御装置は、注視点算出部が、ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、マスターカメラから被写体までの距離であるデプスとが入力される。そして、注視点算出部は、入力されたマスターカメラの位置からマスターカメラの光軸方向でデプスが示す距離にある注視点の位置を算出する。
仮想球体生成部が、注視点が中心、かつ、デプスが半径となる仮想球体を生成する。
位置算出部が、複数の点を仮想球体上に分布させる球面分布処理により、仮想球体の球面上に位置する点の位置を、マスターカメラ以外のロボットカメラであるスレーブカメラの位置として算出する。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
位置算出部が、複数の点を仮想球体上に分布させる球面分布処理により、仮想球体の球面上に位置する点の位置を、マスターカメラ以外のロボットカメラであるスレーブカメラの位置として算出する。これにより、ロボットカメラを、適切な輻輳角で全天周状に配置できる。
姿勢算出部が、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
また、前記した課題に鑑みて、本発明に係る多視点ロボットカメラシステムは、複数台のロボットカメラと、本発明に係るカメラ制御装置とを備える多視点ロボットカメラシステムであって、ロボットカメラが、複数のプロペラにより空間内を自在に移動可能なマルチコプタと、マルチコプタに搭載された撮影カメラと、マルチコプタの位置を制御するマルチコプタ制御部と、撮影カメラの姿勢を制御するカメラ制御部と、を備える構成とした。
なお、本発明に係るカメラ制御装置は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した各手段として協調動作させるプログラムで実現することもできる。
本発明によれば、ロボットカメラを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。
(第1実施形態)
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
[多視点ロボットカメラシステムの概略]
図1を参照し、第1実施形態に係る多視点ロボットカメラシステム1の概略について、説明する。
多視点ロボットカメラシステム1は、空間内を自在に移動可能なドローン(ロボットカメラ)Cを複数台用いて、同一時刻の被写体90を異なる視点で撮影した多視点映像を生成するものである。本実施形態では、多視点ロボットカメラシステム1は、ステージ上の歌手を被写体90として、多視点映像を生成することとする。
図1を参照し、第1実施形態に係る多視点ロボットカメラシステム1の概略について、説明する。
多視点ロボットカメラシステム1は、空間内を自在に移動可能なドローン(ロボットカメラ)Cを複数台用いて、同一時刻の被写体90を異なる視点で撮影した多視点映像を生成するものである。本実施形態では、多視点ロボットカメラシステム1は、ステージ上の歌手を被写体90として、多視点映像を生成することとする。
この多視点ロボットカメラシステム1では、撮影カメラ200(図2)を搭載している複数台のドローンCを協調制御する。
複数台のドローンCのうちカメラマンが操作する1台のドローンCをマスタードローン(マスターカメラ)Cmとする。マスタードローンCmの光軸上には注視点Pが設定される。マスタードローンCmと注視点Pとの距離をデプスとし、デプスを操作することで注視点Pの位置をマスタードローンCmの光軸上で移動させることができる。
マスタードローンCm以外のドローンCをスレーブドローン(スレーブカメラ)Cnとする。スレーブドローンCnの台数は、複数であればよく、例えば、多視点映像の数(視点数)と同数になる。なお、図面を見やすくするため、スレーブドローンCnを2台(n=2)のみ図示した。
複数台のドローンCのうちカメラマンが操作する1台のドローンCをマスタードローン(マスターカメラ)Cmとする。マスタードローンCmの光軸上には注視点Pが設定される。マスタードローンCmと注視点Pとの距離をデプスとし、デプスを操作することで注視点Pの位置をマスタードローンCmの光軸上で移動させることができる。
マスタードローンCm以外のドローンCをスレーブドローン(スレーブカメラ)Cnとする。スレーブドローンCnの台数は、複数であればよく、例えば、多視点映像の数(視点数)と同数になる。なお、図面を見やすくするため、スレーブドローンCnを2台(n=2)のみ図示した。
以下、多視点ロボットカメラシステム1による多視点映像の撮影について説明する。
操作者91は、マスタードローンCmの画面中央に被写体90を捉えるように、操作インターフェース部20を操作して、マスタードローンCmの位置及び姿勢を変える。また、マスタードローンCmは、図2に示すように、撮影カメラ200の光軸Oxに注視点Pが設定されている。そこで、操作者91は、操作インターフェース部20を操作して、マスタードローンCmと注視点Pとの距離であるデプスを変更し、注視点Pと被写体90とを一致させる。このとき、マスタードローンCmは、マスタードローンCmの位置及び姿勢を計測し、計測したデータをカメラ制御装置10に出力する。
操作者91は、マスタードローンCmの画面中央に被写体90を捉えるように、操作インターフェース部20を操作して、マスタードローンCmの位置及び姿勢を変える。また、マスタードローンCmは、図2に示すように、撮影カメラ200の光軸Oxに注視点Pが設定されている。そこで、操作者91は、操作インターフェース部20を操作して、マスタードローンCmと注視点Pとの距離であるデプスを変更し、注視点Pと被写体90とを一致させる。このとき、マスタードローンCmは、マスタードローンCmの位置及び姿勢を計測し、計測したデータをカメラ制御装置10に出力する。
カメラ制御装置10は、原点を注視点Pとし、半径をデプスとする仮想球体を空間中に生成する。また、仮想球体の上側半球面上にスレーブドローンCnをどのように配置するかを設定しておく。そして、カメラ制御装置10は、スレーブドローンCnを適切な輻輳角で全天周状に配置できるように、仮想球体の上側半球面上でスレーブドローンCnの位置及び姿勢を算出、制御する。なお、全天周状の配置とは、球面の一部にスレーブドローンCnを配置することであり、例えば、球面の上側半分にスレーブドローンCnを配置することである。
[多視点ロボットカメラシステムの構成]
図1〜図3を参照し、多視点ロボットカメラシステム1の構成について説明する。
図1に示すように、多視点ロボットカメラシステム1は、カメラ制御装置10と、操作インターフェース部20と、ドローンCと、を備える。また、多視点ロボットカメラシステム1では、カメラ制御装置10、操作インターフェース部20及びドローンCの間で無線通信を行うこととする。
図1〜図3を参照し、多視点ロボットカメラシステム1の構成について説明する。
図1に示すように、多視点ロボットカメラシステム1は、カメラ制御装置10と、操作インターフェース部20と、ドローンCと、を備える。また、多視点ロボットカメラシステム1では、カメラ制御装置10、操作インターフェース部20及びドローンCの間で無線通信を行うこととする。
カメラ制御装置10は、多視点映像を撮影するために、スレーブドローンCnの位置及び姿勢を制御するものである。例えば、被写体90がステージ上を移動するため、輻輳角を保てるように、各スレーブドローンCnの位置や姿勢を予め決めることが困難である。そこで、カメラ制御装置10は、各スレーブドローンCnが適切な輻輳角を保ち、各スレーブドローンCnが全天周状に配置されるように、各スレーブドローンCnの位置や姿勢を制御する。
なお、カメラ制御装置10の詳細は、後記する。
なお、カメラ制御装置10の詳細は、後記する。
操作インターフェース部20は、マスタードローンCmを操作するものである。例えば、操作インターフェース部20は、マスタードローンCmの位置、姿勢及びデプスを制御するためのスティックやレバーを有する。そして、操作インターフェース部20は、操作者(カメラマン)91の操作に応じて、操作情報(位置、姿勢及びデプスの制御信号)を生成し、生成した操作情報をマスタードローンCmに出力する。さらに、操作インターフェース部20は、操作者91の操作に応じて、デプスをカメラ制御装置10に出力する。
ドローンC(Cm,Cn)は、空間内を自在に移動可能なマルチコプタ本体(移動体)100、及び、マルチコプタ本体100に搭載された撮影カメラ200からなるマルチコプタ型のロボットカメラである。図3に示すように、ドローンC(Cm,Cn)は、マルチコプタ本体(移動体)100と、撮影カメラ200とで構成される。
マルチコプタ本体100は、腕が十字方向に延長された筐体101を有する。筐体101は、それぞれの腕先端部に回転モータ110(図4)が格納される。また、プロペラ102は、回転モータ110の回転軸先端に計4個取り付けられる。そして、マルチコプタ本体100は、各プロペラ102の回転を制御することで、上下左右に自在に空中を移動できる。また、筐体101には、2本の脚部103が垂直に設けられている。脚部103は、撮影カメラ200が着地面に接地しない高さを有し、撮影カメラ200よりも広い幅を有する。このような構造により、脚部103は、安定した着地を可能にすると共に、撮影カメラ200を保護している。
撮影カメラ200は、雲台201を介して、マルチコプタ本体100の下部に取り付けられる。雲台201は、撮影カメラ200が所望の姿勢を取るように可動する。
撮影カメラ200は、雲台201を介して、マルチコプタ本体100の下部に取り付けられる。雲台201は、撮影カメラ200が所望の姿勢を取るように可動する。
なお、マルチコプタ本体100及び撮影カメラ200は、下記の参考文献1に記載されているため、これ以上の説明を省略する。また、マスタードローンCm及びスレーブドローンCnに固有の構成は後記する。
参考文献1:[online],[平成31年1月29日検索],インターネット<URL:http://www.dji.com/ja/product/phantom-2>
参考文献1:[online],[平成31年1月29日検索],インターネット<URL:http://www.dji.com/ja/product/phantom-2>
[マスタードローンの構成]
図4を参照し、マスタードローンCm、カメラ制御装置10及びスレーブドローンCnの構成について順に説明する。
図4に示すように、マスタードローンCmは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210とを備える。
図4を参照し、マスタードローンCm、カメラ制御装置10及びスレーブドローンCnの構成について順に説明する。
図4に示すように、マスタードローンCmは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210とを備える。
回転モータ110は、後記するマルチコプタ制御部120からの指令に応じて、プロペラ102を回転させる一般的なモータである。この回転モータ110としては、例えば、ブラシレスDCモータをあげることができる。
マルチコプタ制御部120は、マスタードローンCmのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部120は、操作インターフェース部20から入力された操作情報(位置の制御信号)に従ってプロペラ102を回転させ、マスタードローンCmを移動させる。本実施形態では、マルチコプタ制御部120は、マルチコプタ本体100が常に水平を保つように、マスタードローンCm(マルチコプタ本体100)を制御することとする。
なお、マスタードローンCmは、マルチコプタ本体100の位置を計測するために、GPS、加速度センサ等の位置計測手段(不図示)を備える。そして、マルチコプタ制御部120は、位置計測手段で計測された位置をカメラ制御装置10に出力する。
撮影カメラ200は、被写体90を撮影する一般的なビデオカメラである。また、撮影カメラ200は、撮影した映像を外部(例えば、図示を省略した多視点映像生成装置)に出力する。
撮影カメラ制御部210は、マスタードローンCmの撮影カメラ200を制御するものである。つまり、撮影カメラ制御部210は、操作インターフェース部20から入力された操作情報(姿勢の制御信号)に従って、撮影カメラ200が注視点Pを向くように雲台201を駆動する。さらに、撮影カメラ制御部210は、操作インターフェース部20から入力された操作情報(デプスの制御信号)に従って、撮影カメラ200のデプスを制御する。
なお、マスタードローンCmは、撮影カメラ200の姿勢を計測するために、ロータリエンコーダ等の姿勢計測手段を備える。そして、撮影カメラ制御部210は、姿勢計測手段で計測された姿勢をカメラ制御装置10に出力する。
[カメラ制御装置の構成]
図4に示すように、カメラ制御装置10は、注視点算出部11と、仮想球体生成部12と、位置設定部13と、姿勢算出部14と、を備える。
図4に示すように、カメラ制御装置10は、注視点算出部11と、仮想球体生成部12と、位置設定部13と、姿勢算出部14と、を備える。
注視点算出部11は、マスタードローンCmから入力された位置及び姿勢と、操作インターフェース部20から入力されたデプスとを用いて、注視点Pの位置を算出するものである。注視点Pは、マスタードローンCmの位置から、マスタードローンCmの光軸Oxに向かって、デプスが示す距離にある(図2参照)。
ここで、スレーブドローンCnの並進ベクトルをTn、回転行列をRn、下付きの添え字nをスレーブドローンCnのカメラ番号1〜Nとする(但し、Nは1を超える自然数)。このとき、世界座標系Wとカメラ座標系Wnとの関係は、以下の式(1)で表される。
この場合、注視点Pの位置(世界座標)は、以下の式(2)〜式(4)で表わされる。なお、rが姿勢を表す行列の一成分を表し、OptaxismがマスタードローンCmの光軸を表し、TmがマスタードローンCmの並進ベクトルを表し、Depthがデプスを表す。また、式(4)の左辺は、注視点Pの位置を表す。
この姿勢を表す行列の一成分r及びマスタードローンCmの光軸Optaxismは、マスタードローンCmの姿勢から求められる。また、マスタードローンCmの並進ベクトルTmは、マスタードローンCmの位置から求められる。つまり、注視点算出部11は、式(2)〜式(4)を用いて、注視点Pの位置(世界座標)を算出できる。
その後、注視点算出部11は、注視点Pの位置及びデプスを仮想球体生成部12に出力する。
仮想球体生成部12は、図5に示すように、仮想球体VCを生成するものである。この仮想球体VCは、注視点算出部11から入力された注視点Pが仮想球体VCの中心となり、注視点算出部11から入力されたデプスが仮想球体VCの半径lとなる。そして、仮想球体生成部12は、生成した仮想球体VCの情報を位置設定部13に出力する。
なお、図5では、マスタードローンCmが被写体90の真上に位置し、撮影カメラ200が真下の被写体90を向いている。このマスタードローンCmから見たときの水平方向をx軸、垂直方向をy軸、奥行き方向をz軸として図示した。つまり、マスタードローンCmの光軸方向がz軸方向となる。
なお、図5では、マスタードローンCmが被写体90の真上に位置し、撮影カメラ200が真下の被写体90を向いている。このマスタードローンCmから見たときの水平方向をx軸、垂直方向をy軸、奥行き方向をz軸として図示した。つまり、マスタードローンCmの光軸方向がz軸方向となる。
位置設定部13は、仮想球体生成部12から入力された仮想球体VCの情報を参照し、仮想球体VC上において、スレーブドローンCnの位置が予め設定されるものである。例えば、操作者91は、図示を省略したマウス、キーボード等の操作手段を操作して、スレーブドローンCnの位置を位置設定部13に入力(設定)する。このとき、隣接するスレーブドローンCnが等間隔となるように、スレーブドローンCnの位置を仮想球体VCの上側半分の表面上に設定するとよい。
例えば、位置設定部13では、スレーブドローンCnの位置を1次元方向に設定する。図6(a)に示すように、マスタードローンCmが被写体90の真上に位置する場合を考える。この場合、図6(b)に示すように、各スレーブドローンCnの位置は、仮想球体VCの表面上であって、y−z平面上で1次元方向に14個設定されている。
なお、z軸を水平方向に設定し、各スレーブドローンCnを水平方向に配置することもできる。
なお、z軸を水平方向に設定し、各スレーブドローンCnを水平方向に配置することもできる。
また、例えば、位置設定部13では、スレーブドローンCnの位置を2次元方向に設定する。マスタードローンCmが被写体90の真上に位置する場合を考える。この場合、図7に示すように、各スレーブドローンCnの位置は、仮想球体VCの表面上であって、x軸方向及びy軸方向で整列するように2次元方向に36個設定されている。
なお、図6及び図7では、各スレーブドローンCnの位置を黒丸で図示した。また、図6(b)は、図6(a)の仮想球体VCをz軸方向から見た図である。また、図6(b)及び図7では、仮想球体VCの表面上に位置するため、各点の等間隔がz軸から離れるほど狭くなるように図示した。
また、図6(b)及び図7では、スレーブドローンCnの位置をそれぞれ14個、36個図示したが、実際には、スレーブドローンCnの位置はその台数分だけ設定すればよい。
また、図6(b)及び図7では、スレーブドローンCnの位置をそれぞれ14個、36個図示したが、実際には、スレーブドローンCnの位置はその台数分だけ設定すればよい。
その後、位置設定部13は、設定されたスレーブドローンCnの位置及び仮想球体VCの情報を姿勢算出部14に出力する。
姿勢算出部14は、位置設定部13から入力されたスレーブドローンCnの位置で注視点Pを向いた方向をスレーブドローンCnの姿勢として算出するものである。そして、姿勢算出部14は、スレーブドローンCnの位置及び姿勢をスレーブドローンCn(マルチコプタ制御部130及び撮影カメラ制御部220)に出力する。
<スレーブドローンの姿勢算出>
図8を参照し、スレーブドローンCnの姿勢算出について、具体的に説明する。
図8に示すように、スレーブドローンCnの位置が(ln,θn,φn)であることとする。ここで、lnは、注視点PからスレーブドローンCnまでの距離、つまり、仮想球体VCの半径lを表す。また、θnは、x−z平面上において、z軸を基準としたスレーブドローンCnの角度(緯度)を表す。また、φnは、x−y平面上において、y軸を基準としたスレーブドローンCnの角度(経度)を表す。
図8を参照し、スレーブドローンCnの姿勢算出について、具体的に説明する。
図8に示すように、スレーブドローンCnの位置が(ln,θn,φn)であることとする。ここで、lnは、注視点PからスレーブドローンCnまでの距離、つまり、仮想球体VCの半径lを表す。また、θnは、x−z平面上において、z軸を基準としたスレーブドローンCnの角度(緯度)を表す。また、φnは、x−y平面上において、y軸を基準としたスレーブドローンCnの角度(経度)を表す。
マスタードローンCmのカメラ座標系において、スレーブドローンCnの位置xnへの変換は、以下の式(5)で表される。式(5)では、球面座標系におけるスレーブドローンCnの位置(ln,θn,φn)を、カメラ座標系におけるスレーブドローンCnの位置xnに変換する。このカメラ座標系は、マスタードローンCmの位置を原点とする。すなわち、球面座標系におけるスレーブドローンCnの位置(ln,θn,φn)をカメラ座標系(直交直線座標)に変換し、マスタードローンCmの光軸方向にデプスだけ平行移動させる。このとき、カメラ座標系における注視点pの位置は、以下の式(6)で表される。
マスタードローンCmの位置をtm、マスタードローンCmの姿勢をRmとする。世界座標系において、スレーブドローンCnの位置Xnへの変換は、以下の式(7)で表される。つまり、式(7)を用いて、カメラ座標系におけるスレーブドローンCnの位置xnを、世界座標系におけるスレーブドローンCnの位置Xnに変換する。このとき、世界座標系における注視点Pの位置は、以下の式(8)で表される。
スレーブドローンCnの姿勢Rnは、スレーブドローンCnの位置Xnで注視点Pを向いた方向となり、以下の式(9)及び式(10)で表される。ここで、vは、地面と垂直のベクトルを表す。
以上より、姿勢算出部14は、式(5)〜式(10)を用いて、スレーブドローンCnの姿勢を算出する。そして、姿勢算出部14は、スレーブドローンCnが位置Xnで姿勢Rnを取るように制御すればよい。
[スレーブドローンの構成]
図4に示すように、スレーブドローンCnは、回転モータ110と、マルチコプタ制御部130と、撮影カメラ200と、撮影カメラ制御部220とを備える。
なお、回転モータ110及び撮影カメラ200は、マスタードローンCmと同様のため、これ以上の説明を省略する。
図4に示すように、スレーブドローンCnは、回転モータ110と、マルチコプタ制御部130と、撮影カメラ200と、撮影カメラ制御部220とを備える。
なお、回転モータ110及び撮影カメラ200は、マスタードローンCmと同様のため、これ以上の説明を省略する。
マルチコプタ制御部130は、スレーブドローンCnのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部130は、姿勢算出部14から入力された位置xnにスレーブドローンCnを移動させる。
撮影カメラ制御部220は、スレーブドローンCnの撮影カメラ200を制御するものである。つまり、撮影カメラ制御部220は、撮影カメラ200が姿勢算出部14から入力された姿勢Rnを取るように、雲台201を駆動する。
このようにして、スレーブドローンCnが位置xnに移動し、撮影カメラ200が注視点Pを向くことになる。
このようにして、スレーブドローンCnが位置xnに移動し、撮影カメラ200が注視点Pを向くことになる。
[多視点ロボットカメラシステムの動作]
図9を参照し、多視点ロボットカメラシステム1の動作について説明する。
ステップS1において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCmの位置及び姿勢を制御する。
ステップS2において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCmのデプスを制御する。
図9を参照し、多視点ロボットカメラシステム1の動作について説明する。
ステップS1において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCmの位置及び姿勢を制御する。
ステップS2において、カメラマンは、操作インターフェース部20を操作し、マスタードローンCmのデプスを制御する。
ステップS3において、注視点算出部11は、マスタードローンCmの位置と姿勢とデプスとを用いて、注視点Pの位置を算出する。そして、仮想球体生成部12は、注視点Pが中心となり、デプスが半径となる仮想球体VCを生成する。
ステップS4において、位置設定部13は、スレーブドローンCnの位置を仮想球体VC上に設定する。
ステップS5において、姿勢算出部14は、式(5)を用いて、球面座標系からカメラ座標系にスレーブドローンCnの位置を変換する。
ステップS4において、位置設定部13は、スレーブドローンCnの位置を仮想球体VC上に設定する。
ステップS5において、姿勢算出部14は、式(5)を用いて、球面座標系からカメラ座標系にスレーブドローンCnの位置を変換する。
ステップS6において、姿勢算出部14は、式(7)を用いて、カメラ座標系におけるスレーブドローンCnの位置xnを、世界座標系におけるスレーブドローンCnの位置Xnに変換する。
ステップS7において、姿勢算出部14は、式(9)及び式(10)を用いて、スレーブドローンCnの姿勢Rnを算出し、スレーブドローンCnを制御する。
ステップS7において、姿勢算出部14は、式(9)及び式(10)を用いて、スレーブドローンCnの姿勢Rnを算出し、スレーブドローンCnを制御する。
ステップS8において、カメラ制御装置10は、多視点映像の撮影が完了したか否かを判定する。例えば、カメラマンが、操作インターフェース部20を用いて、撮影完了をカメラ制御装置10に指令した場合、カメラ制御装置10は、多視点映像の撮影が完了したと判定する。
多視点映像の撮影が完了した場合(ステップS8でYes)、カメラ制御装置10は、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8でNo)、カメラ制御装置10は、ステップS2の処理に戻る。
多視点映像の撮影が完了した場合(ステップS8でYes)、カメラ制御装置10は、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8でNo)、カメラ制御装置10は、ステップS2の処理に戻る。
[作用・効果]
以上のように、多視点ロボットカメラシステム1は、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。例えば、この多視点映像を用いれば、被写体の周囲を滑らかに視点が回り込むような映像表現において、その品質を向上させることができる(参考文献2参照)。
参考文献2:「小多視点ロボットカメラによる「ぐるっとビジョン」を用いた新しい映像表現技術の開発」、[online],[平成31年1月29日検索],インターネット<URL:https://www.hbf.or.jp/magazine/article/hbf2016_vol3>
以上のように、多視点ロボットカメラシステム1は、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。例えば、この多視点映像を用いれば、被写体の周囲を滑らかに視点が回り込むような映像表現において、その品質を向上させることができる(参考文献2参照)。
参考文献2:「小多視点ロボットカメラによる「ぐるっとビジョン」を用いた新しい映像表現技術の開発」、[online],[平成31年1月29日検索],インターネット<URL:https://www.hbf.or.jp/magazine/article/hbf2016_vol3>
3次元モデルを生成するためには、ドローンCを全天周状に配置することが好ましい。従来のロボットカメラは基本的に地面に設置するものであり、空間中への設置が困難である。その一方、多視点ロボットカメラシステム1は、ドローンCを空間中に全天周状に配置することができる。その結果、多視点映像から生成した3次元モデルを用いて、高品質なIP立体映像を提供することが可能となる。
多視点映像を撮影する際、隣り合うロボットカメラの輻輳角を適切に保つことが好ましい。従来のロボットカメラは、設置位置が固定されているが、被写体の移動により輻輳角が変化するので、適切な輻輳角を保つのが困難である。その一方、多視点ロボットカメラシステム1は、ドローンCが空間中を自在に移動できるので、ドローンCを適切な輻輳角に保って多視点映像を撮影することができる。
従来のロボットカメラの設営には、ロボットカメラの設置、ケーブルの敷設等の労力がかかる。その一方、多視点ロボットカメラシステム1は、カメラの設置及びケーブルの敷設が不要であり、設営の労力を削減することができる。
従来のロボットカメラの設営には、ロボットカメラの設置、ケーブルの敷設等の労力がかかる。その一方、多視点ロボットカメラシステム1は、カメラの設置及びケーブルの敷設が不要であり、設営の労力を削減することができる。
(第2実施形態)
[多視点ロボットカメラシステムの構成]
図10を参照し、第2実施形態に係る多視点ロボットカメラシステム1Aの構成について、第1実施形態と異なる点を説明する。
第1実施形態では、スレーブドローンCnの位置を手動で設定したのに対し、第2実施形態では、後記する球面分布処理によりスレーブドローンCnの位置を算出する点が異なる。
[多視点ロボットカメラシステムの構成]
図10を参照し、第2実施形態に係る多視点ロボットカメラシステム1Aの構成について、第1実施形態と異なる点を説明する。
第1実施形態では、スレーブドローンCnの位置を手動で設定したのに対し、第2実施形態では、後記する球面分布処理によりスレーブドローンCnの位置を算出する点が異なる。
図10に示すように、多視点ロボットカメラシステム1Aは、カメラ制御装置10Aと、操作インターフェース部20と、マスタードローンCmと、スレーブドローンCnと、を備える。
なお、カメラ制御装置10A以外は、第1実施形態と同様のため、説明を省略する。
なお、カメラ制御装置10A以外は、第1実施形態と同様のため、説明を省略する。
カメラ制御装置10Aは、多視点映像を撮影するために、スレーブドローンCnの位置及び姿勢を制御するものである。本実施形態では、カメラ制御装置10Aは、各スレーブドローンCnが適切な輻輳角を保ち、各スレーブドローンCnが全天周状に配置されるように、球面分布処理によりスレーブドローンCnの位置を算出する。
[カメラ制御装置の構成]
カメラ制御装置10Aは、注視点算出部11と、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11及び仮想球体生成部12は、第1実施形態と同様のため、説明を省略する。
カメラ制御装置10Aは、注視点算出部11と、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11及び仮想球体生成部12は、第1実施形態と同様のため、説明を省略する。
位置算出部15は、球面分布処理により、仮想球体VCの上側半球面上に位置する点の位置を、スレーブドローンカメラのCn位置として算出するものである。
球面分布処理とは、複数の点を仮想球体の表面上に一様に分布させる処理のことである。例えば、球面分布処理としては、一般化螺旋集合、一様乱数、等積投影法の逆投影、及び、正多面体の頂点に基づく手法があげられる。ここで、簡易な演算で一様性が高い点集合を算出できるため、一般化螺旋集合を用いることが好ましい(参考文献3参照)。本実施形態では、一般化螺旋集合を用いることとして説明する。
参考文献3:「多数の点を球面状に一様分布させるソフトウェアGSS Generator」、山路敦、情報地質、第12巻、第1号、3−12頁、2001年
球面分布処理とは、複数の点を仮想球体の表面上に一様に分布させる処理のことである。例えば、球面分布処理としては、一般化螺旋集合、一様乱数、等積投影法の逆投影、及び、正多面体の頂点に基づく手法があげられる。ここで、簡易な演算で一様性が高い点集合を算出できるため、一般化螺旋集合を用いることが好ましい(参考文献3参照)。本実施形態では、一般化螺旋集合を用いることとして説明する。
参考文献3:「多数の点を球面状に一様分布させるソフトウェアGSS Generator」、山路敦、情報地質、第12巻、第1号、3−12頁、2001年
<スレーブドローンの位置算出>
図11〜図13を参照し、スレーブドローンCnの姿勢算出について具体的に説明する。
図11に示すように、第1実施形態と同様、球面座標系(仮想球体VC)が設定されていることとする。この球面座標系では、n番目の点の位置を緯度θnと経度φnとで表現し、各点がn台目のドローンCの位置を表すこととする(但し、1≦n≦N)。まず、図12に示すように、一般化螺旋集合により、仮想球体VCの球面上で2N台分のドローンCの配置位置を求め、その後、N台のドローンCを仮想球体VCの球面の上側半分に均一に配置する。この場合、2N台のドローンCのうち、n台目のドローンCの位置は、式(11)〜式(13)によって算出できる。
図11〜図13を参照し、スレーブドローンCnの姿勢算出について具体的に説明する。
図11に示すように、第1実施形態と同様、球面座標系(仮想球体VC)が設定されていることとする。この球面座標系では、n番目の点の位置を緯度θnと経度φnとで表現し、各点がn台目のドローンCの位置を表すこととする(但し、1≦n≦N)。まず、図12に示すように、一般化螺旋集合により、仮想球体VCの球面上で2N台分のドローンCの配置位置を求め、その後、N台のドローンCを仮想球体VCの球面の上側半分に均一に配置する。この場合、2N台のドローンCのうち、n台目のドローンCの位置は、式(11)〜式(13)によって算出できる。
ここで、θ1=π、θN=0、φ1=0とする。すなわち、一般化螺旋集合では、式(11)のパラメータhnを使って、n番目の点の座標(θn,φn)を式(12)及び式(13)の漸化式で表すことができる。
1台目(n=1)のドローンCが南極に位置し、2N台目(n=2N)のドローンCが北極に位置する。球面座標系の南極及び北極では歪みが生じるため、一様性が損なわれる。このため、n番目の点を終点とする単位ベクトルをanとし、単位ベクトルa1,a2Nを以下の式(14)及び式(15)で算出する。
そして、球面座標系の上側半分にあたるN+1個目から2N個目までの点の位置を、N+1台目から2N台目までのドローンCの位置として用いる。このとき、マスタードローンCmの位置を北極とし、それ以外の位置をスレーブドローンCnの位置とすればよい。
以上より、位置算出部15は、一般化螺旋集合で定義される式(11)〜式(15)を用いて、スレーブドローンCnの位置を算出する。
その後、位置算出部15は、算出したスレーブドローンCnの位置及び仮想球体VCの情報を姿勢算出部14Aに出力する。
その後、位置算出部15は、算出したスレーブドローンCnの位置及び仮想球体VCの情報を姿勢算出部14Aに出力する。
図10に戻り、カメラ制御装置10Aの構成について、説明を続ける。
姿勢算出部14Aは、位置算出部15から入力されたスレーブドローンCnの位置で注視点Pを向いた方向をスレーブドローンCnの姿勢として算出するものである。
姿勢算出部14Aは、位置算出部15から入力されたスレーブドローンCnの位置で注視点Pを向いた方向をスレーブドローンCnの姿勢として算出するものである。
マスタードローンCmのカメラ座標系において、スレーブドローンCnの位置xnへの変換は、以下の式(16)で表される。式(16)では、球面座標系におけるスレーブドローンCnの位置(l=1,θn,φn)を、カメラ座標系におけるスレーブドローンCnの位置xnに変換する。すなわち、球面座標系におけるスレーブドローンCnの位置(l,θn,φn)をカメラ座標系(直交直線座標)に変換し、一般化螺旋集合の北極が直交直線座標系の原点と一致するように平行移動させる。この式(16)では、球面座標系におけるスレーブドローンCmの位置が(l=1,θm,φm)で表される。
なお、姿勢算出部14Aは、式(5)の代わりに式(16)を用いる以外、第1実施形態と同様のため、これ以上の説明を省略する。
[多視点ロボットカメラシステムの動作]
図13を参照し、多視点ロボットカメラシステム1Aの動作について説明する。
ステップS1〜S3の処理は、第1実施形態と同様のため、説明を省略する。
図13を参照し、多視点ロボットカメラシステム1Aの動作について説明する。
ステップS1〜S3の処理は、第1実施形態と同様のため、説明を省略する。
ステップS4Bにおいて、位置算出部15は、球面分布処理により、仮想球体VCの上側半球面に位置する点の位置を、スレーブドローンのCn位置として算出する。具体的には、位置算出部15は、一般化螺旋集合で定義される式(11)〜式(15)を用いて、スレーブドローンCnの位置を算出する。
ステップS5Bにおいて、姿勢算出部14Aは、式(16)を用いて、球面座標系からカメラ座標系にスレーブドローンCnの位置を変換する。
ステップS6〜S8の処理は、第1実施形態と同様のため、説明を省略する。
ステップS6〜S8の処理は、第1実施形態と同様のため、説明を省略する。
[作用・効果]
以上のように、多視点ロボットカメラシステム1Aは、第1実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Aは、スレーブドローンCnの位置を手動で設定する必要がないので、多視点映像の撮影に要する労力を削減することができる。
以上のように、多視点ロボットカメラシステム1Aは、第1実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Aは、スレーブドローンCnの位置を手動で設定する必要がないので、多視点映像の撮影に要する労力を削減することができる。
(第3実施形態)
[多視点ロボットカメラシステムの構成]
図14を参照し、第3実施形態に係る多視点ロボットカメラシステム1Bの構成について、第2実施形態と異なる点を説明する。
第2実施形態では、カメラマンがマスタードローンCmを手動で操作したのに対し、第3実施形態では、マスタードローンCmが被写体90に自動追随する点が異なる。
[多視点ロボットカメラシステムの構成]
図14を参照し、第3実施形態に係る多視点ロボットカメラシステム1Bの構成について、第2実施形態と異なる点を説明する。
第2実施形態では、カメラマンがマスタードローンCmを手動で操作したのに対し、第3実施形態では、マスタードローンCmが被写体90に自動追随する点が異なる。
図14に示すように、多視点ロボットカメラシステム1Bは、カメラ制御装置10Bと、マスタードローンCBmと、スレーブドローンCnと、を備える。すなわち、多視点ロボットカメラシステム1Bは、操作インターフェース部20を備えていない。
なお、スレーブドローンCnは、第2実施形態と同様のため、説明を省略する。
なお、スレーブドローンCnは、第2実施形態と同様のため、説明を省略する。
カメラ制御装置10Bは、多視点映像を撮影するために、スレーブドローンCnの位置及び姿勢を制御するものである。本実施形態では、カメラ制御装置10Bは、操作インターフェース部20からの操作情報を用いずに、マスタードローンCBmの光軸と地面との交点を注視点Pとして算出する。
[カメラ制御装置の構成]
カメラ制御装置10Bは、注視点算出部11Bと、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11B以外は、第2実施形態と同様のため、説明を省略する。
カメラ制御装置10Bは、注視点算出部11Bと、仮想球体生成部12と、位置算出部15と、姿勢算出部14Aと、を備える。
なお、注視点算出部11B以外は、第2実施形態と同様のため、説明を省略する。
注視点算出部11Bは、マスタードローンCmから入力された位置及び姿勢を用いて、注視点P及びデプスを算出するものである。すなわち、注視点算出部11Bは、マスタードローンCBmが備える撮影カメラ200の光軸と、地面を想定した平面との交点を注視点Pとして算出する。このとき、注視点算出部11Bは、より正確な注視点Pを算出するため、予め設定した高さ(例えば、人間の平均身長の半分)を注視点Pの高さに加えることが好ましい。さらに、注視点算出部11Bは、マスタードローンCmの位置と算出した注視点Pとの距離をデプスとして算出する。
[マスタードローンの構成]
図14を参照し、マスタードローンCBmの構成について説明する。
図14に示すように、マスタードローンCBmは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210と、被写体追随部230と、を備える。
なお、被写体追随部230以外は、第2実施形態と同様のため、説明を省略する。
図14を参照し、マスタードローンCBmの構成について説明する。
図14に示すように、マスタードローンCBmは、回転モータ110と、マルチコプタ制御部120と、撮影カメラ200と、撮影カメラ制御部210と、被写体追随部230と、を備える。
なお、被写体追随部230以外は、第2実施形態と同様のため、説明を省略する。
被写体追随部230は、マスタードローンCBmを被写体の真上に追随させるものである。すなわち、被写体追随部230は、地面上の被写体に対し、地面から垂直方向の上空にマスタードローンCBmが位置するように、マスタードローンCBmを任意の手法で自動追随させる。例えば、被写体追随部230は、撮影カメラ200を真下に向けるように撮影カメラ制御部210に指令する。そして、被写体追随部230は、撮影カメラ制御部210の撮影画像から被写体の位置を検出する。さらに、被写体追随部230は、撮影画像の中央に被写体が映る位置にマスタードローンCBmを移動させる指令をマルチコプタ制御部120に出力する。
なお、マスタードローンCBmを被写体の真上に追随させる手法は、前記に限定されない。例えば、位置計測手段を被写体に装着し、その計測位置に基づいてマスタードローンCBmを追随させてもよい。
[多視点ロボットカメラシステムの動作]
図15を参照し、多視点ロボットカメラシステム1Bの動作について説明する。
ステップS4B〜S7の処理は、第2実施形態と同様のため、説明を省略する。
図15を参照し、多視点ロボットカメラシステム1Bの動作について説明する。
ステップS4B〜S7の処理は、第2実施形態と同様のため、説明を省略する。
ステップS9において、被写体追随部230は、マスタードローンCBmを被写体の真上に追随させる。そして、注視点算出部11Bは、マスタードローンCmから入力された位置及び姿勢を用いて、注視点P及びデプスを算出する。
ステップS8Bにおいて、例えば、カメラマンが、図示を省略したマウス、キーボード等の操作手段を用いて、撮影完了をカメラ制御装置10Bに指令した場合、カメラ制御装置10Bは、多視点映像の撮影が完了したと判定する。
多視点映像の撮影が完了した場合(ステップS8BでYes)、カメラ制御装置10Bは、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8BでNo)、カメラ制御装置10Bは、ステップS9の処理に戻る。
多視点映像の撮影が完了した場合(ステップS8BでYes)、カメラ制御装置10Bは、処理を終了する。
多視点映像の撮影が完了していない場合(ステップS8BでNo)、カメラ制御装置10Bは、ステップS9の処理に戻る。
[作用・効果]
以上のように、多視点ロボットカメラシステム1Bは、第2実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Bは、カメラマンがマスタードローンCmを操作する必要がないので、多視点映像の撮影に要する労力をさらに削減することができる。
以上のように、多視点ロボットカメラシステム1Bは、第2実施形態と同様、ドローンCを適切な輻輳角で全天周状に配置できるので、高品質な映像表現が可能となる多視点映像を撮影することができる。さらに、多視点ロボットカメラシステム1Bは、カメラマンがマスタードローンCmを操作する必要がないので、多視点映像の撮影に要する労力をさらに削減することができる。
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
スレーブドローンの位置及び間隔は、多視点映像の用途(アプリケーション)に応じて任意に設定可能である。つまり、スレーブドローンの位置は、上側半球面上に限定されず、仮想球体の球面上(例えば、半球面上)であればよい。また、隣接するスレーブドローンの間隔は、等間隔でなくともよい。
マルチコプタ本体の構造(例えば、筐体の形状、プロペラの数)は、前記した各実施形態に限定されない。つまり、マルチコプタ本体は、カメラ本体を搭載又は内蔵し、飛行可能なものであればよい。
前記した各実施形態では、マスターカメラがマルチコプタ型のロボットカメラであることとして説明したが、一般的な撮影カメラであってもよい。例えば、マスターカメラとして、三脚に搭載される撮影カメラ、又は、カメラマンの肩に担がれる撮影カメラがあげられる。
前記した各実施形態では、操作インターフェース部でマスターカメラの位置及び姿勢を操作することとして説明したが、マスターカメラのズーム、フォーカス及びアイリスも操作可能としてもよい。さらに、マスターカメラのズーム、フォーカス及びアイリスは、自動で調整してもよい。
前記した各実施形態では、操作インターフェース部が制御装置から独立したものとして説明したが、制御装置が操作インターフェース部の機能を備えてもよい。
前記した各実施形態では、移動体がマルチコプタであることとして説明したが、これに限定されない。例えば、移動体として、ラジオコントロール型のヘリコプタ(ラジコンヘリコプタ)があげられる。
前記した各実施形態では、移動体がマルチコプタであることとして説明したが、これに限定されない。例えば、移動体として、ラジオコントロール型のヘリコプタ(ラジコンヘリコプタ)があげられる。
前記した各実施形態では、カメラ制御装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したカメラ制御装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1,1A,1B 多視点ロボットカメラシステム(多視点ロボットカメラシステム)
10,10A,10B カメラ制御装置
11,11B 注視点算出部
12 仮想球体生成部
13 位置設定部
14,14A 姿勢算出部
15 位置算出部
20 操作インターフェース部
90 被写体
91 操作者
100 マルチコプタ本体(移動体)
101 筐体
102 プロペラ
103 脚部
110 回転モータ
120,130 マルチコプタ制御部
200 撮影カメラ
201 雲台
210,220 撮影カメラ制御部
230 被写体追随部
C ドローン(ロボットカメラ)
Cm,CBm マスタードローン(マスターカメラ)
Cn スレーブドローン(スレーブカメラ)
10,10A,10B カメラ制御装置
11,11B 注視点算出部
12 仮想球体生成部
13 位置設定部
14,14A 姿勢算出部
15 位置算出部
20 操作インターフェース部
90 被写体
91 操作者
100 マルチコプタ本体(移動体)
101 筐体
102 プロペラ
103 脚部
110 回転モータ
120,130 マルチコプタ制御部
200 撮影カメラ
201 雲台
210,220 撮影カメラ制御部
230 被写体追随部
C ドローン(ロボットカメラ)
Cm,CBm マスタードローン(マスターカメラ)
Cn スレーブドローン(スレーブカメラ)
Claims (8)
- 空間内を自在に移動可能な移動体及び前記移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するために前記ロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、
前記ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、前記マスターカメラから被写体までの距離であるデプスとが入力され、入力された前記マスターカメラの位置から前記マスターカメラの光軸方向で前記デプスが示す距離にある注視点の位置を算出する注視点算出部と、
前記注視点が中心、かつ、前記デプスが半径となる仮想球体を生成する仮想球体生成部と、
前記マスターカメラ以外のロボットカメラであるスレーブカメラの位置が前記仮想球体の球面上に予め設定される位置設定部と、
前記スレーブカメラの位置で前記注視点を向いた方向を前記スレーブカメラの姿勢として算出する姿勢算出部と、
を備えることを特徴とするカメラ制御装置。 - 前記位置設定部は、前記仮想球体上において、1次元方向又は2次元方向で前記スレーブカメラの位置が予め設定されることを特徴とする請求項1に記載のカメラ制御装置。
- 空間内を自在に移動可能な移動体及び前記移動体に搭載された撮影カメラからなるロボットカメラを複数台用いて、多視点映像を撮影するために前記ロボットカメラの位置及び姿勢を制御するカメラ制御装置であって、
前記ロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢と、前記マスターカメラから被写体までの距離であるデプスとが入力され、入力された前記マスターカメラの位置から前記マスターカメラの光軸方向で前記デプスが示す距離にある注視点の位置を算出する注視点算出部と、
前記注視点が中心、かつ、前記デプスが半径となる仮想球体を生成する仮想球体生成部と、
複数の点を前記仮想球体上に分布させる球面分布処理により、前記仮想球体の球面上に位置する点の位置を、前記マスターカメラ以外のロボットカメラであるスレーブカメラの位置として算出する位置算出部と、
前記スレーブカメラの位置で前記注視点を向いた方向を前記スレーブカメラの姿勢として算出する姿勢算出部と、
を備えることを特徴とするカメラ制御装置。 - 前記位置算出部は、前記球面分布処理として、一般化螺旋集合、一様乱数、等積投影法の逆投影、又は、正多面体の頂点に基づく手法の何れかを行うことを特徴とする請求項3に記載のカメラ制御装置。
- 前記移動体は、複数のプロペラにより前記空間内を移動可能なマルチコプタであることを特徴とする請求項1から請求項4の何れか一項に記載のカメラ制御装置。
- コンピュータを、請求項1から請求項4の何れか一項に記載のカメラ制御装置として機能させるためのプログラム。
- 複数台のロボットカメラと、請求項1から請求項5の何れか一項に記載のカメラ制御装置とを備える多視点ロボットカメラシステムであって、
前記ロボットカメラは、
複数のプロペラにより空間内を自在に移動可能なマルチコプタと、
前記マルチコプタに搭載された撮影カメラと、
前記マルチコプタの位置を制御するマルチコプタ制御部と、
前記撮影カメラの姿勢を制御するカメラ制御部と、
を備えることを特徴とする多視点ロボットカメラシステム。 - 前記ロボットカメラのうちの1台がマスターカメラとして予め設定され、
前記マスターカメラは、前記マスターカメラを前記被写体の真上に追随させる被写体追随部、をさらに備えることを特徴とする請求項7に記載の多視点ロボットカメラシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044853A JP2020147105A (ja) | 2019-03-12 | 2019-03-12 | カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044853A JP2020147105A (ja) | 2019-03-12 | 2019-03-12 | カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020147105A true JP2020147105A (ja) | 2020-09-17 |
Family
ID=72431576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044853A Pending JP2020147105A (ja) | 2019-03-12 | 2019-03-12 | カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020147105A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007150536A (ja) * | 2005-11-25 | 2007-06-14 | Hitachi Displays Ltd | 立体映像撮影表示装置 |
JP2015531175A (ja) * | 2012-05-22 | 2015-10-29 | オトイ、インコーポレイテッド | ポータブルモバイル照明ステージ |
JP2016171478A (ja) * | 2015-03-13 | 2016-09-23 | 日本放送協会 | カメラ制御装置及びそのプログラム |
WO2017057157A1 (ja) * | 2015-09-30 | 2017-04-06 | 株式会社ニコン | 飛行装置、移動装置、サーバおよびプログラム |
WO2018088037A1 (ja) * | 2016-11-14 | 2018-05-17 | ソニー株式会社 | 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム |
-
2019
- 2019-03-12 JP JP2019044853A patent/JP2020147105A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007150536A (ja) * | 2005-11-25 | 2007-06-14 | Hitachi Displays Ltd | 立体映像撮影表示装置 |
JP2015531175A (ja) * | 2012-05-22 | 2015-10-29 | オトイ、インコーポレイテッド | ポータブルモバイル照明ステージ |
JP2016171478A (ja) * | 2015-03-13 | 2016-09-23 | 日本放送協会 | カメラ制御装置及びそのプログラム |
WO2017057157A1 (ja) * | 2015-09-30 | 2017-04-06 | 株式会社ニコン | 飛行装置、移動装置、サーバおよびプログラム |
WO2018088037A1 (ja) * | 2016-11-14 | 2018-05-17 | ソニー株式会社 | 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7663649B2 (en) | Information processing device and method for aiding control operations relating to controlling the position and orientation of a virtual object and method for changing the positioning and orientation of a virtual object | |
WO2018076154A1 (zh) | 一种基于鱼眼摄像机空间位姿标定的全景视频生成方法 | |
JP5093053B2 (ja) | 電子カメラ | |
JP5054971B2 (ja) | ディジタル3d/360度カメラシステム | |
JP7223449B2 (ja) | 撮影に基づく3dモデリングシステム | |
Onoe et al. | Visual surveillance and monitoring system using an omnidirectional video camera | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
JP4115117B2 (ja) | 情報処理装置および方法 | |
US6088527A (en) | Apparatus and process for producing an image sequence | |
CN111801198A (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
CN110332930B (zh) | 一种位置确定方法、装置及设备 | |
US20210392275A1 (en) | Camera array for a mediated-reality system | |
WO2019119426A1 (zh) | 基于无人机的立体成像方法和装置 | |
JP6450226B2 (ja) | カメラ制御装置及びそのプログラム | |
KR101588935B1 (ko) | 가상현실 이미지 프레젠테이션 및 3d 공간 내에서의 컨트롤을 위한 3d 기하학 데이터의 이용방법 | |
CN113763480A (zh) | 一种多镜头全景摄像机组合标定方法 | |
JP6622621B2 (ja) | 多視点カメラ制御装置及びそのプログラム、並びに、多視点映像撮影システム | |
CN107492124A (zh) | 鱼眼摄像头的平面标定装置 | |
JP2020147105A (ja) | カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム | |
JP2017134775A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2019133214A (ja) | 画像表示装置、該装置を含む映像表示システム、画像表示方法および画像表示用プログラム | |
JP6073114B2 (ja) | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム | |
KR20200030205A (ko) | 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법 | |
JP5878511B2 (ja) | 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法 | |
JP7068906B2 (ja) | 多視点カメラ制御装置及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230620 |