JP2016171478A - カメラ制御装置及びそのプログラム - Google Patents

カメラ制御装置及びそのプログラム Download PDF

Info

Publication number
JP2016171478A
JP2016171478A JP2015050243A JP2015050243A JP2016171478A JP 2016171478 A JP2016171478 A JP 2016171478A JP 2015050243 A JP2015050243 A JP 2015050243A JP 2015050243 A JP2015050243 A JP 2015050243A JP 2016171478 A JP2016171478 A JP 2016171478A
Authority
JP
Japan
Prior art keywords
camera
slave
calculation unit
virtual
master
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015050243A
Other languages
English (en)
Other versions
JP6450226B2 (ja
Inventor
健佑 池谷
Takesuke Iketani
健佑 池谷
健介 久富
Kensuke Hisatomi
健介 久富
片山 美和
Miwa Katayama
美和 片山
三科 智之
Tomoyuki Mishina
智之 三科
岩舘 祐一
Yuichi Iwadate
祐一 岩舘
正規 加納
Masanori Kano
正規 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2015050243A priority Critical patent/JP6450226B2/ja
Publication of JP2016171478A publication Critical patent/JP2016171478A/ja
Application granted granted Critical
Publication of JP6450226B2 publication Critical patent/JP6450226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Lens Barrels (AREA)
  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】被写体が移動した場合でも適切な輻輳角を保つことができるカメラ制御装置を提供する。【解決手段】多視点ロボットカメラシステム1は、制御装置10が、マスターカメラCmの位置からマスターカメラCmの光軸方向でデプスが示す距離にある注視点の位置を算出する注視点算出部12と、マスターカメラCmの位置を通過するようにカメラパスを設定するカメラパス設定部16とを備える。スレーブカメラCnが、スレーブカメラCnの位置を算出する位置算出部120と、スレーブカメラCnの姿勢を算出する姿勢算出部220と、スレーブカメラCnのズーム値を算出するズーム値算出部240とを備える。【選択図】図4

Description

本願発明は、移動体に搭載されたカメラを複数台用いて多視点映像を撮影するために、カメラの位置及び姿勢を算出するカメラ制御装置及びそのプログラムに関する。
従来技術として、動く被写体をパンフォローした多視点映像を撮影することが可能な多視点ロボットカメラシステムが提案されている(例えば、非特許文献1,2)。多視点ロボットカメラシステムは、複数台のロボットカメラを協調制御するシステムであり、1人のカメラマンの操作によって全てのロボットカメラを3次元空間中の被写体へ一斉に方向制御することで、被写体の多視点映像を撮影できる。
この多視点ロボットカメラシステムでは、複数台のロボットカメラのうちの1台を、カメラマンが操作するマスターカメラとして設定し、そのマスターカメラ以外のロボットカメラがスレーブカメラとなる。このマスターカメラの光軸上には注視点が設定され、スレーブカメラが注視点に自動的に方向制御される。そして、カメラマンは、マスターカメラを操作して、注視点を被写体上に設定することで、全てのロボットカメラが被写体に方向制御されて、多視点映像を撮影することができる。
ここで、例えば、撮影映像のアプリケーションとして、非特許文献3に記載の技術が提案されている。この非特許文献3に記載の技術は、時間を止めて視点が被写体の周囲を回り込むような映像表現を行うものであり、多視点映像にも適用可能である。
冨山仁博 岩舘祐一,"多視点ハイビジョン映像生成システムの開発",映像情報メディア学会誌,64,4,pp.622-628 (2010) "多視点ロボットカメラシステムを用いた映像制作",兼六館出版,"放送技術",2013年66巻11月号,pp.102-105 "ぐるっとビジョン",[online],[平成26年11月12日検索],インターネット<URL:http://www.nhk.or.jp/strl/open2013/tenji/pdf/21.pdf>
非特許文献3のアプリケーションを多視点映像に適用する場合、ロボットカメラは、アプリケーション毎に適切な輻輳角で多視点映像を撮影することが好ましい。しかし、多視点ロボットカメラシステムは、ロボットカメラの設置位置が固定されているため、被写体が移動した場合、適切な輻輳角を保つことが困難である。その結果、ロボットカメラを手動で再配置する作業を要し、多視点映像の撮影に非常に手間がかかるという問題がある。
なお、輻輳角とは、隣接するロボットカメラの光軸同士が交わる角度である。つまり、輻輳角は、あるロボットカメラと被写体とを結ぶ直線と、別のロボットカメラと被写体とを結ぶ直線とのなす角になる。
本願発明は、被写体が移動した場合でも適切な輻輳角を保つことができるカメラ制御装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係るカメラ制御装置は、移動体に搭載されて空間内を自在に移動可能なロボットカメラを複数台用いて多視点映像を撮影するために、ロボットカメラの位置及び姿勢を算出するカメラ制御装置であって、注視点算出部と、球体設定部と、カメラパス設定部と、円錐設定部と、交点算出部と、姿勢算出部とを備える構成とした。
かかる構成によれば、カメラ制御装置は、注視点算出部によって、ロボットカメラ又は撮影カメラのうち予め設定された1台のマスターカメラで計測された位置及び姿勢と、マスターカメラから被写体までの距離であるデプスとが入力され、入力されたマスターカメラの位置からマスターカメラの光軸方向でデプスが示す距離にある注視点の位置を算出する。
カメラ制御装置は、球体設定部によって、注視点が中心、かつ、デプスが半径となる仮想球体を設定する。
カメラ制御装置は、カメラパス設定部によって、仮想球体上におけるマスターカメラの位置を通過するように、カメラパスを仮想球体上に予め設定する。このカメラパスは、マスターカメラ以外のロボットカメラであるスレーブカメラが配置される経路(パス)を表す。
カメラ制御装置は、円錐設定部によって、注視点が頂点、かつ、注視点からマスターカメラの位置までが母線、かつ、母線と側面とのなす角が予め設定した輻輳角となる仮想第1円錐を設定する。
つまり、仮想第1円錐の側面が、適切な輻輳角を保つことができる位置を表している。
カメラ制御装置は、交点算出部によって、仮想第1円錐の側面と仮想球体とが交わる円を求め、カメラパスと当該円との交点を、スレーブカメラの位置として算出する。
カメラ制御装置は、姿勢算出部によって、スレーブカメラの位置で注視点を向いた方向をスレーブカメラの姿勢として算出する。
なお、カメラ制御装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、注視点算出部、球体設定部、カメラパス設定部、円錐設定部、交点算出部及び姿勢算出部として協調動作させるカメラ制御プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
本願発明によれば、以下のような優れた効果を奏する。
本願発明に係るカメラ制御装置は、仮想第1円錐の側面上にスレーブカメラを配置することで、被写体が移動した場合でも適切な輻輳角を保ち、高品質な多視点映像表現を実現することができる。さらに、本願発明に係るカメラ制御装置は、ロボットカメラを手動で再配置する必要がないので、多視点映像を撮影する手間を大幅に軽減することができる。
本願発明の第1実施形態に係る多視点ロボットカメラシステムの概略図である。 図1のカメラの外観図である。 本願発明の第1実施形態において、注視点の設定を説明する説明図である。 図1のマスターカメラ、制御装置及びスレーブカメラの構成を示すブロック図である。 本願発明の第1実施形態において、仮想球体及び仮想第1円錐の設定を説明する説明図である。 図4の位置算出部の構成を示すブロック図である。 本願発明の第1実施形態において、仮想第2円錐の設定及び交点の算出を説明する説明図である。 本願発明の第1実施形態において、仮想第2円錐の設定及び交点の算出を説明する説明図である。 本願発明の第1実施形態において、スレーブカメラの姿勢の算出を説明する説明図である。 本願発明の第1実施形態において、移動禁止区域の設定及びスレーブカメラの新たな位置の算出を説明する説明図である。 図1の多視点ロボットカメラシステムの動作を示すフローチャートである。 本願発明の第2実施形態に係るマスターカメラ、制御装置及びスレーブカメラの構成を示すブロック図である。
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。
(第1実施形態)
[多視点ロボットカメラシステムの概略]
図1〜図3を参照し、本願発明の第1実施形態に係る多視点ロボットカメラシステム(カメラ制御装置)1の概略について、説明する。
多視点ロボットカメラシステム1は、空間内を自在に移動可能なカメラ(ロボットカメラ)Cを複数台用いて、同一時刻の被写体90を異なる視点で撮影した映像(多視点映像)を生成するものである。本実施形態では、多視点ロボットカメラシステム1は、ステージ上の歌手を被写体90として、多視点映像を生成することとする。
図1のように、多視点ロボットカメラシステム1は、制御装置10と、操作インターフェース部20と、カメラCとを備える。また、多視点ロボットカメラシステム1では、制御装置10、操作インターフェース部20及びカメラCの間で無線通信を行うこととする。
制御装置10は、多視点映像を撮影するために、カメラCの位置及び姿勢を算出するものである。
例えば、“ぐるっとビジョン”のようなアプリケーションを多視点映像に適用する場合、各カメラCがそのアプリケーションに適切な輻輳角で保つことが好ましい。その一方、被写体90がステージ上を移動するため、この輻輳角を保てるように、各カメラCの位置や姿勢を予め決めることが困難である。そこで、制御装置10は、この輻輳角を保てるように、各カメラCの位置や姿勢を算出する。
なお、制御装置10の詳細は、後記する。
操作インターフェース部20は、後記するマスターカメラCを操作するものである。例えば、操作インターフェース部20は、マスターカメラCの位置、姿勢、デプス及びズームを操作するためのスティックやレバーを有する。そして、操作インターフェース部20は、操作者(カメラマン)91の操作に応じて、操作情報(位置、姿勢、デプス及びズームの制御信号)を生成し、生成した操作情報をマスターカメラCに出力する。さらに、操作インターフェース部20は、操作者91の操作に応じて、デプスを制御装置10に出力する。
カメラC(C,C)は、所定の位置及び姿勢で被写体90を撮影するマルチコプタ型のロボットカメラである。図2のように、カメラC(C,C)は、マルチコプタ本体100と、カメラ本体200とで構成される。
マルチコプタ本体100は、腕が十字方向に延長された筐体101を有する。筐体101は、それぞれの腕先端部にモータ(不図示)が格納される。そして、プロペラ102は、各モータの回転軸に計4個取り付けられる。そして、マルチコプタ本体100は、各プロペラ102の回転を制御することで、上下左右に自在に空中を移動できる。
また、筐体101には、2本の脚部103が垂直に設けられている。脚部103は、カメラ本体200が接地しない高さを有する。また、脚部103は、カメラ本体200よりも広い幅を有する。このような構造により、脚部103は、安定した着地を可能にすると共に、カメラ本体200を保護している。
カメラ本体200は、被写体90を撮影する一般的なビデオカメラであり、撮影した映像を外部(例えば、図示を省略した多視点映像生成装置)に出力する。また、カメラ本体200は、雲台201を介して、マルチコプタ本体100の下部に取り付けられる。雲台201は、カメラ本体200が所望の姿勢を取るように可動する。
なお、カメラCは、任意の一台がマスターカメラCとして設定され、残りがスレーブカメラCとして設定される。このマスターカメラC及びスレーブカメラCの詳細は、後記する。
また、マルチコプタ本体100及びカメラ本体200は、下記の参考文献1に記載されているため、これ以上の説明を省略する。
参考文献1:[online],[平成26年11月12日検索],インターネット<URL:http://www.dji.com/ja/product/phantom-2>
図1に戻り、多視点ロボットカメラシステム1による多視点映像の撮影について説明する。
操作者91は、マスターカメラCの画面中央で被写体90を捉えるように、操作インターフェース部20を操作して、マスターカメラCの位置及び姿勢を変える。また、マスターカメラCは、図3のように、その光軸Oxに注視点Pが設定されている。そこで、操作者91は、操作インターフェース部20を操作して、マスターカメラCと注視点Pとの距離であるデプスを変更し、注視点Pと被写体90とを一致させる。このとき、マスターカメラCは、マスターカメラCの位置、姿勢、ズーム値を計測し、計測したデータを制御装置10に出力する。
制御装置10は、マスターカメラCから入力されたデータを用いて、注視点Pの位置を算出し、算出した注視点Pの位置をスレーブカメラCに出力する。すると、各スレーブカメラCは、制御装置10から入力された注視点Pの位置を用いて、適切な輻輳角を保つように、そのスレーブカメラCの位置を算出する。そして、各スレーブカメラCは、被写体90を向いたときの姿勢を算出する。さらに、各スレーブカメラCは、算出した位置に移動し、算出した姿勢をとる。その後、マスターカメラC及びスレーブカメラCは、被写体90を撮影し、撮影した映像を出力する。
[マスターカメラの構成]
図4を参照し、マスターカメラC、制御装置10及びスレーブカメラCの構成について、順に説明する。
図4のように、マスターカメラCは、マルチコプタ制御部110と、カメラ制御部210とを備える。
マルチコプタ制御部110は、マスターカメラCのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部110は、操作インターフェース部20から入力された操作情報(位置の制御信号)に従ってプロペラ102を回転させ、マスターカメラCを移動させる。
ここで、マスターカメラCは、その姿勢及び位置を計測するために、GPS、加速度センサ等の位置計測手段(不図示)を備える。そして、マルチコプタ制御部110は、位置計測手段で計測された姿勢及び位置を制御装置10に出力する。
カメラ制御部210は、マスターカメラCのカメラ本体200を制御するものである。つまり、カメラ制御部210は、操作インターフェース部20から入力された操作情報(姿勢の制御信号)に従って、カメラ本体200が注視点Pを向くように雲台201を駆動する。さらに、カメラ制御部210は、操作インターフェース部20から入力された操作情報(デプス及びズーム値の制御信号)に従って、カメラ本体200のデプス及びズームを制御する。
ここで、マスターカメラCは、そのズーム値をカメラ本体200が計測する。そして、カメラ制御部210は、計測されたズーム値を、制御装置10に出力する。
なお、本実施形態では、マルチコプタ制御部110及びカメラ制御部210は、マスターカメラCが常に水平を保つように、その位置及び姿勢を制御することとする。
[制御装置の構成]
制御装置10は、注視点算出部12と、球体設定部14、カメラパス設定部16とを備える。
注視点算出部12は、マスターカメラCから入力された位置及び姿勢と、操作インターフェース部20から入力されたデプスとを用いて、注視点Pの位置を算出するものである。
注視点Pは、マスターカメラCの位置から、マスターカメラCの光軸Oxに向かって、デプスが示す距離にある(図3参照)。
ここで、スレーブカメラCの並進ベクトルをT、回転行列をR、添え字nをスレーブカメラCのカメラ番号1〜Nとする(但し、Nは1を超える自然数)。このとき、世界座標系Wとカメラ座標系Wとの関係は、以下の式(1)で表される。
Figure 2016171478
この場合、注視点Pの位置(世界座標)は、以下の式(2)〜式(4)で表わされる。なお、γが姿勢を表す行列の一成分を表し、OptaxisがマスターカメラCの光軸を表し、TがマスターカメラCの並進ベクトルを表し、Depthがデプスを表す。
なお、式(4)の左辺Pは、注視点の位置を表す。
Figure 2016171478
Figure 2016171478
Figure 2016171478
この姿勢を表す行列の一成分γ及びマスターカメラCの光軸Optaxisは、マスターカメラCの姿勢から求められる。また、マスターカメラCの並進ベクトルTは、マスターカメラCの位置から求められる。つまり、注視点算出部12は、式(2)〜式(4)を用いて、注視点Pの位置(世界座標)を算出する。
その後、注視点算出部12は、算出した注視点Pの位置と、入力されたデプス及びズーム値とを、スレーブカメラCに出力する。また、注視点算出部12は、注視点Pの位置及びデプスを球体設定部14に出力する。
球体設定部14は、図5のように、仮想球体Vcを設定するものである。この仮想球体Vcは、注視点算出部12から入力された注視点Pが仮想球体Vcの中心となり、注視点算出部12から入力されたデプスが仮想球体Vcの半径rとなる。そして、球体設定部14は、設定した仮想球体Vcの情報をカメラパス設定部16に出力する。
なお、図5では、半径rが水平方向及び垂直方向で異なるように図示したが、実際には半径rが同じ長さとなる。
カメラパス設定部16は、球体設定部14から入力された仮想球体Vcの情報を参照し、カメラパスを仮想球体Vcの上に予め設定するものである。例えば、操作者91は、図示を省略したマウス、キーボード等の入力インターフェースを操作して、カメラパスをカメラパス設定部16に入力(設定)する。そして、カメラパス設定部16は、設定されたカメラパス及び仮想球体Vcの情報をスレーブカメラCに出力する。
このカメラパスは、スレーブカメラCを配置する経路を表す。また、カメラパスは、仮想球体Vcの上であって、マスターカメラCの位置を通過する必要がある。つまり、マスターカメラC及びスレーブカメラCは、カメラパスの上に配置される。言い換えるなら、カメラパスは、多視点映像で視点を回り込ませる軌跡を表す。例えば、“ぐるっとビジョン”の場合、カメラパスは、地上からの高度が一定で、被写体90の正面から側面に回り込む円弧状に設定される。
なお、カメラパスは、直線、曲線など任意に設定できる。
[スレーブカメラの構成]
スレーブカメラCは、位置算出部120と、マルチコプタ制御部130と、姿勢算出部220と、カメラ制御部230と、ズーム値算出部240とを備える。
<位置算出部の構成>
図6を参照し、位置算出部120の構成について説明する(適宜図4参照)。
図6のように、位置算出部120は、スレーブカメラCの位置を算出するものであり、円錐設定部122と、交点算出部124とを備える。
円錐設定部122は、注視点算出部12から入力された注視点P及びデプスを参照し、後記する仮想第1円錐及び仮想第2円錐を設定するものである。そして、円錐設定部122は、設定した仮想第1円錐及び仮想第2円錐の情報を交点算出部124に出力する。
交点算出部124は、円錐設定部122から入力された仮想第1円錐及び仮想第2円錐の情報と、カメラパス設定部16から入力されたカメラパス及び仮想球体Vcの情報とを参照し、交点の位置をスレーブカメラCの位置として算出するものである。そして、交点算出部124は、算出したスレーブカメラCの位置をマルチコプタ制御部130に出力する。
<<スレーブカメラの位置算出>>
図5〜図8を参照し、位置算出部120におけるスレーブカメラCの位置算出について、説明する。
円錐設定部122は、図5のような仮想第1円錐Aを設定する。
仮想第1円錐Aは、注視点Pが頂点となり、注視点PからマスターカメラCまでが母線となり、母線と側面とのなす角θが輻輳角となる。ここで、円錐設定部122は、アプリケーションに応じて、任意の値で輻輳角θが予め設定される。例えば、“ぐるっとビジョン”の場合、輻輳角θが10度に設定される。
その後、円錐設定部122は、設定した仮想第1円錐Aの情報と、仮想球体Vcの情報とを交点算出部124に出力する。
交点算出部124は、円錐設定部122から入力された仮想第1円錐Aの側面と、仮想球体Vcとが交わる円Bを求める。そして、交点算出部124は、カメラパスDと円Bとの交点X,Xのそれぞれを、スレーブカメラC,Cの位置として算出する。その後、交点算出部124は、算出した交点X,Xを円錐設定部122に出力する。
図7のように、円錐設定部122は、交点算出部124から入力された交点X,Xを用いて、仮想第2円錐E,Eを設定する。
仮想第2円錐Eは、注視点Pが頂点となり、注視点Pから交点Xまでが母線となり、母線と側面とのなす角が輻輳角θとなる。また、仮想第2円錐Eは、注視点Pから交点Xまでが母線となる以外、仮想第2円錐Eと同様である。
その後、円錐設定部122は、設定した仮想第2円錐E,Eの情報を交点算出部124に出力する。
なお、図5,図7では、輻輳角θが異なるように図示したが、実際には輻輳角θが同一角度である(図8も同様)。また、図7では、仮想第2円錐E,Eの母線及び底面が直交していないように図示したが、実際には母線及び底面が直交する(図8も同様)。
交点算出部124は、円錐設定部122から入力された仮想第2円錐Eの側面と、仮想球体Vcとが交わる新たな円Fを求める。ここで、カメラパスDと新たな円Fとが2点で交わるが、そのうち一点が既にマスターカメラCの位置となっている。従って、交点算出部124は、カメラパスDと新たな円Fとの2つの交点のうち、マスターカメラCから離れた側の交点Xを、スレーブカメラCの位置として算出する。さらに、交点算出部124は、交点Xと同様、交点XをスレーブカメラCの位置として算出する。その後、交点算出部124は、算出した交点X,Xを円錐設定部122に出力する。
図8のように、円錐設定部122は、交点算出部124から入力された交点X,Xを用いて、仮想第2円錐E,Eを設定する。
仮想第2円錐Eは、注視点Pが頂点となり、注視点Pから交点Xまでが母線となり、母線と側面とのなす角が輻輳角θとなる。また、仮想第2円錐Eは、注視点Pから交点Xまでが母線となる以外、仮想第2円錐Eと同様である。
その後、円錐設定部122は、設定した仮想第2円錐E,Eの情報を交点算出部124に出力する。
交点算出部124は、円錐設定部122から入力された仮想第2円錐Eの側面と、仮想球体Vcとが交わる新たな円Fを求める。ここで、カメラパスDと新たな円Fとが2点で交わるが、マスターカメラCに近い側の交点Xが既にスレーブカメラCの位置として算出されている。さらに、マスターカメラCから離れた側には、交点が存在しない。以上より、交点算出部124は、交点X〜XをスレーブカメラC〜Cの位置として算出し、これ以上の交点を算出しない。
なお、本実施形態では、スレーブカメラCのそれぞれが交点算出部124を備え、交点算出部124が個別に交点Xを算出している。従って、各スレーブカメラCの間では、交点算出部124が算出した位置の重複を防止する必要がある。そこで、各スレーブカメラCには、一意となるカメラ番号nを予め割り当てておく。そして、交点算出部124は、割り当てられたカメラ番号nの交点Xを、スレーブカメラCの位置として、マルチコプタ制御部130及び姿勢算出部220に出力すればよい。例えば、カメラ番号n=2のスレーブカメラCであれば、交点算出部124は、交点XをスレーブカメラCの位置として出力する。
図4に戻り、スレーブカメラCの構成について、説明を続ける(適宜図6参照)。
マルチコプタ制御部130は、スレーブカメラCのマルチコプタ本体100を制御するものである。つまり、マルチコプタ制御部130は、交点算出部124から入力された位置に、スレーブカメラCを移動させる。
姿勢算出部220は、交点算出部124から入力されたスレーブカメラCの位置で、注視点算出部12から入力された注視点Pを向いた方向を、スレーブカメラCの姿勢として算出するものである。
ここで、姿勢算出部220は、以下の式(5)〜式(8)を用いて、スレーブカメラCが注視点Pに向いたときの姿勢R´を算出する。図9のように、スレーブカメラCの姿勢R´は、スレーブカメラCの位置Xを始点とした、3本の単位ベクトルenx,eny,enzで表すことができる。
なお、vは、地面GNDに垂直な単位ベクトルである。
Figure 2016171478
Figure 2016171478
Figure 2016171478
Figure 2016171478
そして、姿勢算出部220は、算出したスレーブカメラCの姿勢R´を、カメラ制御部230に出力する。
カメラ制御部230は、スレーブカメラCのカメラ本体200を制御するものである。つまり、カメラ制御部230は、姿勢算出部220から入力された姿勢R´となり、スレーブカメラCが注視点Pを向くように制御する。さらに、カメラ制御部230は、後記するズーム値算出部240からズーム値が入力された場合、そのズーム値で撮影を行うようにスレーブカメラCを制御する。
ズーム値算出部240は、マスターカメラCで撮影した映像の被写体90と、新たな位置のスレーブカメラCで撮影した映像の被写体90とが同じ大きさとなるように、スレーブカメラCのズーム値を算出するものである。
<ズーム値の算出>
図10を参照し、ズーム値算出部240によるズーム値の算出について、説明する(適宜図4,図6参照)。
例えば、多視点ロボットカメラシステム1では、スレーブカメラCが被写体90やステージ等の障害物に衝突することを防止したい。そこで、多視点ロボットカメラシステム1では、スレーブカメラCが移動できない区域である移動禁止区域92の設定を検討する。
ここで、あるスレーブカメラCを移動禁止区域92の外に移動させた場合、被写体90までの距離が遠くなる。この場合、あるスレーブカメラCの映像に含まれる被写体90の大きさが、マスターカメラCや他のスレーブカメラCの映像に含まれる被写体90の大きさと比べて、異なることがある。この状態で多視点映像を生成すると、視点が切り替わる途中で被写体90の大きさが変化し、視聴者に違和感を与えることがある。これを防止すべく、多視点ロボットカメラシステム1では、移動禁止区域92の外にスレーブカメラCを移動させた場合、ズームを調整する。
まず、交点算出部124には、移動禁止区域92を予め設定する。図10の例では、移動禁止区域92は、ステージと同じ幅及び奥行きで、被写体90の身長と同じ高さの直方体に設定されている。次に、交点算出部124は、算出したスレーブカメラCの位置Xが移動禁止区域92に含まれるか否かを判定する。そして、交点算出部124は、スレーブカメラCの位置Xが移動禁止区域92に含まれる場合、スレーブカメラCの新たな位置X´を算出する。その後、交点算出部124は、位置X,X´をズーム値算出部240に出力すると共に、ズーム値の算出をズーム値算出部240に指令する(ズーム値算出指令)。
ここで、新たな位置X´は、スレーブカメラCの位置Xと注視点Pとを結ぶ仮想線Hの上であって移動禁止区域92の外であればよい。さらに、新たな位置X´は、仮想線Hの上で移動禁止区域92に隣接させてもよい。
ズーム値算出部240は、交点算出部124からズーム値算出指令が入力された場合、以下の式(9)を用いて、スレーブカメラCのズーム値fを算出する。具体的には、ズーム値算出部240は、注視点算出部12から入力された注視点P及びズーム値fと、交点算出部124から入力された位置X,X´とを式(9)に代入し、ズーム値fを算出する。その後、ズーム値算出部240は、算出したズーム値fをカメラ制御部230に出力する。
Figure 2016171478
[多視点ロボットカメラシステムの動作]
図11を参照し、多視点ロボットカメラシステム1の動作について、説明する(適宜図1,図4,図6参照)。
操作者91は、マスターカメラCの画面中央で被写体90を捉えるように、操作インターフェース部20を操作する。操作者91の操作に応じて、操作インターフェース部20は、操作情報を生成し、生成した操作情報をマスターカメラCに出力する。すると、マスターカメラCは、入力され操作情報に応じて、マスターカメラCの位置、姿勢及びデプスを変える(ステップS1)。
注視点算出部12は、マスターカメラCの位置及び姿勢と、操作インターフェース部20で操作されたデプスとを用いて、注視点Pの位置を算出する(ステップS2)。
球体設定部14は、ステップS2で算出した注視点Pが中心となり、デプスが半径となる仮想球体Vcを設定する(ステップS3)。
操作者91は、カメラパス設定部16に対して、ステップS3で設定された仮想球体Vcの上にカメラパスを設定する(ステップS4)。
円錐設定部122は、仮想円錐(仮想第1円錐及び仮想第2円錐)を設定する(ステップS5)。
交点算出部124は、ステップS5で設定した仮想円錐の側面と、ステップS3で設定した仮想球体Vcとが交わる円を求める。そして、交点算出部124は、ステップS4で設定したカメラパスと円との交点を、スレーブカメラCの位置として算出する(ステップS6)。
なお、ステップS5,S6の処理は、カメラパスと円との交点が無くなるまで繰り返す。
姿勢算出部220は、ステップS6で算出したスレーブカメラCの位置で、ステップS2で算出した注視点Pを向いた方向を、スレーブカメラCの姿勢として算出する(ステップS7)。
マルチコプタ制御部130は、ステップS6で算出した位置にスレーブカメラCを移動させる。
カメラ制御部230は、ステップS7で算出した姿勢R´となるように、スレーブカメラCを制御する(ステップS8)。
以上のように、本願発明の第1実施形態に係る多視点ロボットカメラシステム1は、仮想第1円錐及び仮想第2円錐の側面上にスレーブカメラCを配置することで、被写体90が移動した場合でも適切な輻輳角を保ち、高品質な多視点映像表現を実現することができる。さらに、多視点ロボットカメラシステム1は、ロボットカメラを手動で再配置する必要がないので、多視点映像を撮影する手間を大幅に軽減することができる。さらに、多視点ロボットカメラシステム1は、カメラCが空中に位置するので、その設置スペースを抑えることができる。
(第2実施形態)
図12を参照し、本願発明の第2実施形態に係る多視点ロボットカメラシステム1Bについて、第1実施形態と異なる点を説明する。
多視点ロボットカメラシステム1Bは、スレーブカメラCBの位置、姿勢及びズーム値を制御装置10Bで算出する点が、第1実施形態と異なる。
図12のように、多視点ロボットカメラシステム1Bは、制御装置10Bと、操作インターフェース部20と、マスターカメラCと、スレーブカメラCBとを備える。
[制御装置の構成]
制御装置10Bは、注視点算出部12と、球体設定部14と、カメラパス設定部16と、位置算出部120Bと、姿勢算出部220Bと、ズーム値算出部240Bとを備える。
位置算出部120Bは、図4の位置算出部120と同様の手法で、全てのスレーブカメラCBの位置を算出する。そして、位置算出部120Bは、各スレーブカメラCBにその位置を出力する。
なお、姿勢算出部220B及びズーム値算出部240Bは、図4の各手段と同様のため、説明を省略する。
[スレーブカメラの構成]
スレーブカメラCBは、マルチコプタ制御部130と、カメラ制御部230とを備える。つまり、スレーブカメラCBは、図4のスレーブカメラCから位置算出部120、姿勢算出部220及びズーム値算出部240を除いたものであるため、これ以上の説明を省略する。
以上のように、本願発明の第2実施形態に係る多視点ロボットカメラシステム1Bは、第1実施形態と同様、高品質な多視点映像表現を実現し、多視点映像を撮影する手間を大幅に軽減し、設置スペースを抑えることができる。さらに、多視点ロボットカメラシステム1Bは、スレーブカメラCBの位置、姿勢及びズーム値を算出する機能を制御装置10Bに集約できるため、スレーブカメラCBを簡易な構成にできる。
以上、本願発明の各実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。
マルチコプタ本体100の構造(例えば、筐体101の形状、プロペラ102の数)は、前記した各実施形態に限定されない。つまり、マルチコプタ本体100は、カメラ本体200を搭載又は内蔵し、飛行可能なものであればよい。
前記した各実施形態では、マスターカメラCがマルチコプタ型のロボットカメラであることとして説明したが、一般的な撮影カメラであってもよい。例えば、マスターカメラCとして、三脚に搭載される撮影カメラ、又は、カメラマンの肩に担がれる撮影カメラがあげられる。
前記した各実施形態では、操作インターフェース部20でマスターカメラCの位置、姿勢及びズームを操作することとして説明したが、マスターカメラCのフォーカス及びアイリスも操作可能としてもよい。さらに、マスターカメラCのフォーカス及びアイリスは、自動で調整してもよい。
前記した各実施形態では、操作インターフェース部20が制御装置10から独立したものとして説明したが、制御装置10が操作インターフェース部20の機能を備えてもよい。
前記した各実施形態では、移動体がマルチコプタであることとして説明したが、これに限定されない。例えば、移動体として、ラジオコントロール型のヘリコプタ(ラジコンヘリコプタ)があげられる。
前記した各実施形態では、位置計測手段がマスターカメラCの姿勢を計測することとして説明したが、これに限定されない。例えば、制御装置10は、雲台201で計測されたパン角やチルト角をマスターカメラCの姿勢として利用してもよい。
1 多視点ロボットカメラシステム(カメラ制御装置)
1B 多視点ロボットカメラシステム
10 制御装置
10B 制御装置(カメラ制御装置)
12 注視点算出部
14 球体設定部
16 カメラパス設定部
20 操作インターフェース部
90 被写体
100 マルチコプタ本体(移動体、マルチコプタ)
101 筐体
102 プロペラ
103 脚部
110 マルチコプタ制御部
120,120B 位置算出部
122 円錐設定部
124 交点算出部
130 マルチコプタ制御部
200 カメラ本体
201 雲台
210 カメラ制御部
220,220B 姿勢算出部
230,230B カメラ制御部
240,240Bズーム値算出部
C カメラ(ロボットカメラ)
マスターカメラ
,CB スレーブカメラ

Claims (5)

  1. 移動体に搭載されて空間内を自在に移動可能なロボットカメラを複数台用いて多視点映像を撮影するために、前記ロボットカメラの位置及び姿勢を算出するカメラ制御装置であって、
    前記ロボットカメラ又は撮影カメラのうち予め設定された1台のマスターカメラで計測された位置及び姿勢と、前記マスターカメラから被写体までの距離であるデプスとが入力され、入力された前記マスターカメラの位置から前記マスターカメラの光軸方向で前記デプスが示す距離にある注視点の位置を算出する注視点算出部と、
    前記注視点が中心、かつ、前記デプスが半径となる仮想球体を設定する球体設定部と、
    前記仮想球体上における前記マスターカメラの位置を通過するように、前記マスターカメラ以外のロボットカメラであるスレーブカメラが配置されるカメラパスを、前記仮想球体上に予め設定するカメラパス設定部と、
    前記注視点が頂点、かつ、前記注視点から前記マスターカメラの位置までが母線、かつ、前記母線と側面とのなす角が予め設定した輻輳角となる仮想第1円錐を設定する円錐設定部と、
    前記仮想第1円錐の側面と前記仮想球体とが交わる円を求め、前記カメラパスと当該円との交点を、前記スレーブカメラの位置として算出する交点算出部と、
    前記スレーブカメラの位置で前記注視点を向いた方向を前記スレーブカメラの姿勢として算出する姿勢算出部と、
    を備えることを特徴とするカメラ制御装置。
  2. 前記円錐設定部は、前記注視点が頂点、かつ、前記注視点から前記交点までが母線、かつ、前記母線と側面とのなす角が前記輻輳角となる仮想第2円錐を設定し、
    前記交点算出部は、前記仮想第2円錐の側面と前記仮想球体とが交わる新たな円を求め、前記カメラパスと前記新たな円との交点を、他の前記スレーブカメラの位置として算出することを特徴とする請求項1に記載のカメラ制御装置。
  3. 前記交点算出部は、算出した前記スレーブカメラの位置が予め設定された移動禁止区域に含まれるか否かを判定し、算出した前記スレーブカメラの位置が前記移動禁止区域に含まれる場合、算出した前記スレーブカメラの位置と前記注視点とを結ぶ仮想線上であって前記移動禁止区域の外を前記スレーブカメラの新たな位置として算出し、
    前記マスターカメラで撮影した映像の被写体と、新たな位置の前記スレーブカメラで撮影した映像の被写体とが同じ大きさとなるように、前記スレーブカメラのズーム値を算出するズーム値算出部、をさらに備えることを特徴とする請求項1又は請求項2に記載のカメラ制御装置。
  4. 前記カメラ制御装置は、前記移動体として、複数のプロペラで前記空間内を移動可能なマルチコプタに搭載されたロボットカメラの位置及び姿勢を算出することを特徴とする請求項1から請求項3の何れか一項に記載のカメラ制御装置。
  5. コンピュータを、請求項1から請求項4の何れか一項に記載のカメラ制御装置として機能させるためのカメラ制御プログラム。
JP2015050243A 2015-03-13 2015-03-13 カメラ制御装置及びそのプログラム Active JP6450226B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050243A JP6450226B2 (ja) 2015-03-13 2015-03-13 カメラ制御装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050243A JP6450226B2 (ja) 2015-03-13 2015-03-13 カメラ制御装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2016171478A true JP2016171478A (ja) 2016-09-23
JP6450226B2 JP6450226B2 (ja) 2019-01-09

Family

ID=56984244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050243A Active JP6450226B2 (ja) 2015-03-13 2015-03-13 カメラ制御装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6450226B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JP2020147105A (ja) * 2019-03-12 2020-09-17 日本放送協会 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム
CN113542721A (zh) * 2020-04-20 2021-10-22 阿里巴巴集团控股有限公司 深度图处理方法、视频重建方法及相关装置
JP2023000440A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 車体構造

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150536A (ja) * 2005-11-25 2007-06-14 Hitachi Displays Ltd 立体映像撮影表示装置
JP2014103491A (ja) * 2012-11-19 2014-06-05 Nippon Hoso Kyokai <Nhk> ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150536A (ja) * 2005-11-25 2007-06-14 Hitachi Displays Ltd 立体映像撮影表示装置
JP2014103491A (ja) * 2012-11-19 2014-06-05 Nippon Hoso Kyokai <Nhk> ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018088037A1 (ja) * 2016-11-14 2018-05-17 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JPWO2018088037A1 (ja) * 2016-11-14 2019-09-26 ソニー株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
US10924691B2 (en) 2016-11-14 2021-02-16 Sony Corporation Control device of movable type imaging device and control method of movable type imaging device
JP7059937B2 (ja) 2016-11-14 2022-04-26 ソニーグループ株式会社 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JP2020147105A (ja) * 2019-03-12 2020-09-17 日本放送協会 カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム
CN113542721A (zh) * 2020-04-20 2021-10-22 阿里巴巴集团控股有限公司 深度图处理方法、视频重建方法及相关装置
JP2023000440A (ja) * 2021-06-18 2023-01-04 本田技研工業株式会社 車体構造
JP7397824B2 (ja) 2021-06-18 2023-12-13 本田技研工業株式会社 車体構造

Also Published As

Publication number Publication date
JP6450226B2 (ja) 2019-01-09

Similar Documents

Publication Publication Date Title
US11513511B2 (en) Techniques for image recognition-based aerial vehicle navigation
JP6732617B2 (ja) 情報処理装置および画像生成方法
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP7045218B2 (ja) 情報処理装置および情報処理方法、プログラム
JP2016062486A (ja) 画像生成装置および画像生成方法
JP6450226B2 (ja) カメラ制御装置及びそのプログラム
JPH0785312A (ja) 3次元動画作成装置
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6359572B2 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
US11303823B2 (en) Camera array for a mediated-reality system
JP2020004325A (ja) 画像処理装置、画像処理方法およびプログラム
US11647292B2 (en) Image adjustment system, image adjustment device, and image adjustment
JP5253300B2 (ja) 表示制御装置、表示装置の制御方法、プログラム、記憶媒体
JP7435599B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102469221B1 (ko) 정보 처리 장치, 기록 매체에 저장된 컴퓨터 프로그램, 헤드 마운트 디스플레이 및 정보 처리 시스템
JP2010049346A (ja) 画像表示装置
JP6214653B2 (ja) 遠隔モニタリングシステムおよびモニタリング方法
JP6707224B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP7006912B2 (ja) 画像処理装置、画像表示装置及び画像処理プログラム
WO2024070398A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7127569B2 (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
WO2021182153A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP6623431B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP2020147105A (ja) カメラ制御装置及びそのプログラム、並びに、多視点ロボットカメラシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181207

R150 Certificate of patent or registration of utility model

Ref document number: 6450226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250