JP6180925B2 - ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム - Google Patents

ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム Download PDF

Info

Publication number
JP6180925B2
JP6180925B2 JP2013269927A JP2013269927A JP6180925B2 JP 6180925 B2 JP6180925 B2 JP 6180925B2 JP 2013269927 A JP2013269927 A JP 2013269927A JP 2013269927 A JP2013269927 A JP 2013269927A JP 6180925 B2 JP6180925 B2 JP 6180925B2
Authority
JP
Japan
Prior art keywords
camera
robot
posture
master
tilting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013269927A
Other languages
English (en)
Other versions
JP2015126401A (ja
Inventor
健佑 池谷
健佑 池谷
健介 久富
健介 久富
片山 美和
美和 片山
三科 智之
智之 三科
岩舘 祐一
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013269927A priority Critical patent/JP6180925B2/ja
Publication of JP2015126401A publication Critical patent/JP2015126401A/ja
Application granted granted Critical
Publication of JP6180925B2 publication Critical patent/JP6180925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Studio Devices (AREA)

Description

本発明は、ロボットカメラの姿勢を制御するロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムに関する。
従来から、動く被写体をパンフォローした多視点映像を撮影することが可能な多視点ロボットカメラシステムが提案されている(非特許文献1)。まず、多視点ロボットカメラシステムでは、多視点映像を撮影するために、カメラキャリブレーションを行って、カメラの姿勢及び位置を算出する(非特許文献2)。次に、多視点ロボットカメラシステムは、複数台のロボットカメラのうち、1台をマスターカメラとして設定し、カメラマンがマスターカメラを被写体に向けるように操作する。
図7に示すように、マスターカメラMCの光軸β上には、注視点Qが設定されており、マスターカメラ以外のスレーブカメラSCは、注視点Qに向くように制御角度が変化して、自動的に方向制御される。カメラマンが、マスターカメラMCと注視点Qとの距離であるデプス値を変化させることで、注視点QをマスターカメラMCの光軸β上で移動させる。そして、注視点Qが被写体αに重なるように(すなわち、全スレーブカメラSCの画面の中心に被写体が位置するように)、カメラマンが、マスターカメラMCのパン、チルト及びデプスを調整することで、多視点映像を撮影することができる。
なお、図7の注視点Q〜Qは、マスターカメラMCの光軸β上を移動する注視点Qについて、時間t=1〜5での位置を示している。
伊佐憲一、他4名、「最新スポーツ中継技術 世界初! プロ野球中継におけるEyeVisionTM(アイビジョン)の活用」、放送技術、兼六館出版、2001年11月、p.96−p.105 「デジタル画像処理」、財団法人 画像情報教育振興協会、2004年7月
前記したような多視点ロボットカメラシステムにおいては、ロボットカメラとして、ズームレンズを備えた小型カメラを雲台(電動雲台)に搭載したものを用いている。このロボットカメラのズームレンズは、ズーム量によって光学主点位置が光軸上を移動するため、雲台の回転中心と、光学主点とが同位置にあるとは限らない。しかしながら、従来の多視点ロボットカメラシステムでは、雲台の回転中心と、弱校正によって求めたロボットカメラの光学主点とが同位置にあると近似して、ロボットカメラの方向制御を行っていた。そのため、実際の雲台の回転中心と、弱校正によって求めたロボットカメラの光学主点との位置の差の分だけ、ロボットカメラの方向制御に誤差が生じていた。
そこで、本発明は、雲台の回転中心の実際の位置を求め、求めた雲台の回転中心に基づいてロボットカメラの方向制御を正確に行うことが可能なロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムを提供することを課題とする。
前記した課題を解決するため、本発明は、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、前記カメラ姿勢操作部で操作されたカメラ姿勢をとるように前記マスターカメラの姿勢を制御するマスターカメラ制御部と、前記マスターカメラの光軸上を移動可能な注視点に向くように、前記マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するスレーブカメラ制御部とを備えるロボットカメラ制御装置において、カメラキャリブレーション部と、注視点算出部とを備えることを特徴とする。
かかる構成によれば、ロボットカメラ制御装置は、カメラ姿勢操作部によって、マスターカメラのカメラ姿勢を操作する。また、ロボットカメラ制御装置は、マスターカメラ制御部によって、カメラ姿勢操作部で操作されたカメラ姿勢をとるようにマスターカメラの姿勢を制御する。スレーブカメラ制御部については、後記する。
続いて、ロボットカメラ制御装置は、カメラキャリブレーション部のカメラパラメータ算出部によって、複数台のロボットカメラで撮影された第一の多視点映像と、この状態から、複数台のロボットカメラを所定量パン又はチルトして撮影された第二の多視点映像とを用いて弱校正キャリブレーションを行い、各ロボットカメラのパン又はチルト前のカメラ姿勢、位置および光学主点の位置と、パン又はチルト後のカメラ姿勢、位置および光学主点の位置とを算出する。
また、ロボットカメラ制御装置は、カメラキャリブレーション部の回転中心算出部によって、各ロボットカメラのパン又はチルト前の光学主点の位置と、パン又はチルト後の光学主点の位置とに基づいて、各ロボットカメラが搭載された雲台の回転中心の位置をそれぞれ算出する。このように、ロボットカメラ制御装置は、各ロボットカメラが搭載された雲台の回転中心の位置を求めるため、実際の雲台の回転中心の位置に基づいて各ロボットカメラのカメラ姿勢を制御することが可能となる。
そして、ロボットカメラ制御装置は、注視点算出部によって、カメラパラメータ算出部により算出されたマスターカメラのカメラ姿勢と、撮影時のマスターカメラのカメラ姿勢との差分に基づいて、注視点に向いたマスターカメラの光軸方向を示す単位ベクトルを算出し、マスターカメラが搭載された雲台の回転中心に、算出した単位ベクトルとマスターカメラから注視点までの距離であるデプス値との積を加算することで、注視点の位置を算出する。このように、ロボットカメラ制御装置は、マスターカメラが搭載された雲台の回転中心に基づいて注視点の位置を正確に算出することができる。
そして、ロボットカメラ制御装置は、スレーブカメラ制御部によって、注視点算出部が算出した注視点に向くように、スレーブカメラの姿勢を制御する。
ここで、本発明のロボットカメラ制御装置は、カメラ姿勢操作部と、マスターカメラ制御部と、スレーブカメラ制御部とを備えるコンピュータのCPU(Central Processing Unit)、メモリ、ハードディスク等のハードウェア資源を、カメラパラメータ算出部、回転中心算出部、注視点算出部として協調動作させるためのロボットカメラ制御プログラムによって実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
また、本発明は、前記したロボットカメラ制御装置と、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラと、マスターカメラ以外のロボットカメラであるスレーブカメラと、を備える多視点ロボットカメラシステムとして構成してもよい。
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、各ロボットカメラが搭載された雲台の回転中心の実際の位置を正確に求めることができるので、求めた雲台の回転中心の位置を基準として、各ロボットカメラの方向制御を正確に行うことができる。
本発明の実施形態に係る多視点ロボットカメラシステムの構成を示すブロック図である。 図1のデプス操作部において、デプス値の調整途中の様子を説明する説明図である。 図1のデプス操作部において、デプス値の調整後の様子を説明する説明図である。 図1のデプス操作部において、マスターカメラと、選択された1台のスレーブカメラとの位置関係を説明する図である。 図1のカメラキャリブレーション部において、各ロボットカメラのパン・チルト前の光学主点と、パン・チルト後の光学主点と、雲台の回転中心との位置関係から雲台の回転中心の位置を算出する様子を説明する説明図である。 図1の多視点ロボットカメラシステムの動作を示すフローチャートである。 従来の多視点ロボットカメラシステムを説明する説明図である。
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、以下の説明において、同一の名称および符号については原則として同一もしくは同質の部材を示しており、詳細説明を適宜省略する。
[多視点ロボットカメラシステムの構成]
図1を参照し、本発明の実施形態に係る多視点ロボットカメラシステム100の構成について説明する。
図1に示すように、多視点ロボットカメラシステム100は、被写体の多視点映像を撮影するものであり、ロボットカメラ制御装置1と、マスターカメラMCと、スレーブカメラSC,…,SC(SC)とを備える。スレーブカメラはs台であるものとする(但し、s≧1を満たす整数)。ロボットカメラは、合計N台であるものとする(つまり、N=s+1)。
ロボットカメラ制御装置1は、マスターカメラMC及びスレーブカメラSCを制御するものであり、操作インターフェース部10と、カメラキャリブレーション部20と、マスターカメラ制御部30と、注視点算出部40と、スレーブカメラ制御部50,…,50(50)とを備える。
操作インターフェース部10は、カメラマンが、マスターカメラMC及びスレーブカメラSCを遠隔操作するものであり、パン・チルト操作部(マスターカメラ操作部)11と、ズーム操作部13と、デプス操作部(デプス値算出部)15と、フォーカス・アイリス指令部18とを備える。
パン・チルト操作部11は、カメラマンが、マスターカメラMCのパン及びチルト(カメラ姿勢)を操作するものである。そして、パン・チルト操作部11は、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム制御部31と、注視点算出部40とに出力する。
例えば、パン・チルト操作部11は、パン・チルトの移動操作が行われる操作部と、操作部による移動操作を検出するエンコーダとを備えている(いずれも図示せず)。パン・チルト操作部11は、予め設定された、エンコーダ値とパン・チルト値とを対応付けたパン・チルト値変換情報を参照して、エンコーダ(不図示)で検出されたエンコーダ値をパン・チルト値に変換する。
ズーム操作部13は、カメラマンが、マスターカメラMCのズームを操作するものである。そして、ズーム操作部13は、カメラマンの操作に応じたズーム値を検出して、パン・チルト・ズーム制御部31と、ズーム制御部55とに出力する。
デプス操作部15は、注視点を移動させる移動操作が行われ、注視点の移動操作の検出値から、後記する式(1)を用いて、マスターカメラMCから注視点Q(図2)までの距離であるデプス値を算出するものである。
デプス操作部15は、例えば、注視点の移動操作が行われる操作部と、操作部による移動操作を検出するエンコーダとを備えている(いずれも図示せず)。デプス操作部15は、エンコーダ値とデプス値とを対応付けたデプス値変換情報が予め設定され、このデプス値変換情報を参照して、エンコーダ(不図示)で検出されたエンコーダ値をデプス値に変換する。さらに、デプス操作部15は、変換されたデプス値を以下で説明するように変化(増減)させて、注視点算出部40に出力する。
ここで、図2〜図4を参照して、デプス操作部15によるデプス値の調整について説明する(適宜図1参照)。
図2に示すように、カメラマンは、マスターカメラMCの撮影映像90を見ながら、マスターカメラMCが被写体αを捉えるようにパン・チルト操作部11及びズーム操作部13を操作する。従って、マスターカメラMCの撮影映像90は、画面中央に被写体αが捉えられている。一方、スレーブカメラSCの撮影映像91は、被写体αが捉えられていない。なお、ズーム操作部13は、カメラマン以外が遠隔操作することもある。
次に、カメラマンは、操作部(不図示)によりデプス値を変化させることで、注視点Qを光軸βの上で移動させる。そして、図3に示すように、カメラマンは、スレーブカメラSCの撮影映像91を見ながら、撮影映像91の中央に被写体αが位置するように、操作部(不図示)を操作してデプス値を調整する。
デプス操作部15は、マスターカメラMCから離れるほど、単位時間当たりの注視点Qの移動距離が長くなるように、デプス値を非線形に変化させる。具体的には、デプス操作部15は、以下の式(1)を用いて、デプス値Depthを算出する。
Figure 0006180925
この式(1)のBaseは、図4に示すように、マスターカメラMCと、予め選択(設定)された1台のスレーブカメラSCとのベースラインの相対距離を表す。このBaseは、後記するカメラキャリブレーション部20に格納されている。ここで、多視点ロボットカメラシステム100では、s台のスレーブカメラSCのうち、任意の1台のスレーブカメラSCを選択できる。さらに多視点ロボットカメラシステム100では、カメラ操作を容易にするため、マスターカメラMCの光軸βと、スレーブカメラSCの光軸γとのなす角が最も垂直に近くなるスレーブカメラSCを1台選択することが好ましい。以後、選択された1台のスレーブカメラを「選択スレーブカメラ」と呼ぶ。
また、式(1)のθは、単位ベクトルuと単位ベクトルvのなす角であり、選択スレーブカメラSCの制御角度幅を表す。この単位ベクトルuは、弱校正カメラキャリブレーション時のマスターカメラMCの光軸βの向きを示す単位ベクトルである。また、単位ベクトルvは、選択スレーブカメラSCからマスターカメラMCに向かう単位ベクトルである。
なお、図4では、説明を分かりやすくするため、単位ベクトルvの始点に単位ベクトルuの始点が一致するように、マスターカメラMCを破線で図示した。
また、式(1)に示すdmaxは、デプス操作部15のエンコーダ(不図示)で検出可能なエンコーダ値の最大値であり、dは、エンコーダ(不図示)で検出されたエンコーダ値である。この最大値dmaxは、0≦d≦dmaxを満たすように予め設定される。
図1に戻り、多視点ロボットカメラシステム100の説明を続ける。フォーカス・アイリス指令部18は、マスターカメラMC及びスレーブカメラSCに対し、フォーカス及びアイリスを指令するものである。具体的には、フォーカス・アイリス指令部18は、カメラマンから指令が入力されると、フォーカス及びアイリスの指令信号を生成し、フォーカス・アイリス制御部33と、フォーカス・アイリス制御部53とに出力する。
カメラキャリブレーション部20は、カメラパラメータ算出部21と、回転中心算出部22とを備える。
カメラパラメータ算出部21は、各ロボットカメラCam(添え字nは、カメラ番号1〜Nを示す)のカメラパラメータ(ここでは、回転行列R及び並進行列T)を弱校正カメラキャリブレーションにより算出して、メモリやハードディスク等の記憶装置(不図示)に格納するものである。
ここで、カメラパラメータ算出部21は、弱校正カメラキャリブレーションを行い、マスターカメラMCのカメラパラメータ(ここでは、回転行列R及び並進行列T)を算出し、記憶装置に格納する。
なお、添え字mがマスターカメラMCを示す。
また、カメラパラメータ算出部21は、弱校正カメラキャリブレーションを行い、スレーブカメラSCのカメラパラメータ(回転行列R及び並進行列T)を算出し、記憶装置に格納する。
なお、添え字sがスレーブカメラSCを示す。
さらに、カメラパラメータ算出部21は、各ロボットカメラCamにより撮影した第一の多視点映像と第二の多視点映像とを用いて弱校正カメラキャリブレーションを行い、パン又はチルト前のカメラ姿勢Rnbefore及びカメラ位置Tnbeforeと、パン又はチルト後のカメラ姿勢Rnafter及びカメラ位置Tnafterを求めるものである。カメラパラメータ算出部21は、求めたパン又はチルト後のカメラ姿勢Rnafter及びカメラ位置Tnafterを、回転中心算出部22に出力する。
第一の多視点映像は、各ロボットカメラCamを同じ被写体に向けて撮影されたものである。したがって、第一の多視点映像には、それぞれ同じ被写体が写っているものとする。第二の多視点映像は、各ロボットカメラCamを、第一の多視点映像の撮影時から所定量パン又はチルトして撮影されたものである。つまり、第二の多視点映像は、第一の多視点映像の撮影時から、各ロボットカメラCamのズーム値を変えず、パン値又はチルト値のみを所定量変えて撮影されている。ここで、パン又はチルト量は、第二の多視点映像に、弱校正キャリブレーションが可能な程度に、第一の多視点映像と共通の被写体が写る程度に設定される。
ここで、世界座標系WとロボットカメラCamのカメラ座標系wとの関係は、カメラ姿勢Rおよびカメラ位置Tを用いて、以下の式(2)で表される。
Figure 0006180925
また、前記式(2)におけるRは、以下の式(3)で表される。
Figure 0006180925
そして、カメラパラメータ算出部21は、以下の式(4)、(5)により、パン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとを算出する。
Figure 0006180925
Figure 0006180925
なお、弱校正キャリブレーションとして、例えば、以下のホームページに記載された「Bundler」を利用できるため、詳細な説明を省略する。
参考URL:「http://phototour.cs.washington.edu/bundler/」
回転中心算出部22は、各ロボットカメラCamが搭載された雲台の回転中心Oを算出し、メモリやハードディスク等の記憶装置(不図示)に格納するものである。
ここで、図5に、ロボットカメラCam,・・・,Camを並べて配置したときの、ロボットカメラCam、Cam、Camのパン又はチルト前の撮影方向をそれぞれ破線で示し、パン又はチルト後の撮影方向をそれぞれ実線で示した。図5では、ロボットカメラCamを上方から見下ろしたときの雲台の回転中心Oと、ロボットカメラCamのパン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとを、それぞれ×印で示した。なお、光学主点Pnbefore及び光学主点Pnafterは、本来、カメラの内部に位置しているが、雲台の回転中心Oとの位置関係を分かりやすく示すために、図5では、カメラの外側に抜き出して示している。具体的には、パン又はチルト前のロボットカメラCamの光軸上において、雲台の回転中心Oから所定距離離れた位置に光学主点Pnbeforeをおいた。同様に、パン又はチルト後のロボットカメラCamの光軸上において、雲台の回転中心Oから所定距離離れた位置に光学主点Pnafterをおいた。
カメラの光学主点位置Pと雲台の回転中心Oとが一致していない場合、図5に示すように、パン又はチルト前の光学主点Pnbeforeの位置と、パン又はチルト後の光学主点Pnafterの位置とが異なることになる。また、ロボットカメラCamは、雲台の回転中心Oで回転されるので、パン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとは、雲台の回転中心Oからの距離が必ず等しくなる。したがって、図5に示すように、雲台の回転中心Oと、パン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとが、二等辺三角形をなすことがわかる。なお、パン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとが、それぞれロボットカメラCam内にある場合も、同様である。
これにより、回転中心算出部22は、カメラパラメータ算出部21により算出されたパン又はチルト前の光学主点Pnbeforeと、パン又はチルト後の光学主点Pnafterとに加え、パン・チルト量θと、パン又はチルト前のカメラ姿勢の奥行成分のベクトル値(r)とに基づき、各ロボットカメラCamが搭載された雲台の回転中心Oを以下の式(6)により、求めることができる。
Figure 0006180925
前記した式(6)におけるパン・チルト量θは、第二の多視点映像の撮影時における、第一の多視点映像の撮影時からの各ロボットカメラCamのパン・チルト角度幅である。つまり、パン・チルト量θは、パン又はチルト前の撮影方向とパン又はチルト後の撮影方向とでなす角を指す。
なお、「パン・チルト量θ」としているが、ここでは、第一の多視点映像の撮影時と、第二の多視点映像の撮影時とにおいて、各ロボットカメラCamのパン値又はチルト値のいずれか一方のみを変更することとしているので、パン値又はチルト値のいずれか一方のみを指すものとする。
このパン・チルト量(パン・チルト角度幅)θは、各ロボットカメラCamが備えるエンコーダ(不図示)により検出された、パン・チルト前の撮影方向(角度)のエンコーダ値と、パン・チルト後の撮影方向(角度)のエンコーダ値とに基づいて求めることができる。例えば、エンコーダ値とパン・チルト値とを対応付けて予め設定されたパン・チルト変換情報により、それぞれのエンコーダ値をパン値又はチルト値に変換し、変換後のパン値又はチルト値同士で差分をとることで、パン・チルト量θを求めることができる。パン・チルト量θは、例えば外部のPC等において、各ロボットカメラCamから出力されたパン・チルト前後のエンコーダ値に基づいて前記した方法により算出され、カメラパラメータ算出部21に出力される。なお、パン・チルト量θは、ロボットカメラ制御装置1内にパン・チルト量θの算出手段(不図示)を設けて、当該算出手段(不図示)により算出してもよい。
また、カメラキャリブレーション部20は、外部から、カメラキャリブレーション時のロボットカメラCamのパン値p0n、チルト値t0n、ズーム値z0n、フォーカス値f0n、アイリス値i0nを入力し、記憶装置(不図示)に格納する。
ここでは、パン・チルト前後のそれぞれにおいて、ロボットカメラCamが備えるエンコーダ(不図示)により、パン、チルト、ズーム、フォーカス、アイリスのエンコーダ値がそれぞれ検出される。そして、外部のPC(Personal Computer)等において、各エンコーダ値と対応付けて予め設定された変換情報により、各エンコーダ値を変換することでパン・チルト前後のパン値、チルト値、ズーム値、フォーカス値、アイリス値がそれぞれ求められる。カメラキャリブレーション部20は、このようにして求められた、パン値p0nbefore、p0nafter、チルト値t0nbefore、t0nafter、ズーム値z0nbefore、z0nafter、フォーカス値f0nbefore、f0nafter、アイリス値i0nbefore、i0nafterを記憶装置(不図示)に格納する。
マスターカメラ制御部30は、マスターカメラMCを制御するものであり、パン・チルト・ズーム制御部31と、フォーカス・アイリス制御部33とを備える。
パン・チルト・ズーム制御部31は、パン・チルト操作部11から入力されたパン値、チルト値及びズーム値を、それらの値の大きさに応じたパン・チルト・ズーム制御信号に変換する。そして、パン・チルト・ズーム制御部31は、変換したパン・チルト・ズーム制御信号をマスターカメラMCに出力する。
フォーカス・アイリス制御部33は、フォーカス・アイリス指令部18から入力された指令信号に基づいて、マスターカメラMCのフォーカス及びアイリスを制御するものである。ここでは、フォーカス・アイリス制御部33は、指令信号が入力されると、オートフォーカス機能及びオートアイリス機能を用いて、マスターカメラMCのフォーカス値及びアイリス値を算出する。そして、フォーカス・アイリス制御部33は、算出したフォーカス値及びアイリス値を、それらの値の大きさに応じたフォーカス・アイリス制御信号に変換して、マスターカメラMCに出力する。
マスターカメラMCは、多視点ロボットカメラシステム100が備える複数台(N台)のロボットカメラCam,・・・,Camのうち、予め設定された1台のロボットカメラである。このマスターカメラMCは、雲台(例えば、電動雲台)に小型カメラを搭載したものである。マスターカメラMCは、パン・チルト・ズーム制御部31から入力されたパン・チルト・ズーム制御信号に従って、パン、チルト及びズームを駆動する。さらに、マスターカメラMCは、フォーカス・アイリス制御部33から入力されたフォーカス・アイリス制御信号に従って、フォーカス及びアイリスを駆動する。
注視点算出部40は、パン・チルト操作部11から入力されたパン値及びチルト値と、デプス操作部15から入力されたデプス値と、カメラキャリブレーション部20に格納されたカメラパラメータとに基づいて、注視点の世界座標を算出するものである。
具体的には、注視点算出部40は、以下の式(7)を用いて、マスターカメラMCについて、パン・チルト操作部11からのパン値pと、カメラキャリブレーション部20の記憶装置に格納された弱校正キャリブレーション時のパン値p0mとの角度差θpmを算出する。
Figure 0006180925
また、注視点算出部40は、以下の式(8)を用いて、マスターカメラMCについて、パン・チルト操作部11からのチルト値tと、カメラキャリブレーション部20の記憶装置に格納された弱校正キャリブレーション時のチルト値t0mとの角度差θtmを算出する。
Figure 0006180925
次に、注視点算出部40は、以下の式(9)に示すように、角度差θpm及び角度差θtmを用いて、カメラ座標系における回転行列R´Cmを生成する。
Figure 0006180925
そして、注視点算出部40は、以下の式(9)に示すように、回転行列R´Cm、及び、マスターカメラMCのカメラパラメータである回転行列Rの逆行列R−1 を用いて、カメラ座標系におけるカメラ姿勢の回転行列R´を生成する。このR´は、マスターカメラMCについて、弱校正キャリブレーション時のカメラ姿勢から、操作インターフェース部10で操作後のカメラ姿勢に変えるための回転行列である。
Figure 0006180925
ここで、式(10)の回転行列R´は、以下の式(11)で表すことができる。この場合、注視点Qに向いたマスターカメラMCの光軸方向を示す単位ベクトルOptaxisは、以下の式(12)で表すことができる。
Figure 0006180925
Figure 0006180925
そして、注視点算出部40は、以下の式(13)に示すように、カメラキャリブレーション部20から入力された、マスターカメラMCの雲台の回転中心Oと、デプス操作部15から入力されたデプス値Depthと、式(12)の単位ベクトルOptaxisとを用いて、注視点Qの世界座標(位置)Pを算出する。その後、注視点算出部40は、算出した注視点Qの世界座標Pを、パン・チルト制御部51に出力する。
Figure 0006180925
パン・チルト制御部51は、注視点算出部40から入力された注視点Qの世界座標Pとカメラキャリブレーション部20に格納されたカメラパラメータ(回転行列R及びスレーブカメラSCの雲台の回転中心O)とに基づいて、スレーブカメラSCの姿勢(パン及びチルト)を制御するものである。
具体的には、パン・チルト制御部51は、以下の式(14)に示すように、パン及びチルトを制御するために、スレーブカメラSCから注視点Qの世界座標Pへ向かう単位ベクトルOptaxisを算出する。なお、式(14)における“|| ||”は、ノルムを表す。
Figure 0006180925
また、パン・チルト制御部51は、以下の式(15)に示すように、算出した単位ベクトルOptaxis、及び、回転行列Rを用いて、カメラ座標系におけるスレーブカメラSCから注視点Qの世界座標Pへ向かう単位ベクトルOptaxisCsを算出する。
そして、パン・チルト制御部51は、以下の式(16)〜式(18)に示すように、単位ベクトルOptaxisCsからスレーブカメラSCのパン値p及びチルト値tを算出する。なお、e,e,eは、それぞれ、単位ベクトルOptaxisCsのX軸、Y軸、Z軸成分を示す。
Figure 0006180925
Figure 0006180925
Figure 0006180925
Figure 0006180925
さらに、パン・チルト制御部51は、算出したパン値p及びチルト値tを、それらの値の大きさに応じたパン・チルト制御信号に変換する。その後、パン・チルト制御部51は、変換したパン・チルト制御信号をスレーブカメラSCに出力する。
フォーカス・アイリス制御部53は、フォーカス・アイリス指令部18のフォーカス・アイリス指令信号に基づいて、スレーブカメラSCのフォーカス及びアイリスを制御するものである。ここでは、フォーカス・アイリス制御部53は、指令信号が入力されると、オートフォーカス機能及びオートアイリス機能を用いて、スレーブカメラSCのフォーカス値及びアイリス値を算出する。そして、フォーカス・アイリス制御部53は、算出したフォーカス値及びアイリス値を、それらの値の大きさに応じたフォーカス・アイリス制御信号に変換して、スレーブカメラSCに出力する。
ズーム制御部55は、ズーム操作部13から入力されたズーム値に基づいて、スレーブカメラSCのズームを制御するものである。具体的には、ズーム制御部55は、ズーム値を、その値の大きさに応じたズーム制御信号に変換する。そして、ズーム制御部55は、変換したズーム制御信号をスレーブカメラSCに出力する。
スレーブカメラSCは、多視点ロボットカメラシステム100が備える複数台のロボットカメラのうち、マスターカメラMC以外のロボットカメラである。このスレーブカメラSCは、雲台(例えば、電動雲台)に小型カメラを搭載したものである。また、スレーブカメラSCは、パン・チルト制御部51から入力されたパン・チルト制御信号に応じて、パン及びチルトを駆動する。そして、スレーブカメラSCは、フォーカス・アイリス制御部53から入力されたフォーカス・アイリス制御信号に応じて、フォーカス及びアイリスを駆動する。さらに、スレーブカメラSCは、ズーム制御部55から入力されたズーム制御信号に応じて、ズームを駆動する。
前記した式(7)のパン値p0m、式(8)のチルト値t0m、式(10)のカメラ姿勢R、式(17)のパン値p0s、式(18)のチルト値t0sは、弱校正キャリブレーション時におけるパン・チルト前又はパン・チルト後のいずれかの値を統一して用いることとする。
[多視点ロボットカメラシステムの動作]
図6を参照し、図1の多視点ロボットカメラシステム100の動作について、説明する(適宜図1参照)。
多視点ロボットカメラシステム100は、カメラキャリブレーション部20のカメラパラメータ算出部21によって、各ロボットカメラCam(マスターカメラMC及びスレーブカメラSC)のカメラパラメータを算出する。また、多視点ロボットカメラシステム100は、カメラキャリブレーション部20のカメラパラメータ算出部21によって、式(4)、(5)のように、各ロボットカメラCam(マスターカメラMC及びスレーブカメラSC)のパン・チルト操作前の光学主点Pnbeforeと、パン・チルト操作後の光学主点Pnafterとを算出する。
そして、多視点ロボットカメラシステム100は、カメラキャリブレーション部20の回転中心算出部22によって、式(6)のように、各ロボットカメラCamが搭載された雲台の回転中心Oを算出する(ステップS1)。
多視点ロボットカメラシステム100は、カメラキャリブレーション部20によって、算出したカメラパラメータ及び雲台の回転中心Oを記憶装置に格納する(ステップS2)。
多視点ロボットカメラシステム100は、パン・チルト操作部11によって、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム制御部31と、注視点算出部40とに出力する。
多視点ロボットカメラシステム100は、ズーム操作部13によって、カメラマンの操作に応じたズーム値を検出して、パン・チルト・ズーム制御部31と、ズーム制御部55に出力する。
多視点ロボットカメラシステム100は、デプス操作部15によって、デプス値を算出し、注視点算出部40に出力する。
多視点ロボットカメラシステム100は、フォーカス・アイリス指令部18によって、カメラマンからの指令に応じて指令信号を生成し、フォーカス・アイリス制御部33と、フォーカス・アイリス制御部53とに出力する(ステップS3)。
多視点ロボットカメラシステム100は、パン・チルト・ズーム制御部31によって、パン値、チルト値及びズーム値を、パン・チルト・ズーム制御信号に変換して、マスターカメラMCに出力する。
多視点ロボットカメラシステム100は、フォーカス・アイリス制御部33によって、フォーカス・アイリス指令部18からの指令信号に応じて、マスターカメラMCのフォーカス・アイリス制御信号を生成して、マスターカメラMCに出力する(ステップS4)。
多視点ロボットカメラシステム100は、注視点算出部40によって、式(13)のように、カメラキャリブレーション部20で算出された、マスターカメラMCが搭載された雲台の回転中心Oに、単位ベクトルOptaxisとデプス値Depthとの積を加算することで、注視点Qの世界座標を算出する(ステップS5)。
多視点ロボットカメラシステム100は、パン・チルト制御部51によって、式(14)〜式(18)のように、スレーブカメラSCが搭載された雲台の回転中心Oを用いて、注視点Qに向かうパン値及びチルト値を求める。そして、求めたパン値及びチルト値を、パン・チルト・ズーム制御信号に変換して、スレーブカメラSCに出力する。
多視点ロボットカメラシステム100は、フォーカス・アイリス制御部53によって、フォーカス・アイリス指令部18からの指令信号に応じて、スレーブカメラSCのフォーカス・アイリス制御信号を生成して、スレーブカメラSCに出力する。
多視点ロボットカメラシステム100は、ズーム制御部55によって、ズーム値をズーム制御信号に変換して、スレーブカメラSCに出力する(ステップS6)。
以上のように、本発明の実施形態に係る多視点ロボットカメラシステム100は、式(6)のように、各ロボットカメラCamが搭載された雲台の回転中心Oを算出する。そして、多視点ロボットカメラシステム100は、式(13)のように、マスターカメラMCが搭載された雲台の回転中心Oを用いて、注視点Qの世界座標Pを正確に算出することができる。また、多視点ロボットカメラシステム100は、式(14)〜式(18)のように、スレーブカメラSCが搭載された雲台の回転中心Oを用いて、注視点Qに向かうパン値p0s及びチルト値t0sを正確に求めることができる。これによって、多視点ロボットカメラシステム100は、マスターカメラMCおよびスレーブカメラSCの方向制御を正確に行うことが可能となる。
なお、本発明は、前記した実施形態に限定されず、その趣旨を逸脱しない範囲で様々な変形を加えることができる。
前記した実施形態では、デプス操作部15によって、デプス操作部15によって、デプス値を非線形に変化させることとしたが、これに限られず、デプス値を線形に変化させてもよい。
また、前記した実施形態では、各ロボットカメラCamによる第一の多視点映像の撮影時と第二の多視点映像の撮影時とにおいて、パン又はチルトのいずれか一方のみを変化させたが、これに限られず、パン及びチルトの両方を変化させてもよい。
さらに、前記した実施形態では、フォーカス・アイリス制御部33は、オートフォーカス機能及びオートアイリス機能を用いて算出したマスターカメラMCのフォーカス値及びアイリス値に応じたフォーカス・アイリス制御信号を生成したが、これに限られない。
フォーカス・アイリス制御部33は、マスターカメラMCが備えるエンコーダ(不図示)により検出された、カメラマンによるマスターカメラMCのフォーカス及びアイリスの移動操作(エンコーダ値)を、外部のPC等によりフォーカス値及びアイリス値に変換した結果を入力し、このフォーカス値及びアイリス値に応じたフォーカス・アイリス制御信号を生成してもよい。なお、フォーカス・アイリス制御部53も同様である。
また、さらに、前記した実施形態では、カメラキャリブレーション部20は、パン・チルト前後のパン値、チルト値、ズーム値、フォーカス値、アイリス値を記憶装置に格納したが、これに限られず、パン・チルト前又はパン・チルト後のいずれか一方のパン値、チルト値、ズーム値、フォーカス値、アイリス値を記憶装置に格納してもよい。
1 ロボットカメラ制御装置
10 操作インターフェース部
11 パン・チルト操作部(カメラ姿勢操作部)
13 ズーム操作部
15 デプス操作部
18 フォーカス・アイリス指令部
20 カメラキャリブレーション部
21 カメラパラメータ算出部
22 回転中心算出部
30 マスターカメラ制御部
31 パン・チルト・ズーム制御部
33 フォーカス・アイリス制御部
40 注視点算出部
50 スレーブカメラ制御部
51 パン・チルト制御部
53 フォーカス・アイリス制御部
55 ズーム制御部
100 多視点ロボットカメラシステム
MC マスターカメラ

Claims (4)

  1. 複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、前記カメラ姿勢操作部で操作されたカメラ姿勢をとるように前記マスターカメラの姿勢を制御するマスターカメラ制御部と、前記マスターカメラの光軸上を移動可能な注視点に向くように、前記マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するスレーブカメラ制御部とを備えるロボットカメラ制御装置において、
    前記複数台のロボットカメラで撮影された第一の多視点映像と、前記第一の多視点映像の撮影時から前記複数台のロボットカメラを所定量パン又はチルトして撮影された第二の多視点映像とを用いて弱校正キャリブレーションを行い、前記各ロボットカメラのパン又はチルト前のカメラ姿勢、位置及び光学主点と、パン又はチルト後のカメラ姿勢、位置及び光学主点とを算出するカメラパラメータ算出部と、前記カメラパラメータ算出部で算出された前記各ロボットカメラのパン又はチルト前の光学主点と、パン又はチルト後の光学主点とに基づいて、前記各ロボットカメラが搭載された雲台の回転中心の位置をそれぞれ算出する回転中心算出部とを備えるカメラキャリブレーション部と、
    前記カメラパラメータ算出部により算出した前記マスターカメラのカメラ姿勢と、撮影時の前記マスターカメラのカメラ姿勢との差分に基づいて、前記注視点に向いたマスターカメラの光軸方向を示す単位ベクトルを算出し、前記マスターカメラが搭載された雲台の回転中心に、算出した当該単位ベクトルと前記マスターカメラから前記注視点までの距離であるデプス値との積を加算することで、前記注視点の位置を算出する注視点算出部と、を備え、
    前記スレーブカメラ制御部は、前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御することを特徴とするロボットカメラ制御装置。
  2. 前記カメラパラメータ算出部は、
    前記パン又はチルト前のカメラ姿勢Rnbefore及びカメラ位置Tnbeforeから光学主点Pnbefore
    Figure 0006180925
    により算出し、
    前記パン又はチルト後のカメラ姿勢Rnafter及びカメラ位置Tnafterから光学主点Pnafter
    Figure 0006180925
    により算出し、
    前記回転中心算出部は、
    前記パン又はチルト前の光学主点Pnbeforeと、前記パン又はチルト後の光学主点Pnafterと、前記パン又はチルト前の撮影方向と前記パン又はチルト後の撮影方向とでなす角θと、前記パン又はチルト前のカメラ姿勢の奥行成分のベクトル値rznbeforeとに基づき、
    Figure 0006180925
    により、前記各ロボットカメラの雲台の回転中心を算出することを特徴とする請求項1に記載のロボットカメラ制御装置。
  3. 複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラと、前記マスターカメラ以外のロボットカメラであるスレーブカメラと、前記マスターカメラの光軸上を移動可能な注視点に向くように、前記スレーブカメラの姿勢を制御するロボットカメラ制御装置と、を備えた多視点ロボットカメラシステムであって、
    前記ロボットカメラ制御装置が、
    前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、
    前記カメラ姿勢操作部で操作されたカメラ姿勢をとるように前記マスターカメラの姿勢を制御するマスターカメラ制御部と、
    前記スレーブカメラの姿勢を制御するスレーブカメラ制御部と、
    前記複数台のロボットカメラで撮影された第一の多視点映像と、前記第一の多視点映像の撮影時から前記複数台のロボットカメラを所定量パン又はチルトして撮影された第二の多視点映像とを用いて弱校正キャリブレーションを行い、前記各ロボットカメラのパン又はチルト前のカメラ姿勢、位置及び光学主点と、パン又はチルト後のカメラ姿勢、位置及び光学主点とを算出するカメラパラメータ算出部と、前記カメラパラメータ算出部で算出された前記各ロボットカメラのパン又はチルト前の光学主点と、パン又はチルト後の光学主点とに基づいて、前記各ロボットカメラが搭載された雲台の回転中心の位置をそれぞれ算出する回転中心算出部とを備えるカメラキャリブレーション部と、
    前記カメラパラメータ算出部により算出した前記マスターカメラのカメラ姿勢と、撮影時の前記マスターカメラのカメラ姿勢との差分に基づいて、前記注視点に向いたマスターカメラの光軸方向を示す単位ベクトルを算出し、前記マスターカメラが搭載された雲台の回転中心に、算出した当該単位ベクトルと前記マスターカメラから前記注視点までの距離であるデプス値との積を加算することで、前記注視点の位置を算出する注視点算出部と、を備え、
    前記スレーブカメラ制御部は、前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御することを特徴とする多視点ロボットカメラシステム。
  4. 複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラの光軸上を移動可能な注視点に向くように、前記マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するために、前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、前記カメラ姿勢操作部で操作されたカメラ姿勢をとるように前記マスターカメラの姿勢を制御するマスターカメラ制御部と、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部とを備えるコンピュータを、
    前記複数台のロボットカメラで撮影された第一の多視点映像と、前記第一の多視点映像の撮影時から前記複数台のロボットカメラを所定量パン又はチルトして撮影された第二の多視点映像とを用いて弱校正キャリブレーションを行い、前記各ロボットカメラのパン又はチルト前のカメラ姿勢、位置及び光学主点と、パン又はチルト後のカメラ姿勢、位置及び光学主点とを算出するカメラパラメータ算出部、
    前記カメラパラメータ算出部で算出された前記各ロボットカメラのパン又はチルト前の光学主点と、パン又はチルト後の光学主点とに基づいて、前記各ロボットカメラが搭載された雲台の回転中心の位置をそれぞれ算出する回転中心算出部、
    前記カメラパラメータ算出部により算出した前記マスターカメラのカメラ姿勢と、撮影時の前記マスターカメラのカメラ姿勢との差分に基づいて、前記注視点に向いたマスターカメラの光軸方向を示す単位ベクトルを算出し、前記マスターカメラが搭載された雲台の回転中心に、算出した当該単位ベクトルと前記マスターカメラから前記注視点までの距離であるデプス値との積を加算することで、前記注視点の位置を算出する注視点算出部、として機能させ、
    前記スレーブカメラ制御部は、前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御することを特徴とするロボットカメラ制御プログラム。
JP2013269927A 2013-12-26 2013-12-26 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム Active JP6180925B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269927A JP6180925B2 (ja) 2013-12-26 2013-12-26 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269927A JP6180925B2 (ja) 2013-12-26 2013-12-26 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Publications (2)

Publication Number Publication Date
JP2015126401A JP2015126401A (ja) 2015-07-06
JP6180925B2 true JP6180925B2 (ja) 2017-08-16

Family

ID=53536812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269927A Active JP6180925B2 (ja) 2013-12-26 2013-12-26 ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Country Status (1)

Country Link
JP (1) JP6180925B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003289106A1 (en) * 2002-12-27 2004-07-29 Hiroshi Arisawa Multi-view-point video capturing system
JP4227037B2 (ja) * 2004-02-25 2009-02-18 株式会社国際電気通信基礎技術研究所 撮像システム及び校正方法
JP5509044B2 (ja) * 2010-11-22 2014-06-04 日本放送協会 多視点ロボットカメラシステム、多視点ロボットカメラ制御装置及びプログラム

Also Published As

Publication number Publication date
JP2015126401A (ja) 2015-07-06

Similar Documents

Publication Publication Date Title
CN110719392B (zh) 可移动摄像设备、拍摄控制方法、控制设备及存储介质
US11570333B2 (en) Image pickup device and electronic system including the same
KR102143456B1 (ko) 심도 정보 취득 방법 및 장치, 그리고 이미지 수집 디바이스
CN105894455B (zh) 拍照方法、装置及电子设备
KR101856947B1 (ko) 촬영장치, 움직임 추정장치, 영상 보정 방법, 움직임 추정방법 및 컴퓨터 판독가능 기록매체
US10277890B2 (en) System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
JP2017058660A (ja) 像振れ補正装置、傾き補正装置、像振れ補正装置の制御方法、傾き補正装置の制御方法
CN105592262A (zh) 摄像装置
JP2017152995A (ja) 撮像システムおよびその制御方法、撮像装置、レンズ装置
CN105550655A (zh) 一种手势图像获取设备及其手势图像获取方法
JP2017152996A (ja) 撮像システムおよびその制御方法、撮像装置、レンズ装置
US9843724B1 (en) Stabilization of panoramic video
CN110291777B (zh) 图像采集方法、设备及机器可读存储介质
JP6055223B2 (ja) 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置
WO2020107284A1 (zh) 云台的模式切换方法、装置、可移动平台及存储介质
JP2016005160A (ja) 撮像装置およびその制御方法
JP5223096B2 (ja) 3d映像撮影制御システム、3d映像撮影制御方法、およびプログラム
JP6180925B2 (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP2015126402A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
WO2022041013A1 (zh) 控制方法、手持云台、系统及计算机可读存储介质
JP6073114B2 (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
WO2022109860A1 (zh) 跟踪目标对象的方法和云台
JP2014103490A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP2011239178A (ja) 撮像装置
JP5988842B2 (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170719

R150 Certificate of patent or registration of utility model

Ref document number: 6180925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250