JP6606397B2 - 多視点ロボットカメラ制御装置及びそのプログラム - Google Patents

多視点ロボットカメラ制御装置及びそのプログラム Download PDF

Info

Publication number
JP6606397B2
JP6606397B2 JP2015211549A JP2015211549A JP6606397B2 JP 6606397 B2 JP6606397 B2 JP 6606397B2 JP 2015211549 A JP2015211549 A JP 2015211549A JP 2015211549 A JP2015211549 A JP 2015211549A JP 6606397 B2 JP6606397 B2 JP 6606397B2
Authority
JP
Japan
Prior art keywords
image
subject
gazing point
distance
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015211549A
Other languages
English (en)
Other versions
JP2017085340A (ja
Inventor
健介 久富
健佑 池谷
正規 加納
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015211549A priority Critical patent/JP6606397B2/ja
Publication of JP2017085340A publication Critical patent/JP2017085340A/ja
Application granted granted Critical
Publication of JP6606397B2 publication Critical patent/JP6606397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本願発明は、同一の被写体を異なる視点で表示した多視点映像を生成するために、多視点ロボットカメラを制御する多視点ロボットカメラ制御装置及びそのプログラムに関する。
従来から、被写体を取り囲むようにロボットカメラを配置し、撮影した映像をロボットカメラの並びに沿って切替えることで、動きのある被写体のある瞬間を様々な視点から提示する多視点映像表現という映像表現が知られている。この多視点映像表現には、例えば、非特許文献1に記載された多視点映像表現システムが用いられている。
この多視点映像表現システムは、複数のロボットカメラをそれぞれ電動雲台に乗せて配置し、機械的なパンやチルトの制御により、スポーツ試合のような被写体が動き回る場合においても、前記した多視点映像表現を準リアルタイムで実現するものである。具体的には、カメラマンが1台のマスターカメラを操作し、注視する被写体が常に画面中央に映るように撮影する。このとき、この多視点映像表現システムは、カメラマンのカメラワークに応じて、他のスレーブカメラの視線が注視点で輻輳するように電動雲台を自動制御する。
Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014
しかし、前記した多視点映像表現システムでは、ファインダに分割表示された全ロボットカメラの映像を目視しながら、カメラマン等の操作者が注視点を手動で設定しなければならない。このとき、多視点映像表現システムでは、操作者が、画面中央に被写体が映るようにマスターカメラの操作を行っており、注視点の設定操作が操作者に非常に負担をかけるという問題がある。
そこで、本願発明は、操作者の負担を軽減できる多視点ロボットカメラ制御装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係る多視点ロボットカメラ制御装置は、同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、カメラパラメータ記憶部と、被写体領域抽出部と、ファインダ画像生成部と、注視点座標算出部と、を備える構成とした。
かかる構成によれば、多視点ロボットカメラ制御装置は、カメラパラメータ記憶部によって、前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶する。
多視点ロボットカメラ制御装置は、被写体領域抽出部によって、前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置(例えば、画面中央)の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する。
多視点ロボットカメラ制御装置は、ファインダ画像生成部によって、抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像を操作インターフェース部に搭載されたファインダに出力する。
多視点ロボットカメラ制御装置は、注視点座標算出部によって、前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する。
すなわち、多視点ロボットカメラ制御装置は、カメラマン等の操作者が被写体を所定位置(例えば、画面中央)に捉えると、この被写体がファインダでマーカ表示されるので、操作者が多視点映像表現の対象を認識しやすくなる。さらに、多視点ロボットカメラ制御装置は、この被写体の位置を注視点の世界座標として各スレーブカメラに出力する。その後、各スレーブカメラは、多視点ロボットカメラ制御装置から入力された注視点を向くような姿勢をとる。
このように、多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御することができる。
本願発明によれば、以下のような優れた効果を奏する。
本願発明に係る多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御できるので、操作者の負担を軽減することができる。
本願発明の第1実施形態に係る多視点映像撮影システムの概略図である。 図1の多視点ロボットカメラを説明する説明図である。 図1の多視点ロボットカメラ制御装置の構成を示すブロック図である。 撮影画像の一例を示す図である。 変換距離画像の一例を示す図である。 図3の被写体領域抽出部による被写体領域の抽出を説明する説明図である。 ファインダ画像の一例を示す図である。 図1の多視点映像撮影システムの動作を示すフローチャートである。 本願発明の第2実施形態に係る多視点映像撮影システムの概略図である。 図9の操作インタフェース部を説明する説明図である。 図9の多視点ロボットカメラ制御装置の構成を示すブロック図である。 注視点の追跡を説明する説明図である。 他の被写体に対する注視点の設定を説明する説明図である。 図9の多視点映像撮影システムの動作を示すフローチャートである。 本願発明の第3実施形態に係る多視点ロボットカメラ制御装置の構成を示すブロック図である。 注視点の追跡を説明する説明図である。 図15の多視点映像撮影システムの動作を示すフローチャートである。
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
(第1実施形態)
[多視点映像撮影システムの構成]
図1,図2を参照し、本願発明の第1実施形態に係る多視点映像撮影システム1の構成について説明する。
図1のように、多視点映像撮影システム1は、同一の被写体Tを異なる視点で表示した多視点映像を生成するものであり、多視点ロボットカメラ10と、操作インタフェース部30と、多視点ロボットカメラ制御装置40と、収録装置50とを備える。
多視点ロボットカメラ10は、複数のロボットカメラ20で構成されたものである。本実施形態では、多視点ロボットカメラ10は、7台のロボットカメラ20で構成されている。
ロボットカメラ20は、被写体Tを撮影した撮影画像を生成するものであり、カメラ本体21と、三脚23(図2)と、雲台25とを備える。本実施形態では、カメラ本体21は、カラー映像を撮影する一般的なカラーカメラである。当然、カメラ本体21は、カラーカメラに限定されず、例えば、白黒カメラであってもよい。
図2のように、ロボットカメラ20は、三脚23に搭載されている。そして、ロボットカメラ20は、三脚23の上方に設けた雲台25によって、パン軸及びチルト軸の2軸方向に駆動されると共に、ズームイン及びズームアウトが可能である。
ロボットカメラ20で撮影された撮影画像は、多視点ロボットカメラ制御装置40及び収録装置50に出力される。
また、多視点ロボットカメラ10は、何れか一台のロボットカメラ20の雲台25に距離カメラ27が搭載されている(図2不図示)。ここで、距離カメラ27及びカメラ本体21は、互いの光軸が平行になるように配置することが好ましい。
なお、距離カメラ27及びカメラ本体21は、カメラパラメータにより光軸方向の補正が可能なため、必ずしも平行に配置せずともよい。
この距離カメラ27は、画素毎に距離値を格納した距離画像(デプスマップ)を動画で撮影するものである。例えば、距離カメラ27としては、TOF(Time Of Flight)方式、構造化照明方式等といった光線の照射により距離画像を撮影する能動カメラがあげられる。また、距離カメラ27は、光線を照射せずに距離画像を撮影する受動カメラであってもよい。この受動カメラとしては、2台のカラーカメラを左右に並べ、両カラーカメラの各画素の対応関係を探索することで(ステレオマッチング法)、三角測量の原理で距離画像を撮影するステレオカメラがあげられる。
距離カメラ27で撮影された距離画像は、多視点ロボットカメラ制御装置40に出力される。
この距離カメラ27が搭載されたロボットカメラ20は、マスターカメラ20と呼ばれる。このマスターカメラ20は、後記するファインダ38を搭載した操作インタフェース部30の操作に連動してその姿勢が制御される。
一方、距離カメラ27が搭載されていないロボットカメラ20は、スレーブカメラ20と呼ばれる。このスレーブカメラ20は、多視点ロボットカメラ制御装置40からの情報(注視点の世界座標)に基づいて、注視点を向くように姿勢が制御される。
なお、多視点ロボットカメラ10は、複数のロボットカメラ20のうち、何れか一台がマスターカメラ20として予め設定され、残りがスレーブカメラ20として予め設定される。
図2のように、操作インタフェース部30は、カメラマン等の操作者がマスターカメラ20の操作を行うものであり、三脚31と、雲台33と、パン棒35と、エンコーダ37(図3)と、ファインダ38とを備える。
ここで、操作インタフェース部30は、ファインダ38と共に三脚31に搭載され、三脚31の上方に設けた雲台33からパン棒35が延長されている。そして、操作インタフェース部30は、パン棒35を用いてパン方向やチルト方向に回転させると、その操作に応じてマスターカメラ20が回転する。すなわち、カメラマン等の操作者は、マスターカメラCが被写体(注視点)を向くように、ファインダ38を覗きながら操作インタフェース部30を操作する。
また、操作インタフェース部30は、内蔵されたエンコーダ37によって、現在のパン値及びチルト値をリアルタイムに計測する。そして、操作インタフェース部30は、計測したパン値及びチルト値を多視点ロボットカメラ制御装置40に出力する。
多視点ロボットカメラ制御装置40は、多視点映像を生成するために多視点ロボットカメラ10を制御するものである。
なお、多視点ロボットカメラ制御装置40の詳細は、後記する。
収録装置50は、多視点ロボットカメラ制御装置40から入力された撮影画像を収録し、収録した撮影画像から多視点映像を生成するものである。例えば、収録装置50は、下記参考文献1に記載の手法を用いて、多視点映像を生成する。
参考文献1:Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014
[多視点ロボットカメラ制御装置の構成]
図3を参照し、多視点ロボットカメラ制御装置40の構成について説明する。
図3のように、多視点ロボットカメラ制御装置40は、変換パラメータ記憶部(カメラパラメータ記憶部)41と、距離画像変換部42と、被写体領域抽出部43と、ファインダ画像生成部44と、注視点座標算出部45とを備える。
変換パラメータ記憶部41は、マスターカメラ20を含めた全ロボットカメラ20のカメラパラメータを変換パラメータとして予め記憶するものである。この変換パラメータとしては、各ロボットカメラ20の内部パラメータ行列、回転行列及び並進行列があげられる。
ここで、多視点映像撮影システム1では、カメラキャリブレーションにより各ロボットカメラ20の変換パラメータを求め、その結果を変換パラメータ記憶部41に予め記憶させておく。例えば、カメラキャリブレーションの手法は、前記参考文献1に記載されている。
距離画像変換部42は、距離カメラ27から入力された距離画像を、マスターカメラ20の撮影画像の変換距離画像に変換するものである。具体的には、距離画像変換部42は、変換パラメータ記憶部41に記憶されたマスターカメラ20の変換パラメータを用いて、距離画像の3次元の点群をマスターカメラ20の撮影面に投影することで、撮影画像と同一画素数でそれぞれの画素位置が一致している変換距離画像に変換する。
例えば、距離画像変換部42は、距離画像が撮影画像よりも解像度が低い場合、変換距離画像上で内挿処理を行ってもよい。内挿処理の手法としては、線形内挿、又は、距離画像上で設定したポリゴンを撮影画像に投影する手法があげられる。
その後、距離画像変換部42は、変換距離画像を被写体領域抽出部43に出力する。
これにより、撮影画像及び変換距離画像は、互いの画素が対応することになり、画像座標が一致する。言い換えるなら、変換距離画像は、撮影画像の各画素の距離値を表した奥行マップとなる。ここで、距離値は、マスターカメラ20から被写体Tまでの距離、つまり、被写体Tの奥行値を表す。
なお、画像座標とは、画像中の位置を示す座標のことである。
例えば、マスターカメラ20が、図4の撮影画像を撮影したこととする。この場合、変換距離画像は、図5のように、各画素の画素値(輝度値)により距離値を表した画像となる。図5の変換距離画像は、ハッチングの部分がマスターカメラ20から被写体Tまでの距離値を表しており、白色の部分がマスターカメラ20から背景までの距離値を表している。
被写体領域抽出部43は、距離画像変換部42から入力された変換距離画像で所定位置の基準画素における基準距離値を基準として、基準画素が含まれる被写体領域を抽出するものである。本実施形態では、基準画素が、変換距離画像の中央に位置する画素であることとする。
具体的には、被写体領域抽出部43は、基準画素の距離値を基準として予め設定された範囲内の距離値を有し、かつ、基準画素が含まれる画素領域を求める。例えば、図5の変換距離画像が入力された場合を考える。この場合、図6のように、被写体Tの領域内の各画素が予め設定された範囲内の距離値を有し、かつ、被写体Tの領域に基準画素Sが含まれている。従って、被写体領域抽出部43は、被写体Tの画像領域を求めることになる。
このとき、被写体領域抽出部43は、基準画素の距離値の代わりに、基準画素とこの基準画素の周辺に位置する周辺画素との距離値の平均を用いてもよい。これにより、被写体領域抽出部43は、基準画素の距離値が周辺画素の距離値と大きく異なる場合でも、正確に画素領域を求めることができる。
その後、被写体領域抽出部43は、求めた画素領域の輪郭部分を変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、被写体領域抽出部43は、基準距離値を注視点座標算出部45に出力する。
ファインダ画像生成部44は、マーカが撮影映像に描画されたファインダ画像を生成するものである。このマーカは、被写体領域抽出部43から入力された被写体領域の輪郭を示している。例えば、ファインダ画像生成部44は、図7のように、マスターカメラ20から入力された撮影画像にマーカMが合成されたファインダ画像を生成する。そして、ファインダ画像生成部44は、生成したファインダ画像をファインダ38に出力する。
これにより、ファインダ38には、被写体Tの輪郭を示すマーカが表示される(マーカ表示)。
注視点座標算出部45は、操作インタフェース部30から入力されたマスターカメラ20の操作信号(パン値及びチルト値)を変換パラメータで変換することで、被写体Tの位置を表す注視点の世界座標を算出するものである。
なお、世界座標とは、各ロボットカメラ20に共通する三次元座標のことである。
例えば、注視点座標算出部45は、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、被写体領域抽出部43から入力された基準距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45は、算出した注視点の世界座標を全てのロボットカメラ20の雲台25に出力する。
ここで、各ロボットカメラ20は、それぞれのカメラパラメータを用いて、注視点座標算出部45から入力された注視点の世界座標を向くようにパン値及びチルト値を算出する。例えば、各ロボットカメラ20は、参考文献1に記載された式(7)〜式(10)に、各ロボットカメラ20の回転行列及び並進行列と注視点の世界座標とを代入し、パン値及びチルト値を算出する。そして、各ロボットカメラ20は、算出したパン値及びチルト値に従って雲台25を駆動することで、注視点を向いた姿勢をとる。
[多視点映像撮影システムの動作]
図8を参照し、多視点映像撮影システム1の動作について説明する(適宜図1,図3参照)。
操作者は、操作インタフェース部30を介して、被写体Tを画面中央に捉えるように、マスターカメラ20を操作する(ステップS1)。
なお、ステップS1の処理は、操作者による手動操作のため破線で図示した。
多視点ロボットカメラ制御装置40は、距離画像変換部42によって、マスターカメラ20の変換パラメータを用いて、距離画像を変換距離画像に変換する(ステップS2)。
多視点ロボットカメラ制御装置40は、被写体領域抽出部43によって、距離画像変換部42より入力された変換距離画像から被写体領域を抽出する(ステップS3)。
多視点ロボットカメラ制御装置40は、注視点座標算出部45によって、マスターカメラ20のパン値及びチルト値と基準距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS4)。
各ロボットカメラ20は、変換パラメータを用いて、注視点の世界座標からパン値とチルト値を求め、雲台を制御する(ステップS5)。
多視点ロボットカメラ制御装置40は、ファインダ画像生成部44によって、抽出した被写体領域の輪郭を示すマーカが描画されたファインダ画像を生成する(ステップS6)。
マスターカメラ20は、ファインダ38にファインダ画像を表示する(ステップS7)。
なお、多視点映像撮影システム1は、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図8不図示)。
[作用・効果]
以上のように、多視点映像撮影システム1は、操作者が被写体Tを画面中央で捉えるように操作すれば、被写体Tを向くようにロボットカメラ20を制御する。このように、多視点映像撮影システム1では、操作者が注視点の設定操作を行うことなく被写体Tを撮影できるので、操作者の負担を軽減することができる。
(第2実施形態)
[多視点映像撮影システムの構成]
図9,図10を参照し、本願発明の第2実施形態に係る多視点映像撮影システム1Bの構成について、第1実施形態と異なる点を説明する。
多視点映像撮影システム1Bは、注視点を追跡できる点と、画面中央以外に位置する他の被写体にも注視点を設定できる点とが第1実施形態と異なる。
図9のように、多視点映像撮影システム1Bは、多視点ロボットカメラ10と、操作インタフェース部30Bと、多視点ロボットカメラ制御装置40Bと、収録装置50とを備える。
図10のように、操作インタフェース部30Bは、三脚31と、雲台33と、パン棒35と、エンコーダ37(図11)と、距離調整つまみ39とを備える。
距離調整つまみ39は、パン棒35のほぼ中央に取り付けられたダイヤルである。この距離調整つまみ39は、注視点基準画素の距離値を基準として、他の被写体での距離値を距離差分値として出力する。つまり、距離差分値は、画面中央に位置する被写体の距離値と、画面中央以外に位置する他の被写体の距離値との差分を表す。
ここで、画面中央以外に位置する他の被写体に注視点を設定したい場合、操作者が距離調整つまみ39を操作する。すると、操作者の操作量に応じて、他の被写体に注視点が設定されることになる。
[多視点ロボットカメラ制御装置の構成]
図11を参照し、多視点ロボットカメラ制御装置40Bの構成について説明する。
図11のように、多視点ロボットカメラ制御装置40Bは、変換パラメータ記憶部41と、距離画像変換部42と、被写体領域抽出部43Bと、ファインダ画像生成部44Bと、注視点座標算出部45Bと、注視点画像座標記憶部46とを備える。
被写体領域抽出部43Bは、ラベリング処理により変換距離画像を被写体Tの候補領域に分割し、注視点画像座標記憶部46に記憶された前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する。そして、被写体領域抽出部43Bは、抽出した被写体領域の重心位置を算出し、注視点座標算出部45Bに出力するものである(注視点の追跡)。
また、被写体領域抽出部43Bは、距離調整つまみ39から入力された距離差分値と基準距離値とが加算された抽出対象距離値を算出し、算出した抽出対象距離値を基準として他の被写体領域を抽出する(他の被写体に対する注視点の設定)。この他の被写体領域とは、他の被写体を表す画像領域のことである。
なお、被写体領域抽出部43Bの詳細は、後記する。
ファインダ画像生成部44Bは、被写体領域抽出部43Bから入力された他の被写体領域についても、その輪郭を示すマーカが撮影画像に描画されたファインダ画像を生成するものである。このファインダ画像生成部44Bは、ファインダ画像の生成手法が第1実施形態と同様のため、これ以上の説明を省略する。
注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
他の点、注視点座標算出部45Bは、第1実施形態と同様のため、これ以上の説明を省略する。
注視点画像座標記憶部46は、注視点座標算出部45Bから入力された前フレームの撮影画像における注視点の画像座標を記憶するものである。この前フレームの撮影画像における注視点の画像座標は、現フレームの撮影画像で注視点を追跡する際に参照される。
<注視点の追跡>
図12を参照し、注視点の追跡について説明する(適宜図11参照)。
この図12では、前フレームの撮影画像に含まれる被写体Tを破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体Tを実線で図示した。
まず、前フレームの撮影画像に対する処理を説明する。
多視点ロボットカメラ制御装置40Bの各手段は、前フレームの撮影画像に対し、第1実施形態と同様の処理を行い、被写体Tがマーカ表示されたファインダ画像を生成する。
このとき、被写体領域抽出部43Bは、抽出した被写体Tの重心位置Gを算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体Tの重心位置Gを、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
次に、現フレームの撮影画像に対する処理を説明する。
距離画像変換部42は、第1実施形態と同様の手法により、距離画像を、現フレームの撮影画像に対応した変換距離画像に変換する。
被写体領域抽出部43Bは、例えば、下記参考文献2に記載のラベリング処理により、変換距離画像を候補領域に分割する。このラベリング処理とは、変換距離画像を、予め設定された範囲内の距離値を有する画素で構成される候補領域に分割する処理のことである。
参考文献2:公益財団法人画像情報教育振興協会、「ディジタル画像処理」
続いて、被写体領域抽出部43Bは、注視点画像座標記憶部46から、前フレームの撮影画像における注視点の画像座標を読み出す。ここで、図12のように、被写体Tの画像領域には、前フレームの撮影画像における注視点Gが含まれている。従って、被写体領域抽出部43Bは、この被写体Tの画像領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、ファインダ画像生成部44Bは、被写体Tがマーカ表示されたファインダ画像を生成する。
続いて、被写体領域抽出部43Bは、抽出した被写体Tの重心位置Gを算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、被写体Tの重心位置Gでの距離値とを代入し、注視点の世界座標を算出する。その後、注視点座標算出部45Bは、被写体Tの重心位置Gを、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
このように、多視点ロボットカメラ制御装置40Bは、被写体Tが移動する場合でも、移動前の被写体Tの重心位置が移動後の被写体Tの領域に含まれていれば、この被写体Tに注視点を設定すると共に、この被写体Tをマーカ表示できる。
<他の被写体に対する注視点の設定>
図13を参照し、他の被写体に対する注視点の設定について説明する(適宜図11参照)。
この図13では、画面中央に位置する被写体Tと、画面中央以外に位置する他の被写体Tとを図示した。また、被写体Tの距離値をDとし、被写体Tの距離値をDとし、距離差分値をΔDとする。
画面中央に位置する被写体Tではなく、被写体Tの奥に位置する被写体Tに注視点を設定する場合を考える。この場合、距離差分値ΔD=D−Dとなるように、操作者が距離調整つまみ39を操作する。すると、距離調整つまみ39は、距離差分値ΔDを被写体領域抽出部43Bに出力する。
被写体領域抽出部43Bは、基準距離値(被写体Tの距離値D)と、距離差分値ΔDとを加算し、抽出対象距離値(被写体Tの距離値D)を算出する。そして、被写体領域抽出部43Bは、第1実施形態と同様の手法で、算出した抽出対象距離値を基準として被写体Tの画像領域を求める。さらに、被写体領域抽出部43Bは、被写体Tの画素領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。
このように、多視点ロボットカメラ制御装置40Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定すると共に、この被写体Tをマーカ表示できる。
なお、撮影画像に他の被写体Tが2以上含まれる場合でも、この手法を利用することができる。また、他の被写体に対する注視点の設定は、注視点の追跡と併用することができる。
[多視点映像撮影システムの動作]
図14を参照し、多視点映像撮影システム1Bの動作について説明する(適宜図11参照)。
操作者は、注視点を設定したい被写体がマーカ表示されるように、距離調整つまみ39を操作する(ステップS10)。
なお、ステップS10の処理は、操作者による手動操作のため破線で図示した。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、基準距離値と距離差分値とを加算し、抽出対象距離値を算出する(ステップS11)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、変換距離画像を候補領域に分割する(ステップS12)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する(ステップS13)。
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、マスターカメラ20のパン値及びチルト値と移動後の被写体Tの重心位置での距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS14)。
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、移動後の被写体の重心位置を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる(ステップS15)。
なお、多視点映像撮影システム1Bは、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図14不図示)。
[作用・効果]
以上のように、多視点映像撮影システム1Bは、操作者が被写体Tを画面中央で捉え続けなくても、この被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
さらに、多視点映像撮影システム1Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定し、設定した注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
(第3実施形態)
図15を参照し、本願発明の第3実施形態に係る多視点映像撮影システム1Cの構成について、第2実施形態と異なる点を説明する。
多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれない場合でも注視点を追跡できる点が、第2実施形態と異なる。
[多視点ロボットカメラ制御装置の構成]
図15を参照し、多視点ロボットカメラ制御装置40Cの構成について説明する。
図15のように、多視点ロボットカメラ制御装置40Cは、変換パラメータ記憶部41と、距離画像変換部42Cと、被写体領域抽出部43Cと、ファインダ画像生成部44Bと、注視点座標算出部45Cと、注視点画像座標記憶部46と、撮影画像記憶部47と、注視点追跡部48とを備える。
距離画像変換部42Cは、第1実施形態と同様の処理を行った後、変換された変換距離画像を注視点追跡部48に出力する。
他の点、距離画像変換部42Cは、第1実施形態と同様のため、これ以上の説明を省略する。
被写体領域抽出部43Cは、第2実施形態と同様、変換距離画像を候補領域に分割し、分割した候補領域の重心位置を算出する。そして、被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出するものである。
なお、被写体領域抽出部43Cの詳細は、後記する。
注視点座標算出部45Cは、後記する注視点追跡部48から入力された移動後注視点を用いて、注視点の世界座標を算出するものである。例えば、注視点座標算出部45Cは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、移動後注視点での距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45Cは、算出した注視点の世界座標を全てのロボットカメラ20に出力する。
撮影画像記憶部47は、注視点追跡部48から入力された撮影画像を記憶するものである。この前フレームの撮影画像は、現フレームの撮影画像で注視点を追跡する際に参照される。
注視点追跡部48は、撮影画像記憶部47に記憶された前フレームの撮影画像とマスターカメラ20から入力された現フレームの撮影画像とのマッチング処理により注視点の移動ベクトルを求めるものである。そして、注視点追跡部48は、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した移動後注視点の画素座標を被写体領域抽出部43C及び注視点座標算出部45Cに出力する。
ここで、注視点追跡部48は、算出した移動後注視点の画素座標を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。また、注視点追跡部48は、マスターカメラ20から入力された現フレームの撮影画像を、前フレームの撮影画像として撮影画像記憶部47に記憶させる。
<注視点の追跡>
図16を参照し、注視点の追跡について説明する(適宜図15参照)。
この図16では、前フレームの撮影画像に含まれる被写体Tを破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体Tを実線で図示した。
注視点追跡部48は、前フレームと現フレームとの撮影画像にマッチング処理を施し、前フレームの注視点が現フレームでどこに移動したかを示す移動ベクトルを算出する。具体的には、注視点追跡部48は、前フレームと現フレームとの撮影画像にブロックマッチングを施し、それぞれの撮影画像に含まれる被写体T,Tの画像領域を求める。そして、注視点追跡部48は、被写体T,Tの重心位置G,Gを求め、被写体Tの重心位置Gから被写体Tの重心位置Gまでを結ぶ移動ベクトルを求める。
その後、注視点追跡部48は、被写体Tの重心位置Gを始点として、移動ベクトルが示す被写体Tの重心位置Gの画素座標を、移動後注視点の画素座標として算出する。
被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標Gと、被写体Tの重心位置Gとが一致するので、この被写体Tの画像領域を被写体領域として抽出する。
このように、多視点ロボットカメラ制御装置40Cは、移動前の被写体Tの重心位置Gが移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tに注視点を設定すると共に、この被写体Tの輪郭をマーカ表示できる。
[多視点映像撮影システムの動作]
図17を参照し、多視点映像撮影システム1Cの動作について説明する(適宜図15参照)。
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームと現フレームとの撮影画像のマッチング処理により注視点の移動ベクトルを求める。
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出する(ステップS20)。
多視点ロボットカメラ制御装置40Cは、被写体領域抽出部43Cによって、移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出する(ステップS21)。
[作用・効果]
以上のように、多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御できるので、操作者の負担を軽減することができる。
以上、本願発明の各実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、基準画素を画面中央の画素であることとして説明したが、これに限定されない。つまり、変換距離画像内で任意位置の画素を基準画素に設定できる。
前記した各実施形態では、カメラパラメータ及び注視点の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
前記した各実施形態では、注視点の世界座標及びパン値及びチルト値の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
前記した各実施形態では、多視点ロボットカメラ制御装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、本願発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、多視点ロボットカメラ制御装置として協調動作させる多視点ロボットカメラ制御プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1,1B,1C 多視点映像撮影システム
10 多視点ロボットカメラ
20 ロボットカメラ
20 マスターカメラ
20 スレーブカメラ
21 カメラ本体
23 三脚
25 雲台
27 距離カメラ
30,30B,30C 操作インタフェース部
31 三脚
33 雲台
35 パン棒
37 エンコーダ
38 ファインダ
39 距離調整つまみ
40,40B,40C 多視点ロボットカメラ制御装置
41 変換パラメータ記憶部(カメラパラメータ記憶部)
42,42C 距離画像変換部
43,43B,43C 被写体領域抽出部
44,44B,44C ファインダ画像生成部
45,45B 注視点座標算出部
46 注視点画像座標記憶部
47 撮影画像記憶部
48 注視点追跡部
50 収録装置

Claims (6)

  1. 同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、
    前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶するカメラパラメータ記憶部と、
    前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する被写体領域抽出部と、
    抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像をファインダに出力するファインダ画像生成部と、
    前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する注視点座標算出部と、
    を備えることを特徴とする多視点ロボットカメラ制御装置。
  2. 前記被写体領域抽出部は、前記被写体と当該被写体以外の他の被写体との距離値の差分である距離差分値が入力され、入力された前記距離差分値と前記基準距離値とが加算された抽出対象距離値を算出し、算出した前記抽出対象距離値を基準として他の被写体領域を抽出し、
    前記ファインダ画像生成部は、抽出した前記他の被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した当該ファインダ画像を前記ファインダに出力することを特徴とする請求項1に記載の多視点ロボットカメラ制御装置。
  3. 前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部、をさらに備え、
    前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、前記注視点画像座標記憶部に記憶された前フレームの撮影画像における注視点の画像座標が含まれる前記候補領域を前記被写体領域として抽出し、抽出した前記被写体領域の重心位置を算出し、
    前記注視点座標算出部は、前記被写体領域抽出部が算出した被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させることを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。
  4. 前フレームの撮影画像を記憶する撮影画像記憶部と、
    前記前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部と、
    前記撮影画像記憶部に記憶された前フレームの撮影画像と前記マスターカメラから入力された現フレームの撮影画像とのマッチング処理により前記注視点の移動ベクトルを求め、前記前フレームの撮影画像における注視点を始点として前記移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した前記移動後注視点の画素座標を前記前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させ、前記現フレームの撮影画像を前記撮影画像記憶部に記憶させる注視点追跡部と、をさらに備え、
    前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、分割した前記候補領域の重心位置を算出し、前記移動後注視点の画素座標に前記重心位置が最も近くなる前記候補領域を前記被写体領域として抽出することを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。
  5. 距離カメラで撮影した距離画像が入力され、入力された前記距離画像を前記変換距離画像に変換する距離画像変換部、をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載の多視点ロボットカメラ制御装置。
  6. コンピュータを、請求項1から請求項5の何れか一項に記載の多視点ロボットカメラ制御装置として機能させるための多視点ロボットカメラ制御プログラム。
JP2015211549A 2015-10-28 2015-10-28 多視点ロボットカメラ制御装置及びそのプログラム Active JP6606397B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015211549A JP6606397B2 (ja) 2015-10-28 2015-10-28 多視点ロボットカメラ制御装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211549A JP6606397B2 (ja) 2015-10-28 2015-10-28 多視点ロボットカメラ制御装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2017085340A JP2017085340A (ja) 2017-05-18
JP6606397B2 true JP6606397B2 (ja) 2019-11-13

Family

ID=58711363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211549A Active JP6606397B2 (ja) 2015-10-28 2015-10-28 多視点ロボットカメラ制御装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6606397B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (ja) * 1999-07-08 2001-01-26 Canon Inc カメラシステム及びカメラ制御方法
JP2002071309A (ja) * 2000-08-24 2002-03-08 Asahi Optical Co Ltd 3次元画像検出装置
JP5316083B2 (ja) * 2009-02-27 2013-10-16 株式会社ニコン カメラ
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP2013058054A (ja) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd 移動体追跡装置、移動体追跡方法及びプログラム
JP5879877B2 (ja) * 2011-09-28 2016-03-08 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2015103852A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理装置の制御プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP2017085340A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
KR102105189B1 (ko) 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법
JP4351996B2 (ja) モノスコープ・イメージから立体的なイメージを生成するための方法
CN109952760A (zh) 多视图场景流拼接
JP2017108387A (ja) パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム
KR102225617B1 (ko) 영상 정합 알고리즘을 설정하는 방법
JP2020506487A (ja) シーンから深度情報を取得するための装置および方法
US20210392275A1 (en) Camera array for a mediated-reality system
CN107368192B (zh) Vr眼镜的实景观测方法及vr眼镜
CN112330736A (zh) 一种场景画面的拍摄方法、装置、电子设备及存储介质
JP5856344B1 (ja) 3d画像表示装置
KR20190062794A (ko) 시점 변환을 이용하는 영상 결합 방법 및 시스템
KR101270025B1 (ko) 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치
JP2020053774A (ja) 撮像装置および画像記録方法
KR101725024B1 (ko) 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법
WO2021031210A1 (zh) 视频处理方法和装置、存储介质和电子设备
JP2001256482A (ja) 視差画像生成装置および視差画像生成方法
JP2019121945A (ja) 撮像装置、その制御方法及びプログラム
CN110036411B (zh) 生成电子三维漫游环境的装置和方法
JP6606397B2 (ja) 多視点ロボットカメラ制御装置及びそのプログラム
CN108513122B (zh) 基于3d成像技术的模型调整方法及模型生成装置
CN109961395B (zh) 深度图像的生成及显示方法、装置、系统、可读介质
JP5453552B2 (ja) 撮影装置、方法及びプログラム
JP2015126402A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP6336856B2 (ja) 多視点映像表現装置及びそのプログラム
JP2014096761A (ja) 画像処理装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R150 Certificate of patent or registration of utility model

Ref document number: 6606397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250