JP6609112B2 - 多視点映像表現装置及びそのプログラム - Google Patents

多視点映像表現装置及びそのプログラム Download PDF

Info

Publication number
JP6609112B2
JP6609112B2 JP2015101445A JP2015101445A JP6609112B2 JP 6609112 B2 JP6609112 B2 JP 6609112B2 JP 2015101445 A JP2015101445 A JP 2015101445A JP 2015101445 A JP2015101445 A JP 2015101445A JP 6609112 B2 JP6609112 B2 JP 6609112B2
Authority
JP
Japan
Prior art keywords
view video
unit
frame image
camera
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015101445A
Other languages
English (en)
Other versions
JP2016219968A (ja
Inventor
健佑 池谷
正樹 高橋
英彦 大久保
正規 加納
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015101445A priority Critical patent/JP6609112B2/ja
Publication of JP2016219968A publication Critical patent/JP2016219968A/ja
Application granted granted Critical
Publication of JP6609112B2 publication Critical patent/JP6609112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本願発明は、被写体を異なる視点で表示すると共にオブジェクトの解析データを合成する多視点映像表現装置及びそのプログラムに関する。
従来から、多視点映像表現として、被写体を取り囲むように多視点カメラを配置し、多視点映像をカメラの並びに沿って切り替えることで、時間を止めて被写体の周囲を視点が回り込むような映像表現が行われている。この多視点映像表現を実現する従来技術としては、多視点ハイビジョン映像生成システムや多視点ロボットカメラシステムが知られている(例えば、非特許文献1,2参照)。
従来の多視点ハイビジョン映像生成システムでは、三脚にハイビジョンカメラを設置した固定型多視点カメラを撮影に使用する。一方、従来の多視点ロボットカメラシステムでは、パン、チルト制御が可能な電動雲台に小型ハイビジョンカメラを設置した可動型多視点ロボットカメラを撮影に使用する。そして、従来技術の両方とも、多視点映像に射影変換を施すことで、カメラを任意の被写体へ仮想的に方向制御し、カメラの並びに沿って映像を切り替えることで、多視点映像表現を実現する。
冨山仁博 岩舘祐一,「多視点ハイビジョン映像生成システムの開発」,映像情報メディア学会誌,64,4,pp.622-628 (2010) 「多視点ロボットカメラシステムを用いた映像制作」,兼六館出版,「放送技術」,2013年66巻11月号,pp.102-105
しかし、従来の多視点ハイビジョン映像生成システムでは、ボールや選手等のオブジェクトの動きをカバーできるように広い画角で撮影するため、相対的に画面内でオブジェクトが小さくなり、オブジェクトの動きが分かりにくくなる。そこで、オブジェクトの動きを解析し、解析データのCGを多視点映像に合成することで、オブジェクトの動きをより分かりやすく視聴者に伝えたいという要望がある。
本願発明は、オブジェクトの動きが分かりやすい多視点映像表現装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係る多視点映像表現装置は、同一の被写体を複数の撮影カメラで撮影した多視点映像を用いて、被写体を異なる視点で表示すると共に多視点映像内のオブジェクトの動きに関する解析データを合成する多視点映像表現装置であって、カメラキャリブレーション部と、オブジェクト追跡部と、解析データ生成部と、CG合成部と、射影変換行列生成部と、射影変換行列群生成部と、射影変換部と、多視点映像表現部と、を備える構成とした。
なお、オブジェクトとは、後記する解析データを生成する対象となる移動体(例えば、人物、動物、物体)のことである。また、オブジェクトは、被写体と同一であってもよく、被写体とは別の移動体であってもよい。例えば、球技のスポーツ映像であれば、選手が被写体となり、ボールがオブジェクトとなる。
かかる構成によれば、多視点映像表現装置は、カメラキャリブレーション部によって、前記撮影カメラ毎に、当該撮影カメラの位置及び姿勢が含まれるカメラパラメータをカメラキャリブレーションにより算出する。
多視点映像表現装置は、オブジェクト追跡部によって、前記オブジェクトを追跡し、予め設定された座標系変換式により、追跡した前記オブジェクトの画像座標から世界座標を算出する。
多視点映像表現装置は、解析データ生成部によって、前記オブジェクトの世界座標の変化によりオブジェクトの動きを解析し、オブジェクトの軌跡や速度等の解析データを生成する。そして、多視点映像表現装置は、CG合成部によって、前記多視点映像のうちの基準フレーム画像、及び、前記多視点映像のうちの前記基準フレーム画像以外の参照フレーム画像に前記解析データのCGを合成する。
多視点映像表現装置は、射影変換行列生成部によって、前記ロボットカメラ及び前記基準フレーム画像毎に、前記被写体の位置を表す注視点が前記多視点映像で所定位置となるように射影変換するための射影変換行列を生成する。
多視点映像表現装置は、射影変換行列群生成部によって、前記ロボットカメラ毎に、前記参照フレーム画像の射影変換行列を、前記射影変換行列生成部が生成した基準フレーム画像の射影変換行列から補間する。
多視点映像表現装置は、射影変換部によって、前記基準フレーム画像及び前記参照フレーム画像の射影変換行列により、前記解析データが合成された前記基準フレーム画像及び前記参照フレーム画像を射影変換する。
多視点映像表現装置は、多視点映像表現部によって、射影変換された前記基準フレーム画像及び前記参照フレーム画像を切り替える。
本願発明によれば、以下のような優れた効果を奏する。
本願発明によれば、多視点映像表現を行う際、オブジェクトの軌跡や速度等の解析データが表示されるので、オブジェクトの動きが分かりやすくなる。これによって、本願発明によれば、多視点表現映像の臨場感を高くすることができる。
本願発明の実施形態に係る多視点映像表現装置の構成を示すブロック図である。 図1の多視点映像撮影部を説明する説明図である。 本願発明の実施形態において、(a)はロボットカメラの方向誤差を説明する説明図であり、(b)はロボットカメラの仮想的な方向制御を説明する説明図である。 本願発明の実施形態において、ロボットカメラの姿勢を説明する図であり、(a)はロボットカメラを側面視した図であり、(b)はロボットカメラを正面視した図であり、(c)はロボットカメラを上面視した図である。 本願発明の実施形態において、(a)〜(e)は、ボールの軌跡データの生成を説明する説明図である。 本願発明の実施形態において、(a)及び(b)は、ボールの速度データの生成を説明する説明図である。 本願発明の実施形態において、データの指定及び射影変換行列の補間を説明する説明図である。 本願発明の実施形態において、ロボットカメラのチルト軸と、三脚と、設置面との位置関係を説明する説明図であり、ロボットカメラを正面視した図である。 図1のチルト軸算出部によるチルト軸の算出を説明する説明図であり、ロボットカメラを側面視した図である。 図1の射影変換部による射影変換を説明する説明図である。 本願発明の実施形態において、(a)及び(b)はボールの速度データが合成された多視点表現映像を説明する説明図であり、(c)及び(d)はボールの軌跡データが合成された多視点表現映像を説明する説明図である。 図1の多視点映像表現装置の動作を示すフローチャートである。
[多視点映像表現装置の構成]
図1を参照し、本願発明の実施形態に係る多視点映像表現装置1の構成について、説明する。
多視点映像表現装置1は、同一の被写体を複数の撮影カメラで撮影した多視点映像を用いて、被写体を異なる視点で表示すると共にオブジェクトの動きに関する解析データを合成するものである。
図1に示すように、多視点映像表現装置1は、多視点映像撮影部10と、多視点映像格納部20と、カメラキャリブレーション部30と、オブジェクト追跡部40と、データ解析部(解析データ生成部)50と、CG生成部60と、CG合成部70と、演算部80と、射影変換行列群生成部90と、射影変換部100と、多視点映像表現部110とを備える。
本実施形態では、一例として、ハンドボール試合の多視点映像について多視点映像表現を行うこととする。このとき、ハンドボール選手を被写体とし、ボール(オブジェクト)の解析データを生成することとする。
多視点映像撮影部10は、複数の撮影カメラで同一の被写体を撮影して、この被写体が様々な視点で撮影された多視点映像を生成するものである。例えば、多視点映像撮影部10は、図2に示すように、複数のロボットカメラ(撮影カメラ)Cと、操作部11とを備える多視点ロボットカメラシステムである。
ロボットカメラCは、三脚Caに搭載されている。このロボットカメラCは、三脚Caの上方に設けた雲台Cbによって、パン軸及びチルト軸の2軸方向に駆動されると共に、ズームイン及びズームアウトができるように設置されている。また、ロボットカメラCは、撮影時のパン値、チルト値等のエンコーダ値を計測するエンコーダ(不図示)を備え、計測されたエンコーダ値をカメラキャリブレーション部30に出力する。
操作部11は、ロボットカメラCの各種操作を行うものである。この操作部11は、ロボットカメラCを操作するためのハンドルが設けられると共に、ケーブルを介して、各ロボットカメラCに接続されている。
まず、カメラマン(2点鎖線で図示)は、操作部11のハンドルを操作し、被写体を追随する。このとき、多視点映像撮影部10は、操作部11からの制御信号によって、全ロボットカメラCが被写体を追随するように方向制御し、被写体を撮影する。そして、多視点映像撮影部10は、被写体が撮影された多視点映像(撮影映像)を生成し、多視点映像格納部20に格納する。このように、多視点映像撮影部10は、一人のカメラマンによる一台分のカメラ操作で、複数のロボットカメラCを一斉に協調制御できるように構成されている。
図3(a)に示すように、多視点映像撮影部10では、カメラマンの操作ミス、又は、雲台Cbの制御誤差により、ロボットカメラCの方向誤差が生じ、被写体Hが正確に多視点映像の中央に捉えられないことがある。このままでは、被写体Hが画像中央に位置しておらず、多視点映像表現が行えない場合がある。そこで、多視点映像表現装置1は、図3(b)に示すように、画像処理(射影変換)によって、ロボットカメラCが被写体H(注視点P)に向くように仮想的な方向制御を行う。
以後、ロボットカメラC(C,…,C,…,C)をn台として説明する(但し、1<l<nを満たす)。
なお、射影変換により被写体を捉える位置は、多視点映像の中央に制限されない。
図1に戻り、多視点映像表現装置1の構成について、説明を続ける。
多視点映像格納部20は、例えば、多視点映像撮影部10が生成した多視点映像を格納するフレームメモリである。この多視点映像格納部20に格納された多視点映像は、後記するオブジェクト追跡部40及びCG合成部70によって、フレーム画像単位で参照される。
カメラキャリブレーション部30は、ロボットカメラC毎に、このロボットカメラCの位置及び姿勢が含まれるカメラパラメータをカメラキャリブレーションにより算出するものである。本実施形態では、カメラキャリブレーション部30は、ロボットカメラCから入力されたエンコーダ値を用いて、カメラパラメータを算出する。そして、カメラキャリブレーション部30は、算出したカメラパラメータを、オブジェクト追跡部40と、CG合成部70と、演算部80とに出力する。
例えば、カメラパラメータの算出手法は、下記の参考文献1に記載されている。この参考文献1に記載の手法は、多視点カメラと複数の校正パターンを利用し、これらの関係を高精度に推定することで精度の高いカメラ校正を実現したものである。
参考文献1:「角度センサを用いた多視点カメラの校正手法と映像表現への適用」、映像情報メディア学会技術報告vol.39、no.7、2015、p.273-278
前記したカメラパラメータには、各ロボットカメラCの内部パラメータと、各ロボットカメラCの位置(光学中心)及び姿勢を示す外部パラメータとが含まれている。この内部パラメータとは、内部パラメータ行列Aのことである。また、外部パラメータとは、回転行列R及び並進行列Tのことである。このとき、画像座標系(u,v)と世界座標系xの関係は、下記の式(1)〜式(5)で表わされる。
Figure 0006609112
Figure 0006609112
Figure 0006609112
Figure 0006609112
Figure 0006609112
なお、式(1)〜式(5)では、ωが画像距離であり、AがロボットカメラCの内部パラメータ行列であり、aがフレーム画像のアスペクト比であり、FがロボットカメラCの焦点距離であり、γがスキューであり、(C,C)がロボットカメラCの光軸と画像面との交点座標であり、RがロボットカメラCの回転行列であり、TがロボットカメラCの並進行列である。
なお、画像座標とは、画像中の位置を示す座標のことである。
また、世界座標とは、各ロボットカメラCに共通する三次元座標のことである。
<ロボットカメラCの姿勢>
図4を参照し、ロボットカメラCの姿勢について、説明する。
図4では、ロボットカメラCが設置された面(フロア面、地面)を設置面Gと図示した。また、図4では、ロボットカメラCの光軸が設置面Gに平行であることとする。さらに、図4には、ロボットカメラCのロール軸をZ軸とし、チルト軸をX軸とし、パン軸をY軸と図示した(以後の図面も同様)。
ロボットカメラCの姿勢は、図4に示すように、パン軸(Y軸)、チルト軸(X軸)、及び、ロール軸(Z軸)の3軸で表される。このパン軸は、ロボットカメラCがパンするときの回転軸であり、ロボットカメラCの上下に伸びている。従って、ロボットカメラCの光軸が設置面Gに平行な場合、パン軸が、設置面Gの法線に一致する。
チルト軸は、ロボットカメラCがチルトするときの回転軸であり、ロボットカメラCの左右に伸びている。さらに、ロール軸は、ロボットカメラCがロールするときの回転軸であり、ロボットカメラCの前後に伸びており、ロボットカメラCの光軸に一致する。従って、ロボットカメラCの光軸が設置面Gに平行な場合、チルト軸及びロール軸が、設置面Gに平行となり、かつ、互いに直交する。
図1に戻り、多視点映像表現装置1の説明を続ける。
オブジェクト追跡部40は、多視点映像格納部20に格納された多視点映像に含まれるオブジェクトを追跡し、予め設定された座標系変換式により、追跡したオブジェクトの画像座標から世界座標を算出するものである。
例えば、オブジェクトの追跡部手法は、下記の参考文献2に記載されている。この参考文献2に記載の手法は、機械学習を用いて、映像からオブジェクトを頑健に検出・追跡するものである。
参考文献2:「機械学習を利用した複数視点映像からのサッカーボール追跡」、映像情報メディア学会技術報告vol.38、no.51、2014、p.5-8
ここで、オブジェクト追跡部40は、世界座標を算出する際、n台のうち、2台のロボットカメラCを予め選択し、選択された2台のロボットカメラCの多視点映像を用いる。このとき、オブジェクト追跡部40は、光軸のなす角が直角に最も近い2台のロボットカメラCを予め選択すると、世界座標がより正確に求められるので好ましい。
2台のロボットカメラCの撮影画像のそれぞれで、オブジェクトの画像座標(u,va),(u,v)が求まったとき、オブジェクトの世界座標gは、下記の座標変換式としての式(6)〜式(8)で求められる。そして、オブジェクト追跡部40は、算出したオブジェクトの世界座標gをデータ解析部50に出力する。
Figure 0006609112
Figure 0006609112
Figure 0006609112
なお、Snijは、3行4列のカメラパラメータSのうち、i行j列の要素を表す(但し、1≦i≦3、1≦j≦4)。また、MはMの一般逆行列を表し、添え字a,bは選択された2台のロボットカメラを表す。
データ解析部50は、オブジェクト追跡部40から入力されたオブジェクトの世界座標の変化により、解析データを生成するものである。そして、データ解析部50は、生成した解析データをCG生成部60に出力する。
<解析データの第1例:ボールの軌跡データ>
図5,図6を参照し、解析データの生成について、第1例及び第2例を説明する(適宜図1参照)。
この第1例では、データ解析部50は、解析データとして、多視点映像で連続するフレーム画像に含まれるボール(オブジェクト)Oの世界座標の変化により、ボールOの軌跡データを生成する。
ここで、図5(a)〜(e)のように、ハンドボール試合の多視点映像が5枚のフレーム画像で構成され、各フレーム画像でのボールOの世界座標がg〜gであることとする。つまり、図5では、連続するフレーム画像において、ボールOの世界座標がgからgまで変化している。
まず、データ解析部50は、各フレーム画像において、ボールOの重心位置又は中心位置をボールOの世界座標g〜gとして算出する。そして、データ解析部50は、世界座標gから世界座標gまでの軌跡を求める。この解析データは、世界座標g,gを結ぶ線分と、世界座標g,gを結ぶ線分と、世界座標g,gを結ぶ線分と、世界座標g,gを結ぶ線分とを連結した軌跡データとなる。
<解析データの第2例:ボールの速度データ>
この第2例では、データ解析部50は、解析データとして、単位時間におけるボールOの世界座標の変化により、ボールOの速度データを生成する。
ここで、単位時間を1秒とし、図6(b)のフレーム画像が、図6(a)のフレーム画像より1秒(単位時間)だけ後のフレーム画像であることとする。また、各フレーム画像でのボールOの世界座標がg10,g11であることとする。つまり、ボールOは、1秒間に世界座標g10から世界座標g11まで移動している。
まず、データ解析部50は、各フレーム画像において、ボールOの重心位置又は中心位置をボールOの世界座標g10,g11として算出する。そして、データ解析部50は、世界座標g10から世界座標g11までの移動距離を求める。さらに、データ解析部50は、求めた移動距離及び単位時間から、ボールOの速度を求める。
なお、データ解析部50は、第1例又は第2例の何れの手法を用いるか、予め設定しておく。また、データ解析部50は、第1例又は第2例の手法を併用してもよい。
図1に戻り、多視点映像表現装置1の説明を続ける。
CG生成部60は、データ解析部50から入力された解析データが視覚的に表現された三次元CGを生成するものである。第1例の手法で解析データを生成した場合、CG生成部60は、三次元CGとして、世界座標g〜gまでの軌跡を生成する。また、第2例の手法で解析データを生成した場合、CG生成部60は、ボールOの速度を表した三次元CGを生成する。その後、CG生成部60は、生成した解析データのCGをCG合成部70に出力する。
CG合成部70は、多視点映像格納部20に格納された多視点映像に、CG生成部60から入力された解析データのCGを合成するものである。具体的には、CG合成部70は、カメラキャリブレーション部30から入力されたカメラパラメータを式(1)及び式(2)に代入し、各多視点映像に解析データのCGを投影する。そして、CG合成部70は、解析データのCGが合成された多視点映像を演算部80に出力する。
演算部80は、射影変換行列の生成に必要な各種演算を行うものであり、データ指定部82と、カメラ姿勢算出部84と、射影変換行列生成部86とを備える。
データ指定部82は、基準フレーム画像、注視点、カメラパス(切替順序)等のデータが指定されるものである。本実施形態では、多視点映像表現装置1のユーザが、図示を省略したマウス、キーボード等の操作手段(不図示)を操作して、データをデータ指定部82に指定する。
基準フレーム画像とは、多視点映像で連続するフレーム画像のうち、後記する射影変換行列を生成するフレーム画像のことである。通常、基準フレーム画像は、複数指定される。
注視点とは、基準フレーム画像毎に被写体の位置を表すものである。
カメラパスとは、多視点映像表現を行うときのロボットカメラCの切替順序を表すものである。
なお、多視点映像のうち、基準フレーム画像以外のフレーム画像を参照フレーム画像と呼ぶ。
<基準フレーム画像及びカメラパスの指定>
図7を参照し、データ指定部82による基準フレーム画像及びカメラパスの指定について、説明する(適宜図1参照)。
図7では、ロボットカメラC,C,…,Cで撮影された多視点映像のフレーム画像が時系列順に並んでいる。また、ロボットカメラC,C,…,Cのフレーム画像は同期している。
データ指定部82は、多視点映像をディスプレイ(不図示)に表示する。そして、データ指定部82は、操作手段をユーザに操作させて、多視点映像表現を開始するフレーム画像Fと、多視点映像表現を終了するフレーム画像Fとを指定させる。ここで、多視点映像表現を開始及び終了するフレーム画像F,Fは、基準フレーム画像として扱われる。
前記したように、各ロボットカメラCのフレーム画像は同期している。そこで、データ指定部82は、何れか一台のロボットカメラCを基準ロボットカメラとし、この基準ロボットカメラの多視点映像に対し、基準フレーム画像をユーザに指定させればよい。この場合、データ指定部82は、残りのロボットカメラCの多視点映像についても、基準ロボットカメラのフレーム画像と同時刻のフレーム画像を、基準フレーム画像として扱う。図7の例では、ドットで図示したフレーム画像F,F,Fが基準フレーム画像として扱われる。
次に、データ指定部82は、多視点映像表現を行うフレーム画像F〜Fの間でカメラパスPhをユーザに指定させる。図7の例では、カメラパスPhは、フレーム画像FでロボットカメラCからロボットカメラCに切り替わり、フレーム画像Fとフレーム画像Fとの間ではロボットカメラCのままであることを表す。また、カメラパスPhは、フレーム画像FでロボットカメラCからロボットカメラCに切り替わり、再び、フレーム画像FでロボットカメラCからロボットカメラCに切り替わることを表す。
なお、データ指定部82は、基準フレーム画像の数、及び、前後する基準フレーム画像の間隔を任意に指定できる。
また、データ指定部82は、ロボットカメラCからロボットカメラCへの切り替えのように、任意のロボットカメラCの間にカメラパスPhを指定できる。また、データ指定部82は、基準フレーム画像F,F,Fだけでなく、参照フレーム画像にもカメラパスPhを指定できる。
<注視点の指定>
続いて、データ指定部82による注視点の指定について、説明する。
データ指定部82は、各ロボットカメラCの基準フレーム画像毎に、注視点をユーザに指定させる。このとき、データ指定部82は、被写体が画像中央から外れたフレーム画像のみ、注視点を指定させればよい。
そして、データ指定部82は、注視点がフレーム画像上(つまり、画像座標系)で指定されるため、以下のように、ユーザが指定した注視点を世界座標系に変換する。
画像座標系(u,v)と世界座標系(X,Y,Z)との座標変換式は、ロボットカメラC毎に、前記した式(1)〜式(5)で定義される。つまり、データ指定部82は、式(1)〜式(5)を用いて、画像座標系(u,v)で指定された被写体の位置を、世界座標系(X,Y,Z)に変換する。
図1に戻り、多視点映像表現装置1の説明を続ける。
カメラ姿勢算出部84は、カメラパラメータで表されるロボットカメラCの位置から注視点を向くように、仮想的にロボットカメラCを方向制御したときの姿勢を算出するものである。このカメラ姿勢算出部84は、ロール軸算出部841と、チルト軸算出部843と、パン軸算出部845とを備える。
ロール軸算出部841は、ロボットカメラC毎に、ロボットカメラCの位置から注視点を向いたロール軸単位ベクトルenzを、注視点に向いたロボットカメラCのロール軸として算出するものである。
まず、ロール軸算出部841は、カメラパラメータから、ロボットカメラCの位置(光学中心)を抽出する。また、ロール軸算出部841は、下記の式(9)に示すように、n台目のロボットカメラCについて、そのロボットカメラCの光学中心の世界座標(X,Y,Z)から注視点の世界座標(X,Y,Z)を向くベクトルEnzを算出する。
Figure 0006609112
次に、ロール軸算出部841は、式(9)のベクトルEnzが正規化されたロール軸単位ベクトルenzを算出する。つまり、このロール軸単位ベクトルenzが、注視点に向いたロボットカメラCのロール軸を示す。
なお、本実施形態において、正規化とは、ベクトルの方向をそのままとし、大きさが‘1’の単位ベクトルに変換することである。
チルト軸算出部843は、ロボットカメラC毎に、ロール軸算出部841で算出されたロール軸単位ベクトルenzと、設置面Gに垂直な設置面法線単位ベクトルvとの外積で表されるチルト軸単位ベクトルenxを、注視点に向いたロボットカメラCのチルト軸として算出するものである。
まず、チルト軸算出部843は、カメラパラメータから、カメラキャリブレーションを施したときのロボットカメラCのチルト軸を抽出する。このチルト軸とは、回転行列Rでチルト軸を示す要素のことであり、例えば、前記した式(4)の一行目の要素を指している。
次に、チルト軸算出部843は、下記の式(10)に示すように、2台のロボットカメラCのチルト軸R tilt,R tiltの外積で表される設置面法線単位ベクトルvを算出する。この式(10)は、図8に示すように、2軸駆動のロボットカメラCにおいて、チルト軸(X軸)が三脚Caに垂直になり、かつ、この三脚Caが設置面Gに垂直になることから成立する。
Figure 0006609112
なお、式(10)では、‘||’がノルムを示す。また、式(10)では、A,Bが、多視点映像撮影部10を構成するロボットカメラCのうち、異なる2台を表す。ここで、A,Bに対応する2台のロボットカメラCは、任意に設定することができる。さらに、A,Bに対応するロボットカメラCは、チルト軸の誤差を低減するため、最も遠くに離れた2台、つまり、光軸のなす角が最大となる2台を設定することが好ましい。
次に、チルト軸算出部843は、式(11)に示すように、注視点に向いたロボットカメラCのロール軸単位ベクトルenzと、設置面法線単位ベクトルvとの外積の値を正規化して、チルト軸単位ベクトルenxを算出する。つまり、このチルト軸単位ベクトルenxが、注視点に向いたロボットカメラCのチルト軸を示す。
Figure 0006609112
ここで、図9に示すように、ロボットカメラCの光軸(ロール軸=Z´軸)が設置面Gに平行にならない場合でも、設置面法線単位ベクトルvが設置面Gに常に垂直になる。この性質を利用して、チルト軸算出部843は、ロボットカメラCのロール軸(Z´軸)と設置面法線単位ベクトルvとの外積により、ロボットカメラCのチルト軸(X´軸)を求めることができる。
なお、図9では、注視点に向いたロボットカメラCのロール軸をZ´軸とし、チルト軸をX´軸とし、パン軸をY´軸と図示した(以後の図面も同様)。
図1に戻り、多視点映像表現装置1の構成について、説明を続ける。
パン軸算出部845は、ロボットカメラC毎に、チルト軸算出部843で算出されたチルト軸単位ベクトルenxと、ロール軸単位ベクトルenzとの外積で表されるパン軸単位ベクトルenyを、注視点に向いたロボットカメラCのパン軸として算出するものである。
具体的には、パン軸算出部845は、式(12)に示すように、注視点に向いたロボットカメラCのロール軸単位ベクトルenzとチルト軸単位ベクトルenxとの外積の値を正規化して、パン軸単位ベクトルenyを算出する。つまり、このパン軸単位ベクトルenyが、注視点に向いたロボットカメラCのパン軸を示す。
Figure 0006609112
射影変換行列生成部86は、ロボットカメラC及び基準フレーム画像毎に、注視点がフレーム画像の所定位置(例えば、画像中央)となるように射影変換するための射影変換行列を生成するものである。
具体的には、射影変換行列生成部86は、カメラ姿勢算出部84で算出されたパン軸単位ベクトルの転置eny とロール軸単位ベクトルの転置enz とチルト軸単位ベクトルの転置enx とが要素として含まれる回転行列R´を生成する。
下記の式(13)のように、前記した単位ベクトルenx,eny,enzを用いると、注視点を画像中央に合わせ、かつ、フレーム画像の水平軸を世界座標系の垂直軸に直交させるための回転行列R´を得ることができる。この式(13)では、Tが転置を示す。
Figure 0006609112
本実施形態では、各フレーム画像における被写体のサイズを揃えることとした。このため、各ロボットカメラCの焦点距離を、各ロボットカメラCの光学中心から注視点までの距離に応じて、デジタルズームにより補正する。つまり、補正後の焦点距離F´は、式(14)に示すように、全てのロボットカメラCの焦点距離の平均Faveに、全てのロボットカメラCの光学中心から注視点までの距離平均ωaveと、ロボットカメラCの光学中心から注視点までの距離平均ωとの比を乗じた値とする。
Figure 0006609112
この式(14)では、kが射影変換後のズーム率を示す係数であり、予め任意の値で設定される。つまり、この係数kの値を大きくする程、射影変換画像がデジタルズームによって拡大される。
ここで、内部パラメータ行列A´は、補正後の焦点距離F´を用いて、下記の式(15)で定義される。従って、射影変換行列Hは、下記の式(16)で表される。このように、射影変換行列生成部86は、式(16)で表される射影変換行列を、射影変換行列群生成部90に出力する。
Figure 0006609112
Figure 0006609112
射影変換行列群生成部90は、ロボットカメラC毎に、参照フレーム画像の射影変換行列を、射影変換行列生成部86から入力された基準フレーム画像の射影変換行列から補間するものである。
<射影変換行列の補間>
図7を参照し、射影変換行列群生成部90による射影変換行列の補間について、説明する(適宜図1参照)。
図7に示すように、射影変換行列生成部86は、ロボットカメラC,C,…,C毎に、基準フレーム画像F,F,Fの射影変換行列H11〜Hniを生成している。そこで、射影変換行列群生成部90は、基準フレーム画像F,F,F以外の参照フレーム画像について、射影変換行列を補間する。
ロボットカメラCの基準フレーム画像F,Fの間には、7枚の参照フレーム画像が挟まれている。言い換えるなら、これら参照フレーム画像は、前後に基準フレーム画像F,Fが位置している。従って、射影変換行列群生成部90は、ロボットカメラCについて、これら参照フレーム画像の射影変換行列を、基準フレーム画像F,Fの射影変換行列H11,H12により補間する。
各参照フレーム画像の射影変換行列は、基準フレーム画像F,Fとのフレーム間距離に応じて補間される。つまり、参照フレーム画像が基準フレーム画像Fに近くなる程、その参照フレーム画像の射影変換行列が、基準フレーム画像Fの射影変換行列H11に近くなる。一方、参照フレーム画像が基準フレーム画像Fに近くなる程、その参照フレーム画像の射影変換行列が、基準フレーム画像Fの射影変換行列H12に近くなる。
前記と同様、射影変換行列群生成部90は、ロボットカメラCについて、基準フレーム画像F,Fに挟まれた参照フレーム画像の射影変換行列を、基準フレーム画像F,Fの射影変換行列H12,H1iを用いて補間する。ロボットカメラCと同様、射影変換行列群生成部90は、ロボットカメラC,…,Cについても、参照フレーム画像の射影変換行列を補間する。
このとき、射影変換行列群生成部90は、参照フレーム画像の射影変換行列を線形補間することが好ましい。これにより、射影変換行列群生成部90は、補間処理の負荷を抑えることができる。
ここで、カメラマンは、一定の速度でパンニングするのではなく、次第にパンニング速度を上げるカメラワークを行うことが知られている。そこで、射影変換行列群生成部90は、このカメラワークを多視点映像表現として反映すべく、参照フレーム画像の射影変換行列を非線形補間することもできる。
さらに、射影変換行列群生成部90は、線形補間及び非線形補間を併用してもよい。例えば、射影変換行列群生成部90は、基準フレーム画像F,Fに挟まれた参照フレーム画像の射影変換行列を線形補間し、基準フレーム画像F,Fに挟まれた参照フレーム画像の射影変換行列を非線形補間する。
このようにして、射影変換行列群生成部90は、全てのロボットカメラC,C,…,Cについて、基準フレーム画像F,F,Fと参照フレーム画像との射影変換行列からなる射影変換行列群を生成する。そして、射影変換行列群生成部90は、生成した射影変換行列群を射影変換部100に出力する。
図1に戻り、多視点映像表現装置1の説明を続ける。
射影変換部100は、射影変換行列群生成部90から入力された射影変換行列群により、全てのロボットカメラC,…,Cの基準フレーム画像及び参照フレーム画像を射影変換することで、射影変換画像を生成するものである。
ここで、基準フレーム画像及び参照フレーム画像の画素座標(u,v)を下記の式(17)の座標変換式により変換することで、射影変換後の画素座標(u´,v´)が求められる。つまり、図10に示すように、射影変換部100は、式(16)及び式(17)を用いて、基準フレーム画像αを射影変換し、射影変換画像βを生成する(参照フレーム画像も同様に射影変換)。
Figure 0006609112
射影変換画像βの中心は、3次元座標系(X´,Y´,Z´)の原点Oから注視点PまでのZ´軸上に位置する。従って、射影変換画像βでは、注視点Pが画像中央に位置することになる。
その後、射影変換部100は、基準フレーム画像α及び参照フレーム画像から生成した射影変換画像βを、多視点映像表現部110に出力する。
多視点映像表現部110は、データ指定部82から入力されたカメラパスに従って、射影変換部100から入力された射影変換画像を切り替えることで、多視点表現映像を生成するものである。
なお、多視点表現映像とは、多視点映像表現が施された多視点映像のことである。
<多視点表現映像>
図11を参照し、解析データが表示された多視点表現映像の具体例について、説明する(適宜図1参照)。
図11(a)及び図11(b)の多視点表現映像は、ハンドボール試合のシュートシーンにおいて、コート横側から選手Hの背中側に視点を切り替えたものである。この多視点表現映像には、解析データのCGとして、選手HがシュートしたボールOの速度が合成されている(符号αで図示)。従って、図11(b)のように、選手Hの腕にボールOが隠れる場合でも、視聴者がボールOの速度を把握しやすくなる。
また、図11(c)及び図11(d)の多視点表現映像は、ハンドボール試合のシュートシーンにおいて、ゴールの正面側から横側に視点を切り替えたものである。この多視点表現映像には、解析データのCGとして、ボールOの軌道が合成されている(符号βで図示)。従って、図11(d)のように、ボールOが高速に飛ぶ場合でも、視聴者がボールOの弾道を把握しやすくなる。
[多視点映像表現装置の動作]
図12を参照し、図1の多視点映像表現装置1の動作について、説明する(適宜図1参照)。
多視点映像表現装置1は、多視点映像撮影部10によって、多視点映像を生成する(ステップS1)。
多視点映像表現装置1は、多視点映像撮影部10が生成した多視点映像を、多視点映像格納部20に格納する(ステップS2)。
多視点映像表現装置1は、カメラキャリブレーション部30によって、カメラキャリブレーションによりカメラパラメータを算出する(ステップS3)。
多視点映像表現装置1は、オブジェクト追跡部40によって、多視点映像に含まれるオブジェクトを追跡し、追跡したオブジェクトの画像座標から世界座標を算出する(ステップS4)。
多視点映像表現装置1は、データ解析部50によって、オブジェクトの世界座標の変化により、解析データを生成する(ステップS5)。
多視点映像表現装置1は、CG生成部60によって、解析データが視覚的に表現された三次元CGを生成する(ステップS6)。
多視点映像表現装置1は、CG合成部70によって、多視点映像に解析データのCGを合成する(ステップS7)。
多視点映像表現装置1は、データ指定部82によって、基準フレーム画像、注視点、カメラパス等のデータが指定される(ステップS8)。
多視点映像表現装置1は、ロール軸算出部841によって、ロボットカメラCの位置から注視点を向いたロール軸単位ベクトルenzを、被写体(注視点)へ向いたロボットカメラCのロール軸として算出する(ステップS9)。
多視点映像表現装置1は、チルト軸算出部843によって、ロール軸単位ベクトルenzと、設置面法線単位ベクトルvとの外積で表されるチルト軸単位ベクトルenxを、被写体(注視点)へ向いたロボットカメラCのチルト軸として算出する(ステップS10)。
多視点映像表現装置1は、パン軸算出部845によって、チルト軸単位ベクトルenxとロール軸単位ベクトルenzとの外積で表されるパン軸単位ベクトルenyを、被写体(注視点)へ向いたロボットカメラCのパン軸として算出する(ステップS11)。
多視点映像表現装置1は、射影変換行列生成部86によって、ロボットカメラC及び基準フレーム画像毎に、式(16)で表される射影変換行列を生成する(ステップS12)。
多視点映像表現装置1は、射影変換行列群生成部90によって、参照フレーム画像の射影変換行列をステップS12で算出した基準フレーム画像の射影変換行列から補間することで、射影変換行列群を生成する(ステップS13)。
多視点映像表現装置1は、射影変換部100によって、ステップS13で生成した射影変換行列群により、全てのロボットカメラCの基準フレーム画像及び参照フレーム画像を射影変換することで、射影変換画像を生成する(ステップS14)。
多視点映像表現装置1は、多視点映像表現部110によって、ステップS8で指定されたカメラパスに従って、ステップS14で生成された射影変換画像を切り替えることで、多視点表現映像を生成する(ステップS15)。
[作用・効果]
本願発明の実施形態に係る多視点映像表現装置1は、多視点映像表現を行う際、ボールOの弾道や速度等の解析データが表示されるので、ボールOの動きが分かりやすくなる。これによって、本願発明によれば、多視点映像表現の臨場感を高くすることができる。
また、多視点映像表現装置1は、視点が連続的に切り替わるようにカメラパスを指定できる。そして、多視点映像表現装置1は、基準フレーム画像の射影変換行列から参照フレーム画像の射影変換行列を補間するので、従来技術に比べて、少ない演算量で射影変換行列群を生成できる。これによって、多視点映像表現装置1は、複数のフレーム画像で連続的な多視点映像表現を行うことができ、例えば、スポーツ中継における選手の姿勢や動作の分析、解説の幅を広げることができる。
さらに、多視点映像表現装置1は、基準フレーム画像のみに注視点を指定するだけでよく、参照フレーム画像に注視点を指定する必要がないので、ユーザの作業負担を軽減することができる。
(変形例)
以上、本願発明の実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、射影変換行列群を用いて射影変換を行うこととして説明したが、本願発明は、これに限定されない。例えば、本願発明は、下記の参考文献3に記載された手法により、射影変換を行ってもよい。
参考文献3:特開2014−27528号公報
前記した実施形態では、解析データとして、ボールの速度と軌道を求めることとして説明したが、本願発明は、これに限定されない。
例えば、解析データとして、ボールの出射角を求めることができる。具体的には、ボールの出射角は、ボールの世界座標の変化から、ボールの移動方向を求め、求めたボールの移動方向と予め設定した基準方向とのなす角を表す。
また、解析データとして、ボールの打点を求めることができる。具体的には、ボールの打点は、ボールの速度と移動方向との両方が予め設定した閾値を超える程、大きく変化した位置になる。
多視点映像表現装置1は、コンピュータが備える演算装置、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる多視点映像表現プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 多視点映像表現装置
10 多視点映像撮影部
20 多視点映像格納部
30 カメラキャリブレーション部
40 オブジェクト追跡部
50 データ解析部(解析データ生成部)
60 CG生成部
70 CG合成部
80 演算部
82 データ指定部
84 カメラ姿勢算出部
841 ロール軸算出部
843 チルト軸算出部
845 パン軸算出部
86 射影変換行列生成部
90 射影変換行列群生成部
100 射影変換部
110 多視点映像表現部

Claims (5)

  1. 同一の被写体を複数のロボットカメラで撮影した多視点映像を用いて、前記被写体を異なる視点で表示すると共に前記多視点映像内のオブジェクトの動きに関する解析データを合成する多視点映像表現装置であって、
    前記ロボットカメラ毎に、当該ロボットカメラの位置及び姿勢が含まれるカメラパラメータをカメラキャリブレーションにより算出するカメラキャリブレーション部と、
    前記オブジェクトを追跡し、予め設定された座標系変換式により、追跡した前記オブジェクトの画像座標から世界座標を算出するオブジェクト追跡部と、
    前記オブジェクトの世界座標の変化により、前記解析データを生成する解析データ生成部と、
    前記多視点映像のうちの基準フレーム画像、及び、前記多視点映像のうちの前記基準フレーム画像以外の参照フレーム画像に前記解析データのCGを合成するCG合成部と、
    前記ロボットカメラ及び前記基準フレーム画像毎に、前記被写体の位置を表す注視点が前記多視点映像で所定位置となるように射影変換するための射影変換行列を生成する射影変換行列生成部と、
    前記ロボットカメラ毎に、前記参照フレーム画像の射影変換行列を、前記射影変換行列生成部が生成した基準フレーム画像の射影変換行列から補間する射影変換行列群生成部と、
    前記基準フレーム画像及び前記参照フレーム画像の射影変換行列により、前記解析データが合成された前記基準フレーム画像及び前記参照フレーム画像を射影変換する射影変換部と、
    射影変換された前記基準フレーム画像及び前記参照フレーム画像を切り替える多視点映像表現部と、
    を備えることを特徴とする多視点映像表現装置。
  2. 前記解析データ生成部は、前記解析データとして、前記多視点映像で連続するフレーム画像に含まれる前記オブジェクトの世界座標の変化により、前記オブジェクトの軌跡データを生成することを特徴とする請求項1に記載の多視点映像表現装置。
  3. 前記解析データ生成部は、前記解析データとして、単位時間における前記オブジェクトの世界座標の変化により、前記オブジェクトの速度データを生成することを特徴とする請求項1又は請求項2に記載の多視点映像表現装置。
  4. 前記オブジェクト追跡部は、光軸のなす角が直角に最も近くなる2台の前記ロボットカメラが予め選択され、選択された前記ロボットカメラの多視点映像に含まれる前記オブジェクトを追跡することを特徴とする請求項1から請求項3の何れか一項に記載の多視点映像表現装置。
  5. コンピュータを、請求項1から請求項4の何れか一項に記載の多視点映像表現装置として機能させるための多視点映像表現プログラム。
JP2015101445A 2015-05-19 2015-05-19 多視点映像表現装置及びそのプログラム Active JP6609112B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015101445A JP6609112B2 (ja) 2015-05-19 2015-05-19 多視点映像表現装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015101445A JP6609112B2 (ja) 2015-05-19 2015-05-19 多視点映像表現装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2016219968A JP2016219968A (ja) 2016-12-22
JP6609112B2 true JP6609112B2 (ja) 2019-11-20

Family

ID=57579358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015101445A Active JP6609112B2 (ja) 2015-05-19 2015-05-19 多視点映像表現装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6609112B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022028091A (ja) 2018-12-19 2022-02-15 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2022047548A (ja) * 2019-01-16 2022-03-25 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
KR102117238B1 (ko) * 2019-01-17 2020-06-01 주식회사 비전소프트 인공지능과 증강현실을 활용한 스포츠 중계방송에서의 동영상 콘텐츠 제작 장치
WO2020149462A1 (ko) * 2019-01-17 2020-07-23 주식회사 비전소프트 정밀도가 향상된 동영상 검출 장치
KR102153486B1 (ko) * 2019-09-09 2020-09-08 한국건설기술연구원 건설 기계 및 작업자 위치 측정을 위한 다중 avm 카메라 시스템 및 그의 건설 기계 및 작업자 위치 측정 방법
JP7388451B2 (ja) * 2019-12-26 2023-11-29 日本電気株式会社 情報処理装置、制御方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4555690B2 (ja) * 2005-01-11 2010-10-06 日本放送協会 軌跡付加映像生成装置及び軌跡付加映像生成プログラム
JP4700476B2 (ja) * 2005-11-10 2011-06-15 日本放送協会 多視点映像合成装置及び多視点映像合成システム
JP6043974B2 (ja) * 2012-05-07 2016-12-14 株式会社ミツトヨ 三次元位置測定装置、三次元測定装置及び三次元位置測定プログラム
JP6055223B2 (ja) * 2012-07-27 2016-12-27 日本放送協会 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置

Also Published As

Publication number Publication date
JP2016219968A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6609112B2 (ja) 多視点映像表現装置及びそのプログラム
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
CN109952760A (zh) 多视图场景流拼接
US9961334B2 (en) Simulated 3D image display method and display device
JP4700476B2 (ja) 多視点映像合成装置及び多視点映像合成システム
US10580192B2 (en) Image processing apparatus, information processing apparatus, and image processing method
WO2003036565A2 (en) System and method for obtaining video of multiple moving fixation points within a dynamic scene
US10764493B2 (en) Display method and electronic device
CN107240147B (zh) 图像渲染方法及系统
JP7459870B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6055223B2 (ja) 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置
JP2023512272A (ja) 画像処理方法及び装置
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
WO2020166376A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4971813B2 (ja) 映像生成装置及び映像生成プログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
JP2006310936A (ja) 任意視点映像生成システム
JP7142762B2 (ja) 表示装置および画像表示方法
WO2018234622A1 (en) METHOD OF DETECTING EVENTS OF INTEREST
JP7470518B2 (ja) パン・チルト角算出装置及びそのプログラム
JP6336856B2 (ja) 多視点映像表現装置及びそのプログラム
CN115589532A (zh) 防抖处理方法、装置、电子设备和可读存储介质
Ikeya et al. Bullet time using multi-viewpoint robotic camera system
JP2011146762A (ja) 立体モデル生成装置
JP6609201B2 (ja) 多視点映像生成システム、多視点映像生成装置およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6609112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250