(第一実施形態)
以下、本発明の第一実施形態に係る映像配信システムについて図面に基づいて説明する。図1は、本発明の第一実施形態に係る映像配信システム100の機能構成の一例を示すブロック図である。
(映像配信システム100の構成)
図1に示すように、映像配信システム100は、配信サーバ1と視聴者端末2とを備えている。配信サーバ1と視聴者端末2とは、LANやインターネットや放送データ網等の不図示のネットワークを介して通信可能に接続されている。
(配信サーバ1の構成)
配信サーバ1は、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する。具体的には、配信サーバ1は、複数の映像出力部11と、記憶部12と、生成部13と、配信部14と、を備えている。
映像出力部11は、静止画や動画等の映像を表す映像データを生成部13へ出力する。具体的には、映像出力部11は、所定の一方位を撮影して得られた静止画や動画(以降、一方位映像と記載する)を表す映像データを出力するカメラや、所定の撮影視点から全方位を撮影して得られた静止画や動画(以降、全方位映像と記載する)を表す映像データを出力する全方位カメラ(360度カメラ)や、テロップやロゴ等の静止画やアニメーション等の動画の編集操作が可能であり、且つ、編集した静止画や動画を表す映像データを出力可能なパソコン等の映像編集装置等で構成される。以降、生成部13に入力される、映像出力部11が出力した映像データが表す映像を入力映像と記載する。
記憶部12は、配信映像に関連する配信情報を記憶する。具体的には、記憶部12は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置で構成される。
配信情報には、配信映像の識別情報、タイトル及びURLが含まれる。配信情報には、更に、配信映像に含まれる複数の入力映像のぞれぞれの識別情報や、複数の入力映像の其々に関連する映像区分情報、配置情報、初期表示情報、アニメーション情報及び領域追従情報等が含まれる。
映像区分情報とは、複数の入力映像の其々が、背景映像であるか、サブ映像であるかを示す情報である。背景映像とは、視聴者端末2に設けられた映像を表示するための所定の映像表示領域全体に、背景として表示される映像である。サブ映像とは、前記映像表示領域内の一部の領域に表示される映像である。
配置情報とは、前記映像領域における複数の入力映像の其々の配置領域を定めた情報である。初期表示情報とは、前記映像表示領域における複数の入力映像の其々の表示領域の初期配置を定めた情報である。
アニメーション情報とは、複数の入力映像の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めた情報である。領域追従情報とは、複数の入力映像の其々の表示領域を、前記映像表示領域の姿勢の変化に応じて移動させるか否かを定めた情報である。
図2は、本発明の第一実施形態に係る配信情報PFの一例を示す図である。図3は、配信映像Vの一例を示す図である。例えば、記憶部12は、図3に示す配信映像Vに関連する、図2に示す配信情報PFを記憶しているものとする。配信映像Vは、図3に示すように、4個の入力映像VB、V1、V2、V3を映像領域VA内に配置して合成することで生成される、映像領域VA全体が表す映像であるものとする。入力映像VBは、全方位カメラによって所定の撮影視点から全方位を撮影して得られた動画を表す全方位映像であるものとする。ただし、図3には、前記全方位映像に含まれている、撮影視点から所定方向を撮影方向として撮影して得られた動画の一時点を表す仮想空間映像を、入力映像VBとして図示している。入力映像V1、V2、V3は、所定の一方位を撮影して得られた動画を表す一方位映像であるものとする。尚、図3に示す配信映像Vは、例示に過ぎない。例えば、背景映像としての入力映像(図3では入力映像VB)は、風景画や一色の画像等の静止画であってもよい。また、サブ映像としての入力映像(図3では入力映像V1、V2、V3)は、テロップやロゴ等の静止画であってもよい。
上述のように、配信映像Vが図3に示すように構成される場合、図2に示すように、配信情報PFには、配信映像Vの識別情報「V」、タイトル「猫目線の映像」及びURL「http:*****」が含まれる。
配信情報PFには、配信映像Vに含まれる四個の入力映像VB、V1、V2、V3のぞれぞれの識別情報「VB」、「V1」、「V2」、「V3」が含まれている。配信情報PFには、四個の入力映像VB、V1、V2、V3の其々の映像区分情報「背景映像」、「サブ映像」、「サブ映像」、「サブ映像」が含まれる。つまり、入力映像VBは背景映像であり、三個の入力映像V1、V2、V3はサブ映像であることが定められている。
配信情報PFには、図2の破線部に示すように、映像領域VA(図3)における四個の入力映像VB、V1、V2、V3のぞれぞれの配置領域PAB、PA1、PA2、PA3(図3)を定めた配置情報が含まれる。以降、映像領域VAにおける複数の入力映像の其々の配置領域を総称する場合、配置領域PAと記載する。
例えば、配置領域PAは、映像領域VA(図3)の左上隅を基準点とし、映像領域VA(図3)における水平方向の位置をX座標で示し、映像領域VA(図3)における垂直方向の位置をY座標で示す二次元座標を用いて定められている。
具体的には、映像領域VA(図3)における各入力映像(例:入力映像VB)の配置領域PA(例:配置領域PAB)は、各入力映像の左上隅の配置位置を示す前記二次元座標「clipX、clipY」(例:0、0)と、映像領域VAの水平方向の長さ(以降、水平方向の長さを幅と記載する)に対する各入力映像の幅の比率「clipW」(例:10000(100.00%))と、映像領域VAの垂直方向の長さ(以降、垂直方向の長さを高さと記載する)に対する各入力映像の高さの比率「clipH」(例:6667(66.67%))と、によって定められている。
図4は、映像表示領域VDAにおける複数の入力映像VB、V1、V2、V3の其々の表示領域DAB、DA1、DA2、DA3の初期配置の一例を示す図である。配信情報PFには、図2の二点鎖線部に示すように、視聴者端末2の映像表示領域VDA(図4)における三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3(図4)の初期配置を定めた初期表示情報が含まれている。尚、図3と同様、図4においても、全方位映像に含まれている、全方位カメラによって撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像を、入力映像VBとして図示している。
また、上述のように、入力映像VBは、背景映像として定められており、映像表示領域VDA(図4)全体に表示される。つまり、映像表示領域VDAにおける入力映像VBの表示領域DAB(図4)は、映像表示領域VDA(図4)全体であることは明らかである。このため、図2に示す初期表示情報では、映像表示領域VDAにおける入力映像VBの表示領域の初期配置の定義が省略されている。しかし、初期表示情報において、サブ映像と同様に、映像表示領域VDAを、背景映像である入力映像VBの表示領域の初期配置として定めてもよい。以降、映像表示領域VDA(図4)における複数の入力映像の其々の表示領域を総称する場合、表示領域DAと記載する。
表示領域DAは、全方位映像のうち、所定の撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像を、平面状のディスプレイ(スクリーン)に表示する場合に一般的に用いられる、視点座標系等の三次元座標を用いて定められている。しかし、これに限らず、表示領域DAは、配置領域PAと同様に、映像表示領域VDA(図4)の左上隅を基準点とし、映像表示領域VDA(図4)における水平方向の位置をX座標で示し、映像表示領域VDA(図4)における垂直方向の位置をY座標で示す二次元座標を用いて定めてもよい。
図2に示す表示領域DAは、視点座標系の三次元座標を用いて定められている。つまり、表示領域DAは、仮想空間映像(例:図4に図示の入力映像VB)が映像表示領域VDA(図4)全体に表示されていることを前提として、当該仮想空間映像の中心(視点)を基準点とし、当該仮想空間映像における水平方向、垂直方向、及び奥行(視線)方向の位置を、其々、X座標、Y座標及びZ座標で示す三次元座標を用いて定められている。尚、仮想空間映像の水平方向、垂直方向、及び奥行(視線)方向其々の両端の位置の座標は「1」と「−1」としている。Z座標「1」の位置は、仮想空間映像における最も奥側の位置であり、Z座標「−1」の位置は、仮想空間映像における最も手前側の位置である。
具体的には、映像表示領域VDA(図4)における各入力映像(例:入力映像V1)の表示領域DA(例:DA1)の初期配置は、各入力映像の中心の表示位置を示す三次元座標「posX、posY、posZ」(例:−0.8、0.25、0.7)と、各入力映像を表示する際に、三次元座標の各座標軸(X軸、Y軸、Z軸)を回転軸として時計回りに回転させる角度(度)「rotX、rotY、rotZ」(例:−15(度)、−45(度)、0(度))と、各入力映像を表示する際に、各入力映像を拡大又は縮小する比率「scale」(例:1.457)と、によって定められている。
配信情報PFには、三個の入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めたアニメーション情報「animation」が含まれている。
具体的には、図2に示すように、入力映像V1に対応するアニメーション情報(”animation”:”点滅”)では、入力映像V1が選択された場合、当該選択された入力映像V1に、アニメーション効果「点滅」を適用することが定められている。また、入力映像V2に対応するアニメーション情報(”animation”:”ズームアウト”)では、入力映像V2が選択された場合、当該選択された入力映像V2に、アニメーション効果「ズームアウト」を適用することが定められている。このように、選択された入力映像と同じ入力映像をアニメーション効果の適用先にする場合のアニメーション情報は、適用するアニメーション効果(例:ズームアウト)のみによって定められる。
また、入力映像V3に対応するアニメーション情報(”animation”:”点滅:VB”)では、入力映像V3が選択された場合、当該選択された入力映像V3ではなく、入力映像VBに、アニメーション効果「点滅」を適用することが定められている。このように、選択された入力映像とは異なる入力映像をアニメーション効果の適用先にする場合のアニメーション情報は、適用するアニメーション効果(例:点滅)と、所定の区切文字(例:「:」)と、アニメーション効果の適用先の入力映像の識別情報(例:VB)と、によって定められる。尚、これと同様にして、選択された入力映像と同じ入力映像をアニメーション効果の適用先にする場合のアニメーション情報も、適用するアニメーション効果(例:ズームアウト)と、所定の区切文字(例:「:」)と、アニメーション効果の適用先の入力映像の識別情報(例:V2)と、によって定めてもよい。
アニメーション効果「点滅」を入力映像に適用した場合、所定時間、当該入力映像が表示された後、所定時間、当該入力映像が非表示になることが繰り返される。アニメーション効果「ズームアウト」を入力映像に適用した場合、当該入力映像は所定時間毎に所定の縮小率で縮小され、非表示になる。
入力映像に適用可能なアニメーション効果は、「点滅」及び「ズームアウト」に限らず、「ズームイン」、「拡大」、「縮小」、「スライドイン」、「映像変更(変更後の映像の識別情報)」等の他のアニメーション効果であってもよい。
例えば、アニメーション効果「ズームイン」を入力映像に適用した場合、アニメーション効果「ズームアウト」とは反対に、当該入力映像は、所定の初期サイズに縮小された後、所定時間毎に所定の拡大率で拡大され、当該入力映像の表示領域と同じ大きさになる。アニメーション効果「拡大(縮小)」を入力映像に適用した場合、当該入力映像は、所定時間、所定の拡大率(縮小率)で拡大(縮小)される。
アニメーション効果「スライドイン」を入力映像に適用した場合、当該入力映像は、映像表示領域VDA(図4)の所定の一辺から、当該入力映像の表示領域DAまで直線的に移動される。
アニメーション効果「映像変更(変更後の映像の識別情報)」を入力映像に適用した場合、当該入力映像は、括弧内に記載された識別情報によって識別される映像に変更される。例えば、入力映像V2に対応するアニメーション情報が、「”animation”:”映像変更(V2):VB”」であるとする。この場合、入力映像V2が選択されると、入力映像VBが、括弧内に記載された入力映像V2に変更される。このように、アニメーション効果を表す文字列(例:映像変更)に括弧を連結し、当該括弧内に当該アニメーション効果を適用する際に必要なパラメータ(例:V2)を記載する等して、アニメーション情報において、アニメーション効果を適用する際に必要なパラメータを定めるようにしてもよい。
尚、図2に示す配信情報PFには、背景映像である入力映像VBに対応するアニメーション情報を定めていない。しかし、サブ映像である三個の入力映像V1、V2、V3と同様に、背景映像である入力映像VBに対応するアニメーション情報を定めてもよい。入力映像にアニメーション効果を適用したときの態様については、後述する。
配信情報PFには、三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3(図4)を、映像表示領域VDA(図4)の姿勢の変化に応じて移動させるか否かを示す領域追従情報「headTrackMoving」(例:0、1、0)が含まれている。
表示領域DA(例:表示領域DA1)の領域追従情報が「0」に定められている場合、当該表示領域DAは、映像表示領域VDA(図4)の姿勢の変化に応じて移動する。表示領域DA(例:表示領域DA2)の領域追従情報が「1」に定められている場合、当該表示領域DAは、映像表示領域VDA(図4)の姿勢が変化しても移動しない。
尚、図2に示す配信情報PFには、背景映像である入力映像VBの表示領域DABを、映像表示領域VDA(図4)の姿勢の変化に応じて移動させるか否かを示す領域追従情報を定めていない。しかし、例えば、風景画等の静止画を表す入力映像が背景映像である場合等に、サブ映像である三個の入力映像V1、V2、V3と同様にして、背景映像である入力映像の表示領域の領域追従情報を定めてもよい。表示領域DAを、映像表示領域VDA(図4)の姿勢に応じて移動させたときの態様については後述する。
図1に参照を戻す。生成部13は、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を、記憶部12が記憶している配信情報PF(図2)に含まれている配置情報(図2の破線部)が示す、配置領域(例:PAB、PA1、PA2、PA3(図2、図3))に配置して合成する。これにより、生成部13は、映像領域VA(図3)全体が表す一の配信映像V(図3)を生成する。具体的には、生成部13は、スイッチャー等によって構成される。
配信部14は、生成部13が生成した配信映像V(図3)を所定の方式(例:MPEG−4、HLS(HTTP Live Streaming)等)で符号化して、配信映像Vを表す映像データを生成する。配信部14は、当該生成した配信映像Vを表す映像データ及び記憶部12が記憶している当該配信映像Vに関連する配信情報PF(図2)を、前記ネットワークを介して配信する。具体的には、配信部14は、エンコーダーと前記ネットワークを介して視聴者端末2との間で通信を行う通信インターフェイス回路とによって構成される。
ここで、配信映像V及び配信情報PFを配信するとは、所謂オンデマンド配信とライブ配信の二態様を含む。つまり、オンデマンド配信では、配信部14は、生成部13に配信情報PFを用いて配信映像Vを生成させた後、配信映像Vの表示が許可された視聴者端末2に前記ネットワークを介して配信情報PFを送信する。その後、当該視聴者端末2において、配信情報PFに含まれている配信映像VのURL(図2)へのアクセスがあった場合に、配信部14は、配信映像Vを表す映像データを視聴者端末2に返信する。
一方、ライブ配信では、配信部14は、テレビ番組の映像データの放送等と同様、所定時刻になると、事前に生成した配信情報PFを用いて、生成部13にリアルタイムに配信映像Vを生成させ、当該配信映像Vを表す映像データ及び配信情報PFを、前記ネットワークに含まれる放送データ網を用いて放送する。
複数の映像出力部11、記憶部12、生成部13及び配信部14は、一台のサーバ装置に備えてもよいし、互いに通信可能に接続された複数台のサーバ装置に適宜分散して備えるようにしてもよい。また、配信部14は、配信映像Vを表す映像データを配信する配信部14と、当該配信映像Vに関連する配信情報PFを配信する配信部14と、を互いに異なるサーバ装置に分散して備えるようにしてもよい。
(視聴者端末2の構成)
一方、視聴者端末2は、配信サーバ1から、配信映像Vを表す映像データ及び配信映像Vに関連する配信情報PFを取得する。視聴者端末2は、取得した映像データが表す配信映像Vを、取得した配信情報PFに基づき、所定の映像表示領域VDA(図4)に表示する。具体的には、視聴者端末2は、スマートフォン、タブレット端末、パソコン、或いは、テレビ等、視聴者が使用する情報通信装置によって構成される。
前記情報通信装置は、CPU、RAM、ROM等を備えたマイクロコンピューター、前記ネットワークを介して配信サーバ1との間で通信を行う通信インターフェイス回路、符号化された映像データを復号化するデコーダー、映像を表示するための平面状の映像表示領域VDA(図4)を有する、液晶ディスプレイ等の表示装置、視聴者に視聴者端末2の各種操作を行わせるための、タッチパネルや、リモコンや、キーボード及びマウス等の操作装置を備えている。
尚、前記表示装置は、前記情報通信装置に接続され、前記情報通信装置による制御の下で映像を表示するHMD(ヘッドマウントディスプレイ)であってもよい。前記表示装置は、映像表示領域VDA(図4)の姿勢を検出する角速度(ジャイロ)センサーを備えている。また、前記表示装置は、映像表示領域VDA(図4)における視聴者の視点を、赤外線等を用いて検出する視線追跡センサーを備えている。
または、前記表示装置に前記角速度(ジャイロ)センサーを備えずに、前記表示装置を操作するためのリモコンに、当該リモコンの姿勢を検出する角速度(ジャイロ)センサーを備えるようにしてもよい。また、前記表示装置に前記視線追跡センサーを備えずに、前記表示装置を操作するためのリモコンに、前記視線追跡センサーを備えるようにしてもよい。
視聴者端末2は、図1に示すように、表示部21、操作部22、取得部23、抽出部24、設定部25及び表示制御部26として機能する。
表示部21は、前記表示装置によって構成され、前記マイクロコンピューターによる制御の下、前記表示装置が有する映像表示領域VDA(図4)に映像を表示する。操作部22は、前記操作装置によって構成され、視聴者に視聴者端末2の各種操作を行わせる。
取得部23は、前記マイクロコンピューター及び前記通信インターフェイス回路によって構成され、配信サーバ1と通信を行うことにより、配信映像V(図3)を表す映像データ及び当該配信映像Vに関連する配信情報PF(図2)を取得する。
具体的には、配信部14が、配信映像V及び配信情報PFを上述のオンデマンド配信の態様で配信する場合、取得部23は、先ず、配信部14が送信した配信映像Vに関連する配信情報PFを受信する。取得部23は、当該受信した配信情報PFを前記マイクロコンピューターが備えるRAMやROM等に記憶しておく。その後、視聴者が操作部22を用いて、所定の配信映像Vの取得操作を行った場合、取得部23は、当該配信映像Vに関連する配信情報PFをRAMやROM等から取得し、当該配信情報PFに含まれる配信映像VのURLにアクセスする。そして、取得部23は、配信部14から返信された配信映像Vを表す映像データを取得する。
一方、配信部14が、配信映像V及び配信情報PFを上述のライブ配信の態様で配信する場合、取得部23は、所定時刻以降に、配信部14によって前記放送データ網を用いて放送される、配信映像Vを表す映像データ及び配信情報PFを取得する。
抽出部24は、前記デコーダー及び前記マイクロコンピューターによって構成され、取得部23が取得した映像データを復号化して配信映像V(図3)を生成する。抽出部24は、公知の画像抽出処理を実行することにより、前記生成した配信映像V(図3)から、取得部23が取得した配信情報PFに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PAB、PA1、PA2、PA3(図2、図3))に配置されている、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を個別に分割して抽出する。
設定部25は、前記マイクロコンピューターによって構成され、映像表示領域VDA(図4)における複数の入力映像(例:VB、V1、V2、V3(図4))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))を設定する。
具体的には、設定部25は、取得部23が取得した配信情報PF(図2)に含まれている初期表示情報(図2の二点鎖線部)が示す、複数の入力映像の其々の表示領域DAの初期配置(例:入力映像V1の表示領域DA1の初期配置「posX:−0.8、posY:0.25、posZ:0.7、rotX:−15、rotY:−45、rotZ:0、scale:1.457」(図2))の通りに、複数の入力映像の其々の表示領域DA(例:入力映像V1の表示領域DA1(図4))を設定する。
尚、初期表示情報(図2の二点鎖線部)において、背景映像として定められた入力映像(例:入力映像VB(図4))の表示領域DAの初期配置が定義されていない場合、設定部25は、映像表示領域VDA(図4)全体を、当該入力映像の表示領域(例:表示領域DAB(図4))として設定する。
表示制御部26は、前記マイクロコンピューターによって構成され、表示部21を制御して、抽出部24が抽出した複数の入力映像(例:VB、V1、V2、V3(図4))の其々を、設定部25が設定した複数の入力映像の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))に表示させる。
視聴者端末2は、更に、受付部27、姿勢検出部91、選択部28、視点検出部92、映像選択部20、及び適用部29として機能する。
受付部27は、前記マイクロコンピューターによって構成され、視聴者が操作部22を用いて行った、複数の入力映像(例:VB、V1、V2、V3(図4))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))の編集操作を受け付ける。これに合わせて、設定部25は、受付部27が受け付けた編集操作で編集された表示領域DAによって、受付部27による当該編集操作の受け付け前に設定した表示領域DAを更新する。
具体的には、表示領域DAの編集操作には、表示領域DAを縮小する操作が含まれる。また、表示領域DAの編集操作には、表示領域DAを、拡大する操作、移動する操作、及び削除する操作が含まれる。
例えば、図4に示すように、四個の入力映像VB、V1、V2、V3の其々が表示領域DAB、DA1、DA2、DA3に表示されているとする。
この場合に、視聴者が、操作部22を用いて、三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3を縮小する操作を行ったとする。尚、表示領域DAを縮小する操作は、特に限定されず、マウスやタッチパネルを用いた一般的な図形を縮小する操作と同様の操作であればよい。
この場合、受付部27は、表示領域DA1、DA2、DA3を縮小する操作を受け付ける。図5は、表示領域DAを縮小した場合の一例を示す図である。設定部25は、図5に示すように、三個の表示領域DA1、DA2、DA3を、受付部27が受け付けた操作で縮小された表示領域DA1a、DA2a、DA3aによって更新する。
一方、視聴者が、操作部22を用いて、入力映像V2、V3の表示領域DA2、DA3を削除する操作を行ったとする。また、視聴者が、操作部22を用いて、入力映像V1の表示領域DA1を、図4に示す表示領域DA2の位置まで移動させ、当該移動後の表示領域DA1を拡大する操作を行ったとする。尚、表示領域DAを、削除する操作、移動する操作、及び拡大する操作は、特に限定されず、マウスやタッチパネルを用いた一般的な図形を削除する操作、移動する操作、及び拡大する操作と同様の操作であればよい。
この場合、受付部27は、表示領域DA2、DA3を削除する操作と、表示領域DA1を移動する操作及び拡大する操作と、を受け付ける。図6は、表示領域DAを移動、削除及び拡大した場合の一例を示す図である。設定部25は、図6に示すように、表示領域DA2、DA3を削除し、表示領域DA1を、受付部27が受け付けた操作で移動及び拡大された表示領域DA1bによって更新する。
このようにして、視聴者は、表示領域DAを拡大又は縮小する操作を行って、当該表示領域DAに表示されている入力映像を視認し易いように拡大又は縮小させることができる。また、視聴者は、表示領域DAを移動する操作を行って、当該表示領域DAに表示されている入力映像を視認し易い位置に移動させることができる。また、視聴者は、映像表示領域VDAに表示されている入力映像の数が多すぎる場合等に表示領域DAを削除する操作を行って、当該表示領域DAに表示されている入力映像を非表示にすることができる。これにより、視聴者は、映像表示領域VDAに表示されている、当該非表示にした入力映像とは異なる入力映像を視認し易くすることができる。
姿勢検出部91は、前記表示装置又は前記表示装置を操作するための前記リモコンが備える前記角速度(ジャイロ)センサーによって構成され、視聴者が意図する映像表示領域VDA(図4)の姿勢を検出する。
具体的には、姿勢検出部91は、視聴者が実際に映像表示領域VDA(図4)の姿勢を視聴者が意図する姿勢に変化させた場合に、前記表示装置が備える前記角速度(ジャイロ)センサーによって、前記映像表示領域VDA(図4)の変化後の姿勢を検出する。又は、姿勢検出部91は、視聴者が、例えばテレビ等が有する映像表示領域VDA(図4)の姿勢を実際に変化させる代わりに、前記リモコンの姿勢を視聴者が意図する姿勢に変化させた場合に、前記リモコンの変化後の姿勢を、前記映像表示領域VDA(図4)の変化後の姿勢として、前記リモコンが備える前記角速度(ジャイロ)センサーによって検出する。
これに合わせて、表示制御部26は、抽出部24が抽出した複数の入力映像に全方位映像(例:VB(図3))が含まれている場合、当該全方位映像に含まれている、当該全方位映像を撮影した全方位カメラの撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像(例:図3に示す符号VBの映像)を取得する。所定方向とは、姿勢検出部91が検出した姿勢と同じ姿勢の平面に直交する方向である。そして、表示制御部26は、表示部21を制御して、設定部25が設定した当該全方位映像の表示領域DA(例:DAB(図4))に、当該取得した仮想空間映像を表示させる。
尚、表示制御部26が、全方位映像に含まれている、前記撮影視点から前記所定方向を撮影方向として撮影して得られた仮想空間映像を取得する方法は、特に限定されず、全方位カメラに付属のソフトウェアに実装されている方法と同様の方法で実現すればよい。
図7(A)及び図7(B)は、映像表示領域VDAの姿勢に応じた仮想空間映像VBa、VBb及び一方位映像V4の表示例を示す図であり、図7(A)は、映像表示領域VDAの姿勢の変化前の表示例を示す図であり、図7(B)は、映像表示領域VDAの姿勢の変化後の表示例を示す図である。
例えば、図7(A)に示すように、抽出部24が抽出した全方位映像に含まれている仮想空間映像VBaが、背景映像として、設定部25によって設定された当該全方位映像の表示領域DABaである映像表示領域VDA全体に表示されているとする。仮想空間映像VBaは、抽出部24が抽出した全方位映像に含まれている、姿勢検出部91が検出した映像表示領域VDAの姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた映像である。また、抽出部24が抽出した一方位映像である入力映像V4が、設定部25によって設定された表示領域DA4に表示されているとする。
この場合に、視聴者が、映像表示領域VDAを図7(A)における右方向に回転させ、且つ、映像表示領域VDAの図7(A)における裏面(図7(A)の奥側の面)が地面に対向するように回転させて、映像表示領域VDAの姿勢を変化させたとする。
この場合、姿勢検出部91は、上記変化後の映像表示領域VDA(図4)の姿勢を検出する。表示制御部26は、抽出部24が抽出した全方位映像に含まれている、姿勢検出部91が検出した上記変化後の映像表示領域VDAの姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた仮想空間映像VBbを取得する。表示制御部26は、当該取得した仮想空間映像VBbを、背景映像として、当該全方位映像の表示領域DABaである映像表示領域VDA全体に表示する。
選択部28は、前記マイクロコンピューターによって構成され、設定部25によって、表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける。
例えば、取得部23が取得した配信情報PF(図2)に含まれている入力映像V4(図7(A))の表示領域DA4(図7(A))の領域追従情報(図2の長破線部)が「0」であるとする。この場合、選択部28は、設定部25によって、入力映像V4の表示領域DA4を、映像表示領域VDAの姿勢の変化に応じて移動させないことの選択を受け付ける。
この場合、図7(A)及び図7(B)に示すように、映像表示領域VDAに表示されていた仮想空間映像VBaが、映像表示領域VDAの姿勢の変化に応じて、仮想空間映像VBbに変化したとしても、設定部25は、表示領域DA4を移動させない。これにより、表示領域DA4は、視聴者が向いている方向に追従して移動したようになる。
一方、取得部23が取得した配信情報PF(図2)に含まれている入力映像V4(図7(A))の表示領域DA4(図7(A))の領域追従情報(図2の長破線部)が「1」であるとする。この場合、選択部28は、設定部25によって、入力映像V4の表示領域DA4を、映像表示領域VDAの姿勢の変化に応じて移動させることの選択を受け付ける。
尚、選択部28が、設定部25によって、表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける方法は、上記の方法に限らない。例えば、視聴者が操作部22を用いて当該選択の操作を行えるようにし、視聴者が操作部22を用いて行った当該選択の操作を行った場合に、選択部28が、当該選択の操作による選択の結果を受け付けるようにしてもよい。
図7(C)は、映像表示領域VDAの姿勢の変化後の図7(B)とは異なる表示例を示す図である。この場合、設定部25は、図7(A)及び図7(C)に示すように、映像表示領域VDAに表示されていた仮想空間映像VBaが、映像表示領域VDAの姿勢の変化に応じて、仮想空間映像VBbに変化することに合わせて、表示領域DA4を映像表示領域VDAの姿勢の変化の方向とは反対方向に、当該変化の度合に相応する度合だけ移動させる。これにより、映像表示領域VDAの左上隅近傍の表示領域DA4は、映像表示領域VDAの外側に移動し、入力映像V4が表示されなくなる。
つまり、この場合、設定部25は、表示領域DA4を映像表示領域VDAの姿勢を変化させる前の仮想空間映像VBa(図7(A))と一体化させ、仮想空間映像VBaが映像表示領域VDAの姿勢の変化に応じて当該変化の方向とは反対の方向に移動することに追従するようにして、表示領域DA4を移動させる。
このように、第一実施形態の構成では、映像表示領域VDA(図4)の姿勢の変化に応じて、複数の入力映像の其々の表示領域DAを移動させるか否かを適宜選択することができる。
図1に参照を戻す。視点検出部92は、前記視線追跡センサーによって構成され、映像表示領域VDA(図4)における視聴者の視点を検出する。
映像選択部20は、前記マイクロコンピューターによって構成され、視聴者による複数の入力映像に含まれている一の入力映像の選択を受け付ける。具体的には、映像選択部20は、視聴者が操作部22を用いて、映像表示領域VDAに表示されている複数の入力映像の中から一の入力映像を選択操作した場合に、当該一の入力映像の選択を受け付ける。
又は、映像選択部20は、視点検出部92によって検出された視点が、映像表示領域VDA内の一の表示領域DAに存在する場合に、当該一の表示領域DAに表示されている一の入力映像の選択を受け付ける。このため、視聴者は、入力映像が表示されている表示領域DAに視点を移動させるだけで、当該入力映像を容易に選択することができる。
適用部29は、前記マイクロコンピューターによって構成され、映像選択部20によって一の入力映像の選択が受け付けられた場合に、取得部23が取得した配信情報PF(図2)に含まれているアニメーション情報(図2の一点鎖線部)が示す通りに、前記一の入力映像が選択された場合に適用するアニメーション効果を、適用先の入力映像に適用する。
例えば、図4に示すように、三個の表示領域DA1、DA2、DA3に、其々、入力映像V1、V2、V3が表示されているとする。また、図2の一点鎖線部に示すように、取得部23が取得した配信情報PFに含まれているアニメーション情報が示す、三個の入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果は、「点滅」、「ズームアウト」、「点滅」であるとする。また、当該アニメーション情報が示す、入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果の適用先の入力映像は、其々、入力映像V1、V2、VBであるとする。
この場合に、映像選択部20によって入力映像V1(V3)の選択が受け付けられたとする。この場合、適用部29は、入力映像V1(VB)に、アニメーション効果「点滅」を適用する。具体的には、適用部29は、入力映像V1(VB)を所定時間表示した後に入力映像V1(VB)を所定時間非表示にすることを、繰り返し行う。
一方、映像選択部20によって入力映像V2の選択が受け付けられたとする。この場合、適用部29は、入力映像V2に、アニメーション効果「ズームアウト」を適用する。具体的には、適用部29は、所定時間毎に所定の縮小率で入力映像V2を縮小し、入力映像V2を非表示にする。
以下、配信サーバ1及び視聴者端末2の動作について説明する。図8は、配信サーバ1の動作を示すフローチャートである。図9は、視聴者端末2における配信映像Vの初期表示の動作を示すフローチャートである。図10は、視聴者端末2における配信映像Vの初期表示後の動作を示すフローチャートである。
(配信サーバ1の動作)
図8に示すように、配信サーバ1では、映像出力部11から、配信映像V(図3)に含める複数の入力映像(例:VB、V1、V2、V3(図3))を表す映像データが生成部13に入力されると(S11)、生成部13は、記憶部12が記憶している配信映像Vに関連する配信情報PF(図2)を取得する(S12)。
生成部13は、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を、S12で取得した配信情報PF(図2)に含まれている配置情報(図2の破線部)が示す配置領域(例:PAB、PA1、PA2、PA3(図2、図3))に配置して合成することで、配信映像V(図3)を生成する(S13)。
次に、配信部14は、S13で生成された配信映像V(図3)を表す映像データを生成し、生成した配信映像Vを表す映像データ及び記憶部12が記憶している当該配信映像Vに関連する配信情報PF(図2)を、前記ネットワークを介して配信する(S14)。
(視聴者端末2の動作)
図9に示すように、視聴者端末2では、取得部23が、配信部14によって配信された配信映像V(図3)に関連する配信情報PF(図2)を取得し(S21)、配信映像Vを表す映像データを取得する(S22)。
抽出部24は、S22で取得された映像データを復号化して生成した配信映像Vから、S21で取得された配信情報PFに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PAB、PA1、PA2、PA3(図2、図3))に配置されている、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を個別に分割して抽出する(S23)。
設定部25は、S21で取得された配信情報PF(図2)に含まれている初期表示情報(図2の二点鎖線部)を用いて、映像表示領域VDA(図4)におけるS23で抽出された複数の入力映像(例:VB、V1、V2、V3(図3))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))を設定する(S24)。このため、視聴者端末2において、S23で抽出された複数の入力映像其々の表示領域DAを個別に設定する手間を軽減することができる。
表示制御部26は、表示部21を制御して、S23で抽出された複数の入力映像の其々を、S24で設定された複数の入力映像の其々の表示領域DAに表示させる(S25)。
S25の後、受付部27によって、複数の入力映像の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))の編集操作が受け付けられた場合(S26;YES)、設定部25は、S26で受け付けられた編集操作で編集された表示領域DAによって、当該編集操作の受け付け前に設定した表示領域DAを更新する(S27)。このため、視聴者は、視聴者端末2において、S23で抽出された複数の入力映像其々の表示領域DAを編集操作することで、配信サーバ1に負担をかけることなく、当該複数の入力映像其々の表示領域DAを再編することができる。
表示制御部26は、表示部21を制御して、S23で抽出された複数の入力映像の其々を、S27で更新された複数の入力映像の其々の表示領域DAに表示させる(S28)。
図10に示すように、姿勢検出部91によって検出される映像表示領域VDA(図4)の姿勢が変化した場合において(S31;YES)、S23で抽出された複数の入力映像に全方位映像(例:VBa(図7(A)))が含まれていたとする(S32;YES)。
この場合、表示制御部26は、上述のように、表示部21を制御して、当該全方位映像に含まれている、当該全方位映像を撮影した全方位カメラの撮影視点から前記所定方向を撮影方向として撮影して得られた仮想空間映像(例:VBb(図7(B)、図7(C)))を、当該全方位映像の表示領域DA(例:DABa(図7(B)、図7(C)))に表示させる(S33)。
これにより、視聴者は、全方位映像の撮影場所において、頭部の姿勢を映像表示領域VDAの姿勢と同様に変化させた場合に視認する映像と同様の映像を、全方位映像の表示領域DAにおいて視認することができる。
S28(図9)の後、姿勢検出部91によって検出される映像表示領域VDAの姿勢が変化したが(S31;YES)、S23で抽出された複数の入力映像に全方位映像が含まれていない場合(S32;NO)、及び、S33の後、選択部28は、設定部25によって、S23で抽出された入力映像の表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける(S34)。
S34において、選択部28が、S21(図9)で取得された配信情報PF(図2)に含まれている、S23で抽出された入力映像(例:V4(図7(A)))の表示領域DA(例:DA4(図7(A)))の領域追従情報(図2の長破線部)に基づき、設定部25によって、当該表示領域DAを映像表示領域VDAの姿勢の変化に応じて移動させることの選択を受け付けたとする(S34;YES)。この場合、設定部25は、前記表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させる(図7(C)参照)(S35)。その後は、S36以降の処理が行われる。
S28(図9)の後、姿勢検出部91によって検出される映像表示領域VDAの姿勢が変化しなかった場合(S31;NO)、及び、S34において、選択部28が、設定部25によって表示領域DAを映像表示領域VDAの姿勢の変化に応じて移動させないことの選択を受け付けた場合(S34;NO)、S36以降の処理が行われる。
S36において、映像選択部20は、視聴者による一の入力映像の選択の受け付けを開始する(S36)。適用部29は、S36において、映像選択部20が一の入力映像の選択を受け付けた場合(S36;YES)、S21(図9)で取得された配信情報PF(図2)に、当該一の入力映像に対応するアニメーション情報(図2の一点鎖線部)が含まれているか否かを判定する(S37)。
適用部29は、S37において、前記一の入力映像(例:V3(図2))に対応するアニメーション情報(図2の一点鎖線部)が含まれていると判定すると(S37;YES)、当該アニメーション情報が示す通りに、アニメーション効果(例:点滅(図2))を所定の適用先の入力映像(例:VB(図2))に適用する(S38)。
これにより、視聴者により一の入力映像が選択された場合に、配信情報PFに含まれるアニメーション情報が示す通りに、アニメーション効果が所定の適用先の入力映像に適用される。このため、視聴者は、一の入力映像に視点を移動させる、又は、一の入力映像を選択操作するだけで、前記適用先の入力映像をインタラクティブに動作させることができる。
S36において、映像選択部20が一の入力映像の選択を受け付けなかった場合(S36;NO)、適用部29がS37において前記一の入力映像に対応するアニメーション情報が含まれていないと判定した場合(S37;NO)、及び、S38の実行後、視聴者が操作部22を用いて、配信映像Vの視聴を終了するための所定の終了指示の入力操作を行わなかった場合(S39;NO)、S26(図9)以降の処理が行われる。一方、視聴者が操作部22を用いて、前記終了指示の入力操作を行った場合(S39;YES)、視聴者端末2における図9及び図10に示す動作は終了する。
このように、第一実施形態の構成によれば、視聴者端末2において配信サーバ1から取得した配信映像V及び配信情報PFを用いて複数の入力映像が個別に分割されて抽出される。そして、抽出された複数の入力映像の其々が、視聴者端末2が備える設定部25によって設定された表示領域DAに表示される。このため、上記の従来技術とは異なり、配信映像Vに含まれる複数の入力映像の視聴者端末2における表示領域DAを、配信サーバ1に負担をかけることなく、視聴者端末2で設定した表示領域DAに迅速に再編することができる。
(第二実施形態)
以下、本発明の第二実施形態に係る映像配信システムについて図面に基づいて説明する。尚、第二実施形態において第一実施形態と同一構成のものは同一の符号を付し、説明を省略する。
(映像配信システム100aの構成)
図11は、本発明の第二実施形態に係る映像配信システム100aの機能構成の一例を示すブロック図である。図12は、配信音声Aの構成の一例を示す図である。図13は、本発明の第二実施形態に係る配信情報PFaの一例を示す図である。図11に示すように、第二実施形態に係る映像配信システム100aは、配信サーバ1aと視聴者端末2aとを備えている。配信サーバ1aと視聴者端末2aとは、LANやインターネットや放送データ網等の不図示のネットワークを介して通信可能に接続されている。
(配信サーバ1aの構成と動作)
配信サーバ1aは、第一実施形態で説明した配信映像V(図3)と、第一実施形態で説明した配信情報PF(図2)とは異なる構成の配信情報PFa(図13)と、配信映像Vの表示中に再生され得る一以上の入力音声を含む配信音声A(図12)と、を配信する。具体的には、配信サーバ1aは、第一実施形態で説明した複数の映像出力部11及び記憶部12と、一以上の音声出力部15と、生成部13aと、配信部14aと、を備えている。
音声出力部15は、配信映像Vの表示中に再生され得る音声を表す音声データを生成部13aへ出力する。具体的には、音声出力部15は、映像出力部11を構成するカメラの周囲の音声を集音し、当該集音した音声を表す音声データを出力するマイクや、音声の編集操作が可能であり、且つ、編集した音声を表す音声データを出力可能なパソコン等の音声編集装置等で構成される。以降、生成部13aに入力される、音声出力部15が出力した音声データが表す音声を入力音声と記載する。
第二実施形態では、記憶部12が記憶する、配信映像Vに関連する配信情報PFa(図13)には、更に、音声記録情報(破線部)及び再生情報(二点鎖線部)が含まれている。音声記録情報とは、配信映像Vの表示中に再生され得る一以上の入力音声の其々を記録する音声記録領域を定めた情報である。再生情報とは、前記一以上の入力音声の其々の再生方法を定めた情報である。また、配信情報PFaにおいて、一以上の入力音声の其々は、配信映像Vに含まれる複数の入力映像のうちの一の入力映像に対応付けられている。
例えば、記憶部12は、図12に示す配信音声Aに含まれる四個の入力音声AB、A1、A2、A3に関連する音声記録情報及び再生情報を含んだ、図13に示す配信情報PFaを記憶しているものとする。
図12に示すように、配信音声Aは、配信映像V(図3)の表示中に再生され得る四個の入力音声AB、A1、A2、A3を含むものとする。入力音声ABは、入力映像VB(図3)を撮影する全方位カメラの周囲で集音した6チャンネルの音声であるものとする。つまり、入力音声ABは、入力映像VB(図3)に対応付けられた音声であるものとする。三個の入力音声A1、A2、A3は、其々、入力映像V1、V2、V3(図3)を撮影するカメラの周囲で集音した2チャンネル(ステレオ)の音声であるものとする。つまり、三個の入力音声A1、A2、A3は、其々、入力映像V1、V2、V3(図3)に対応付けられた音声であるものとする。
また、配信音声Aは、三個の音声トラックAT0、AT1、AT2を有するものとする。音声トラックAT0には、6チャンネルの入力音声ABが記録され、音声トラックAT1には、2チャンネルの入力音声A1と、2チャンネルの入力音声A2と、が記録され、音声トラックAT2には、2チャンネルの入力音声A3が記録されるものとする。
尚、図12に示す配信音声Aは、例示に過ぎない。例えば、配信音声Aは、一個の音声トラックのみを有し、背景映像又はサブ映像としての入力映像に対応付けられた1チャンネルのモノラルの入力音声だけを、当該音声トラックに記録するものであってもよい。
上述のように、配信音声Aが図12に示すように構成される場合、図13の破線部に示すように、配信情報PFaには、四個の入力音声AB、A1、A2、A3(図12)の其々を記録する音声記録領域RAB、RA1、RA2、RA3(図12)を定めた音声記録情報が含まれる。以降、一以上の入力音声の其々の音声記録領域を総称する場合、音声記録領域RAと記載する。
また、図13の二点鎖線部に示すように、配信情報PFaには、四個の入力音声AB、A1、A2、A3(図12)の其々の再生方法「audioPlayMode」を定めた再生情報が含まれる。
図13に示すように、配信情報PFaにおいて、入力音声(例:入力音声A2)を記録する音声記録領域RA(例:RA2)及び当該入力音声の再生方法「audioPlayMode」(例:SelectedOnly)は、当該入力音声に対応付けられた一の入力映像(例:入力映像V2(図3))の識別情報(例:V2)に続く括弧内に記載されることで、当該一の入力映像と対応付けられている。これにより、配信情報PFaにおいて、一以上の入力音声の其々(例:入力音声A2(図12))と、複数の入力映像のうちの一の入力映像(例:入力映像V2(図3))と、の対応付けが定められている。
入力音声(例:A2(図12))を記録する音声記録領域RA(例:RA2)は、当該入力音声を記録する音声トラックの識別情報「audioTrackName」(例:AT1)と、当該入力音声を音声トラック内の一以上のチャンネルに記録するときの、当該一以上のチャンネルの先頭のチャンネルの番号(以降、開始チャンネルインデックスと記載する)「audioChannelNumber」(例:2)と、当該入力音声の種類「audioType」(例:Stereo)と、によって定められている。
尚、図13に示す音声記録領域RAB、RA3のように、入力音声の開始チャンネルインデックス「audioChannelNumber」は「−1」によって定めることができる。これは、入力音声を音声トラック内の全てのチャンネルに記録することを示している。
また、入力音声の種類「audioType」は、入力音声のチャンネル数が識別可能なように定められている。具体的には、入力音声の種類「audioType」が「Stereo」の場合、当該入力音声の種類が2チャンネルのステレオ音声であることが定められている。このため、当該入力音声のチャンネル数が2であると識別できる。入力音声の種類「audioType」が「Spacial−6」の場合、当該入力音声の種類が6チャンネルの特別な音声であることが定められている。この場合、当該入力音声の種類に数字「6」が含まれているので、当該入力音声のチャンネル数が6であると識別できる。ただし、これに限らず、入力音声(例:AB)の種類「audioType」を、入力音声のチャンネル数(例:6)によって定める(例:”audioType”:”6”)ようにしてもよい。
入力音声の再生方法「audioPlayMode」は、所定の三個の再生方法「Normal」(第一再生方法)、「SelectedMix」(第二再生方法)、「SelectedOnly」(第三再生方法)のうちの何れか一の再生方法によって定められている。
具体的には、入力音声の再生方法「audioPlayMode」が再生方法「Normal」に定められているとする。この場合、当該入力音声(第一の入力音声)に対応付けられた入力映像(第一の入力映像)が映像表示領域VDA(図4)に表示された場合に、当該入力音声が再生される。
例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められている。つまり、入力音声AB(図12)に対応付けられた入力映像VB(図3)が映像表示領域VDA(図4)に表示された場合に、入力音声ABを再生することが定められている。
入力音声の再生方法「audioPlayMode」が再生方法「SelectedMix」に定められているとする。この場合、当該入力音声(第二の入力音声)に対応付けられた入力映像(第二の入力映像)の選択が映像選択部20(図11)によって受け付けられた場合に、当該入力音声が所定の第一音量で再生される。また、前記一以上の入力音声のうち、再生情報において再生方法「Normal」で再生することが定められた入力音声が、前記第一音量よりも小さい第二音量で再生される。
例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められ、入力音声A3の再生方法「audioPlayMode」が再生方法「SelectedMix」に定められている。つまり、入力音声A3に対応付けられた入力映像V3(図3)の選択が映像選択部20(図1)によって受け付けられた場合に、入力音声A3を所定の第一音量で再生し、入力音声ABを第一音量よりも小さい第二音量で再生することが定められている。
入力音声の再生方法「audioPlayMode」が再生方法「SelectedOnly」に定められているとする。この場合、当該入力音声(第三の入力音声)に対応付けられた入力映像(第三の入力映像)の選択が映像選択部20(図1)によって受け付けられた場合に、当該入力音声のみが再生される。
例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められ、入力音声A1(A2)の再生方法「audioPlayMode」が再生方法「SelectedOnly」に定められている。つまり、入力音声A1(A2)に対応付けられた入力映像V1(V2)の選択が映像選択部20によって受け付けられた場合に、入力音声ABの音量を0にして(ミュートして)、入力音声A1(A2)のみを再生することが定められている。
生成部13aは、スイッチャー及びミキサー等によって構成される。生成部13aは、、S13(図8)において、上述のように配信映像V(図3)を生成し、更に、一以上の入力音声(例:AB、A1、A2、A3(図12))の其々を、記憶部12が記憶している配信情報PFa(図12)に含まれている音声記録情報(図13の破線部)が示す音声記録領域(例:RAB、RA1、RA2、RA3(図12))に記録し、一以上の入力音声の其々が記録された音声記録領域(例:RAB、RA1、RA2、RA3(図12))を有する一の配信音声A(図12)を生成する。
配信部14aは、エンコーダーと前記ネットワークを介して視聴者端末2aとの間で通信を行う通信インターフェイス回路とによって構成される。配信部14aは、S14(図8)において、上述のようにS13で生成された配信映像V(図3)を表す映像データを生成し、更に、S13で生成された配信音声A(図12)を所定の方式(例:MP3、AAC等)で符号化して、配信音声A(図12)を表す音声データを生成する。
そして、配信部14aは、生成した配信映像Vを表す映像データ、生成した配信音声Aを表す音声データ、及び記憶部12が記憶している当該配信映像Vに関連する配信情報PFa(図13)を、前記ネットワークを介して配信する。
(視聴者端末2aの構成と動作)
一方、視聴者端末2aは、配信サーバ1aから、配信映像Vを表す映像データ及び配信映像Vに関連する配信情報PFaを取得し、更に、配信音声Aを取得する。視聴者端末2aは、上述のように、取得した映像データが表す配信映像Vを、取得した配信情報PFに基づき、所定の映像表示領域VDA(図4)に表示し、更に、取得した配信情報PFに基づき、配信音声Aを再生する。
具体的には、視聴者端末2aは、第一実施形態で説明した前記情報通信装置と、サラウンドスピーカーやヘッドフォン等のスピーカーと、一以上の音声トラックに記録されている一以上のチャンネル数の音声を、其々、所定の音量で同時に前記スピーカーに出力させることが可能な音声出力装置と、によって構成される。
視聴者端末2aは、図11に示すように、第一実施形態で説明した表示部21、操作部22、設定部25、表示制御部26、受付部27、選択部28、適用部29、映像選択部20、姿勢検出部91及び視点検出部92として機能する。また、視聴者端末2aは、更に、取得部23a、抽出部24a、及び再生部31として機能する。
取得部23aは、前記マイクロコンピューター及び前記通信インターフェイス回路によって構成される。取得部23aは、配信サーバ1aと通信を行うことにより、S21(図9)において、配信部14aによって配信された配信情報PFa(図12)を取得し、S22(図9)において、配信映像Vを表す映像データを取得し、更に、配信音声Aを表す音声データを取得する。
抽出部24aは、前記デコーダー及び前記マイクロコンピューターによって構成される。抽出部24aは、S23(図9)において、上述のように、配信映像Vに含まれる複数の入力映像の其々を個別に分割して抽出し、更に、S22(図9)で取得された音声データを復号化して配信音声A(図12)を生成する。そして、抽出部24aは、前記生成した配信音声A(図12)から、S22(図9)で取得部23aが取得した配信情報PFa(図12)に含まれている音声記録情報が示す音声記録領域RA(例:RAB、RA1、RA2、RA3(図12、図13))に記録されている、一以上の入力音声(例:AB、A1、A2、A3(図12))の其々を個別に分割して抽出する。
再生部31は、前記スピーカーと前記音声出力装置によって構成される。再生部31は、S25(図9)の後且つS26(図9)の実行前に、S23(図9)において抽出部24aが抽出した一以上の入力音声のうち、S22(図9)で取得部23aが取得した配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))を再生する。
この構成によれば、例えば、背景映像として定められた入力映像(例:VB(図2、図3))が配信映像V(図3)に含まれている場合、当該入力映像に対応付けられた入力音声(例:AB(図12))を再生方法「Normal」で再生することを定めた再生情報を配信情報PFaに含めることで、当該入力音声を、前記入力映像が背景映像として表示されている場合に再生することができる。
また、S36(図10)において、映像選択部20によって視聴者による一の入力映像の選択が受け付けられたとする(S36;YES)。そして、当該一の入力映像が、S22(図9)で取得された配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「SelectedMix」で再生することが定められた入力音声(例:A3(図12))に対応する入力映像(例:V3(図3))であったとする。
この場合、再生部31は、S36で選択された入力映像(例:V3(図3))に対応する入力音声(例:A3(図12))を所定の第一音量で再生し、S25(図9)の後且つS26(図9)の実行前に再生した、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))の音量を、第一音量よりも小さい第二音量に変更する。
この構成によれば、例えば、背景映像として定められた第一の入力映像(例:VB(図2、図3))とこれに重畳して表示されるサブ映像として定められた第二の入力映像(例:V3(図2、図3))とが配信映像Vに含まれているとする。この場合に、第一の入力映像に対応付けられた第一の入力音声(例:AB(図12))を再生方法「Normal」で再生することを定め、第二の入力映像に対応付けられた第二の入力音声(例:A3(図12))を再生方法「SelectedMix」で再生することを定めた再生情報を、配信情報PFa(図13)に含めることができる。
これにより、視聴者は、第一の入力映像が背景映像として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第二の入力映像(例:V3(図13))を選択することで、第一の入力音声よりも大きい音量で、第二の入力映像に対応付けられた第二の入力音声(例:A3(図12))を再生させ、第二の入力音声を第一の入力音声(例:AB(図12))よりも聞き易くすることができる。
また、S36(図10)において、映像選択部20によって視聴者による一の入力映像の選択が受け付けられたとする(S36;YES)。そして、当該一の入力映像が、S22(図9)で取得された配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「SelectedOnly」で再生することが定められた入力音声(例:A1(A2)(図12))に対応する入力映像(例:V1(V2)(図3))であったとする。
この場合、再生部31は、S25(図9)の後且つS26(図9)の実行前に再生した、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))の音量を0にして(ミュートして)、S36で選択された入力映像(例:V1(V2)(図3))に対応する入力音声(例:A1(A2)(図12))のみを所定の音量で再生する。
この構成によれば、例えば、背景映像として定められた第一の入力映像(例:VB(図2、図3))とこれに重畳して表示されるサブ映像として定められた第三の入力映像(例:V1、V2(図2、図3))とが配信映像Vに含まれているとする。この場合に、第一の入力映像に対応付けられた第一の入力音声(例:AB(図12))を再生方法「Normal」で再生することを定め、第三の入力映像に対応付けられた第三の入力音声(例:A1、A2(図12))を再生方法「SelectedOnly」で再生することを定めた再生情報を、配信情報PFa(図13)に含めることができる。
これにより、視聴者は、第一の入力映像が背景映像として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第三の入力映像(例:V1、V2(図2、図3))を選択することで、第三の入力音声(例:A1、A2(図12))のみを再生させ、第三の入力音声を注力して聞くことができる。
このように、第二実施形態の構成によれば、視聴者端末2aにおいて配信サーバ1aから取得した配信音声A(図12)及び配信情報PFa(図13)を用いて、配信映像V(図3)の表示中に再生され得る一以上の入力音声(例:AB、A1、A2、A3(図12))が個別に分割されて抽出される。そして、抽出された一以上の入力音声の其々が、配信情報PFaに含まれている再生情報が示す再生方法で再生される。このため、一以上の入力音声の其々を、配信サーバ1aに負担をかけることなく、各入力音声固有の再生方法で再生することができる。
(変形実施形態)
尚、上記第一及び第二実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第一及び第二実施形態に限定する趣旨ではない。例えば、以下に示す変形実施形態であってもよい。
(1)視聴者端末2、2aが、視点検出部92(図1、図11)として機能しないようにしてもよい。つまり、映像選択部20(図1、図11)が、視聴者が操作部22(図1、図11)を用いて、映像表示領域VDAに表示されている複数の入力映像の中から一の入力映像を選択操作した場合にのみ、当該一の入力映像の選択を受け付けるようにしてもよい。
(2)再生情報(図13の二点鎖線部)において、再生方法「SelectedOnly」を定められないようにしてもよい。更に、再生情報において、再生方法「SelectedMix」を定められないようにしてもよい。
(3)視聴者端末2、2aが、映像選択部20及び適用部29(図1、図11)として機能しないようにしてもよい。これに合わせて、配信情報PF(図2)、PFa(図13)に、アニメーション情報(図2の一点鎖線部)を含めないようにし、S36からS38(図10)を省略してもよい。
(4)視聴者端末2、2aが、選択部28(図1、図11)として機能しないように構成してもよい。これに合わせて、配信情報PF(図2)、PFa(図13)に、領域追従情報(図2の長破線部)を含めないようにし、S34及びS35(図10)を省略してもよい。
(5)視聴者端末2、2aが、姿勢検出部91(図1、図11)として機能しないようにしてもよい。これに合わせて、S31、S32及びS33(図10)を省略してもよい。
(6)配信情報PF(図2)、PFa(図13)に、初期表示情報(図2の二点鎖線部)を含めないようにしてもよい。これに合わせて、例えば、設定部25が、S24(図9)において、映像表示領域VDAを入力映像の数で均等に分割し、分割後の各領域を各入力映像の表示領域DAとして自動的に設定するようにしてもよい。または、S21(図9)で取得された配信情報PF、PFaに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PA1(図2))が、映像表示領域VDA(図4)において各入力映像の表示領域DAが配置されている領域を示すものであるとして、設定部25が、当該配置領域PAを表示領域DAとして設定するようにしてもよい。
つまり、配置領域PA(例:配置領域PA1(clipX「0」、clipY「6668」、clipW「3333」、clipY「3333」)(図2))を、映像表示領域VDA(図4)の左上隅を基準点とし、映像表示領域VDA(図4)における水平方向の位置をX座標で示し、映像表示領域VDA(図4)における垂直方向の位置をY座標で示す二次元座標を用いて定められた表示領域DAとして代用してもよい。
又は、設定部25が、S24(図9)において、表示部21を制御して、視聴者が複数の入力映像の其々の表示領域DAの編集操作を行うように案内するメッセージ(例:「入力映像の表示領域を編集して下さい。」)を、映像表示領域VDA(図4)内に表示させるようにしてもよい。そして、S26及びS27(図9)と同じ処理を行うようにしてもよい。
(7)配信サーバ1(1a)と視聴者端末2(2a)とが前記ネットワークを介して互いに通信できないようにしてもよい。これに合わせて、配信部14(14a)を、エンコーダーとDVDやBD(ブルーレイディスク)等の記録媒体にデータ及び情報を記録する記録装置とによって構成し、配信部14(14a)が、S14(図8)において、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を記録媒体に記録するようにしてもよい。そして、配信映像Vの提供者が、当該記録媒体を郵送等で視聴者端末2(2a)に提供するようにしてもよい。これにより、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を記録媒体で配信するようにしてもよい。
この場合、取得部23(23a)を、前記マイクロコンピューターとDVDやBD(ブルーレイディスク)等の記録媒体からデータ及び情報を取得する取得装置とによって構成すればよい。そして、当該取得部23(23a)が、S21及びS22(図9)において、前記提供者から提供された記録媒体から、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を取得するように構成すればよい。