JP2016025633A - 情報処理装置、管理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、管理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2016025633A
JP2016025633A JP2014150993A JP2014150993A JP2016025633A JP 2016025633 A JP2016025633 A JP 2016025633A JP 2014150993 A JP2014150993 A JP 2014150993A JP 2014150993 A JP2014150993 A JP 2014150993A JP 2016025633 A JP2016025633 A JP 2016025633A
Authority
JP
Japan
Prior art keywords
user
video
information processing
video content
display range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014150993A
Other languages
English (en)
Inventor
今 孝安
Takayasu Kon
孝安 今
河本 献太
Kenta Kawamoto
献太 河本
徹 増田
Toru Masuda
徹 増田
大 志村
Masaru Shimura
大 志村
寛和 辰田
Hirokazu Tatsuta
寛和 辰田
鎌田 恭則
Yasunori Kamata
恭則 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014150993A priority Critical patent/JP2016025633A/ja
Publication of JP2016025633A publication Critical patent/JP2016025633A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】視野を自由に変えることができるコンテンツの視聴中に利用可能な機能を追加することができる情報処理装置、管理装置、情報処理方法、およびプログラムを提供する。
【解決手段】映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中にユーザが利用することが可能な、ビデオコンテンツの映像を用いて実現される機能を、機能に関する課金が行われることに応じて追加する機能管理部を備える。視野を自由に変えることができるコンテンツの視聴に用いられる再生装置としてのHMD(Head Mounted Display)3−1〜3に適用することができる。
【選択図】図1

Description

本技術は、情報処理装置、管理装置、情報処理方法、およびプログラムに関し、特に、視野を自由に変えることができるコンテンツの視聴中に利用可能な機能を追加することができるようにした情報処理装置、管理装置、情報処理方法、およびプログラムに関する。
近年、HMD(Head Mounted Display)にヘッドトラッキング用のセンサを搭載し、ユーザの頭部の姿勢に応じて映像の表示範囲をリアルタイムで切り替えることにより、別空間にいるかのような体験をユーザに与える技術が各種提案されている。
HMDのコンテンツとしては、例えば、複数のビデオカメラで撮影された映像を合成することによって生成された360度の画角の実写の映像や、360度の画角のCG(Computer Graphics)の映像などが用いられる。ユーザは、360度の画角全体のうちの、HMDに設けられた表示デバイスの視野角に応じた一部の範囲の映像を見ることになる。
国際公開2012/043357号
上述したようなHMDを用いることにより、別空間にいるかのような体験を得ることができるものの、単に映像を見るだけでは面白みに欠ける。
本技術はこのような状況に鑑みてなされたものであり、視野を自由に変えることができるコンテンツの視聴中に利用可能な機能を追加することができるようにするものである。
本技術の一側面の情報処理装置は、映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する機能管理部を備える。
本技術の他の側面の管理装置は、映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信する配信部と、前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行う課金処理部と、前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、前記情報処理装置に送信する生成部とを備える。
本技術によれば、視野を自由に変えることができるコンテンツの視聴中に利用可能な機能を追加することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係るコンテンツ配信システムの構成例を示す図である。 撮影空間の例を示す平面図である。 映像の画角の例を示す図である。 映像の画角の他の例を示す図である。 映像の例を示す図である。 視野の例を示す図である。 HMDの外観の例を示す斜視図である。 HMDを装着した状態を示す図である。 コンテンツ管理サーバの構成例を示すブロック図である。 コンテンツ管理サーバの機能構成例を示すブロック図である。 携帯端末の構成例を示すブロック図である。 携帯端末の機能構成例を示すブロック図である。 HMDの構成例を示すブロック図である。 コンテンツ管理サーバの課金処理について説明するフローチャートである。 携帯端末の機能追加処理について説明するフローチャートである。 携帯端末の再生処理について説明するフローチャートである。 映像のズームの例を示す図である。 課金を促す情報の表示例を示す図である。 HMDの表示処理について説明するフローチャートである。 携帯端末の他の再生処理について説明するフローチャートである。 図20のステップS70において行われる撮影画像購入処理について説明するフローチャートである。 料金の表示例を示す図である。 コンテンツ管理サーバの撮影画像生成処理について説明するフローチャートである。 視野の重複の例を示す図である。 HMDの形態の例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.コンテンツ配信システムの構成
2.各機器の構成
・コンテンツ管理サーバの構成
・携帯端末の構成
・HMDの構成
3.各機器の動作
・ズーム機能の追加に関する処理
・ズーム機能を用いた再生処理
・撮影機能を用いた再生処理
4.変形例
<コンテンツ配信システムの構成>
図1は、本技術の一実施形態に係るコンテンツ配信システムの構成例を示す図である。
図1のコンテンツ配信システムは、コンテンツ管理サーバ1と、クライアント端末としての携帯端末2−1乃至2−3がインターネットなどのネットワーク4を介して接続されることによって構成される。
携帯端末2−1と携帯端末2−2はスマートフォンなどの端末であり、携帯端末2−3はPCである。このように、各種のデバイスがクライアント端末として用いられる。図1には3台のクライアント端末を示しているが、さらに多くの端末がネットワーク4に接続される。
携帯端末2−1乃至2−3には、それぞれ、有線または無線を介してHMD3−1乃至3−3が接続される。携帯端末2−1とHMD3−1のペア、携帯端末2−2とHMD3−2のペア、携帯端末2−3とHMD3−3のペアはそれぞれ異なるユーザにより用いられる。携帯端末2−1乃至2−3はコンテンツの再生装置として機能し、HMD3−1乃至3−3は、携帯端末により再生されたコンテンツの映像を表示する表示装置として機能する。
コンテンツ管理サーバ1は、複数のビデオコンテンツを管理し、クライアント端末のユーザにより選択されたビデオコンテンツを送信する。コンテンツ管理サーバ1が送信するビデオコンテンツは、水平方向と垂直方向のうちの少なくとも一方の画角が360度であり、複数の位置で撮影された映像を含むコンテンツである。
コンテンツ管理サーバ1から送信されたビデオコンテンツを受信した例えば携帯端末2−1のユーザは、視点を選択し、選択した視点からの映像を、視野を変えて視聴することができる。コンテンツ管理サーバ1が送信するビデオコンテンツは、視点を変えることができるいわゆる自由視点コンテンツである。
HMD3−1乃至3−3には、加速度センサ、ジャイロセンサなどの、ヘッドトラッキング用のセンサが搭載されている。携帯端末2−1乃至2−3は、HMD3−1乃至3−3から送信されてくる情報に基づいて、HMD3−1乃至3−3を装着するユーザの視野を検出し、視野に応じて映像の表示範囲を切り替える。ユーザは、360度の画角全体のうちの、自分が顔を向けた方向にある一部の範囲の映像を見ることになる。
ここで、「視点」は、対象を見るユーザの立脚点である。また、「視野」は、ユーザが見ている範囲であり、ディスプレイに表示される映像の範囲(表示範囲)に相当する。「視線」は、ユーザの視野の方向であり、撮影空間における所定の方向を基準とした、映像の表示範囲の方向に相当する。
以下、コンテンツ管理サーバ1が送信する自由視点コンテンツの映像が、複数の歌手が出演するコンサートの映像である場合について説明する。演劇の映像、スポーツの映像、観光地の映像、CGの映像など、様々な自由視点コンテンツがコンテンツ管理サーバ1から送信されるようにすることが可能である。
図2は、自由視点コンテンツの撮影空間であるコンサート会場の例を示す平面図である。
コンサート会場にはステージ#1が設けられ、ステージ#1の前方(図2の下方)には観客フロア#2が設けられる。ステージ#1には人物H1,H2,H3の3人の歌手がいる。また、観客フロア#2には多くの観客がいるものとする。被写体は、コンサート会場全体の風景となる。
位置P1乃至P3は映像の撮影位置である。位置P1乃至P3には、それぞれ、水平方向と垂直方向のうちの少なくとも一方の画角が360度の映像を撮影可能なカメラが設置される。撮影範囲の異なる複数のカメラがそれぞれの撮影位置に設置され、それらのカメラによって撮影された映像が合成されることによって、位置P1乃至P3を撮影位置とする360度の画角を有する映像が生成されるようにしてもよい。
白抜き矢印A1乃至A3は、位置P1乃至P3のそれぞれの位置における基準の方向を表す。図2の例においてはステージ#1の方向が基準の方向になっている。
図3は、位置P1乃至P3で撮影される映像の画角の例を示す図である。
位置P1乃至P3において例えば広角レンズを真上に向けて撮影が行われた場合、図3に示すように、一点鎖線で示す光軸L1と天頂が交わる半天球状の範囲の映像が撮影される。図3の画角は、水平方向に360度、垂直方向に180度の画角となる。
図4に示すように、水平方向と垂直方向の両方の画角が360度となる全天球状の範囲の映像が位置P1乃至P3のそれぞれにおいて撮影されるようにしてもよい。ここで、全天球状の範囲の映像は、正距円筒図法を用いて、緯度・経度で表現する場合、水平方向360度、垂直方向180度と表現することもあるが、ここでは、図3の半天球状の範囲と区別するために、水平方向と垂直方向の両方の画角が360度としている。
以下、説明の便宜上、位置P1乃至P3において撮影される映像が、図3に示す半天球状の範囲の映像である場合について説明する。
図5A乃至Cは、位置P1乃至P3で撮影される映像の例を示す図である。
図5A乃至Cの半天球は、位置P1乃至P3のそれぞれにおいて撮影された動画の1フレームの映像全体を表す。
図5Aに示すように、位置P1においては、白抜き矢印A1で示すステージ#1の方向に人物H1が大きく映り、人物H1の右側に、人物H2が人物H1より小さく映る動画が撮影される。人物H2の右側には人物H3がさらに小さく映ることになる。ステージ#1の反対の方向には、ステージ#1の方向を向いている観客が映る。
図5Bに示すように、位置P2においては、白抜き矢印A2で示すステージ#1の方向に人物H3が大きく映り、人物H3の左側に、人物H2が人物H3より小さく映る動画が撮影される。人物H2の左側には人物H1がさらに小さく映ることになる。ステージ#1の反対の方向には、ステージ#1の方向を向いている観客が映る。
図5Cに示すように、位置P3においては、白抜き矢印A3で示す方向の奥側にステージ#1全体が写り、その手前に、ステージ#1の方向を向いている観客の後ろ姿が映る動画が撮影される。
図6は、位置P1における視野の例を示す図である。
図6の球面上に破線で示す枠F1の範囲が、例えばHMD3−1の表示範囲、すなわちHMD3−1のユーザの視野を示す。HMD3−1においては、枠F1で示す範囲内の動画が表示される。
ユーザが頭を動かすことに応じて矢印で示すように枠F1が移動し、HMD3−1のディスプレイに表示される範囲も切り替わる。視野の範囲を表す枠の形状と大きさが、各クライアント端末が有するディスプレイの縦横比と視野角に応じて変わることになる。
ここで、ユーザの視野は、位置P1の撮影空間上における位置(座標)、基準の方向に対する枠F1の方向、および、枠F1の画角により特定される。コンテンツ管理サーバ1は、ユーザが選択した視点の位置、自由視点コンテンツの再生中にHMD3−1により検出された視線の方向、および、HMD3−1が有するディスプレイの画角に基づいて、ユーザの視野を特定することが可能となる。
なお、ここでは、視点の数が3つであるものとして説明しているが、視点の数は1つであってもよいし、4つ以上であってもよい。コンテンツ管理サーバ1が配信する自由視点コンテンツには、1つ、または複数の視点から撮影した映像のビデオストリームが含まれる。ユーザが選択した視点に応じて、クライアント端末において再生されるビデオストリームが切り替えられる。視点の切り替えは、ある視点のビデオストリームの再生中に行うことも可能とされる。
また、複数の位置から撮影された映像を合成することによって生成された完全自由視点コンテンツがコンテンツ管理サーバ1から配信されるようにしてもよい。完全自由視点コンテンツは、撮影空間の任意の位置を視点として選択することが可能なコンテンツである。
図1の説明に戻り、携帯端末2−1乃至2−3は、コンテンツ管理サーバ1から送信されてきた自由視点コンテンツを受信し、再生する。携帯端末2−1乃至2−3は、再生することによって得られた自由視点コンテンツの映像をHMD3−1乃至3−3に送信し、内蔵するディスプレイに表示させる。
図7は、HMD3−1の外観の例を示す斜視図である。
図7に示すように、HMD3−1はいわゆる没入型のHMDであ。HMD3−1は、上方視において略放物線形状となる本体11、ヘッドパッド12、上側ヘッドバンド13、および下側ヘッドバンド14から構成される。ヘッドパッド12は本体11の上面に固定され、略U字状の上側ヘッドバンド13と下側ヘッドバンド14は本体11の後方に取り付けられる。
本体11の内部にはディスプレイが設けられる。また、本体11には、右側面と上面に跨る形でタッチセンサ21Aが設けられる。図示を一部省略しているが、タッチセンサ21Aと対称の位置には、左側面と上面に跨る形でタッチセンサ21Bが設けられる。
図8は、HMD3−1を装着した状態を示す図である。
図8に示すように、HMD3−1をユーザが装着したとき、本体11は、ユーザの目の前方に位置し、ヘッドパッド12はユーザの額に密着する。上側ヘッドバンド13は後頭部上方を固定し、下側ヘッドバンド14は後頭部下方を固定する。
タッチセンサ21Aとタッチセンサ21Bの位置は、ユーザが本体11を両手で把持したときに、ユーザの手が触れる位置となる。ユーザは、自由視点コンテンツの視聴中、右手でタッチセンサ21Bに触れ、左手でタッチセンサ21Aに触れることによって各種の操作を行うことができる。
HMD3−1乃至3−3は、自由視点コンテンツの再生中、ユーザの頭部の姿勢を検出し、検出した姿勢を表す姿勢情報を携帯端末2−1乃至2−3に送信する。携帯端末2−1乃至2−3においては、頭部の姿勢に応じて映像の表示範囲が切り替えられ、切り替え後の表示範囲の映像がHMD3−1乃至3−3に対して送信される。
図6を参照して説明したように、携帯端末2−1乃至2−3は、例えばユーザが顔を右に向けたとき、視点の位置をそのままに映像の表示範囲を右方向に移動させ、左に向けたとき、視点の位置をそのままに映像の表示範囲を左方向に移動させる。また、携帯端末2−1乃至2−3は、ユーザが顔を上に向けたとき、視点の位置をそのままに映像の表示範囲を上方向に移動させ、下に向けたとき、視点の位置をそのままに映像の表示範囲を下方向に移動させる。携帯端末2−1乃至2−3は、例えばユーザが頭を右に傾けたとき、視点の位置と視線の方向をそのままに映像の表示範囲を右に回転させ、左に傾けたとき、視点の位置と視線の方向をそのままに映像の表示範囲を左に回転させる。
図1の例においては、HMD3−1乃至3−3のユーザは、それぞれ異なる視野の映像である映像V1乃至V3を視聴しているものとされている。
コンテンツ管理サーバ1から配信された自由視点コンテンツは、このような形で、各クライアント端末のユーザにより視聴される。
携帯端末2−1乃至2−3は、自由視点コンテンツの視聴中にユーザが利用できる各種の機能を、コンテンツ管理サーバ1による制御に従って追加する。追加される機能は、例えば、自由視点コンテンツの映像を用いて実現される機能である。
例えば、携帯端末2−1乃至2−3は、自由視点コンテンツの視聴中に、視聴している映像を拡大して表示させる機能であるズーム機能を追加する。携帯端末2−1乃至2−3のユーザは、ズーム機能を利用することにより、視聴中の映像に含まれる、自分が見たいと思った部分を拡大して見ることができる。
また、携帯端末2−1乃至2−3は、自由視点コンテンツの視聴中に、視聴している映像を静止画として保存する機能である撮影機能を追加する。携帯端末2−1乃至2−3のユーザは、撮影機能を利用することにより、視聴中の映像を、あたかも自分が持っているカメラで撮影したかのように静止画として残しておくことができる。
機能の追加は、新たなプログラムをインストールすることによって行われるようにしてもよいし、機能の制限を解除することによって行われるようにしてもよい。機能の追加には課金が必要とされる。
各機能を追加して自由視点コンテンツを再生する各機器の一連の処理については後述する。
<各機器の構成>
・コンテンツ管理サーバの構成
図9は、コンテンツ管理サーバ1の構成例を示すブロック図である。
CPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33は、バス34により相互に接続されている。
バス34には、さらに、入出力インタフェース35が接続される。入出力インタフェース35には、ディスプレイ36と入力部37が接続される。入力部37は、キーボード、マウスなどであり、コンテンツ管理サーバ1の管理者により用いられる。
また、入出力インタフェース35には、ハードディスクや不揮発性のメモリなどよりなる記録部38、ネットワークインタフェースであり、ネットワーク4を介して他の機器と通信を行う通信部39が接続される。入出力インタフェース35には、リムーバブルメディア41を駆動するドライブ40も接続される。
図10は、コンテンツ管理サーバ1の機能構成例を示すブロック図である。
図10に示す機能部のうちの少なくとも一部は、CPU31により所定のプログラムが実行されることによって実現される。図10に示すように、コンテンツ管理サーバ1においては、コンテンツ配信部51、コンテンツデータベース52、課金処理部53、および撮影画像生成部54が実現される。コンテンツデータベース52は記録部38において実現される。
コンテンツ配信部51は、通信部39を制御し、自由視点コンテンツの配信を管理する。コンテンツ配信部51は、自由視点コンテンツの配信を要求する情報がクライアント端末から送信されてきたとき、要求された自由視点コンテンツをコンテンツデータベース52から読み出し、クライアント端末に送信する。
コンテンツデータベース52は、複数の自由視点コンテンツを記録する。コンテンツデータベース52に記録された自由視点コンテンツは、配信に用いられるだけでなく、撮影機能により保存しておく静止画の生成に用いられる。
課金処理部53は、クライアント端末の機能追加時の課金を管理する。課金処理部53は、ズーム機能の追加を要求する情報がクライアント端末から送信されてきたとき、課金処理を行う。例えば、課金額はズーム倍率によって変化する。課金処理部53は、課金処理が終了したとき、クライアント端末に課金情報を送信する。課金情報は、ズーム機能の利用を許可することを表す情報であり、クライアント端末において管理される。
また、課金処理部53は、撮影機能の追加を要求する情報である撮影情報がクライアント端末から送信されてきたとき、課金処理を行う。撮影情報には、ユーザが視聴している自由視点コンテンツの識別情報、ユーザが撮影操作を行ったときの自由視点コンテンツの時刻を表す時刻情報、およびユーザが撮影操作を行ったときのユーザの視野を表す視野情報が含まれる。例えば、課金額は、自由視点コンテンツの種類によって、または、ユーザの視野によって変化する。課金処理部53は、課金処理が終了したとき、課金が終了したことを表す情報を撮影画像生成部54に出力する。
撮影画像生成部54は、課金処理が終了したとき、クライアント端末から送信されてきた撮影情報に基づいて、撮影機能によって取得される静止画である撮影画像を生成する。
例えば、撮影画像生成部54は、撮影情報に含まれる識別情報に基づいて、ユーザが視聴していた自由視点コンテンツを特定し、コンテンツデータベース52から読み出す。また、撮影画像生成部54は、ユーザが撮影操作を行った時刻における視野を撮影情報に含まれる時刻情報と視野情報に基づいて特定し、特定した視野を含む静止画を自由視点コンテンツの映像から切り出すことによって、撮影画像を生成する。撮影画像生成部54は、通信部39を制御し、生成した撮影画像をクライアント端末に送信する。
・携帯端末の構成
図11は、携帯端末2−1の構成例を示すブロック図である。
CPU61、ROM62、RAM63は、バス64により相互に接続されている。バス64には、さらに、入出力インタフェース65が接続される。入出力インタフェース65には、ディスプレイ66と入力部67が接続される。入力部67は、ディスプレイ66に積層して設けられるタッチパネルであり、HMD3−1を装着したユーザにより操作される。また、入出力インタフェース35には、記録部68、ネットワーク通信部69、および近距離通信部70が接続される。
記録部68は、不揮発性のメモリなどよりなり、コンテンツ管理サーバ1から送信されてきた自由視点コンテンツや、コンテンツ管理サーバ1により生成された撮影画像などの各種のデータを記録する。
ネットワーク通信部69は、ネットワーク4を介してコンテンツ管理サーバ1と通信を行う。
近距離通信部70は、MHL(Mobile High-definition Link)などの有線による通信、あるいは、Wireless HDMI(登録商標)(High-Definition Multimedia Interface)などの無線による通信を用いて、自由視点コンテンツの映像をHMD3−1に出力する。また、近距離通信部70は、無線LANなどを用いてHMD3−1と通信を行い、各種の情報の送受信を行う。
図12は、携帯端末2−1の機能構成例を示すブロック図である。
図12に示す機能部のうちの少なくとも一部は、CPU61により所定のプログラムが実行されることによって実現される。図12に示すように、携帯端末2−1においては、再生部71、視野検出部72、表示制御部73、機能管理部74、課金・撮影情報記録部75、およびUI状態検出部76が実現される。
再生部61は、コンテンツ管理サーバ1から送信され、ネットワーク通信部69において受信された自由視点コンテンツを再生する。再生部61は、例えば、自由視点コンテンツに含まれる、ユーザにより選択された視点の映像のビデオストリームをデコードし、デコードして得られたデータを表示制御部73に出力する。
視野検出部72は、HMD3−1から送信されてきた姿勢情報に基づいてユーザの視野を検出し、検出した視野を表す視野情報を表示制御部73と機能管理部74に出力する。HMD3−1から送信されてくる姿勢情報には、HMD3−1を装着するユーザの頭部の動きを表す、角速度、加速度などのセンサデータが含まれる。視野の検出は、自由視点コンテンツの再生中、繰り返し行われる。
表示制御部73は、近距離通信部70を制御し、再生部71から供給された自由視点コンテンツの映像をHMD3−1に送信し、表示させる。また、表示制御部73は、視野検出部72により検出された視野に応じて映像の表示範囲を切り替える。
機能管理部74は、ネットワーク通信部69を制御してコンテンツ管理サーバ1と通信を行い、自由視点コンテンツの視聴中に利用可能な機能を管理する。
例えば、機能管理部74は、ズーム機能を追加することがユーザにより指示された場合、ズーム機能の追加を要求する情報をコンテンツ管理サーバ1に送信し、課金処理を行う。機能管理部74が送信するズーム機能の追加の要求には、ユーザのクレジットカード番号の情報、ユーザが選択したズーム倍率を表す情報などが含まれる。機能管理部74は、課金処理が終わることに応じてコンテンツ管理サーバ1から送信されてきた課金情報を受信し、課金・撮影情報記録部75に記録させる。
また、機能管理部74は、自由視点コンテンツの再生中にズーム操作が行われた場合、ユーザにより行われたズーム操作が、許可されている倍率のズーム操作であるか否かを課金・撮影情報記録部75に記録されている課金情報を参照して判定する。機能管理部74は、ユーザにより行われたズーム操作が許可されている場合、表示範囲のズームを表示制御部73に行わせる。
機能管理部74は、自由視点コンテンツの再生中に撮影操作が行われた場合、撮影情報を課金・撮影情報記録部75に記録させる。撮影情報には、自由視点コンテンツの識別情報、再生時刻を表す時刻情報、および視野検出部72から供給された視野情報が含まれる。
機能管理部74は、課金・撮影情報記録部75に記録させておいた撮影情報を自由視点コンテンツの再生が終了したタイミングなどの所定のタイミングで読み出し、コンテンツ管理サーバ1に送信する。機能管理部74は、課金処理を行い、課金処理が終わることに応じてコンテンツ管理サーバ1から送信されてきた撮影画像を受信する。撮影画像は、記録部68に記録され、適宜、表示制御部73によってHMD3−1に表示される。
課金・撮影情報記録部75は、機能管理部74から供給された課金情報と撮影情報を記録する。
UI状態検出部76は、HMD3−1から送信され、近距離通信部70において受信されたUI状態情報に基づいてユーザの操作を検出する。HMD3−1からは、自由視点コンテンツ視聴中のユーザの操作などを表すUI状態情報が繰り返し送信されてくる。例えば、UI状態検出部76は、ズーム操作または撮影操作が行われたことを検出した場合、そのことを表す情報を機能管理部74に出力する。
以上のような携帯端末2−1の構成と同じ構成を携帯端末2−2,2−3も有している。
・HMDの構成
図13は、HMD3−1の構成例を示すブロック図である。
HMD3−1は、制御部91、UI部92、画像処理部93、ディスプレイ94、データ送受信部96、センサ97、および音声再生部98がバス95を介して接続されることによって構成される。図13に示す構成と同じ構成をHMD3−2,3−3も有する。
制御部91は、CPU、ROM、RAMなどより構成される。制御部91は、所定のプログラムを実行し、HMD3−1の全体の動作を制御する。
UI部92は、タッチセンサ21A,21Bに対するユーザの操作や、HMD3−1に設けられた図示せぬボタンなどに対する操作を検出する。UI部92は、検出した操作の内容を表すUI状態情報をデータ送受信部96に出力する。
画像処理部93は、データ送受信部96から供給されたビデオデータを処理し、自由視点コンテンツの映像をディスプレイ94に表示させる。
ディスプレイ94は、LCDや有機ELディスプレイなどであり、自由視点コンテンツの映像を表示する。ディスプレイ94に表示された映像は、レンズ等の光学部を介してユーザの目に導かれる。
データ送受信部96は、携帯端末2−1との間で通信を行い、携帯端末2−1から送信されてきた自由視点コンテンツのビデオデータを画像処理部93に、音声データを音声再生部98にそれぞれ出力する。また、データ送受信部96は、UI部92から供給されたUI状態情報とセンサ97から供給された姿勢情報を携帯端末2−1に送信する。
センサ97は、ジャイロセンサ、加速度センサなどにより構成される。センサ97は、自由視点コンテンツの再生中、角速度、加速度の検出を行い、姿勢情報をデータ送受信部96に出力する。
音声再生部98は、データ送受信部96から供給された音声データを処理し、自由視点コンテンツの音声を、図示せぬスピーカやHMD3−1に接続されたヘッドフォンから出力させる。
<各機器の動作>
ここで、以上のような構成を有する各機器の動作について説明する。以下においては、クライアント端末の処理として携帯端末2−1の処理について説明するが、同様の処理が携帯端末2−2,2−3においても行われる。
・ズーム機能の追加に関する処理
はじめに、図14のフローチャートを参照して、ズーム機能の追加に関する課金を行うコンテンツ管理サーバ1の処理について説明する。
ステップS1において、コンテンツ管理サーバ1の課金処理部53は、例えば携帯端末2−1から送信されてきた、ズーム機能の追加の要求を表す情報を受信する。クライアント端末から送信されてくる情報には、携帯端末2−1の利用者が選択した最大のズーム倍率を表す情報と、課金に用いられるクレジットカード番号などの情報が含まれる。
ステップS2において、課金処理部53は課金処理を行う。最大のズーム倍率が高いほど金額が高くなるといったように、課金処理部53は、例えばズーム倍率に応じた金額の課金を行う。
課金処理が終了した場合、ステップS3において、課金処理部53は、課金情報を携帯端末2−1に送信し、処理を終了させる。課金情報には、例えば「5倍までズーム可」、「10倍までズーム可」といったように、許可された最大のズーム倍率を表す情報が含まれる。
次に、図15のフローチャートを参照して、ズーム機能を追加する携帯端末2−1の処理について説明する。図15の処理は、図14の処理に対応して行われる処理である。
ステップS11において、携帯端末2−1の機能管理部74は、ズーム機能の追加の要求を表す情報をコンテンツ管理サーバ1に送信する。最大のズーム倍率の選択やクレジットカード番号などの入力は、例えばディスプレイ66に表示される画面を用いて行われる。
ステップS12において、機能管理部74は、コンテンツ管理サーバ1から送信されてきた課金情報を受信する。
ステップS13において、機能管理部74は、課金情報を課金・撮影情報記録部75に記録させ、処理を終了させる。
以上の処理により、携帯端末2-1にズーム機能が追加された状態になる。
・ズーム機能を用いた再生処理
次に、図16のフローチャートを参照して、ズーム機能を用いて自由視点コンテンツを再生する携帯端末2−1の処理について説明する。
例えば、図16の処理は、携帯端末2−1のユーザが選択した自由視点コンテンツがコンテンツ管理サーバ1から送信されてきたときに開始される。自由視点コンテンツの選択は、例えば、携帯端末2−1のディスプレイ66に表示されるメニュー画面を用いて行われる。
ステップS21において、携帯端末2−1のネットワーク通信部69は、コンテンツ管理サーバ1から送信されてきた自由視点コンテンツを受信する。自由視点コンテンツの送信はストリーミング形式で行われるようにしてもよいし、ダウンロード形式で行われるようにしてもよい。
ステップS22において、再生部71は、ユーザにより選択された視点の映像のビデオストリームを再生する。ビデオストリームを再生して得られた映像のデータは表示制御部73に順次供給される。視点の選択は、視点の一覧が表示されるメニュー画面を用いて行われるようにしてもよいし、自由視点コンテンツの視聴中に所定の操作によって行われるようにしてもよい。
ステップS23において、視野検出部72は、HMD3−1から送信されてきた姿勢情報を受信する。視野検出部72は、ユーザの視野を姿勢情報に基づいて検出し、視野情報を出力する。
ステップS24において、表示制御部73は、視野検出部72により検出された視野に応じた映像をHMD3−1に送信し、表示させる。これにより、HMD3−1のディスプレイ94には、ユーザにより選択された視点において視聴可能な映像全体のうち、ユーザの視野に応じた一部の範囲の映像が表示される。
ステップS25において、UI状態検出部76は、HMD3−1から送信されてきたUI状態情報を受信する。携帯端末2−1の入力部67に対する操作の内容を表す情報も、UI状態情報としてUI状態検出部76に入力される。
ステップS26において、UI状態検出部76は、UI状態、すなわちユーザによる操作を確認する。
ステップS27において、UI状態検出部76は、ズーム操作が行われたか否かを判定する。ズーム操作が行われていないとステップS27において判定された場合、ステップS21に戻り、以上の処理が行われる。
ズーム操作は、例えば、図8を参照して説明したようにHMD3−1の本体11をユーザが両手で把持することによって行われる。HMD3−1のUI部92は、本体11をユーザが両手で把持していることをタッチセンサ21A,21Bの出力に基づいて検出した場合、ズーム操作が行われたことを表すUI状態情報を携帯端末2−1に送信する。ユーザは、自由視点コンテンツの視聴中に、あたかも双眼鏡を持つような動作をとることによってズーム操作を行うことができる。
また、ズーム操作は、HMD3−1に設けられたボタンを押す、リングを回すなどの動作により行われる。HMD3−1のUI部92は、HMD3−1に設けられたインタフェースに対するユーザの各種の操作を検出し、ズーム操作が行われたことを表すUI状態情報を携帯端末2−1に送信する。
自由視点コンテンツ視聴中の目の動きによってズーム操作を行うことができるようにしてもよい。この場合、HMD3−1の本体11には、HMD3−1を装着したユーザの目の付近を撮影可能なカメラが設けられる。制御部91は、カメラによって撮影されたユーザの目の画像を解析することによってユーザの視線を特定し、一点を凝視しているとき、ズーム操作が行われたことを表すUI状態情報を携帯端末2−1に送信する。映像の拡大処理は、ユーザが凝視している一点を中心として行われる。ユーザが視線を他の位置に移動させたとき、ズームは解除され、映像の表示はズーム前の状態に戻る。
携帯端末2−1のディスプレイ66に対するピンチイン/ピンチアウトがズーム操作として行われるようにすることも可能である。ディスプレイ66に対するピンチイン/ピンチアウトの操作はタッチパネルである入力部67により検出され、ズーム操作が行われたことを表すUI状態情報がUI状態検出部76に供給される。ユーザは、HMD3−1を装着して自由視点コンテンツを視聴しながら、一方の手で携帯端末2−1を持ち、他方の手でディスプレイ66表面を操作することになる。
ズーム操作が行われたとステップS27において判定された場合、ステップS28において、機能管理部74は、課金・撮影情報記録部75に記録されている課金情報を確認する。
ステップS29において、機能管理部74は、ズーム処理が許可されているか否かを課金情報に基づいて判定する。
例えば、2倍までのズーム処理は課金を行わないでも可能とされる。ズーム操作によって指示されたズーム倍率が2倍以上である場合、指示されたズーム倍率が、許可されている最大の倍率以下であるか否かが課金情報を参照して判定される。上述したように、課金情報には、許可された最大のズーム倍率を表す情報が含まれる。
ズーム操作によって指示されたズーム倍率が2倍以下である場合、または、指示されたズーム倍率が、許可されている最大のズーム倍率以下である場合、ズーム処理が許可されていると判定される。
ズーム処理が許可されているとステップS29において判定された場合、ステップS30において、表示制御部73はズーム処理を行う。ズーム処理が許可されていると判定された場合、ズーム倍率を指定する情報が機能管理部74から表示制御部73に供給される。
ステップS31において、表示制御部73は、ズーム処理によって得られたズーム後の映像をHMD3−1に送信し、ディスプレイ94に表示させる。
図17は、映像のズームの例を示す図である。
表示制御部73は、ズーム操作が行われたタイミングにおける視野の中心である位置Pを固定として、ユーザにより指定されたズーム倍率で映像を拡大させる。図17の左側はズーム前の映像であり、右側はズーム後の映像である。図17の例においては、ズーム前の映像のうち、一点鎖線Lで囲んで示す、位置Pを中心とした範囲が拡大されている。
映像のズームに伴って、拡大した被写体に近い位置を音源位置とする音声が大きくなるように、音場の調整が行われるようにしてもよい。音場の調整はHMD3−1の音声再生部98により行われる。
ステップS32において、再生部71は、再生終了か否かを判定する。再生終了ではないとステップS32において判定された場合、ステップS21に戻り、以上の処理が行われる。
ズーム処理が許可されていないとステップS29において判定され、ステップS33においてズームエラー処理が行われた後も同様に、ステップS21に戻り、以上の処理が行われる。
例えば課金処理が行われていないためにズーム処理が許可されていないと判定した場合、表示制御部73は、ズームエラー処理として、課金を促す情報をHMD3−1に送信し、ディスプレイ94に表示させる。
また、ユーザにより指示されたズーム倍率が、許可されている最大のズーム倍率を超えている場合、表示制御部73は、ズームエラー処理として、そのことを表す情報をHMD3−1に送信し、ディスプレイ94に表示させる。ズームエラー処理が行われるのではなく、許可されている最大の倍率の範囲内でズーム処理が行われるようにしてもよい。
図18は、課金を促す情報の表示例を示す図である。
図18の例においては、自由視点コンテンツの映像に重ねて、ズームが禁止されていることと、ズーム機能を利用するためには課金が必要であることを表すメッセージが表示されている。
図16の説明に戻り、ステップS32において再生終了であると判定した場合、再生部71は処理を終了させる。ズーム処理を行う前においても、適宜、自由視点コンテンツの再生終了に応じて処理は終了となる。
以上においては、ズーム処理が許可されているか否かが、課金・撮影情報記録部75に記録されている課金情報に基づいて判定されるものとしたが、コンテンツ管理サーバ1に対して問い合わせが行われ、コンテンツ管理サーバ1において管理されている情報に基づいて判定されるようにしてもよい。
次に、図19のフローチャートを参照して、自由視点コンテンツの映像を表示するHMD3−1の処理について説明する。図19の処理は、携帯端末2−1による図16の処理に対応して行われる処理である。
ステップS41において、センサ97は、ユーザの頭部の姿勢を検出し、姿勢情報をデータ送受信部96に出力する。
ステップS42において、データ送受信部96は、センサ97から供給された姿勢情報を携帯端末2−1に送信する。
ステップS43において、データ送受信部96は、携帯端末2−1から送信されてきた、ユーザの視野に応じた映像を受信し、画像処理部93に出力する。
ステップS44において、画像処理部93は、供給された映像に対して所定の処理を施し、ディスプレイ94に表示させる。
ステップS45において、UI部92は、タッチセンサ21A,21Bに対するユーザの操作、HMD3−1に設けられたボタンに対する操作などに基づいてUI状態を検出し、UI状態情報をデータ送受信部96に出力する。
ステップS46において、データ送受信部96は、UI部92から供給されたUI状態情報を携帯端末2−1に送信する。
ステップS47において、制御部91は、自由視点コンテンツの再生が終了したか否かを判定し、終了していないと判定した場合、ステップS41に戻り、以上の処理を繰り返す。一方、自由視点コンテンツの再生が終了したとステップS47において判定した場合、制御部91は処理を終了させる。
以上の一連の処理により、ユーザは、自由視点コンテンツの視聴中に利用することができる機能としてズーム機能を追加することができる。また、ユーザは、ズーム機能を追加しておくことにより、自由視点コンテンツの視聴中にズーム機能を利用し、映像の一部を拡大して見ることができる。
・撮影機能を用いた再生処理
次に、図20のフローチャートを参照して、撮影機能を用いて自由視点コンテンツを再生する携帯端末2−1の処理について説明する。
図20のステップS61乃至S66の処理は、図16のステップS21乃至S26の処理と同様の処理である。重複する説明については適宜省略する。図20の処理においても、図16の処理と同様にしてユーザがズーム機能を利用することができるようにしてもよい。
ステップS61において、携帯端末2−1のネットワーク通信部69は、コンテンツ管理サーバ1から送信されてきた自由視点コンテンツを受信する。
ステップS62において、再生部71は、ユーザにより選択された視点の映像のビデオストリームを再生する。ビデオストリームを再生して得られた映像のデータは表示制御部73に順次供給される。
ステップS63において、視野検出部72は、HMD3−1から送信されてきた姿勢情報を受信する。視野検出部72は、ユーザの視野を姿勢情報に基づいて検出し、視野情報を出力する。
ステップS64において、表示制御部73は、視野検出部72により検出された視野に応じた映像をHMD3−1に送信し、表示させる。
ステップS65において、UI状態検出部76は、HMD3−1から送信されてきたUI状態情報を受信する。携帯端末2−1の入力部67に対する操作の内容を表す情報も、UI状態情報としてUI状態検出部76に入力される。
ステップS66において、UI状態検出部76はUI状態を確認する。
ステップS67において、UI状態検出部76は、撮影操作が行われたか否かを判定する。
撮影操作は、例えば、HMD3−1に設けられたボタンを押すなどの動作により行われる。HMD3−1のUI部92は、HMD3−1に設けられたインタフェースに対するユーザの操作を検出し、撮影操作が行われたことを表すUI状態情報を携帯端末2−1に送信する。HMD3−1に接続された外部コントローラを用いて撮影操作が行われるようにしてもよい。
携帯端末2−1のディスプレイ66に対する操作によって撮影操作が行われるようにすることも可能である。ディスプレイ66に対する操作は入力部67により検出され、撮影操作が行われたことを表すUI状態情報がUI状態検出部76に供給される。
撮影操作が行われたとステップS67において判定した場合、ステップS68において、機能管理部74は、撮影情報を課金・撮影情報記録部75に記録する。撮影情報には、自由視点コンテンツの識別情報、時刻情報、視野検出部72から供給された視野情報が含まれる。
ステップS69において、再生部71は、再生終了か否かを判定する。再生終了ではないとステップS69において判定された場合、ステップS61に戻り、以上の処理が行われる。
撮影操作が行われていないとステップS67において判定された場合も同様に、ステップS61に戻り、以上の処理が行われる。
一方、再生終了であるとステップS69において判定された場合、ステップS70において、機能管理部74は撮影画像購入処理を行う。撮影画像購入処理は、撮影画像に関する課金処理を行い、コンテンツ管理サーバ1から送信されてきた撮影画像を取得する処理である。自由視点コンテンツの再生終了後に行われるのではなく、撮影操作が行われる毎に撮影画像購入処理が行われるようにしてもよい。
撮影画像購入処理が行われた後、再生部71は処理を終了させる。撮影操作が行われていない場合においても、適宜、自由視点コンテンツの再生終了に応じて処理は終了となる。なお、HMD3−1においては、図19を参照して説明した処理が、図20の処理に対応して行われる。
次に、図21のフローチャートを参照して、図20のステップS70において行われる撮影画像購入処理について説明する。
ステップS81において、機能管理部74は、課金・撮影情報記録部75から撮影情報を読み出し、コンテンツ管理サーバ1に送信する。撮影情報には、撮影画像の解像度を指定する情報が付加される。コンテンツ管理サーバ1においては、撮影情報などに基づいて撮影画像の料金が算出される。算出された料金を表す料金情報は、コンテンツ管理サーバ1から携帯端末2−1に対して送信される。
ステップS82において、機能管理部74は、コンテンツ管理サーバ1から送信されてきた料金情報を受信し、表示制御部73に出力する。
ステップS83において、表示制御部73は、料金の情報をHMD3−1に送信し、ディスプレイ94に表示させる。
図22は、料金の表示例を示す図である。
図22の例においては、撮影画像を購入するための料金が500円であることを表すメッセージが表示されている。メッセージの下には、購入するときに操作されるボタンと購入しないときに操作されるボタンが表示される。ユーザは、HMD3−1のボタンを用いるなどして、ディスプレイ94に表示されたボタンを押し、購入するか否かを選択する。ユーザの選択内容を表す情報は、UI状態情報としてUI状態検出部76から機能管理部74に供給される。
撮影画像を購入することが指示された場合、ステップS84において、機能管理部74は、撮影画像の購入を要求する情報をコンテンツ管理サーバ1に送信し、課金処理を行う。撮影画像の購入の要求には、ユーザのクレジットカード番号の情報などが含まれる。
課金が終了したとき、コンテンツ管理サーバ1においては、撮影画像が生成される。生成された撮影画像は、コンテンツ管理サーバ1から携帯端末2−1に対して送信される。
ステップS85において、機能管理部74は、コンテンツ管理サーバ1から送信されてきた撮影画像を受信し、記録部68に保存するとともに、表示制御部73に出力する。
ステップS86において、表示制御部73は、撮影画像をHMD3−1に送信し、ディスプレイ94に表示させる。その後、図20のステップS70に戻り、それ以降の処理が行われる。
このように、撮影画像の保存は、課金処理の後に行われる。視聴している映像を静止画として保存する機能である撮影機能は、課金処理が行われることに応じて最終的に実現されることになる。
次に、図23のフローチャートを参照して、撮影画像を生成するコンテンツ管理サーバ1の処理について説明する。
ステップS101において、コンテンツ管理サーバ1の課金処理部53は、携帯端末2−1から送信されてきた撮影情報を受信する。撮影情報には、ユーザが選択した解像度を指定する情報が付加される。
例えば、コンテンツ管理サーバ1が配信する自由視点コンテンツがリアルタイムのコンテンツであり、複数の携帯端末において同じ自由視点コンテンツの視聴が行われていた場合、それぞれの携帯端末において記録されていた撮影情報が送信されてくる。
ステップS102において、課金処理部53は、撮影画像の料金を撮影情報に基づいて算出する。
課金処理部53は、例えば、撮影画像として保存することが指示された視野の人気度を複数の携帯端末から送信されてきた撮影情報に基づいて特定し、人気度に応じた料金を算出する。人気度が低い視野を切り出した撮影画像より、人気度が高い視野を切り出した撮影画像の方が、高い料金が設定される。人気度は視野の重複数により求められる。撮影情報に含まれる時刻情報と視野情報に基づいて、撮影操作が行われたタイミングにおけるユーザの視野が特定される。
図24は、視野の重複の例を示す図である。
図24は、自由視点コンテンツの再生中の所定の時刻における、所定の視点の映像を平面に展開したときの人物H1乃至H3と、4つの携帯端末のユーザの視野を示している。すなわち、この例においては、同じ時刻に、4人のユーザが撮影機能を利用したものとされている。
長方形の枠F11乃至F14はそれぞれのユーザが使うHMDの表示範囲を表す。それぞれのHMDの表示範囲は、ユーザの頭部の姿勢に応じて位置が異なるとともに、ズーム倍率などに応じて大きさが異なる。
例えば、枠F11の左側には人物H1の一部が入り、右側には人物H2が入っている。この場合、ユーザは、左側に人物H1が入り、右側に人物H2が入るような視野で自由視点コンテンツを視聴していたときに撮影操作を行ったことになる。
斜線を付して示す領域A1は、枠F11乃至F14が重なっている領域である。領域A1の視野の重複数は4となる。
領域A1の上側に位置する横長の長方形の領域A2は、枠F11,F12,F14が重なっている領域であり、視野の重複数は3となる。また、領域A1の右上に位置する小さい長方形の領域A3は、枠F12,F14が重なっている領域であり、視野の重複数は2となる。領域A4乃至A11についても同様に視野の重複数が求められる。一定の面積以上重複している視野のみが、重複する視野として処理されるようにしてもよい。
このように、課金処理部53は、撮影情報に基づいて、撮影操作を行った複数のユーザの視野の重複数を時刻毎に求める。課金処理部53は、重複数が2乃至100となる視野を含む撮影画像については1枚あたり100円、重複数が101乃至200となる視野を含む撮影画像については1枚あたり200円といったように、重複数に応じて料金を算出する。
課金処理部53は、ユーザにより指示された解像度に応じた料金を算出することもできる。解像度が低い撮影画像より、解像度が高い撮影画像の方が、高い料金が設定される。解像度が低い撮影画像については無料としてもよい。
コンテンツデータベース52には、高解像度の自由視点コンテンツと低解像度の自由視点コンテンツが用意されている。高い解像度の撮影画像は高解像度の自由視点コンテンツに基づいて生成され、低い解像度の撮影画像は低解像度の自由視点コンテンツに基づいて生成される。
ステップS103において、課金処理部53は、算出した料金を表す料金情報を携帯端末2−1に送信する。携帯端末2−1においては、上述したように料金がユーザに提示される。
ステップS104において、課金処理部53は、携帯端末2−1から送信されてきた、撮影画像の購入を要求する情報を受信し、課金処理を行う。
ステップS105において、撮影画像生成部54は、撮影情報に基づいて撮影画像を生成する。具体的には、撮影画像生成部54は、撮影情報に含まれる識別情報に基づいて、撮影画像を生成する自由視点コンテンツを特定するとともに、撮影情報に含まれる時刻情報と視野情報に基づいて、撮影操作を行ったときのユーザの視野を特定する。撮影画像生成部54は、特定した自由視点コンテンツの、特定した視野の静止画をコンテンツデータベース52に記録されている自由視点コンテンツの映像から切り出すことによって撮影画像を生成する。
ステップS106において、撮影画像生成部54は、生成した撮影画像を携帯端末2−1に送信し、処理を終了させる。
以上の一連の処理により、ユーザは撮影機能を追加することができる。また、ユーザは、撮影機能を利用し、自由視点コンテンツの視聴中に見ていたシーンを静止画として残しておくことができる。
ズーム機能と同じように、撮影機能が事前の課金により利用可能となるようにしてもよい。
<変形例>
以上においては、ズーム機能と撮影機能を追加する場合について説明したが、自由視点コンテンツの映像を用いて実現可能な機能であれば、どのような機能を追加できるようにしてもよい。例えば、自由視点コンテンツの録画機能、所定の人物のみを追跡して表示し続ける追跡機能を追加できるようにしてもよい。
例えば、課金が行われることに応じて録画機能が追加された場合、携帯端末2−1により受信された自由視点コンテンツは、再生が行われるとともに、記録部68に供給され、記録される。
また、例えば、課金が行われることに応じて追跡機能が追加された場合、表示制御部73は、ユーザにより選択された人物などの特徴点の各時刻における位置を自由視点コンテンツの映像を解析することによって特定する。表示制御部73は、ユーザにより選択された人物が視野に常に含まれるように表示範囲を切り替える。
以上においては、携帯端末は自由視点コンテンツの再生装置として機能し、HMDは表示装置として機能するものとしたが、再生機能がHMDに搭載されるようにしてもよい。この場合、図12に示す携帯端末の機能はHMDに設けられる。
以上においては、撮影画像がコンテンツ管理サーバ1により生成されるものとしたが、撮影情報に基づいて携帯端末2−1により生成されるようにしてもよい。この場合、携帯端末2−1においては、撮影情報に基づいてユーザの視野が特定され、記録部68に記録された自由視点コンテンツから視野の範囲を切り出すことによって撮影画像が生成される。
・HMDの形態について
HMD3−1乃至3−3が没入型のHMDであるものとして説明したが、いわゆるビデオシースルー型のHMDや光学シースルー型のHMDにも適用可能である。
図25は、HMDの形態の例を示す図である。
ビデオシースルー型のHMDは、図25Bに示すように、本体を装着したユーザの目の前に映像を映し出す位置にディスプレイが設けられる点で図25Aの没入型のHMDと同じであるものの、HMDの筐体にカメラが設けられており、カメラで撮影されたユーザの前方の風景の映像がディスプレイに表示される点で異なる。
光学シースルー型のHMDは、図25Cに示すように、HMDを装着するユーザの目の前にハーフミラーが設けられ、前方の風景をユーザがハーフミラーを介して見ることができるHMDである。HMDのフレーム部分などに設けられた発光部から出力されたライブコンテンツの映像などの各種の情報の光は、ハーフミラーによって反射し、ユーザの目に導かれる。ユーザは、目の前の風景に重ねて各種の情報を見ることができる。
・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図9に示されるリムーバブルメディア41に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM32や記録部38に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
・構成の組み合わせ例
本技術は、以下のような構成をとることもできる。
(1)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する機能管理部を備える
情報処理装置。
(2)
前記ビデオコンテンツは、水平方向と垂直方向のうちの少なくとも一方の画角が360度の映像からなるコンテンツである
前記(1)に記載の情報処理装置。
(3)
前記ビデオコンテンツは、同じ被写体を複数の位置から撮影して得られた複数の映像を含み、前記複数の位置のうちのいずれかの位置を前記ビデオコンテンツの視聴時の視点として選択可能なコンテンツである
前記(2)に記載の情報処理装置。
(4)
前記ビデオコンテンツは、同じ被写体を複数の位置から撮影して得られた複数の映像を合成して得られた、任意の位置を前記ビデオコンテンツの視聴時の視点として選択可能なコンテンツである
前記(2)に記載の情報処理装置。
(5)
前記機能管理部は、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を拡大して表示させる前記機能を追加する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記ビデオコンテンツを再生する再生部と、
再生された前記ビデオコンテンツの映像の前記表示範囲を前記ユーザの動きに追従して切り替えるとともに、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を拡大して表示させる表示制御部と
をさらに備える前記(5)に記載の情報処理装置。
(7)
前記表示制御部は、課金額に応じて、前記ビデオコンテンツの映像の最大の拡大率を変える
前記(6)に記載の情報処理装置。
(8)
前記表示制御部は、前記ユーザにより指示された拡大率が、課金額に応じて許可されている最大の拡大率を超える場合、前記ビデオコンテンツの映像を、許可されている最大の拡大率で拡大して表示させる
前記(7)に記載の情報処理装置。
(9)
前記表示制御部は、前記ユーザにより指示された拡大率が、課金額に応じて許可されている最大の拡大率を超える場合、課金を促す情報を表示させる
前記(7)に記載の情報処理装置。
(10)
前記表示制御部は、前記ユーザが装着するHMDに前記ビデオコンテンツの映像を表示させ、前記ユーザの目の前方に位置する前記HMDの本体を、前記ユーザが両手で把持していることが検出された場合に、前記ビデオコンテンツの映像を拡大して表示させる
前記(6)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記機能管理部は、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を静止画として保存するための機能を追加する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
静止画を保存することが指示されたタイミングにおける前記表示範囲を表す視野情報を記録する記録部をさらに備え、
前記機能管理部は、前記ビデオコンテンツの配信を管理する管理サーバに前記視野情報を送信し、前記管理サーバから送信された、前記視野情報により表される前記表示範囲を含む静止画を受信して保存する
前記(11)に記載の情報処理装置。
(13)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する
ステップを含む情報処理方法。
(14)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する
ステップを含む処理をコンピュータに実行させるプログラム。
(15)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信する配信部と、
前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行う課金処理部と、
前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、前記情報処理装置に送信する生成部と
を備える管理装置。
(16)
前記課金処理部は、複数の前記情報処理装置から送信されてきた前記視野情報に基づいてそれぞれの前記ユーザの前記表示範囲を特定し、前記表示範囲の重複数に応じて、前記表示範囲を含む静止画の課金額を変える
前記(15)に記載の管理装置。
(17)
前記課金処理部は、前記情報処理装置に送信する前記表示範囲を含む静止画の解像度に応じて、前記表示範囲を含む静止画の課金額を変える
前記(15)に記載の管理装置。
(18)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信し、
前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行い、
前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、
前記表示範囲を含む静止画を前記情報処理装置に送信する
ステップを含む情報処理方法。
(19)
映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信し、
前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行い、
前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、
前記表示範囲を含む静止画を前記情報処理装置に送信する
ステップを含む処理をコンピュータに実行させるプログラム。
1 コンテンツ管理サーバ、 2−1乃至2−3 携帯端末、 3−1乃至3−3 HMD、 51 コンテンツ配信部、 52 コンテンツデータベース、 53 課金処理部、 54 撮影画像生成部、 71 再生部、 72 視野検出部、 73 表示制御部、 74 機能管理部、 75 課金・撮影情報記録部、 76 UI状態検出部

Claims (19)

  1. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する機能管理部を備える
    情報処理装置。
  2. 前記ビデオコンテンツは、水平方向と垂直方向のうちの少なくとも一方の画角が360度の映像からなるコンテンツである
    請求項1に記載の情報処理装置。
  3. 前記ビデオコンテンツは、同じ被写体を複数の位置から撮影して得られた複数の映像を含み、前記複数の位置のうちのいずれかの位置を前記ビデオコンテンツの視聴時の視点として選択可能なコンテンツである
    請求項2に記載の情報処理装置。
  4. 前記ビデオコンテンツは、同じ被写体を複数の位置から撮影して得られた複数の映像を合成して得られた、任意の位置を前記ビデオコンテンツの視聴時の視点として選択可能なコンテンツである
    請求項2に記載の情報処理装置。
  5. 前記機能管理部は、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を拡大して表示させる前記機能を追加する
    請求項1に記載の情報処理装置。
  6. 前記ビデオコンテンツを再生する再生部と、
    再生された前記ビデオコンテンツの映像の前記表示範囲を前記ユーザの動きに追従して切り替えるとともに、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を拡大して表示させる表示制御部と
    をさらに備える請求項5に記載の情報処理装置。
  7. 前記表示制御部は、課金額に応じて、前記ビデオコンテンツの映像の最大の拡大率を変える
    請求項6に記載の情報処理装置。
  8. 前記表示制御部は、前記ユーザにより指示された拡大率が、課金額に応じて許可されている最大の拡大率を超える場合、前記ビデオコンテンツの映像を、許可されている最大の拡大率で拡大して表示させる
    請求項7に記載の情報処理装置。
  9. 前記表示制御部は、前記ユーザにより指示された拡大率が、課金額に応じて許可されている最大の拡大率を超える場合、課金を促す情報を表示させる
    請求項7に記載の情報処理装置。
  10. 前記表示制御部は、前記ユーザが装着するHMDに前記ビデオコンテンツの映像を表示させ、前記ユーザの目の前方に位置する前記HMDの本体を、前記ユーザが両手で把持していることが検出された場合に、前記ビデオコンテンツの映像を拡大して表示させる
    請求項5に記載の情報処理装置。
  11. 前記機能管理部は、前記ユーザにより指示されたタイミングにおける前記表示範囲の映像を静止画として保存するための機能を追加する
    請求項1に記載の情報処理装置。
  12. 静止画を保存することが指示されたタイミングにおける前記表示範囲を表す視野情報を記録する記録部をさらに備え、
    前記機能管理部は、前記ビデオコンテンツの配信を管理する管理サーバに前記視野情報を送信し、前記管理サーバから送信された、前記視野情報により表される前記表示範囲を含む静止画を受信して保存する
    請求項11に記載の情報処理装置。
  13. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する
    ステップを含む情報処理方法。
  14. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツの視聴中に前記ユーザが利用することが可能な、前記ビデオコンテンツの映像を用いて実現される機能を、前記機能に関する課金が行われることに応じて追加する
    ステップを含む処理をコンピュータに実行させるプログラム。
  15. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信する配信部と、
    前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行う課金処理部と、
    前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、前記情報処理装置に送信する生成部と
    を備える管理装置。
  16. 前記課金処理部は、複数の前記情報処理装置から送信されてきた前記視野情報に基づいてそれぞれの前記ユーザの前記表示範囲を特定し、前記表示範囲の重複数に応じて、前記表示範囲を含む静止画の課金額を変える
    請求項15に記載の管理装置。
  17. 前記課金処理部は、前記情報処理装置に送信する前記表示範囲を含む静止画の解像度に応じて、前記表示範囲を含む静止画の課金額を変える
    請求項15に記載の管理装置。
  18. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信し、
    前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行い、
    前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、
    前記表示範囲を含む静止画を前記情報処理装置に送信する
    ステップを含む情報処理方法。
  19. 映像全体の範囲内でユーザの動きに追従して表示範囲が切り替わるビデオコンテンツを情報処理装置に配信し、
    前記情報処理装置から送信されてきた、前記ビデオコンテンツの視聴中に静止画を保存することが前記ユーザにより指示されたタイミングにおける前記表示範囲を表す視野情報に基づいて、前記表示範囲を含む静止画の課金を行い、
    前記表示範囲を含む静止画を前記ビデオコンテンツに基づいて生成し、
    前記表示範囲を含む静止画を前記情報処理装置に送信する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2014150993A 2014-07-24 2014-07-24 情報処理装置、管理装置、情報処理方法、およびプログラム Pending JP2016025633A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014150993A JP2016025633A (ja) 2014-07-24 2014-07-24 情報処理装置、管理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014150993A JP2016025633A (ja) 2014-07-24 2014-07-24 情報処理装置、管理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2016025633A true JP2016025633A (ja) 2016-02-08

Family

ID=55272013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014150993A Pending JP2016025633A (ja) 2014-07-24 2014-07-24 情報処理装置、管理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2016025633A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6106321B1 (ja) * 2016-06-30 2017-03-29 魔法株式会社 電子カタログ
KR20170129048A (ko) * 2016-05-16 2017-11-24 한국과학기술원 360도 영상 재생 시 사용자 단말 정보를 이용하여 재생 영역을 보정하는 방법 및 시스템
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2018150659A1 (ja) 2017-02-14 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018207581A1 (en) 2017-05-09 2018-11-15 Sony Corporation Client apparatus, client apparatus processing method, server, and server processing method
WO2018230105A1 (ja) * 2017-06-14 2018-12-20 株式会社アルファコード 広告情報処理システム、広告表示領域評価方法および広告情報処理用プログラム
JP6453499B1 (ja) * 2018-01-31 2019-01-16 株式会社コロプラ プログラム、情報処理装置、および方法
US10291875B2 (en) 2016-11-30 2019-05-14 Canon Kabushiki Kaisha Signal processing apparatus and method of generating audio signal
JP2019192174A (ja) * 2018-04-27 2019-10-31 株式会社コロプラ プログラム、情報処理装置、および方法
JP2020004284A (ja) * 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置
US10713834B2 (en) 2018-04-27 2020-07-14 Colopl, Inc. information processing apparatus and method
JP2020120336A (ja) * 2019-01-25 2020-08-06 株式会社コロプラ プログラム、方法、および情報処理装置
CN112119451A (zh) * 2018-05-22 2020-12-22 索尼公司 信息处理装置、信息处理方法和程序
JP2021056767A (ja) * 2019-09-30 2021-04-08 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
CN113170231A (zh) * 2019-04-11 2021-07-23 华为技术有限公司 跟随用户运动控制播放视频内容的方法和装置
JP2021185713A (ja) * 2017-06-02 2021-12-09 ヴィド スケール インコーポレイテッド 次世代ネットワークを介した360度ビデオ配信
JP2022071030A (ja) * 2019-12-11 2022-05-13 キヤノン株式会社 制御装置、制御方法、及びプログラム
US11386527B2 (en) 2018-01-30 2022-07-12 Sony Corporation Image processor and imaging processing method
JP7162387B1 (ja) 2022-02-25 2022-10-28 滋啓 内田 興行映像表示プログラム
JP7278442B2 (ja) 2018-11-28 2023-05-19 株式会社コロプラ プログラム、情報処理装置、および方法

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170129048A (ko) * 2016-05-16 2017-11-24 한국과학기술원 360도 영상 재생 시 사용자 단말 정보를 이용하여 재생 영역을 보정하는 방법 및 시스템
KR101906718B1 (ko) * 2016-05-16 2018-10-11 한국과학기술원 360도 영상 재생 시 사용자 단말 정보를 이용하여 재생 영역을 보정하는 방법 및 시스템
JP2018006977A (ja) * 2016-06-30 2018-01-11 魔法株式会社 電子カタログ
JP6106321B1 (ja) * 2016-06-30 2017-03-29 魔法株式会社 電子カタログ
WO2018079166A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6996514B2 (ja) 2016-10-26 2022-01-17 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPWO2018079166A1 (ja) * 2016-10-26 2019-09-12 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US10291875B2 (en) 2016-11-30 2019-05-14 Canon Kabushiki Kaisha Signal processing apparatus and method of generating audio signal
US10708536B2 (en) 2016-11-30 2020-07-07 Canon Kabushiki Kaisha Signal processing apparatus and method of generating audio signal
WO2018150659A1 (ja) 2017-02-14 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11240480B2 (en) 2017-05-09 2022-02-01 Sony Corporation Client apparatus, client apparatus processing method, server, and server processing method
CN110583022A (zh) * 2017-05-09 2019-12-17 索尼公司 客户端设备、客户端设备处理方法、服务器以及服务器处理方法
WO2018207581A1 (en) 2017-05-09 2018-11-15 Sony Corporation Client apparatus, client apparatus processing method, server, and server processing method
JP2021185713A (ja) * 2017-06-02 2021-12-09 ヴィド スケール インコーポレイテッド 次世代ネットワークを介した360度ビデオ配信
JP7473693B2 (ja) 2017-06-02 2024-04-23 ヴィド スケール インコーポレイテッド 次世代ネットワークを介した360度ビデオ配信
US11770594B2 (en) 2017-06-02 2023-09-26 Vid Scale, Inc. 360-degree video delivery over next generation network
JP7206341B2 (ja) 2017-06-02 2023-01-17 ヴィド スケール インコーポレイテッド 次世代ネットワークを介した360度ビデオ配信
JP2019003367A (ja) * 2017-06-14 2019-01-10 株式会社アルファコード 広告情報処理システム、広告表示領域評価方法および広告情報処理用プログラム
CN110709879A (zh) * 2017-06-14 2020-01-17 株式会社阿尔法代码 广告信息处理系统、广告显示区域评价方法以及广告信息处理用程序
WO2018230105A1 (ja) * 2017-06-14 2018-12-20 株式会社アルファコード 広告情報処理システム、広告表示領域評価方法および広告情報処理用プログラム
US11386527B2 (en) 2018-01-30 2022-07-12 Sony Corporation Image processor and imaging processing method
JP6453499B1 (ja) * 2018-01-31 2019-01-16 株式会社コロプラ プログラム、情報処理装置、および方法
JP2019130111A (ja) * 2018-01-31 2019-08-08 株式会社コロプラ プログラム、情報処理装置、および方法
US20190243443A1 (en) * 2018-01-31 2019-08-08 Colopl, Inc. Program, information processing apparatus and method thereof
US10713834B2 (en) 2018-04-27 2020-07-14 Colopl, Inc. information processing apparatus and method
JP2019192174A (ja) * 2018-04-27 2019-10-31 株式会社コロプラ プログラム、情報処理装置、および方法
JP7258472B2 (ja) 2018-04-27 2023-04-17 株式会社コロプラ プログラム、情報処理装置、および方法
US11074737B2 (en) 2018-04-27 2021-07-27 Colopl, Inc. Information processing apparatus and method
CN112119451A (zh) * 2018-05-22 2020-12-22 索尼公司 信息处理装置、信息处理方法和程序
JP2020004284A (ja) * 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置
JP7278442B2 (ja) 2018-11-28 2023-05-19 株式会社コロプラ プログラム、情報処理装置、および方法
JP2020120336A (ja) * 2019-01-25 2020-08-06 株式会社コロプラ プログラム、方法、および情報処理装置
CN113170231A (zh) * 2019-04-11 2021-07-23 华为技术有限公司 跟随用户运动控制播放视频内容的方法和装置
JP7458731B2 (ja) 2019-09-30 2024-04-01 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
JP2021056767A (ja) * 2019-09-30 2021-04-08 キヤノン株式会社 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
JP2022071030A (ja) * 2019-12-11 2022-05-13 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP7434385B2 (ja) 2019-12-11 2024-02-20 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP7162387B1 (ja) 2022-02-25 2022-10-28 滋啓 内田 興行映像表示プログラム
JP2023124291A (ja) * 2022-02-25 2023-09-06 滋啓 内田 興行映像表示プログラム

Similar Documents

Publication Publication Date Title
JP2016025633A (ja) 情報処理装置、管理装置、情報処理方法、およびプログラム
US11265603B2 (en) Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
US9858643B2 (en) Image generating device, image generating method, and program
Lelyveld Virtual reality primer with an emphasis on camera-captured VR
Pohl et al. See what I see: Concepts to improve the social acceptance of HMDs
JP6292658B2 (ja) 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
US20240077941A1 (en) Information processing system, information processing method, and program
CN108989784A (zh) 虚拟现实设备的图像显示方法、装置、设备及存储介质
WO2020059327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN108134928A (zh) Vr显示方法和装置
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
WO2020206647A1 (zh) 跟随用户运动控制播放视频内容的方法和装置
KR102140077B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
US20200225467A1 (en) Method for projecting immersive audiovisual content
KR102261242B1 (ko) 360도 3차원 영상 재생시스템
JP7172036B2 (ja) 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
JP2020025275A (ja) 映像音響再生装置およびその方法
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
US11863902B2 (en) Techniques for enabling high fidelity magnification of video
DeHart Directing audience attention: cinematic composition in 360 natural history films
WO2021161894A1 (ja) 情報処理システム、情報処理方法及びプログラム
WO2021049356A1 (ja) 再生装置、再生方法、及び記録媒体
KR20180013243A (ko) 스트리밍 컨텐츠 제공 방법, 스트리밍 컨텐츠 저장 방법 및 이를 위한 장치
CN116235499A (zh) 使用具有位置数据的清单来有效递送多相机交互式内容