JP2010232860A - 情報処理装置、コンテンツ処理方法及びプログラム - Google Patents

情報処理装置、コンテンツ処理方法及びプログラム Download PDF

Info

Publication number
JP2010232860A
JP2010232860A JP2009076970A JP2009076970A JP2010232860A JP 2010232860 A JP2010232860 A JP 2010232860A JP 2009076970 A JP2009076970 A JP 2009076970A JP 2009076970 A JP2009076970 A JP 2009076970A JP 2010232860 A JP2010232860 A JP 2010232860A
Authority
JP
Japan
Prior art keywords
user
content
users
user terminal
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009076970A
Other languages
English (en)
Other versions
JP5299018B2 (ja
Inventor
Masayuki Imanishi
将之 今西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009076970A priority Critical patent/JP5299018B2/ja
Priority to US12/707,978 priority patent/US8522160B2/en
Priority to CN201010138353A priority patent/CN101848364A/zh
Publication of JP2010232860A publication Critical patent/JP2010232860A/ja
Application granted granted Critical
Publication of JP5299018B2 publication Critical patent/JP5299018B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17336Handling of requests in head-ends

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザにより体験される臨場感を向上させること。
【解決手段】仮想空間内でユーザが位置することのできる複数のユーザ位置を表示する画面であって、当該複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させる画面制御部と、前記位置選択画面を用いて選択された前記ユーザ位置ごとに、各ユーザ位置を選択したユーザを一覧化したユーザ一覧を保持するデータ保持部と、前記データ保持部により保持されている前記ユーザ一覧により表されるユーザ間の位置関係に応じて、前記ユーザ端末へ配信するコンテンツを加工するコンテンツ加工部と、を備える情報処理装置を提供する。
【選択図】図3

Description

本発明は、情報処理装置、コンテンツ処理方法及びプログラムに関する。
近年、インターネットなどのネットワークを介して高品質な動画又は音声などの大容量のコンテンツを配信することが可能となっている。ネットワークを介して配信される動画コンテンツの例としては、例えば、野球やサッカーを始めとするスポーツの試合の映像、又はミュージシャンによる音楽ライブの映像などが挙げられる。このようなコンテンツは、一般的に、コンテンツデータを取得したコンテンツサーバからクライアントである複数のユーザ端末へネットワーク経由で配信され得る。即ち、この場合、複数のユーザがコンテンツサーバから配信されるコンテンツを共有する。しかし、コンテンツが複数のユーザ端末へ個別に配信されると、例えば撮影されたスポーツの試合や音楽ライブなどを生で観戦(又は鑑賞)する場合にユーザが得ることのできる臨場感は減殺される。
これに対し、従来、複数のユーザ間でコンテンツを共有する際の臨場感を向上させるための技術開発が行われている。例えば、下記特許文献1には、多数の視聴者があたかもスタジオに集まって1つのテレビジョン番組に参加しているような映像及び音声を合成することのできる仮想観客形成装置が開示されている。また、下記特許文献2には、ユーザ端末間でコンテンツの視聴状況に応じて音声を交換し、コンテンツを共有している他のユーザの音声をユーザに提供することのできる音声配信装置が開示されている。
特開2003−333572号公報 特開2007−134808号公報
しかしながら、上記特許文献1に記載された手法では、どのような映像及び音声が合成されるがコンテンツサーバに相当する仮想観客形成装置の動作のみに依存するため、ユーザは提供される映像及び音声を受身的に楽しむことができるに過ぎない。また、上記特許文献2に記載された手法では、ユーザにより選択された他のユーザの音声がユーザ端末で再生されるものの、空間におけるユーザの位置などは考慮されないため、十分な臨場感が達成されるとは言い難い。
即ち、例えばスポーツの試合や音楽ライブなどでは、ユーザが実空間のどこに位置するかによって、ユーザは視覚的又は聴覚的に異なる体験をする。例えば、スポーツの試合を観戦する場合には、同じチーム又は選手を応援するユーザが特定の場所に集まることで、より大きい感動や興奮を得ることができる。さらに、こうした点は、必ずしも実空間の存在が前提となる訳ではない。即ち、例えば仮想現実の世界でゲームを楽しむユーザについても、その世界でユーザがどこに位置するかによってユーザの体験は異なる場合が少なくない。従って、ネットワークを介してコンテンツを配信する場合にも、実空間を模した仮想空間、又は仮想現実上の空間でのユーザの位置に応じてコンテンツを加工することで、ユーザにより体験される臨場感をさらに高めることができるものと考えられる。
そこで、本発明は、ユーザにより選択された仮想空間内での位置に応じてコンテンツを加工することにより、ユーザにより体験される臨場感を向上させることのできる、新規かつ改良された情報処理装置、コンテンツ処理方法及びプログラムを提供しようとするものである。
本発明のある実施形態によれば、仮想空間内でユーザが位置することのできる複数のユーザ位置を表示する画面であって、当該複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させる画面制御部と、上記位置選択画面を用いて選択された上記ユーザ位置ごとに、各ユーザ位置を選択したユーザを一覧化したユーザ一覧を保持するデータ保持部と、上記データ保持部により保持されている上記ユーザ一覧により表されるユーザ間の位置関係に応じて、上記ユーザ端末へ配信するコンテンツを加工するコンテンツ加工部と、を備える情報処理装置が提供される。
かかる構成によれば、位置選択画面を用いてユーザが仮想空間内のいずれかのユーザ位置を選択すると、画面制御部によりユーザ位置の選択結果が取得され、データ保持部に保持されているユーザ一覧に反映される。そして、コンテンツ加工部により、ユーザ一覧におけるユーザ間の位置関係に応じて、ユーザ端末へ配信すべきコンテンツが加工される。それにより、ユーザが主体的に選択した仮想空間内の位置関係に応じて加工されたコンテンツを、各ユーザは視聴することができる。
また、上記コンテンツ加工部は、ユーザ間の上記位置関係について予め定義される仮想空間内での距離に応じて、上記ユーザ端末へ配信するコンテンツを加工してもよい。
また、ユーザ間の上記位置関係には、異なるユーザ位置の間の位置関係と1つのユーザ位置における上記ユーザ一覧内でのユーザ間の位置関係とが含まれてもよい。
また、上記コンテンツ加工部は、上記仮想空間内での距離に応じて決定される重みを用いて、1つのユーザのユーザ端末へ配信するコンテンツに他のユーザのユーザ端末から受信されるコンテンツを合成してもよい。
また、上記重みは、上記仮想空間内での距離が近いほど大きい値をとってもよい。
また、上記情報処理装置は、複数のユーザ端末へ共通的に配信される第1のコンテンツと、第1のユーザと同じユーザ位置に位置している第2のユーザのユーザ端末から受信される第2のコンテンツとを、上記第1のユーザのユーザ端末へ配信するコンテンツ配信部、をさらに備えてもよい。
また、上記第2のユーザは、上記ユーザ一覧内において上記第1のユーザと隣り合うユーザであってもよい。
また、上記コンテンツ加工部は、上記第1のユーザのユーザ位置とは異なるユーザ位置に位置している第3のユーザのユーザ端末から受信される第3のコンテンツを、上記第1のコンテンツに合成してもよい。
また、上記位置選択画面は、さらに、各ユーザ位置に位置しているユーザの一覧を表示する画面であって、表示されたいずれかのユーザを選択することにより上記複数のユーザ位置から1つのユーザ位置をユーザが選択可能な画面であってもよい。
また、上記データ保持部は、上記位置選択画面において選択されたユーザと当該ユーザを選択したユーザとを、上記ユーザ一覧内において隣り合わせて配置してもよい。
また、上記コンテンツ加工部は、1つのユーザのユーザ端末へ配信するコンテンツに、当該ユーザと予め関連付けられたフレンドユーザのユーザ端末から受信されるコンテンツを合成してもよい。
また、本発明の別の実施形態によれば、仮想空間内でユーザが位置することのできる複数のユーザ位置ごとに各ユーザ位置を選択したユーザを一覧化しているユーザ一覧を記録媒体に記憶している情報処理装置を用いて、上記複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させるステップと、上記位置選択画面を介して取得されるユーザ位置の選択結果に応じて上記ユーザ一覧を更新するステップと、上記ユーザ一覧により表されるユーザ間の位置関係に応じて、上記ユーザ端末へ配信するコンテンツを加工するステップと、を含むコンテンツ処理方法が提供される。
また、本発明の別の実施形態によれば、情報処理装置を制御するコンピュータを、仮想空間内でユーザが位置することのできる複数のユーザ位置を表示する画面であって、当該複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させる画面制御部と、上記位置選択画面を用いて選択された上記ユーザ位置ごとに、各ユーザ位置を選択したユーザを一覧化したユーザ一覧を保持するデータ保持部と、上記データ保持部により保持されている上記ユーザ一覧により表されるユーザ間の位置関係に応じて、上記ユーザ端末へ配信するコンテンツを加工するコンテンツ加工部と、として機能させるためのプログラムが提供される。
以上説明したように、本発明に係る情報処理装置、コンテンツ処理方法及びプログラムによれば、ユーザにより体験される臨場感を向上させることができる。
一実施形態に係るコンテンツ処理システムの概要を示す模式図である。 複数のユーザ位置が設けられた仮想空間の一例を示す模式図である。 第1の実施形態に係る情報処理装置の構成を示すブロック図である。 第1の実施形態に係るユーザデータのデータ例を示す説明図である。 第1の実施形態に係るユーザ位置データのデータ例を示す説明図である。 ユーザが新たにログインした際のユーザ位置データの更新の様子を示す説明図である。 第1の実施形態においてユーザ端末へ配信されるコンテンツの一例を示す説明図である。 コンテンツの合成に用いられる重みの一例を示す説明図である。 第1の実施形態においてユーザ端末へ配信されるコンテンツの他の例を示す説明図である。 第1の実施形態に係るユーザ端末の構成を示すブロック図である。 第1の実施形態に係るログインからコンテンツ配信までの処理の流れを示すフローチャートである。 第1の実施形態に係るコンテンツ加工処理の流れを示すフローチャートである。 一変形例に係るユーザ位置データのデータ例を示す説明図である。 図13の例においてユーザが新たにログインした際のユーザ位置データの更新の様子を示す説明図である。 コンテンツの合成に用いられる重みの他の例を示す説明図である。 第2の実施形態に係る情報処理装置の構成を示すブロック図である。 第2の実施形態においてユーザ端末へ配信されるコンテンツについて説明するための説明図である。 第2の実施形態に係るユーザ端末の構成を示すブロック図である。 第2の実施形態に係るユーザ端末の各構成要素の物理的な配置の一例を示すブロック図である。 第2の実施形態に係るユーザ端末において表示されるユーザ映像の一例を示す説明図である。 汎用コンピュータの構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.第1の実施形態
1−1.システムの概要
1−2.コンテンツサーバの構成
1−3.ユーザ端末の構成
1−4.処理の流れ
1−5.変形例
2.第2の実施形態
2−1.コンテンツサーバの構成
2−2.ユーザ端末の構成
3.まとめ
<1.第1の実施形態>
[1−1.システムの全体像]
まず、図1及び図2を用いて、本発明の第1の実施形態に係るコンテンツ処理システムの概要について説明する。
図1は、本発明の第1の実施形態に係るコンテンツ処理システム1の概要を示す模式図である。図1を参照すると、コンテンツ処理システム1は、コンテンツサーバ100、撮影装置102、並びに複数のユーザ端末150a及び150bを含む。コンテンツサーバ100は、ユーザ端末150a及び150bとそれぞれネットワーク104を介して接続されている。また、コンテンツサーバ100は、撮影装置102と接続されている。
コンテンツサーバ100は、各ユーザ端末150a及び150bに対して、コンテンツ配信サービスを提供する。コンテンツサーバ100から配信されるコンテンツは、例えば、撮影装置102を用いて撮影される動画又は音声であってもよい。その代わりに、コンテンツサーバ100から配信されるコンテンツは、例えば、ゲーム空間などの仮想現実における映像などであってもよい。例えば、コンテンツサーバ100は、まず、ユーザ端末150a又は150bからサービスへの接続要求(ログイン要求)を受け付ける。そして、コンテンツサーバ100は、例えば、認証手続を経てサービスに接続したユーザ端末150a又は150bへ上記所定のコンテンツを配信する。このとき、コンテンツサーバ100は、後に詳しく説明するように、ユーザにより選択された仮想空間内での位置に応じてコンテンツを加工する。なお、コンテンツサーバ100は、典型的には、PC(Personal Computer)又はワークステーションなどの汎用的な情報処理装置、又は家電機器若しくはゲーム機器などの特定の目的を有する情報処理装置として実現される。
撮影装置102は、例えば、動画を撮影可能なビデオカメラなどであってよい。撮影装置102は、所定の被写体を撮影して得た動画を、コンテンツサーバ100へ出力する。なお、撮影装置102は、例えば、仮想空間内でユーザが位置することのできるユーザ位置の数に応じて複数設けられてもよい。また、例えば、仮想空間がゲームなどの仮想現実の世界に対応する場合には、撮影装置102は、仮想現実の世界の中で実体として存在していなくてもよい。
ネットワーク104は、インターネット、LAN(Local Area Network)又は専用線などの任意の形態のネットワークであってよい。ネットワーク104が有線であるか無線であるかは問わない。
ユーザ端末150は、コンテンツサーバ100からのコンテンツ配信サービスの提供を受けるユーザが使用する端末装置である。ここでは2つのユーザ端末150a及び150bを示しているが、コンテンツサーバ100と接続可能なユーザ端末150の数はかかる例に限定されない。なお、本明細書において、特に互いに区別する必要がない場合には、例えばユーザ端末150a及び150bなどの同種の構成要素の符号のアルファベットを省略する場合がある。例えば、上記ユーザ端末150a及び150bは、ユーザ端末150と総称される。
ユーザ端末150は、例えばユーザによる操作に応じてコンテンツサーバ100のコンテンツ配信サービスに接続(ログイン)する。そして、ユーザ端末150は、それぞれ、コンテンツサーバ100から配信されるコンテンツを受信する。さらに、ユーザ端末150には、それぞれ、例えばビデオカメラとマイクロフォンとが接続される。そして、ユーザ端末150は、コンテンツを視聴するユーザを撮影した映像と音声とをネットワーク104を介してコンテンツサーバ100へ送信する。ユーザ端末150は、例えば、PCやPDA(Personal Digital Assistants)、携帯電話、ゲーム機器、又は家電機器などの端末装置として実現される。
図2は、本実施形態においてユーザにより選択可能な複数のユーザ位置が設けられた仮想空間の一例を示す模式図である。なお、ここでは、コンテンツサーバ100がコンテンツ配信サービスとして野球の試合の映像及び音声を配信する場合を前提としている。
図2を参照すると、野球の試合が行われるスタジアムの形状を模した仮想空間10が示されている。仮想空間10において、野球のフィールド部分の周囲には、観客が位置することのできる複数のユーザ位置14A、14B、14C、14D及び14Eが設けられている。このうち、ユーザ位置14Aは、実空間におけるスタジアムのレフトスタンドに相当する位置である。ユーザ位置14Bは、実空間におけるスタジアムのライトスタンドに相当する位置である。ユーザ位置14Cは、実空間におけるスタジアムの一塁側内野スタンドに相当する位置である。ユーザ位置14Dは、実空間におけるスタジアムのバックネット裏スタンドに相当する位置である。ユーザ位置14Eは、実空間におけるスタジアムの三塁側内野スタンドに相当する位置である。そして、各ユーザ位置14A〜14Eには、それぞれ撮影装置102A〜102Eが関連付けられている。なお、撮影装置102A〜102Eの実体は、実際には仮想空間10ではなく実空間のスタジアムの各ユーザ位置に相当する位置に設置される。
コンテンツサーバ100は、例えば、このような仮想空間10の複数のユーザ位置のうちのいずれかを選択したユーザのユーザ端末150へ、選択されたユーザ位置と関連付けられた撮影装置102から出力される映像及び音声を加工した上で配信する。
なお、例えば、コンテンツサーバ100がサッカーの試合の映像を配信する場合には、仮想空間10の代わりに、観客席の位置に複数のユーザ位置を有するサッカースタジアムの形状を模した仮想空間が使用され得る。また、例えば、コンテンツサーバ100がゲームの仮想現実の世界の映像を配信する場合には、仮想現実の世界における複数の視点にそれぞれユーザ位置が関連付けられた仮想空間が使用され得る。
次に、ユーザ位置に応じてコンテンツを加工するコンテンツサーバ100のより具体的な構成について説明する。
[1−2.コンテンツサーバの構成]
図3は、コンテンツサーバ100の構成の一例を示すブロック図である。図3を参照すると、コンテンツサーバ100は、通信部110、画面制御部118、データ保持部126、コンテンツ加工部134、及びコンテンツ配信部142を備える。
(通信部)
通信部110は、コンテンツサーバ100とユーザ端末150との間の通信を仲介する。即ち、通信部110は、例えばユーザ端末150からログイン要求信号又はユーザ位置の選択信号を含む通信パケットを受信すると、当該通信パケットに含まれる信号を画面制御部118へ出力する。また、通信部110は、例えば画面制御部118から位置選択画面をユーザ端末150へ表示させるための信号が入力されると、当該信号を含む通信パケットを生成してユーザ端末150へ送信する。さらに、コンテンツサーバ100とユーザ端末150との間のコンテンツの送受信も、通信部110を介して行われる。
(画面制御部)
画面制御部118は、コンテンツ配信サービスに関連してユーザ端末150に表示される画面インタフェースを制御する。より具体的には、画面制御部118は、例えば上述した仮想空間10における複数のユーザ位置14A〜14Eから1つのユーザ位置14をユーザが選択可能な位置選択画面を生成し、ユーザ端末150へ表示させる。位置選択画面とは、例えば、図2のように仮想空間10の各ユーザ位置14A〜14Eを俯瞰し、ユーザがいずれか1つのユーザ位置14をポインティングして選択可能な画面などであってよい。位置選択画面は、例えば、ユーザ端末150とコンテンツサーバ100との間でログイン処理が成功した後、画面制御部118により生成され出力される。位置選択画面には、例えば、複数のユーザ位置14A〜14Eに加えて、各ユーザ位置14A〜14Eに現在位置している(ログインしている)ユーザの識別子又はアイコンなどが表示されてもよい。その場合には、いずれか1つのユーザ位置を直接的に選択する代わりに、表示されたいずれかのユーザの識別子又はアイコンなどを選択することにより、そのユーザが位置しているユーザ位置を選択可能であってもよい。画面制御部118は、例えば、位置選択画面を介していずれかのユーザ位置14が選択されると、選択されたユーザ位置14を特定するユーザ位置IDと当該ユーザ位置14を選択したユーザを特定するユーザIDとの組を、データ保持部126へ出力する。
(データ保持部)
データ保持部126は、例えばハードディスク又は半導体メモリなどの記録媒体を用いて、コンテンツサーバ100によるコンテンツ配信サービスに使用されるユーザデータ128及びユーザ位置データ130を主に記憶する。
図4は、本実施形態においてデータ保持部126に記憶されるユーザデータ128のデータ例を示す説明図である。図4を参照すると、ユーザデータ128は、「ユーザID」、「ステータス」及び「フレンドユーザ」の3つのデータ項目を有する。
「ユーザID」は、コンテンツ配信サービスを利用するユーザを一意に特定するための識別子である。図4の例では、ユーザIDが「U11」、「U12」又は「U13」である3人のユーザが示されている。
「ステータス」は、各ユーザが現在コンテンツ配信サービスに接続しているか否かを示す情報である。図4の例では、ユーザU11及びU12は、現在コンテンツ配信サービスに接続している(即ちログイン中である)。一方、ユーザU13は、現在コンテンツ配信サービスに接続していない(即ちログアウト中である)。このようなステータスは、例えば、所定のログイン画面を介してユーザがコンテンツ配信サービスにログインした際、又はユーザがログアウトした際に、画面制御部118により更新される。
「フレンドユーザ」は、例えば各ユーザがコンテンツの視聴を共に楽しみたい他のユーザを予め登録しておくための追加的な項目である。図4の例では、ユーザU11のフレンドユーザはユーザU13である。また、ユーザU12のフレンドユーザはユーザU15及びU16である。また、ユーザU13のフレンドユーザは、ユーザU11である。なお、本実施形態において、必ずしもユーザデータ128にフレンドユーザのデータが登録されていなくてもよい。
図5は、本実施形態においてデータ保持部126に記憶されるユーザ位置データ130のデータ例を示す説明図である。図5を参照すると、ユーザ位置データ130は、「ユーザ位置ID」及び「対向位置」、並びに複数のユーザのユーザIDの配列である「ユーザ一覧」の3つのデータ項目を有する。
「ユーザ位置ID」は、例えば図2に示した仮想空間10においてユーザが選択可能な各ユーザ位置14を一意に特定するための識別子である。図5の例では、ユーザ位置IDが「14A」、「14B」又は「14C」である3つのユーザ位置が示されている。
「対向位置」は、各ユーザ位置14から見て仮想空間10において撮影の対象であるフィールドの反対側に位置するユーザ位置14のユーザ位置IDを示す項目である。図5の例では、ユーザ位置14Aの対向位置はユーザ位置14Cである。また、ユーザ位置14Bの対向位置はユーザ位置14Eである。また、ユーザ位置14Cの対向位置はユーザ位置14Aである。なお、必ずしも全てのユーザ位置14について対向位置となるユーザ位置14が設定されなくてもよい。
「ユーザ一覧」は、ユーザ位置ごとのユーザIDの配列であって、各ユーザ位置を選択した現在接続中のユーザのユーザIDを一覧化している。図5の例では、ユーザ位置14Aのユーザ一覧には、ユーザU11及びU13が含まれる。また、ユーザ位置14Bのユーザ一覧には、ユーザU12及びU14が含まれる。即ち、この時点でコンテンツ配信サービスにユーザU11、U12、U13及びU14がログインしており、ユーザU11及びU13はユーザ位置14Aを選択し、ユーザU12及びU14はユーザ位置14Bを選択したことが分かる。一方、ユーザ位置14Cにはこの時点ではどのユーザも位置していない。このようなユーザ一覧は、例えば、上述した位置選択画面を介してユーザがいずれかのユーザ位置14を選択した際、又はユーザが選択を解除(若しくはログアウト)した際に、画面制御部118により更新される。
図6は、コンテンツサーバ100のコンテンツ配信サービスにユーザが新たにログインした際に、データ保持部126に保持されているユーザ位置データ130が更新される様子を示す説明図である。
図6を参照すると、ユーザ位置データ130a、130b及び130cの3つのデータ例が示されている。このうち、まず、ユーザ位置データ130aにおいて、ユーザ位置14Bのユーザ一覧にユーザU12及びU14が含まれている。ここで、例えば新たなユーザであるユーザU15が位置選択画面上でユーザ位置14Bを選択したとする。その場合、画面制御部118は、例えば、データ保持部126に保持されているユーザ位置データ130のユーザ位置14Bのユーザ一覧の末尾に、ユーザU15を追加する(ユーザ位置データ130b参照)。一方、例えば新たなユーザであるユーザU15が位置選択画面上でユーザ位置14Bに位置しているユーザU12を選択したとする。そうすると、画面制御部118は、例えば、データ保持部126に保持されているユーザ位置データ130のユーザ位置14Bのユーザ一覧において、選択されたユーザU12の隣りにユーザU15を挿入する(ユーザ位置データ130c参照)。それにより、例えば、ユーザU15は、あたかも実空間上で共に観戦をしたいユーザU12の隣りに着席するかのように、仮想空間10内でユーザU12の隣りに位置することができる。
このようなユーザ位置データ130の構成により、例えば、仮想空間10内で、同じチーム又は選手を応援するユーザが1つのユーザ位置に集合し、及び共に観戦をしたいユーザ同士が1つのユーザ位置の中で近くに位置するといった状態が形成される。
(コンテンツ加工部)
コンテンツ加工部134は、例えば、ユーザへのコンテンツの配信に際し、配信先のユーザが位置しているユーザ位置14に関連付けられた撮影装置102からの映像と音声とを含む動画を受信する。撮影装置102から受信される動画とは、例えば、実空間のスタジアムにおいて行われる野球の試合を撮影した動画などであってよい。また、コンテンツ加工部134は、例えば、各ユーザ端末150において撮影されたユーザの映像と音声とを通信部110を介して受信する。そして、コンテンツ加工部134は、上述したユーザ位置データ130から2以上のユーザのユーザ位置を取得し、取得した当該ユーザ位置に応じてユーザ端末150へ配信するコンテンツを加工する。以下、本明細書では、上記撮影装置102から受信される映像をメイン映像、各ユーザ端末150から受信される映像をユーザ映像という。同様に、上記撮影装置102から受信される音声をメイン音声、各ユーザ端末150から受信される音声をユーザ音声という。
例えば、コンテンツ加工部134は、2以上のユーザのユーザ位置の間の仮想空間10内での距離に応じて、ユーザ端末150へ配信するコンテンツを加工してもよい。より具体的には、例えば、コンテンツ加工部134は、ユーザ端末150へ配信する映像の各フレームにおいて、メイン映像の各フレームと、ユーザ位置の間の距離に応じてサイズを変化させたユーザ映像の各フレームとを合成してもよい。
図7は、本実施形態においてコンテンツサーバ100からユーザ端末150へ配信される映像に含まれるフレームの一例としてのフレーム136aを示す説明図である。図7を参照すると、フレーム136aには、メイン映像表示領域137、並びにユーザ映像表示領域138a、138b及び139が含まれる。
ここで、フレーム136aは、ユーザU15が使用しているユーザ端末150へ配信される映像のフレームであるとする。また、図7の時点で、仮想空間10のユーザ位置14Bのユーザ一覧において、図6のユーザ位置データ130cに示したように、ユーザU12、U15及びU14がこの順序で含まれているものとする。
図7において、ユーザ映像表示領域138aには、ユーザU12が使用しているユーザ端末150から受信されたユーザ映像が表示されている。また、ユーザ映像表示領域138bには、ユーザU14が使用しているユーザ端末150から受信されたユーザ映像が表示されている。一方、ユーザ映像表示領域139には、ユーザU15が位置しているユーザ位置14Bの対抗位置であるユーザ一位置14Eに位置しているユーザが使用しているユーザ端末150から受信されたユーザ映像が表示されている。ここで着目すべきは、これら3つのユーザ映像表示領域138a、138b及び139のサイズである。各ユーザ映像表示領域のサイズ(例えば一辺の画素数など)は、例えば、ユーザ位置データ130のユーザ一覧により表されるユーザ間の位置関係ごとに予め定義される仮想空間10内での距離に応じた重みに比例するように決定され得る。
図8は、ユーザ間の仮想空間10内での距離、及び当該距離に応じた重みの一例を示す説明図である。図8を参照すると、ユーザ間の仮想空間10内での距離が、ユーザ一覧により表される位置関係に応じて定義されている。例えば、2人のユーザのユーザ位置が異なる場合には、ユーザ位置の間の距離は0.8、重みは0.2と定められている。一方、2人のユーザが同一のユーザ位置に位置している場合、ユーザ間の距離は、0.1×N(Nはユーザ一覧内で隣り合う場合に1)と定められている。この場合、例えば、図6のユーザ位置データ130cにおけるユーザU12とユーザU15との間の距離は0.1×1=0.1である。また、ユーザU12とユーザU14との間の距離は0.1×2=0.2である。そして、同一のユーザ位置に位置しているユーザ間の重みは、1−0.1×Nとして計算される。即ち、例えば、図6のユーザ位置データ130cにおけるユーザU12とユーザU15との間の重みは1−0.1×1=0.9である。また、ユーザU12とユーザU14との間の重みは1−0.1×2=0.8である。なお、図8の例に従えば、同一のユーザ位置においてユーザ数が10を超えると重みが負の値となる。そこで、例えば、ユーザ数が一定の値を超えた場合には重みの値を図8の例によらず特定の下限値とする、といった条件が追加されてもよい。
このように予め定められた重みに応じて、コンテンツ加工部134は、ユーザ端末150へ配信するコンテンツの映像の各フレームにメイン映像のフレームとユーザ映像のフレームとを合成する。
また、コンテンツ加工部134は、例えば、図8を用いて説明した重みの値を用いて、ユーザ端末150へ配信するコンテンツの音声を、次式に従って合成してもよい。
Figure 2010232860
(1)
ここで、式(1)において、Adistはユーザ端末150へ配信されるコンテンツの音声を表す。また、Amainはメイン音声、Auser_iはユーザiが使用するユーザ端末150からのユーザ音声をそれぞれ表す。また、wiは、例えば図8の対応表に従って決定される、コンテンツの配信先のユーザとユーザiとの間の距離に応じた重みの値を表す。
このように、仮想空間10内でのユーザ間の距離に応じて、メイン映像に合成するユーザ映像のサイズ、又はメイン音声に合成するユーザ音声の音量などを変化させることで、ユーザは近くに位置する他のユーザの様子をより強く認識することができる。また、特に同一のユーザ位置に位置するユーザのユーザ映像又はユーザ音声の重みを大きくすることで、ユーザは、例えば同じチーム又は選手を応援するユーザの映像又は音声をより身近に感じながら、メイン映像又はメイン音声を共有することができる。
なお、コンテンツ加工部134は、例えば図9に示すように、コンテンツの配信先のユーザとの間でフレンドユーザの関係にあるユーザのユーザ映像及びユーザ音声のみをメイン映像及びメイン音声に合成してもよい。
図9は、本実施形態においてコンテンツサーバ100からユーザ端末150へ配信される映像に含まれるフレームの他の例としてのフレーム136bを示す説明図である。図9を参照すると、フレーム136bには、メイン映像表示領域137及びユーザ映像表示領域138aが含まれる。即ち、この場合、図7のフレーム136aと異なり、フレーム136bにおいてユーザU15とフレンドユーザの関係にあるユーザU12のユーザ映像のみがメイン映像に合成されている。このようなフレンドユーザのユーザ映像のサイズも、例えば、コンテンツの配信先のユーザとフレンドユーザとの間の仮想空間10内での距離に応じた重みに比例するように決定され得る。
次式は、ユーザ端末150へ配信するコンテンツの音声として、メイン音声にフレンドユーザのユーザ音声のみを合成する場合の合成式を表す。
Figure 2010232860
(2)
この場合、合成されるユーザ音声の範囲が、コンテンツの配信先のユーザとの間でフレンドユーザの関係にあるユーザに限定される(i∈Friend(フレンドユーザ))。
(コンテンツ配信部)
コンテンツ配信部142は、例えば、コンテンツ加工部134による上述した加工処理を経て出力される映像及び音声を含むコンテンツを、通信部110を介してユーザ端末150へ配信する。
次に、ここまでに説明したコンテンツサーバ100からのコンテンツの配信を受けるユーザ端末150の具体的な構成について説明する。
[1−3.ユーザ端末の構成]
図10は、ユーザ端末150の構成の一例を示すブロック図である。図10を参照すると、ユーザ端末150は、通信部160、制御部168、音声出力部176、音声入力部180、表示部184、及び撮影部188を備える。
通信部160は、ユーザ端末150とコンテンツサーバ100との間の通信を仲介する。即ち、通信部160は、例えば表示部184により表示された画面上でのユーザの操作に応じて、例えばログイン要求信号又はユーザ位置の選択信号を含む通信パケットをコンテンツサーバ100へ送信する。また、通信部160は、例えば、コンテンツサーバ100から映像又は音声などのコンテンツデータを含む通信パケットを受信すると、当該コンテンツデータを表示部184又は音声出力部176へ出力し、コンテンツを再生させる。
制御部168は、通信部160を介した通信、音声出力部176及び表示部184によるコンテンツの再生、音声入力部180によるユーザ音声の入力、及び撮影部188によるユーザ映像の撮影など、ユーザ端末150の機能全般を制御する。例えば、制御部168は、MPEG(Moving Picture Experts Group)−4などの任意のフォーマットで受信されるコンテンツデータから映像チャネルと音声チャネルとを分離し、表示部184及び音声出力部176へそれぞれ分配する機能を有していてもよい。
音声出力部176は、例えば、任意のスピーカを用いて制御部168から入力される音声データを再生し、音声を出力する。音声入力部180は、例えば、任意のマイクロフォンを用いてユーザにより発せられた音声などを含むユーザ音声を取得し、音声データを生成して制御部168へ出力する。表示部184は、例えば、任意の表示装置を用いて制御部168から入力される映像データを再生し、映像を表示する。撮影部188は、例えば、任意の撮影装置を用いて被写体としてのユーザを撮影し、映像データを生成して制御部168へ出力する。音声入力部180から制御部168へ入力される音声データ及び撮影部188から制御部168へ入力される映像データは、通信部160を介してコンテンツサーバ100へ送信される。
次に、このようなユーザ端末150とコンテンツサーバ100との間の処理の流れを、図11及び図12を用いて説明する。
[1−4.処理の流れ]
図11は、本実施形態に係るユーザのログインからコンテンツの配信までの処理の流れを示すフローチャートである。
図11を参照すると、まず、コンテンツサーバ100の通信部110は、ユーザ端末150において所定のログイン画面を用いて入力されたユーザIDと(必要に応じて入力された)パスワードとを、ユーザ端末150から受信する(S102)。そうすると、コンテンツサーバ100のデータ保持部126に保持されているユーザデータ128のステータスが更新され、ユーザがコンテンツ配信サービスにログインしている状態となる。
次に、コンテンツサーバ100の画面制御部118からユーザ端末150へ、位置選択画面が送信される(S104)。かかる位置選択画面では、例えば仮想空間10においてユーザが位置することのできる複数のユーザ位置14が表示され、ユーザはいずれかのユーザ位置14を選択することが可能である。
次に、コンテンツサーバ100の通信部110は、ユーザ端末150において選択されたユーザ位置14を特定するユーザ位置ID、又は選択されたユーザを特定するユーザIDを、ユーザ端末150から受信する(S106)。そうすると、例えば図6を用いて説明した手法に従い、コンテンツサーバ100のデータ保持部126に保持されているユーザ位置データ130において、選択されたユーザ位置14のユーザ一覧に新たなユーザのユーザIDが追加される(S108)。
その後、コンテンツ加工部134により、例えば、撮影装置102から受信されたメイン映像又はメイン音声と各ユーザ端末150から受信されたユーザ映像又はユーザ音声とを用いて、ユーザ端末150へ配信されるコンテンツが加工される(S110)。ここでのコンテンツ加工処理については、後にさらに説明する。そして、コンテンツ加工部134により加工された上記コンテンツが、コンテンツ配信部142によりユーザ端末150へ配信される(S112)。
図12は、本実施形態に係るコンテンツ加工部134によるコンテンツ加工処理のより具体的な処理の流れを示すフローチャートである。
図12を参照すると、まず、コンテンツ加工部134は、データ保持部126に保持されているユーザ位置データ130から各ユーザ位置のユーザ一覧を取得する(S202)。
次に、コンテンツ加工部134は、例えば撮影装置102からメイン映像及びメイン音声を含むコンテンツを順次取得する(S204)。
次に、コンテンツ加工部134は、ステップS202にて取得したユーザ一覧において、コンテンツの配信先のユーザの左隣りに他のユーザが存在するか否かを判定する(S206)。ここで、コンテンツの配信先のユーザの左隣りに他のユーザが存在していれば、コンテンツ加工部134は、当該左隣りのユーザのユーザ端末150からユーザ映像及びユーザ音声を含むコンテンツを取得する(S208)。一方、コンテンツの配信先のユーザの左隣りに他のユーザが存在していなければ、上記ステップS208はスキップされる。
次に、コンテンツ加工部134は、ステップS202にて取得したユーザ一覧において、コンテンツの配信先のユーザの右隣りに他のユーザが存在するか否かを判定する(S210)。ここで、コンテンツの配信先のユーザの右隣りに他のユーザが存在していれば、コンテンツ加工部134は、当該右隣りのユーザのユーザ端末150からユーザ映像及びユーザ音声を含むコンテンツを取得する(S212)。一方、コンテンツの配信先のユーザの右隣りに他のユーザが存在していなければ、上記ステップS212はスキップされる。
次に、コンテンツ加工部134は、ステップS202にて取得したユーザ一覧において、コンテンツの配信先のユーザが位置しているユーザ位置の対向位置に他のユーザが存在するか否かを判定する(S214)。ここで、対向位置に他のユーザが存在していれば、コンテンツ加工部134は、当該対向位置に位置しているユーザのユーザ端末150からユーザ映像及びユーザ音声を含むコンテンツを取得する(S216)。一方、対向位置に他のユーザが存在していなければ、上記ステップS216はスキップされる。
次に、コンテンツ加工部134は、ステップS208、S212及びS216においてユーザ映像及びユーザ音声を取得したユーザごとに、コンテンツの配信先のユーザとの間の距離に応じた重みを計算する(S218)。
そして、コンテンツ加工部134は、算出した重みに応じて各コンテンツを合成することにより、ユーザ端末150へ配信すべきコンテンツを生成する(S220)。より具体的には、例えば、コンテンツ加工部134は、メイン映像と左隣り、右隣り、及び対向位置のユーザのユーザ映像とを合成し、図7に一例として示したようなフレーム136aを順次生成する。また、例えば、コンテンツ加工部134は、上述した式(1)に従い、メイン音声と各ユーザ音声とを合成する。
そして、生成されたコンテンツがコンテンツ加工部134からコンテンツ配信部142へ出力されると、本フローチャートは終了する。
なお、このような一連のコンテンツ加工処理は、ステップS202を除き、コンテンツの配信先となるユーザごとに、例えば映像の各フレームについて繰返し行われ得る。一方、上記ステップS202は、ユーザ一覧の内容に変更が生じない限り、コンテンツ加工部134において一度だけ行われればよい。
ここまで、図1から図12を用いて、本発明の第1の実施形態について具体的に説明した。本実施形態によれば、位置選択画面を用いて選択された仮想空間10内でのユーザ位置に応じて、ユーザ端末150へ配信されるコンテンツが加工される。即ち、本実施形態に係るコンテンツ配信サービスを利用するユーザは、仮想空間10内で位置することのできる複数のユーザ位置の中から、自らが観戦又は鑑賞などに参加することを望むユーザ位置を選択することができる。そして、コンテンツサーバ100からユーザ端末150へ、主となるコンテンツに加えて、選択したユーザ位置に応じて重み付けされた他のユーザの映像及び音声が配信される。このとき、同一のユーザ位置に位置している他のユーザ、中でもユーザ一覧において隣り合う他のユーザのユーザ映像及びユーザ音声の重みは大きく設定され得る。それにより、例えば、コンテンツを楽しむユーザ間の一体感が高められる。その結果、ユーザは、あたかも実空間に自らが位置しているかのような臨場感を体験することができる。
なお、仮想空間内でのユーザ位置ごとに保持されるユーザ一覧の形式は、図5を用いて説明した形式に限定されない。そこで、次にユーザ一覧の形式の一変形例について説明する。
[1−5.変形例]
図13は、一変形例としてデータ保持部126に記憶されるユーザ位置データ131のデータ例を示す説明図である。図13を参照すると、ユーザ位置データ131は、「ユーザ位置ID」、「対向位置」、「座席ID」、及び「ユーザ一覧」の4つのデータ項目を有する。
図5に示したユーザ位置データ130と同様、「ユーザ位置ID」は、ユーザが選択可能な各ユーザ位置14を一意に特定するための識別子である。「対向位置」は、各ユーザ位置14から見て仮想空間10において反対側に位置するユーザ位置14のユーザ位置IDを示す項目である。
「座席ID」は、同一の距離に複数のユーザを配置することを可能とするために設けられる項目である。座席IDは、1つのユーザ位置について複数存在し得る。図13の例では、例えば、ユーザ位置14Aについて、「SA01」と「SA02」の2つの座席IDが存在している。また、ユーザ位置14Bについて、「SB01」と「SB02」の2つの座席IDが存在している。
「ユーザ一覧」は、ユーザ位置ごとのユーザIDの配列である。但し、本変形例では、「ユーザ一覧」において、さらに1つのユーザ位置14につき複数存在し得る「座席ID」ごとに現在接続中のユーザのユーザIDが保持される。図13の例では、ユーザ位置14Aのユーザ一覧の中で、座席SA01にユーザU11、座席SA02にユーザU13が位置している。また、ユーザ位置14Bのユーザ一覧の中で、座席SB01にユーザU12及びU14、座席SB02にユーザU17が位置している。このようなユーザ一覧は、例えば、位置選択画面を介してユーザがいずれかのユーザ位置若しくはユーザを選択した際、又はユーザが選択を解除(若しくはログアウト)した際に、画面制御部118により更新される。
図14は、コンテンツサーバ100のコンテンツ配信サービスにユーザが新たにログインした際に、本変形例に係るユーザ位置データ131が更新される様子を示す説明図である。
図14を参照すると、ユーザ位置データ131a、131b及び131cの3つのデータ例が示されている。このうち、まず、ユーザ位置データ131aにおいて、ユーザ位置14Bのユーザ一覧の座席SB01にユーザU12及びU14が位置している。ここで、例えば新たなユーザであるユーザU15が位置選択画面上でユーザ位置14Bを選択したとする。その場合、画面制御部118は、例えば、ユーザ位置14Bのユーザ一覧に新たな座席ID「SB03」を追加し、座席SB03にユーザU15を追加する(ユーザ位置データ131b参照)。一方、例えば新たなユーザであるユーザU15が位置選択画面上でユーザ位置14Bに位置しているユーザU12を選択したとする。そうすると、画面制御部118は、例えば、ユーザ位置14Bのユーザ一覧の座席SB01において、ユーザU12の隣りにユーザU15を挿入する(ユーザ位置データ131c参照)。
図15は、本変形例に係るユーザ位置データ131に対応して予め定義され得る、ユーザ間の距離に応じた重みの一例を示す説明図である。図15を参照すると、図8の例と同様、ユーザ位置が異なる場合には、ユーザ位置の間の距離は0.8、重みは0.2と定められている。一方、2人のユーザが同一のユーザ位置に位置している場合、ユーザ間の距離は、座席が異なる場合には0.1×M(Mはユーザ一覧内で座席が隣り合う場合に1)と定められている。この場合、例えば、図15のユーザ位置データ131cにおけるユーザU12とユーザU17との間の距離は0.1×1=0.1である。そして、同一のユーザ位置に位置しているユーザ間の重みは、1−0.1×Mとして計算される。また、2人のユーザが同一のユーザ位置に位置している場合であって、座席も同一である場合には、ユーザ間の距離は0.0と定められている。即ち、図15のユーザ位置データ131cにおけるユーザU12とユーザU15との間の距離は0.0である。また、ユーザU12とユーザU15との間の重みは1.0である。
本変形例のように、ユーザ位置ごとの各ユーザ一覧において複数のユーザを同一の座席に位置させることで、例えば一緒にコンテンツを楽しみたい複数のユーザ間の距離を同一の値に設定し、その距離に応じた重みを用いてコンテンツを加工することができる。
<2.第2の実施形態>
上述した本発明の第1の実施形態では、ユーザによる観戦又は鑑賞などの対象となるメイン映像及びメイン音声に、各ユーザ端末150から受信されるユーザ映像及びユーザ音声がそれぞれ合成され、1つの映像及び1つの音声が生成される。このような実施形態は、ユーザ端末150において表示装置又は音声出力装置が1つずつのみ利用可能である場合に有効である。一方、例えば、ユーザ端末150において複数の表示装置が利用可能である場合には、メイン映像とユーザ映像とを別々のチャネルとして配信し、各映像を別々の表示装置に表示させることで、ユーザにより体験される臨場感をさらに高めることができる。そこで、本節では、メイン映像とユーザ映像とを別々のチャネルでコンテンツサーバからユーザ端末へ配信する本発明の第2の実施形態について説明する。
[2−1.コンテンツサーバの構成]
図16は、本実施形態に係るコンテンツサーバ200の構成の一例を示すブロック図である。図16を参照すると、コンテンツサーバ200は、通信部110、画面制御部118、データ保持部126、コンテンツ加工部234、及びコンテンツ配信部242を備える。
(コンテンツ加工部)
コンテンツ加工部234は、上述した第1の実施形態に係るコンテンツ加工部134と同様、ユーザへのコンテンツの配信に際し、配信先のユーザが位置しているユーザ位置14に関連付けられた撮影装置102からのメイン映像とメイン音声とを受信する。また、コンテンツ加工部234は、例えば、後述する各ユーザ端末250において撮影されたユーザ映像とユーザ音声とを通信部110を介して受信する。そして、コンテンツ加工部234は、データ保持部126に保持されているユーザ位置データ130に含まれるユーザ位置に応じて、ユーザ端末250へ配信するコンテンツを加工する。
ここで、本実施形態において、コンテンツ加工部234は、加工処理の結果として、複数の映像チャネルを含む複合的なコンテンツデータを生成する。図17は、本実施形態においてユーザ端末250へ配信されるコンテンツについて説明するための説明図である。
図17を参照すると、例えば同一のユーザ位置に位置する複数のユーザのユーザ端末250へ共通的に配信され得るメイン映像236、並びにユーザ映像238及び239が示されている。このうち、メイン映像236には、コンテンツ配信先のユーザのユーザ位置の対向位置に位置するユーザのユーザ映像241が、ユーザ間の距離に応じたサイズで合成されている。一方、ユーザ映像238は、例えば、ユーザ一覧においてコンテンツ配信先のユーザの左隣りに位置するユーザU22のユーザ映像である。また、ユーザ映像239は、例えば、ユーザ一覧においてコンテンツ配信先のユーザの右隣りに位置するユーザU22のユーザ映像である。コンテンツ加工部234は、例えば、このような3つの映像をそれぞれ表示する各映像チャネルを生成し、コンテンツ配信部242へ出力する。
さらに、コンテンツ加工部234は、例えば、上述した式(1)に従ってメイン音声とユーザ音声とを合成することにより生成した音声チャネルを、コンテンツ配信部242へ出力してもよい。その代わりに、コンテンツ加工部234は、例えば、図17に示した3つの映像チャネルと同様、メイン音声、左隣りのユーザの音声及び右隣りのユーザの音声をそれぞれ含む3つの音声チャネルを生成し、コンテンツ配信部242へ出力してもよい。
(コンテンツ配信部)
コンテンツ配信部242は、例えば、コンテンツ加工部234から出力される、上述した複数の映像チャネル及び音声チャネルを含み得る複合的なコンテンツを、通信部110を介してユーザ端末250へ配信する。
[2−2.ユーザ端末の構成]
図18は、本実施形態に係るユーザ端末250の構成の一例を示すブロック図である。図18を参照すると、ユーザ端末250は、通信部160、制御部268、音声出力部176、音声入力部180、中央表示部284、中央撮影部288、左表示部285、左撮影部289、右表示部286、及び右撮影部290を備える。
制御部268は、第1の実施形態に係るユーザ端末150の制御部168と同様、ユーザ端末250の機能全般を制御する。また、制御部268は、例えばMPEG−4などの任意のフォーマットで受信されるコンテンツデータから上述した複数の映像チャネルと音声チャネルとを分離する。そして、制御部268は、分離した各映像チャネルを対応する表示部284、285又は286へ分配し、音声チャネルを音声出力部176へ分配する。例えば、図17に示したメイン映像236は、中央表示部284へ分配される。また、図17に示したユーザ映像238及び239は、左表示部285及び右表示部286へそれぞれ分配される。
中央表示部284、左表示部285及び右表示部286は、ぞれぞれ、制御部268により分配された映像チャネルに含まれる映像を任意の表示装置を用いて再生する。中央撮影部288、左撮影部289及び右撮影部290は、それぞれ、任意の撮影装置を用いてユーザを撮影し、映像データを生成して制御部268へ出力する。
図19は、図18に示した本実施形態に係るユーザ端末150の各構成要素の物理的な配置の一例を示すブロック図である。
図19を参照すると、ユーザの正面に中央表示部284に相当する表示装置、及び中央撮影部288に相当する撮影装置が配置されている。また、ユーザの左側に左表示部285に相当する表示装置、及び左撮影部289に相当する撮影装置が配置されている。また、ユーザの右側に右表示部286に相当する表示装置、及び右撮影部290に相当する撮影装置が配置されている。図19では、図を明瞭にする観点から、ユーザ端末150の通信部160、制御部268、音声出力部176及び音声入力部180の物理的な配置は省略されている。なお、音声出力部176及び音声入力部180は、例えば、各表示部及び各撮影部と同様に、中央、左及び右の各位置に分かれて配置されてもよい。
図19のような各表示部及び各撮影部の物理的な配置を用いることにより、例えば、仮想空間10内で同一のユーザ位置に位置する複数のユーザが、メイン映像の方を向いて並んでコンテンツを視聴しているかのような臨場感が演出される。さらに、隣り合うユーザのユーザ端末250において図19のような物理的な配置が用いられれば、例えば、図20に示す映像効果も生じ得る。
図20は、本実施形態に係るユーザ端末250において表示されるユーザ映像の一例を示す説明図である。図20の右側には、ユーザU24のユーザ端末250において撮影されたユーザ映像239が示されている。かかるユーザ映像239は、例えば、図20の左側のユーザ位置データ130dにおいてユーザ位置14Bのユーザ一覧に含まれているユーザU25のユーザ端末250の右表示部286に表示される映像である。ユーザ位置データ130dを参照すると、ユーザ位置14Bのユーザ一覧において、ユーザU25の右隣りにユーザU24が位置している。さらに、ユーザU24の右隣りにはユーザU28が位置している。ここで、隣り合うユーザU25、U24及びU28のユーザ端末250において図19のような物理的な配置が用いられているとする。そうすると、ユーザU28のユーザ端末250の左撮影部289により撮影された映像がユーザU24のユーザ端末250の右表示部286に表示される。そして、当該ユーザU24のユーザ端末250の右表示部286に表示された映像がユーザU24のユーザ端末250の左撮影部289により撮影され、ユーザU25の右表示部286に表示される。その結果、図20に示したユーザU25のユーザ端末250の右表示部286に表示されるユーザ映像239には、ユーザU24に加えてユーザU28の様子が映し出されている。このようなユーザ端末250の構成により、各ユーザは、仮想空間10内で同一のユーザ位置に位置する複数のユーザと空間を共有しながらコンテンツを視聴しているかのような高度な臨場感を体験することができる。
ここまで、図13から図20を用いて、本発明の第2の実施形態について具体的に説明した。本実施形態によれば、メイン映像又はメイン音声を含む第1のコンテンツ、及び同一のユーザ位置において隣りに位置するユーザのユーザ映像又はユーザ音声を含む第2のコンテンツが、コンテンツサーバ200からユーザ端末250へ複合的に配信される。そして、ユーザ端末250において、例えば、第1のコンテンツがユーザの正面に、第2のコンテンツがユーザの左又は右に表示され得る。それにより、ユーザは、コンテンツを視聴するにあたり、自ら選択したユーザ位置に位置する他のユーザと一体感を持ちながら、より高められた臨場感を体験することができる。
なお、ここでは同一のユーザ位置において隣り同士に位置するユーザの様子を表す第2のコンテンツをコンテンツサーバ200が中継する例について説明した。しかしながら、その代わりに、例えば隣り同士に位置するユーザのユーザ端末250の間で、第2のコンテンツが直接送受信されてもよい。そうした場合には、コンテンツサーバ200にかかる処理の負荷を軽減することができる。
<3.まとめ>
上述した本発明の第1の実施形態又は第2の実施形態によれば、ユーザにより選択された仮想空間内での位置に応じて加工されたコンテンツをユーザが視聴することで、ユーザにより体験される臨場感を向上させることができる。
なお、本明細書において説明した第1及び第2の実施形態に係る一連の処理は、典型的にはソフトウェアを用いて実現される。一連の処理又はその一部をソフトウェアで実行させる場合には、ソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれたコンピュータ、又は例えば図21に示した汎用コンピュータなどを用いて実行される。
図21において、CPU(Central Processing Unit)902は、汎用コンピュータの動作全般を制御する。ROM(Read Only Memory)904には、一連の処理の一部又は全部を記述したプログラム又はデータが格納される。RAM(Random Access Memory)906には、処理の実行時にCPU902により用いられるプログラムやデータなどが一時的に記憶される。
CPU902、ROM904、及びRAM906は、バス910を介して相互に接続される。バス910にはさらに、入出力インタフェース912が接続される。入出力インタフェース912は、CPU902、ROM904、及びRAM906と、入力装置920、出力装置922、記憶装置924、通信装置926、及びドライブ930とを接続するためのインタフェースである。
入力装置920は、例えばボタン、スイッチ、レバー、マウスやキーボードなどの装置を含む。出力装置922は、例えばCRT、PDP、LCD、又はOLEDなどの表示装置、及びスピーカなどの音声出力装置を含む。記憶装置924は、例えばハードディスク又は半導体メモリなどの記録媒体を用いて、プログラムやプログラムデータなどを記憶する。通信装置926は、LAN又はインターネットなどのネットワークを介する通信処理を行う。ドライブ930は、必要に応じて汎用コンピュータに設けられ、例えばドライブ930にはリムーバブルメディア932が装着される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属すものと了解される。
例えば、第1の実施形態に係るコンテンツサーバ100は、図2に示したユーザ位置14D(バックネット裏)に位置するユーザのユーザ端末へ、他のユーザのユーザ音声を配信する代わりに、中継される試合を解説する特別な音声などを配信してもよい。
また、例えば、図12を用いて説明したコンテンツ加工処理を、必ずしもフローチャートに記載された順序に沿って実行しなくてもよい。各処理ステップは、並列的あるいは個別に独立して実行される処理を含んでもよい。
100、200 コンテンツサーバ(情報処理装置)
110 通信部
118 画面制御部
126 データ保持部
128 ユーザデータ
130、131 ユーザ位置データ
134、234 コンテンツ加工部
142、242 コンテンツ配信部
150、250 ユーザ端末
160 通信部
168、268 制御部
176 音声出力部
180 音声入力部
184、284〜286 表示部
188、288〜290 撮影部

Claims (13)

  1. 仮想空間内でユーザが位置することのできる複数のユーザ位置を表示する画面であって、当該複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させる画面制御部と;
    前記位置選択画面を用いて選択された前記ユーザ位置ごとに、各ユーザ位置を選択したユーザを一覧化したユーザ一覧を保持するデータ保持部と;
    前記データ保持部により保持されている前記ユーザ一覧により表されるユーザ間の位置関係に応じて、前記ユーザ端末へ配信するコンテンツを加工するコンテンツ加工部と;
    を備える情報処理装置。
  2. 前記コンテンツ加工部は、ユーザ間の前記位置関係について予め定義される仮想空間内での距離に応じて、前記ユーザ端末へ配信するコンテンツを加工する、請求項1に記載の情報処理装置。
  3. ユーザ間の前記位置関係には、異なるユーザ位置の間の位置関係と1つのユーザ位置における前記ユーザ一覧内でのユーザ間の位置関係とが含まれる、請求項2に記載の情報処理装置。
  4. 前記コンテンツ加工部は、前記仮想空間内での距離に応じて決定される重みを用いて、1つのユーザのユーザ端末へ配信するコンテンツに他のユーザのユーザ端末から受信されるコンテンツを合成する、請求項3に記載の情報処理装置。
  5. 前記重みは、前記仮想空間内での距離が近いほど大きい値をとる、請求項4に記載の情報処理装置。
  6. 前記情報処理装置は、
    複数のユーザ端末へ共通的に配信される第1のコンテンツと、第1のユーザと同じユーザ位置に位置している第2のユーザのユーザ端末から受信される第2のコンテンツとを、前記第1のユーザのユーザ端末へ配信するコンテンツ配信部、
    をさらに備える、請求項1に記載の情報処理装置。
  7. 前記第2のユーザは、前記ユーザ一覧内において前記第1のユーザと隣り合うユーザである、請求項6に記載の情報処理装置。
  8. 前記コンテンツ加工部は、前記第1のユーザのユーザ位置とは異なるユーザ位置に位置している第3のユーザのユーザ端末から受信される第3のコンテンツを、前記第1のコンテンツに合成する、請求項6に記載の情報処理装置。
  9. 前記位置選択画面は、さらに、各ユーザ位置に位置しているユーザの一覧を表示する画面であって、表示されたいずれかのユーザを選択することにより前記複数のユーザ位置から1つのユーザ位置をユーザが選択可能な画面である、請求項1に記載の情報処理装置。
  10. 前記データ保持部は、前記位置選択画面において選択されたユーザと当該ユーザを選択したユーザとを、前記ユーザ一覧内において隣り合わせて配置する、請求項9に記載の情報処理装置。
  11. 前記コンテンツ加工部は、1つのユーザのユーザ端末へ配信するコンテンツに、当該ユーザと予め関連付けられたフレンドユーザのユーザ端末から受信されるコンテンツを合成する、請求項1に記載の情報処理装置。
  12. 仮想空間内でユーザが位置することのできる複数のユーザ位置ごとに各ユーザ位置を選択したユーザを一覧化しているユーザ一覧を記録媒体に記憶している情報処理装置を用いて、
    前記複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させるステップと;
    前記位置選択画面を介して取得されるユーザ位置の選択結果に応じて前記ユーザ一覧を更新するステップと;
    前記ユーザ一覧により表されるユーザ間の位置関係に応じて、前記ユーザ端末へ配信するコンテンツを加工するステップと;
    を含むコンテンツ処理方法。
  13. 情報処理装置を制御するコンピュータを:
    仮想空間内でユーザが位置することのできる複数のユーザ位置を表示する画面であって、当該複数のユーザ位置から1つのユーザ位置をユーザが選択可能な位置選択画面をユーザ端末へ表示させる画面制御部と;
    前記位置選択画面を用いて選択された前記ユーザ位置ごとに、各ユーザ位置を選択したユーザを一覧化したユーザ一覧を保持するデータ保持部と;
    前記データ保持部により保持されている前記ユーザ一覧により表されるユーザ間の位置関係に応じて、前記ユーザ端末へ配信するコンテンツを加工するコンテンツ加工部と;
    として機能させるための、プログラム。
JP2009076970A 2009-03-26 2009-03-26 情報処理装置、コンテンツ処理方法及びプログラム Expired - Fee Related JP5299018B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009076970A JP5299018B2 (ja) 2009-03-26 2009-03-26 情報処理装置、コンテンツ処理方法及びプログラム
US12/707,978 US8522160B2 (en) 2009-03-26 2010-02-18 Information processing device, contents processing method and program
CN201010138353A CN101848364A (zh) 2009-03-26 2010-03-19 信息处理设备、内容处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076970A JP5299018B2 (ja) 2009-03-26 2009-03-26 情報処理装置、コンテンツ処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010232860A true JP2010232860A (ja) 2010-10-14
JP5299018B2 JP5299018B2 (ja) 2013-09-25

Family

ID=42772800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076970A Expired - Fee Related JP5299018B2 (ja) 2009-03-26 2009-03-26 情報処理装置、コンテンツ処理方法及びプログラム

Country Status (3)

Country Link
US (1) US8522160B2 (ja)
JP (1) JP5299018B2 (ja)
CN (1) CN101848364A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012129800A (ja) * 2010-12-15 2012-07-05 Sony Corp 情報理装置および方法、プログラム、並びに情報処理システム
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト
JPWO2014192552A1 (ja) * 2013-05-30 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
JP2019165336A (ja) * 2018-03-19 2019-09-26 株式会社リコー 情報処理装置、コンテンツ配信方法及びプログラム
JP2019165311A (ja) * 2018-03-19 2019-09-26 株式会社リコー サーバー、方法、プログラム及びシステム
JP2020058000A (ja) * 2018-10-04 2020-04-09 楽天株式会社 情報処理装置、情報処理方法、プログラム
WO2022024594A1 (ja) * 2020-07-31 2022-02-03 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022209297A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
WO2022234863A1 (ja) * 2021-05-03 2022-11-10 芳光 鍵和田 応援提供方法、システム及びプログラム
WO2023058330A1 (ja) * 2021-10-06 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120306907A1 (en) * 2011-06-03 2012-12-06 Huston Charles D System and Method for Inserting and Enhancing Messages Displayed to a User When Viewing a Venue
CN102740042B (zh) * 2011-03-31 2015-04-08 华为终端有限公司 多屏视频会议中对与会者图像显示位置进行控制的方法及装置
US20120260202A1 (en) * 2011-04-11 2012-10-11 Microsoft Corporation Customized launching of applications
US8990709B2 (en) * 2011-07-08 2015-03-24 Net Power And Light, Inc. Method and system for representing audiences in ensemble experiences
US9268929B2 (en) * 2013-03-15 2016-02-23 Intelmate Llc Dossier packaging
US10231024B2 (en) * 2013-09-12 2019-03-12 Blizzard Entertainment, Inc. Selectively incorporating feedback from a remote audience
KR20170086493A (ko) * 2014-10-10 2017-07-26 라이브반 잉크. 스포츠 경기장에서의 광학 플레이어 추적 시스템 및 방법
CN104580499B (zh) * 2015-01-23 2018-08-21 北京嘀嘀无限科技发展有限公司 用于精准标注位置的方法和设备
SG11201705930PA (en) 2015-01-20 2017-08-30 Beijing Didi Infinity Tech And Dev Co Ltd Systems and methods for providing information for an on-demand service
KR102063895B1 (ko) * 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
CN104991927A (zh) * 2015-06-29 2015-10-21 天脉聚源(北京)科技有限公司 一种显示虚拟观众的方法及装置
CN104965900A (zh) * 2015-06-29 2015-10-07 天脉聚源(北京)科技有限公司 一种动态显示虚拟观众的方法及装置
CN105263038B (zh) * 2015-09-24 2018-08-24 天脉聚源(北京)科技有限公司 动态显示虚拟观众席的方法和装置
CN105487657A (zh) * 2015-11-24 2016-04-13 小米科技有限责任公司 声音响度的确定方法及装置
US10650590B1 (en) * 2016-09-07 2020-05-12 Fastvdo Llc Method and system for fully immersive virtual reality
US10861235B2 (en) * 2017-06-30 2020-12-08 Intel Corporation Technologies for time-delayed augmented reality presentations
US10621784B2 (en) * 2017-09-29 2020-04-14 Sony Interactive Entertainment America Llc Venue mapping for virtual reality spectating of live events
US20190391647A1 (en) * 2018-06-25 2019-12-26 Immersion Corporation Real-world haptic interactions for a virtual reality user
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11893672B2 (en) * 2021-03-02 2024-02-06 International Business Machines Corporation Context real avatar audience creation during live video sharing

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289524A (ja) * 1998-04-01 1999-10-19 Nippon Telegr & Teleph Corp <Ntt> 仮想空間会議方法およびこの方法を記録した記録媒体
JP2000165831A (ja) * 1998-11-30 2000-06-16 Nec Corp 多地点テレビ会議システム
JP2002007294A (ja) * 2000-06-22 2002-01-11 Canon Inc 画像配信システム及び方法並びに記憶媒体
JP2003333572A (ja) * 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> 仮想観客形成装置およびその方法、仮想観客形成受信装置およびその方法ならびに仮想観客形成プログラム
JP2005032263A (ja) * 2001-06-22 2005-02-03 Sony Computer Entertainment Inc 情報閲覧プログラム、情報閲覧プログラムを記録した記録媒体、情報閲覧装置及び方法、情報生成プログラム、情報生成プログラムを記録した記録媒体、情報生成装置及び方法、情報生成閲覧システム
JP2006041887A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006254166A (ja) * 2005-03-11 2006-09-21 Hitachi Ltd ビデオ会議システム、会議端末および映像サーバ
JP2007036685A (ja) * 2005-07-27 2007-02-08 Nippon Hoso Kyokai <Nhk> 映像音声合成装置及び遠隔体験共有型映像視聴システム
JP2007328389A (ja) * 2006-06-06 2007-12-20 Reishi Tonuma 仮想空間表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US5926179A (en) * 1996-09-30 1999-07-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6424353B2 (en) * 1997-09-11 2002-07-23 Sega Enterprises, Ltd. Computer game apparatus
US7106360B1 (en) * 1999-08-10 2006-09-12 U'r There! Entertainment, Ltd. Method for distributing sports entertainment
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US8108509B2 (en) * 2001-04-30 2012-01-31 Sony Computer Entertainment America Llc Altering network transmitted content data based upon user specified characteristics
CA2371501A1 (en) * 2002-02-12 2003-08-12 Ben Kutner Simulation of attendance at a live event
US8038533B2 (en) * 2003-05-09 2011-10-18 Nintendo Co., Ltd. Game system using parent game machine and child game machine
US7492915B2 (en) * 2004-02-13 2009-02-17 Texas Instruments Incorporated Dynamic sound source and listener position based audio rendering
US7985138B2 (en) * 2004-02-17 2011-07-26 International Business Machines Corporation SIP based VoIP multiplayer network games
US7491123B2 (en) * 2004-07-29 2009-02-17 Nintendo Co., Ltd. Video game voice chat with amplitude-based virtual ranging
US20080214273A1 (en) * 2004-09-21 2008-09-04 Snoddy Jon H System, method and handheld controller for multi-player gaming
EP1864505B1 (en) * 2005-03-29 2020-01-15 Sportvu Ltd. Real-time objects tracking and motion capture in sports events
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
JP4608400B2 (ja) * 2005-09-13 2011-01-12 株式会社日立製作所 音声通話システムおよび音声通話中におけるコンテンツの提供方法
JP2007134808A (ja) 2005-11-08 2007-05-31 Pioneer Electronic Corp 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
CN1984295A (zh) * 2005-12-15 2007-06-20 皇家飞利浦电子股份有限公司 用于处理视频传输流的方法和处理单元
US8120637B2 (en) * 2006-09-20 2012-02-21 Cisco Technology, Inc. Virtual theater system for the home
US20080318687A1 (en) * 2007-06-21 2008-12-25 Microsoft Corporation Live Game Lobby
US8904430B2 (en) * 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289524A (ja) * 1998-04-01 1999-10-19 Nippon Telegr & Teleph Corp <Ntt> 仮想空間会議方法およびこの方法を記録した記録媒体
JP2000165831A (ja) * 1998-11-30 2000-06-16 Nec Corp 多地点テレビ会議システム
JP2002007294A (ja) * 2000-06-22 2002-01-11 Canon Inc 画像配信システム及び方法並びに記憶媒体
JP2005032263A (ja) * 2001-06-22 2005-02-03 Sony Computer Entertainment Inc 情報閲覧プログラム、情報閲覧プログラムを記録した記録媒体、情報閲覧装置及び方法、情報生成プログラム、情報生成プログラムを記録した記録媒体、情報生成装置及び方法、情報生成閲覧システム
JP2003333572A (ja) * 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> 仮想観客形成装置およびその方法、仮想観客形成受信装置およびその方法ならびに仮想観客形成プログラム
JP2006041887A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006254166A (ja) * 2005-03-11 2006-09-21 Hitachi Ltd ビデオ会議システム、会議端末および映像サーバ
JP2007036685A (ja) * 2005-07-27 2007-02-08 Nippon Hoso Kyokai <Nhk> 映像音声合成装置及び遠隔体験共有型映像視聴システム
JP2007328389A (ja) * 2006-06-06 2007-12-20 Reishi Tonuma 仮想空間表示方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012129800A (ja) * 2010-12-15 2012-07-05 Sony Corp 情報理装置および方法、プログラム、並びに情報処理システム
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト
JP2019017113A (ja) * 2013-03-14 2019-01-31 イマージョン コーポレーションImmersion Corporation グループイベント時のハプティック効果のブロードキャスト
US10674220B2 (en) 2013-05-30 2020-06-02 Sony Corporation Display control device and display control method
JPWO2014192552A1 (ja) * 2013-05-30 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
US11178462B2 (en) 2013-05-30 2021-11-16 Sony Corporation Display control device and display control method
JP2019165336A (ja) * 2018-03-19 2019-09-26 株式会社リコー 情報処理装置、コンテンツ配信方法及びプログラム
JP2019165311A (ja) * 2018-03-19 2019-09-26 株式会社リコー サーバー、方法、プログラム及びシステム
JP6992627B2 (ja) 2018-03-19 2022-01-13 株式会社リコー 情報処理装置、コンテンツ配信方法及びプログラム
JP7052453B2 (ja) 2018-03-19 2022-04-12 株式会社リコー サーバー、方法、プログラム及びシステム
JP2020058000A (ja) * 2018-10-04 2020-04-09 楽天株式会社 情報処理装置、情報処理方法、プログラム
WO2022024594A1 (ja) * 2020-07-31 2022-02-03 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2022024594A1 (ja) * 2020-07-31 2022-02-03
WO2022209297A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
WO2022234863A1 (ja) * 2021-05-03 2022-11-10 芳光 鍵和田 応援提供方法、システム及びプログラム
JPWO2022234863A1 (ja) * 2021-05-03 2022-11-10
JP7256508B2 (ja) 2021-05-03 2023-04-12 芳光 鍵和田 応援提供方法、システム及びプログラム
WO2023058330A1 (ja) * 2021-10-06 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、および記憶媒体

Also Published As

Publication number Publication date
CN101848364A (zh) 2010-09-29
US8522160B2 (en) 2013-08-27
US20100251173A1 (en) 2010-09-30
JP5299018B2 (ja) 2013-09-25

Similar Documents

Publication Publication Date Title
JP5299018B2 (ja) 情報処理装置、コンテンツ処理方法及びプログラム
US10218762B2 (en) System and method for providing a real-time three-dimensional digital impact virtual audience
EP2198401B1 (en) Method and system for customising live media content
JP6707111B2 (ja) 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム
JP6580109B2 (ja) 投稿提供サーバ、投稿提供プログラム、ユーザプログラム、投稿提供システムおよび投稿提供方法
JP2017527230A (ja) コンテンツを配信および/または再生するための方法及び装置
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
JP2018025734A (ja) 画像表示システムおよび画像表示プログラム
JP2015210344A (ja) 通信カラオケシステム及びサーバ
JP2023169282A (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
WO2017002642A1 (ja) 情報機器及び表示処理方法
JP2008167127A (ja) 映像配信方法及び映像配信装置
JP2013051552A (ja) 視聴管理装置、視聴装置、視聴管理プログラム、及び視聴プログラム
JP2002165200A (ja) 遠隔観戦サービスシステム
US20230247231A1 (en) Apparatus and method for event participation by spectators
JP6487585B1 (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6473265B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2019164833A (ja) 投稿提供サーバ、投稿提供プログラム、ユーザプログラム、投稿提供システムおよび投稿提供方法
JP7378851B2 (ja) 表示装置
JP7089815B1 (ja) サーバ
JP7162387B1 (ja) 興行映像表示プログラム
JP6970143B2 (ja) 配信サーバ、配信方法及びプログラム
JP2018061181A (ja) 情報処理システム
JP6877377B2 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP2019185750A (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

LAPS Cancellation because of no payment of annual fees