JPWO2019013016A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2019013016A1
JPWO2019013016A1 JP2019529056A JP2019529056A JPWO2019013016A1 JP WO2019013016 A1 JPWO2019013016 A1 JP WO2019013016A1 JP 2019529056 A JP2019529056 A JP 2019529056A JP 2019529056 A JP2019529056 A JP 2019529056A JP WO2019013016 A1 JPWO2019013016 A1 JP WO2019013016A1
Authority
JP
Japan
Prior art keywords
user
visual field
image
view
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019529056A
Other languages
English (en)
Other versions
JP7127645B2 (ja
Inventor
石川 毅
毅 石川
高橋 慧
高橋  慧
佐々木 大輔
大輔 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019013016A1 publication Critical patent/JPWO2019013016A1/ja
Application granted granted Critical
Publication of JP7127645B2 publication Critical patent/JP7127645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)

Abstract

本技術は、複数のユーザの同一のコンテンツ視聴について、コミュニケーションの観点の改善を行うことができるようにする情報処理装置、情報処理方法、及びプログラムに関する。コンテンツのデータが取得され、そのコンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像が切り出されるとともに、コンテンツ画像を視聴する第2のユーザの視野を表す視野情報が取得される。そして、表示装置において、第1の視野画像が表示され、第2のユーザの視野情報に基づいて第2のユーザの視野が表示される。本技術は、例えば、全天球画像や自由視点画像等のコンテンツを複数のユーザで視聴する場合に適用できる。

Description

本技術は、情報処理装置、情報処理方法、及びプログラムに関し、特に、例えば、複数のユーザの同一のコンテンツ視聴について、コミュニケーションの改善を図ることができるようにする情報処理装置、情報処理方法、及びプログラムに関する。
例えば、ある視点から上下左右全周囲を見た場合の画像から成る全天球画像等のコンテンツを、ヘッドマウントディスプレイ(以下、HMDと略称する)を用いて視聴することを想定する。この場合、HMDでは、コンテンツの画像全体のうちの一部の範囲が表示される。HMDを装着したユーザは、自身の頭部を動かすことにより、HMDに表示される範囲を移動させ、全天球画像の中で、ユーザが見ることができる画像(に映る光景)の範囲、すなわち、ユーザの視野を移動させることができる(例えば、特許文献1参照)。
例えば、HMDを装着したユーザが右側を向くことに応じ、HMDに表示される範囲が、全天球画像のうちの現在表示されている範囲の右側に移動される。よって、ユーザは、現在の視野よりも右側を見ることができる。また、例えば、HMDを装着したユーザが上側を向くことに応じ、HMDに表示される範囲が、全天球画像のうちの現在表示されている範囲の上側に移動される。よって、ユーザは、現在の視野よりも上側を見ることができる。
特開2005−354644号公報
ところで、HMDを装着した複数のユーザが同一のコンテンツを視聴する場合、各ユーザは、コンテンツの画像全体のうちの任意の範囲を見ることができる。ただし、あるユーザが見ている範囲(あるユーザの視野)と、他のユーザが見ている範囲(他のユーザの視野)とは必ずしも一致しない。したがって、複数のユーザの同一のコンテンツ視聴については、例えばコミュニケーションの観点で改善の余地がある。
本技術はこのような状況に鑑みてなされたものであり、複数のユーザの同一のコンテンツ視聴について、コミュニケーションの改善を図ることができるようにするものである。
本技術の情報処理装置又はプログラムは、コンテンツのデータを取得するように構成されたコンテンツ取得部と、前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すように構成された画像切り出し部と、前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得するように構成された視野情報取得部と、前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを行うように構成された表示制御部とを備える情報処理装置又はそのような情報処理装置としてコンピュータを機能させるためのプログラムである。
本技術の情報処理方法は、コンテンツのデータを取得することと、前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すことと、前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得することと、前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを含む情報処理方法である。
本技術の情報処理装置、情報処理方法、及び、プログラムにおいては、コンテンツのデータが取得され、前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像が切り出されるとともに、前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報が取得される。そして、前記第1の視野画像が表示装置に表示され、また、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野が前記表示装置に表示される。
本技術の一側面によれば、複数のユーザによる同一のコンテンツ視聴におけるコミュニケーションを改善することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したコンテンツ視聴システムの構成例を示すブロック図である。 情報処理装置の構成例を示すブロック図である。 表示装置の構成例を示すブロック図である。 全体画像の例を示す図である。 コンテンツ画像から切り出された視野画像の表示例を示す図である。 視野画像の重畳される広域画像の拡大図である。 視野画像に視野方向指示マークが重畳表示された場合の表示例を示す図である。 ユーザの視野が他のユーザの視野よりも狭い場合の視野画像の表示例を示す図である。 ユーザの視野が他のユーザの視野よりも広い場合の視野画像の表示例を示す図である。 視野画像に視野方向指示ラインが重畳表示された場合の表示例を示す図である。 他のユーザの視野を追尾した追尾画像の表示例を示す図である。 他のユーザの視野を追尾した追尾画像の表示例を示す図である。 発話中のユーザに対応する視野方向指示マークを強調表示した場合の表示例を示す図である。 視野情報提示処理を説明するフローチャートである。 視野画像から切り替えられる広域画像の表示例を示す図である。 画像切り替え処理を説明するフローチャートである。 ユーザの頭部の回転量よりも大きく視野画像が移動される例を示す図である。 ユーザの視線の動きと視野画像の移動との関係を示す図である。 ユーザの視線の動きと視野画像の移動との関係を示す図である。 視線移動角を説明するための図である。 頭部回転角を説明するための図である。 視野画像移動処理を説明するフローチャートである。 表示するアバタを選択する方法を説明するための図である。 アバタの表示例を示す図である。 アバタ表示処理を説明するフローチャートである。 汎用のコンピュータの構成例を示すブロック図である。
以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。なお、説明は、以下の順序で行なう。
1.本技術を適用したコンテンツ視聴システムの構成例
2.各ユーザの視野の提示
3.他のユーザの視野を追尾した追尾画像
4.発話中のユーザの強調
5.ユーザ装置20による視野情報提示処理
6.視野画像と広域画像の切り替え
7.視野画像の移動
8.表示するアバタの選択
9.一連の処理のソフトウェアによる実行
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味すると見做されてよく、すべての構成要素が同一筐体中に無くても良い。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、本明細書におけるシステムと見做され得る。
<1.本技術を適用したコンテンツ視聴システムの構成例>
図1は、本技術を適用したコンテンツ視聴システムの構成例を示すブロック図である。
このコンテンツ視聴システム10は、複数のユーザが同一のコンテンツを視聴する場合において、他のユーザの視野を把握できるようにするものである。なお、コンテンツは、画像から成る。もちろん、画像に対応する音声が有ってもよいが、以下においては、コンテンツの画像についてのみ言及し、コンテンツの音声については言及しない。
複数のユーザが同一のコンテンツを視聴するタイミングは、必ずしも同時である必要はない。例えば、あるユーザ(ユーザAとする)がコンテンツを視聴したときにユーザAの視野を表す視野情報を保存するようにし、その後のタイミングに、同一のコンテンツを視聴している他のユーザ(ユーザBとする)に対して、保存しているユーザAの視野情報に基づき、ユーザAの視野を提示するようにしてもよい。
コンテンツ視聴システム10が提供するコンテンツとしては、ある視点から上下左右全周囲を見た場合の画像から成る全天球画像、又は、視点が移動しながら上下左右全周囲を見た場合の画像から成る自由視点画像が想定される。
全天球画像及び自由視点画像は、実空間を撮像して得られた画像(撮像済みの画像)、実空間をリアルタイムに撮像している画像(撮像中の画像)、ゲーム等のVR(バーチャルリアリティ)空間がコンピュータグラフィックスにより生成された画像、実空間に仮想物体を重畳した画像等のいずれであってもよい。
コンテンツ視聴システム10は、各ユーザが用いるユーザ装置20−1ないし20−N(Nは自然数)と、サーバ装置40を有する。以下、ユーザ装置20−1ないし20−Nは、個々に区別する必要が無い場合、単にユーザ装置20と称する。
ユーザ装置20は、情報処理装置21と表示装置22とから成る。情報処理装置21は、主に、コンテンツの画像の一部を切り出して表示装置22に表示させる視野画像を生成する処理を行う。表示装置22は、主に、視野画像を表示する。また、表示装置22は、他のユーザ装置20を使用している他のユーザの視野を表示することにより、ユーザ装置20のユーザに、他のユーザの視野を提示する。
ユーザ装置20のユーザは、コンテンツの画像の中で、表示装置22に表示される視野画像を視聴するので、その視野画像に映る光景の範囲が、視野画像を視聴するユーザの視野となる。視野画像の画角、すなわち、視野画像を視聴するユーザの視野の視野サイズ(視野画像を視聴するユーザに表示装置22が提供する視野の視野サイズ(視界))は、表示装置22としての表示デバイスや表示を行う表示ソフトウェアによって異なり、例えば、視野画像の画角が、90度の表示デバイスや210度の表示デバイス等がある。
表示装置22としては、例えば、AR(オーグメンテッドリアリティ)グラスその他のHMDのようにユーザが頭部に装着して用いる表示装置を想定する。ただし、表示装置22は、テレビジョン受像機のような平面状の表示デバイスや、プロジェクタのように画像を投影する表示デバイスであってもよい。
なお、ユーザ装置20を成す情報処理装置21と表示装置22は、一体化されていてもよいし、それぞれが異なる筐体に収められて離れて配置されてもよい。情報処理装置21と表示装置22との間の接続は、有線でもよいし、無線でもよい。
サーバ装置40は、インターネット31を介してユーザ装置20と接続される。サーバ装置40は、コンテンツ配信部41、視野情報管理部42、及びコミュニケーション管理部43を有する。
コンテンツ配信部41は、各ユーザ装置20からの要求に応じ、インターネット31を介してコンテンツのデータを配信する。各ユーザ装置20に対するコンテンツのデータの配信は、同じタイミングで行ってもよいし、異なるタイミングで行ってもよい。
視野情報管理部42は、各ユーザ装置20においてコンテンツが視聴されたときのユーザの視野を表す視野情報を、各ユーザ装置20から取得して管理する。
視野情報には、コンテンツ識別情報、経過時間情報、視点情報、視野中心情報、又は視野サイズ情報のうちの少なくとも一つが含まれている。
コンテンツ識別情報は、コンテンツを識別するための情報である。経過時間情報は、コンテンツの画像が時間の経過とともに変化する場合に存在し、コンテンツの先頭からの経過時間(再生が行われている時間的な位置)を表す情報である。視点情報は、コンテンツが自由視点画像である場合の、その自由視点画像に映る(光景の)空間であるコンテンツ空間における視点の位置を表す情報である。
視野中心情報は、ユーザ装置20において、コンテンツの画像、すなわち、コンテンツのデータに基づくコンテンツ画像から切り出される視野画像(ユーザの視野となる範囲)の中心である視野中心(の座標)を表す情報である。視野サイズ情報は、ユーザ装置20において、コンテンツ画像から切り出される視野画像のサイズ、すなわち、視野画像を視聴するユーザの視野となる範囲のサイズ(視野画像を視聴するユーザに表示装置22が提供する視野のサイズ)である視野サイズを表す情報である。なお、視野サイズは、表示装置22が許す範囲で、ユーザが任意に設定できる。また、視野中心は、視野画像を視聴するユーザの視野の中心として捉えることができ、視野サイズは、視野画像を視聴するユーザの視野のサイズとして捉えることができる。
コンテンツ識別情報を参照することにより、ユーザが視聴しているコンテンツを特定することができる。経過時間情報を参照することにより、コンテンツ識別情報によって特定されるコンテンツが時間の経過とともに変化する内容である場合に、そのコンテンツにおける、ユーザが視聴している時間的な位置(タイミング)(シーク位置)を特定することができる。視野中心情報、さらには、必要に応じて、視野サイズ情報及び視点情報を参照することにより、コンテンツ識別情報によって特定されるコンテンツを視聴するユーザの視野、すなわち、コンテンツ画像の中で、ユーザが視聴している視野画像(の範囲)を特定することができる。なお、ユーザの視野(視界)を大雑把に把握したい場合には、視野サイズ情報を含まない視野情報を送受信するとともに、各ユーザについて、視野サイズを同一の固定値とみなして、視野中心から、各ユーザの視野を特定することができる。
コミュニケーション管理部43は、同一のコンテンツを視聴するユーザ間における、音声や文字を用いたメッセージのやり取り等のコミュニケーションを管理する。
なお、少なくとも1台のユーザ装置20にサーバ装置40としての機能を付加するようにし、サーバ装置40としての機能が付加されたユーザ装置20を含む複数のユーザ装置20を、イントラネット等を介して相互に接続するようにしてもよい。
図2は、ユーザ装置20を成す情報処理装置21の構成例を示すブロック図である。
情報処理装置21は、通信部51、コンテンツ保持部52、視野画像決定部53、画像切り出し部54、視野情報保持部55、入力部58、トリガ検出部59、及び表示制御部60を有する。
通信部51は、インターネット31を介してサーバ装置40と接続し、コンテンツのデータを取得するコンテンツ取得部として機能する。さらに、通信部51は、各ユーザのアイコンやアバタ等の、各ユーザに対応するユーザ画像(ユーザを表すユーザ画像)の画像データ等を取得する。通信部51がサーバ装置40から取得したコンテンツのデータ等は、コンテンツ保持部52に記録される。また、通信部51は、視野情報保持部55にて逐次生成される、このユーザ装置20を用いているユーザ(第1のユーザ)の視野情報をサーバ装置40に通知する。さらに、通信部51は、他のユーザ装置20を用いてコンテンツを視聴する他のユーザ(第2のユーザ)の視野情報をサーバ装置40から取得する視野情報取得部として機能する。通信部51は、サーバ装置40から取得した他のユーザの視野情報を、視野情報保持部55に出力する。
コンテンツ保持部52は、サーバ装置40から取得されるコンテンツのデータを保持する。また、コンテンツ保持部52は、コンテンツのデータに基づくコンテンツ画像から切り出される画像(視野画像)に重畳して表示する、各ユーザを表すためのアイコンやアバタ等のユーザ画像の画像データ等も保持する。
視野画像決定部53は、表示装置22の視線検出部71(図3)から通知される視線の移動量、又は頭部動き検出部72(図3)から通知される頭部の移動量の少なくとも一方に基づいて視野中心を決定する。さらに、視野画像決定部53は、視野中心と視野サイズ(視野画像を視聴するユーザに表示装置22によって提供(制限)される視野の視野サイズ)とに基づいて、コンテンツ画像から切り出すユーザの視野画像(の範囲)を決定する。例えば、表示装置22がHMDである場合には、視野画像決定部53は、表示装置22としてのHMDに関連付けられたユーザの視線の移動、又はユーザの頭部の移動の少なくとも一方に基づき、視野中心を決定し、その視野中心と視野サイズとに基づき、ユーザの視野画像を決定する。
また、視野画像決定部53は、ユーザの視線が、そのユーザの視野画像の端部に近づいたことに応じ、ユーザの視野画像を、そのユーザの視線を基準として移動する。
なお、視野画像決定部53は、ユーザの視線の回転角と頭部の回転角とに基づいて、ユーザの視野画像の移動量としての回転角を、ユーザの頭部の回転角よりも大きくすることができる。
また、視野画像決定部53は、ユーザがコンテンツの視聴を実質的に開始したタイミング(ユーザ装置20の利用を開始したタイミング)に対応する視野画像の初期位置、すなわち、視野画像の視野中心の初期位置を、他のユーザの視野情報に基づいて決定することができる。例えば、視野画像決定部53は、他のユーザの視野情報に基づいて、コンテンツ画像において、所定数以上の数の他のユーザの視野が集まっている領域を特定し、その領域内の位置を視野中心の初期位置に決定することができる。そして、視野画像決定部53は、その視野中心の初期位置に基づいて、コンテンツ画像から切り出す視野画像を決定すること、すなわち、コンテンツ画像から、視野中心の初期位置を中心とする範囲の画像を視野画像に決定することができる。この場合、ユーザは、コンテンツの視聴を開始した直後から、他のユーザとのコミュニケーションを図りやすくなる。
画像切り出し部54は、コンテンツのデータに基づくコンテンツ画像から、ユーザの視野に対応する視野画像、すなわち、視野画像決定部53で決定された視野画像を切り出す(ことにより生成する)。また、画像切り出し部54は、視野情報保持部55から他のユーザの視野情報を取得し、その他のユーザの視野情報に応じて、コンテンツ画像から、ユーザの視野サイズ(ユーザの視野情報に含まれる視野サイズ情報が表す視野サイズ)又は他のユーザの視野サイズの画像を、視野画像として切り出すことができる。この視野画像は、例えば、他のユーザの視野を追尾する追尾画像として、表示装置22に表示することができる。追尾画像によれば、ユーザは、他のユーザの視野を自身の視野として、他のユーザが視聴している視野画像と同様の画像を視聴することができる。
視野情報保持部55は、このユーザ装置20における視野情報を逐次更新、保持するとともに、通信部51に出力してサーバ装置40に通知させる。また、視野情報保持部55は、通信部51がサーバ装置40から取得した他のユーザの視野情報を保持する。
入力部58は、リモートコントローラ等の操作デバイス、マイクロフォン等の音声入力デバイス、カメラ等の撮像デバイスから成る。入力部58は、操作デバイスを用いたユーザのキー操作を入力したり、音声入力デバイスを用いてユーザの発声を入力したり、撮像デバイスを用いてユーザを撮像した画像を入力したりする。
トリガ検出部59は、入力部58により入力されるユーザの操作、発声、画像等の中から所定の動作のトリガとなるキー操作、音声コマンド、ジェスチャ等を検出する。
表示制御部60は、視野画像や、各ユーザに対応するアイコンやアバタ等のユーザを表すユーザ画像を、表示装置22に表示させる表示制御を行う。また、表示制御部60は、各ユーザの視野情報に基づいて、必要なユーザの視野(を表す情報)を、表示装置22に表示させる表示制御を行う。
例えば、表示制御部60は、他のユーザの視野情報に基づいて、他のユーザの視野の位置を示す視野位置指示画像を、表示装置22に表示させる。視野位置指示画像には、ユーザ装置20のユーザの視野画像(第1の視野画像)と他のユーザの視野に対応する視野画像(第2の視野画像)とを含む広域画像112(図5)が含まれる。さらに、視野位置指示画像には、他のユーザの視野の位置を示す、ユーザ装置20のユーザの視野画像に重畳されるシンボル画像が含まれる。シンボル画像としては、後述する視野方向指示マークや視野方向指示ライン等がある。
なお、表示制御部60は、所定のトリガに応じて、ユーザ装置20のユーザの視野画像と広域画像とを切り替えるよう表示装置22を制御することができる。所定のトリガは、ユーザ装置20のユーザによるキー操作、音声コマンド、頭部の動き、又はジェスチャ操作のうちの少なくとも一つを含む。
また、表示制御部60は、他のユーザのアバタ等のユーザ画像を、ユーザの視野画像に重畳して、表示装置22に表示させるが、他のユーザとして、複数の他のユーザが存在する場合、表示制御部60は、複数の他のユーザに対応する複数のユーザ画像のうち少なくとも一つをユーザの視野画像に重畳させて表示装置22に表示させることができる。
例えば、表示制御部60は、表示装置22において、視野画像等にアバタ等のユーザ画像を重畳表示させる他のユーザの優先順位を設定し、その優先順位に従って、複数の他のユーザの一部又は全部のユーザ画像を、表示装置22に表示させることができる。
例えば、表示制御部60は、ユーザの視野画像と、複数の他のユーザそれぞれの視野との位置関係に応じて、複数の他のユーザの複数のユーザ画像それぞれを、ユーザの視野画像に重畳させるか否かを制御する(優先順位を決定する)ことができる。
また、例えば、表示制御部60は、複数の他のユーザのうち、その視野がユーザの視野画像(によって与えられる視野)と相対的に近い他のユーザのユーザ画像を、優先的に、ユーザの視野画像に重畳させて、表示装置22に表示させることができる。
さらに、例えば、表示制御部60は、ユーザと複数の他のユーザとのコミュニケーションの履歴に応じ、複数の他のユーザの複数のユーザ画像のうち一部を優先的にユーザの視野画像に重畳させて、表示装置22に表示させることができる。
図3は、ユーザ装置20を成す表示装置22の構成例を示すブロック図である。特に、図3は、表示装置22が、ユーザの頭部に装着されるHMDである場合に好適な構成例を示している。
表示装置22は、視線検出部71、頭部動き検出部72、表示部73、及び音声入出力部74を有する。
視線検出部71は、ユーザの視線を検出する。視線の検出には、例えば、角膜反射法や、その他任意の手法・技術を利用することができる。さらに、視線検出部71は、表示部73に表示される視野画像の中央(視野中央)から、ユーザの視線までの角度(視線移動角)を視線の移動量として検出して、情報処理装置21の視野画像決定部53に通知する。
頭部動き検出部72は、頭部の移動量として、表示装置22としてのHMDを装着しているユーザの頭部回転角を検出して、情報処理装置21の視野画像決定部53に通知する。表示装置22としてのHMDを装着しているユーザの頭部回転角は、HMDの回転角でもある。
表示部73は、表示制御部60から供給される視野画像等の画像信号に基づいて視野画像等を表示する。
音声入出力部74は、例えば、マイクロフォン及びスピーカから成り、コンテンツの音声(コンテンツのデータに基づくコンテンツ音声)を出力したり、ユーザの発声を入力したりする。入力されたユーザの発声は、例えば、同一のコンテンツを視聴するユーザ間のコミュニケーションに用いられる。すなわち、入力されたユーザの発声は、他のユーザ装置20に送信され、その他のユーザ装置20の音声入出力部74のスピーカから出力される。
表示装置22としてのHMDは、以上のように視線検出部71及び頭部動き検出部72を有し、ユーザの視線の移動や頭部の移動は、HMD(に関連付けられた形)で検出される。
<2.各ユーザの視野の提示>
図4は、コンテンツ画像全体を平面に展開した全体画像の例を示す図である。
この全体画像100は、全天球画像であるコンテンツ画像全体を、正距円筒図法によって平面に展開した画像である。
なお、全天球画像であるコンテンツ画像全体を平面に展開する図法は、正距円筒図法以外の図法を用いてもよい。例えば、正距円筒図法の代わりに、メルカトル図法を用いることができる。以下、正距円筒図法によって平面に展開した画像を正距円筒図と称する。同様に、メルカトル図法によって平面に展開した画像をメルカトル図と称する。
いまの場合、このコンテンツは、3人のユーザAないしCによって共有(視聴)されているとする。ただし、ユーザAないしCがコンテンツを視聴するタイミングは同時でなくてもよい。
ユーザAが用いる表示装置22では、コンテンツ画像から、ユーザAの視野情報の視野中心情報及び視野サイズ情報に応じた視野範囲(視野中心情報が表す視野中心を中心とする、視野サイズ情報が表す視野サイズの範囲)101Aを切り出すことにより生成される視野画像が表示される。同様に、ユーザBが用いる表示装置22では、コンテンツ画像から、ユーザBの視野情報の視野中心情報及び視野サイズ情報に応じた視野範囲101Bを切り出すことにより生成される視野画像が表示され、ユーザCが用いる表示装置22では、コンテンツ画像から、ユーザCの視野情報の視野中心情報及び視野サイズ情報に応じた視野範囲10CBを切り出すことにより生成される視野画像が表示される。
視野範囲101Aは、ユーザAの視野(となっている範囲)を表す。同様に、視野範囲101Bは、ユーザBの視野を表し、視野範囲101Cは、ユーザCの視野を表す。
<広域画像を用いる方法>
図5は、ユーザAが用いる表示装置22に表示される、コンテンツ画像から視野範囲101Aを切り出すことにより生成された視野画像111Aの表示例を示す図である。
ただし、同図の場合、ユーザAによる所定の操作に応じて、視野画像111Aにおける所定の位置(同図の場合、左上)に、広域画像112が重畳表示されている。
広域画像112は、ユーザ(いまの場合、ユーザA)に対して、同一のコンテンツを共有(視聴)している他のユーザ(いまの場合、ユーザB及びC)の視野を提示するための、他のユーザの視野の位置を示す視野位置指示画像の一種である。
広域画像112は、全体画像100の全部又は一部を用いて生成される。すなわち、広域画像112は、ユーザの視野画像(第1の視野画像)及び他のユーザの視野画像(第2の視野画像)を含む範囲を、全体画像100から切り出すことにより生成される。したがって、コンテンツを共有している複数のユーザの視野が分散している場合、広域画像112は、全体画像100の大きな範囲を切り出した画像、又は、全体画像100の全部をベースに生成される。コンテンツを共有している複数のユーザの視野が密集している場合、広域画像112は、全体画像100から小さな範囲を切り出した画像をベースに生成される。なお、広域画像112は、常に、全体画像100の全部をベースに生成することができる。
図6は、ユーザAが用いる表示装置22に表示される視野画像111A(図5)に重畳された広域画像112の拡大図である。
ユーザAの表示装置22(ユーザAが用いる表示装置22)に表示される広域画像112は、ユーザAの視野画像、及び、ユーザAと同一のコンテンツを共有する他のユーザとしてのユーザB及びCそれぞれの視野画像を含み、したがって、ユーザAの(視野の)視野範囲、及び、ユーザB及びCそれぞれの視野範囲を含む。なお、図6では、広域画像112を正距円筒図としているが、広域画像112は、メルカトル図、俯瞰図、鳥瞰図、2次元地図のような平面図のいずれであってもよい。
図6において、広域画像112には、ユーザAの視野範囲を表す視野範囲表示113A、ユーザBの視野範囲を表す視野範囲表示113B及びユーザBのユーザ画像としてのアイコン114B、並びに、ユーザCに視野範囲を表す視野範囲表示113C及びユーザCのユーザ画像としてのアイコン114Cが重畳表示されている。
視野範囲表示113B及びアイコン114Bによれば、ユーザBの視野範囲101B(図4)がユーザAに提示される。同様に、視野範囲表示113C及びアイコン114Cによれば、ユーザCの視野範囲101C(図4)がユーザAに提示される。
したがって、ユーザAは、自身が用いる表示装置22に表示される視野画像111A(図5)に広域画像112が重畳表示されることにより、コンテンツを共有している他のユーザ(いまの場合、ユーザB及びC)の視野を把握することができる。
これにより、複数のユーザの同一のコンテンツ視聴について、コミュニケーションの改善を図ることができる。すなわち、例えば、ユーザ間で、それぞれが見ているものに関して、音声や文字によるメッセージのやり取り等のコミュニケーションを行う場合に、話が噛み合わない等の事態の発生を抑制することができ、ユーザ間の円滑なコミュニケーションを支援することができる。
なお、広域画像112を視野画像111A(図5)に重畳表示する代わりに、広域画像112を表示装置22以外の表示デバイス、例えば、テレビジョン受像機等に表示するようにしてもよい。
次に、ユーザに対して、コンテンツを共有している他のユーザの視野範囲を提示する他の方法を説明する。
<視野方向指示マークを用いる方法>
図7は、ユーザが用いる表示装置22に表示される視野画像111Aに、コンテンツを共有している他のユーザの視野の位置を示すシンボル画像として、他のユーザの視野が存在している方向を表す視野方向指示マーク121が重畳表示されている場合の表示例を示す図である。
図7の表示例では、ユーザAに対応する視野画像(ユーザAの視野画像)111Aに、ユーザBに対応する視野方向指示マーク121B及びユーザCに対応する視野方向指示マーク121Cが重畳表示されている。
視野方向指示マーク121Bは、ユーザBに対応するアイコン114B(図6)を鋭角な突起部分を有する図形で囲んだものであり、その鋭角な突起部分がユーザBの視野の方向を指し示している。
同様に、視野方向指示マーク121Cは、ユーザCに対応するアイコン114C(図6)を鋭角な突起部分を有する図形(いわゆる吹き出しを表す図形)で囲んだものであり、その鋭角な突起部分がユーザCの視野の方向を指し示している。
ユーザAは、自身が用いる表示装置22に表示された視野画像111Aに重畳されている視野方向指示マーク121Bや121Cにより、コンテンツを共有している他のユーザ(いまの場合、ユーザB及びC)の視野が存在する方向を把握することができる。ユーザAは、例えば、視野方向指示マーク121Bの鋭角な突起部分が指し示す左上方向に、頭部を回転させれば、自身(ユーザA)の視野をユーザBの視野まで移動させることができる。
同様に、ユーザAは、例えば、視野方向指示マーク121Cの鋭角な突起部分が指し示す右方向に、頭部を回転させれば、自身(ユーザA)の視野をユーザCの視野まで移動させることができる。
図8は、ユーザの視野が他のユーザの視野よりも狭い場合の視野画像の表示例を示す図である。
上述した図7のように、視野方向指示マーク121Cが重畳されている視野画像111Aを見たユーザAが、視野方向指示マーク121Cの鋭角な突起部分が指し示す右方向に、頭部を回転させると、表示装置22に表示される視野画像111A(として切り出される範囲)がコンテンツ画像の右側に移動し、これにより、自身(ユーザA)の視野がユーザCの視野に徐々に近づく。これに伴い、視野方向指示マーク121Cの鋭角な突起部分は徐々に小さくなる。そして、自身(ユーザA)の視野が、自身(ユーザA)の視野よりも広いユーザCの視野に包含されると(ユーザAの(表示装置22に表示された)視野画像が、ユーザCの視野画像に包含されると)、図8に示されるように、視野方向指示マーク121Cの鋭角な突起部分が無くなる。
したがって、ユーザAは、自身が用いる表示装置22に表示された視野画像111Aに重畳されている視野方向指示マーク121Cの突起部分の大きさにより、自己(ユーザA)の視野と他のユーザ(いまの場合、ユーザC)の視野との近さや一致具合を把握することができる。
そして、視野方向指示マーク121Cの突起部分が無くなったときには、自己(ユーザA)と他のユーザ(いまの場合、ユーザC)が同じものを見ていると判断できるので、この状態で、ユーザAがユーザCとの間でメッセージのやり取り等のコミュニケーションを行えば、話が噛み合わない等の事態の発生を抑制することができる。
図9は、ユーザの視野が他のユーザの視野よりも広い場合の視野画像の表示例を示す図である。
上述した図7のように、視野方向指示マーク121Cが重畳されている視野画像111Aを見たユーザAが、視野方向指示マーク121Cの鋭角な突起部分が指し示す右方向に、頭部を回転させると、自身(ユーザA)の視野がユーザCの視野に徐々に近づく。これに伴って、視野方向指示マーク121Cの鋭角な突起部分は徐々に小さくなる。そして、自身(ユーザA)の視野に、自身(ユーザA)の視野よりも狭いユーザCの視野が包含されると、図9に示されるように、視野方向指示マーク121Cの鋭角な突起部分が無くなり、かつ、ユーザCの視野を表す視野範囲表示141Cが視野画像111Aに重畳表示される。
したがって、ユーザAは、自身が用いる表示装置22に表示された視野画像111Aに重畳されている視野方向指示マーク121Cの突起部分の大きさや、視野範囲表示141Cにより、自己(ユーザA)の視野と他のユーザ(いまの場合、ユーザC)の視野との近さや一致(重なり)具合を把握することができる。
そして、視野方向指示マーク121Cの突起部分が無くなったときには、自己(ユーザA)と他のユーザ(いまの場合、ユーザC)が同じものを見ていると判断できるので、この状態で、ユーザAがユーザCとの間でメッセージのやり取り等のコミュニケーションを行えば、話が噛み合わない等の事態の発生を抑制することができる。なお、視野方向指示マーク121Cや視野範囲表示141Cは、ユーザCの視野の位置を示す視野位置指示画像の一種である。
<視野方向指示ラインを用いる方法>
図10は、ユーザが用いる表示装置22に表示される視野画像111Aに、コンテンツを共有している他のユーザの視野の位置を示すシンボル画像として、他のユーザの視野が存在している方向を表す視野方向指示ライン131が重畳表示されている場合の表示例を示す図である。
図10の表示例では、ユーザAの視野に対応する視野画像111Aに視野方向指示ライン131Bが重畳表示されている。
視野方向指示ライン131Bは、その直線の一端がユーザBの視野が存在している方向(いまの場合、左上方向)を表している。また、視野方向指示ライン131Bの近傍には、視野方向指示ライン131BがユーザBに対応することを表すために、ユーザBに対応するアイコン132Bが視野画像111Aに対して重畳表示される。
ユーザAは、自身が用いる表示装置22に表示された視野画像111Aに重畳されている視野方向指示ライン131Bにより、コンテンツを共有している他のユーザ(いまの場合、ユーザB)の視野が存在する方向を把握することができる。ユーザAは、例えば、視野方向指示ライン131Bに沿って頭部を左上方向に回転させれば、自身(ユーザA)の視野をユーザBの視野まで移動させることができる。
これにより、ユーザ間でメッセージのやり取り等のコミュニケーションを行う場合に、話が噛み合わない等の事態の発生を抑制することができ、ユーザ間の円滑なコミュニケーションを支援することができる。
<3.他のユーザの視野を追尾した追尾画像>
ユーザ装置20は、サーバ装置40から取得する他のユーザ装置20の視野情報に基づき、他のユーザ装置20の他のユーザの視野を追尾することができる。
図11は、ユーザAの視野画像(としてコンテンツ画像から切り出される範囲)がユーザCの視野画像より大きく、そのため、ユーザAの視野がユーザCの視野よりも広い場合において、ユーザAが用いるユーザ装置20にて、ユーザCの視野を追尾するときの、表示装置22の表示部73に表示される追尾画像ACの表示例を示す図である。
追尾画像ACは、ユーザAが用いるユーザ装置20において、ユーザCの視野情報に基づいて、コンテンツ画像から、ユーザCの視野情報が表す視野中心を中心とする、ユーザAの視野サイズ又はユーザCの視野サイズの画像を、視野画像として切り出すことにより生成することができる。
同図のAに示す追尾画像151ACは、ユーザAの視野サイズの視野画像に、ユーザCの視野を表す視野範囲表示152CとユーザCに対応するアイコン153Cを重畳表示したものである。
同図のBに示す追尾画像151ACは、ユーザAの視野サイズの視野画像のうちの、ユーザCの視野以外の範囲にマスキング表示154を重畳するとともに、ユーザCの視野の範囲にユーザCに対応するアイコン153Cを重畳表示したものである。
同図のCに示す追尾画像151ACは、ユーザAの視野サイズに合うように、ユーザCの視野サイズの視野画像を拡大し、さらに、ユーザCに対応するアイコン153Cを重畳表示したものである。
図12は、ユーザAの視野画像がユーザCの視野画像より小さく、そのため、ユーザAの視野がユーザCの視野よりも狭い場合において、ユーザAが用いるユーザ装置20にて、ユーザCの視野を追尾するときの、表示装置22の表示部73に表示される追尾画像ACの表示例を示す図である。
同図のAに示す追尾画像161ACは、ユーザAの視野サイズの視野画像に、ユーザCに対応するアイコン162Cと、ユーザCの視野がユーザAの視野を包含していること(ユーザCの視野がユーザAの視野よりも広いこと)を表す矢印163を重畳表示したものである。
同図のBに示す追尾画像161ACは、ユーザCの視野サイズの視野画像をユーザAの視野サイズに収まるサイズに縮小した画像に、アイコン162C及び矢印163と、ユーザAの視野を表す視野範囲表示164を重畳表示したものである。
ユーザ装置20では、ユーザの頭部等の動きに応じて、表示装置22に表示するユーザの視野画像を決定する通常モードと、図11及び図12に示された追尾画像を表示する追尾モードとを切り替えることができる。追尾モードによれば、ユーザは、他のユーザが見ている光景を見ることができる。
<4.発話中のユーザの強調>
ユーザAの視野に対応する視野画像111Aに、常に他のユーザの視野(視野の方向を含む)を表示していると、他のユーザの数が増えた場合、ユーザAにとって視野画像111Aが見づらくなることがある。そこで、他のユーザの視野の表示では、例えば、ユーザ間のコミュニケーションとしてメッセージを送信しているユーザだけの視野の表示を行うことや、メッセージを送信しているユーザの視野を強調表示することができる。
図13は、ユーザAが用いるユーザ装置20にて、ユーザCがメッセージを送信していることに対応して、ユーザCに対応する視野方向指示マーク171Cを強調表示した場合の表示例を示す図である。
同図の場合、ユーザAの視野に対応する視野画像111Aに、輪郭線を太くすることによって強調表示されている視野方向指示マーク171Cが重畳されている。さらに、視野方向指示マーク171Cの下には、ユーザCの発話に対応するテキスト表示172(同図の場合、「こっち見て」)が重畳表示される。
なお、ユーザAが、メッセージを送信した他のユーザと、メッセージを送信していない他のユーザとを視覚的により容易に区別できるように、メッセージを送信していない他のユーザ(いまの場合、ユーザB)に対応する視野方向指示マーク171Bが目立たなくなるように、その輪郭を破線にして表示したり、輝度を低下して表示したりしてもよい。
<5.ユーザ装置20による視野情報提示処理>
次に、ユーザ装置20の表示装置22にユーザの視野に対応する視野画像を表示しつつ、他のユーザの視野がどこに存在しているのかをユーザに提示するための視野情報提示処理について説明する。
図14は、視野情報提示処理を説明するフローチャートである。
ユーザAが用いるユーザ装置20の情報処理装置21(図2)では、ステップS1にて、通信部51が、インターネット31を介してサーバ装置40に接続し、コンテンツのデータを取得する。サーバ装置40から取得したコンテンツのデータは、コンテンツ保持部52に保持される。
さらに、ステップS1にて、通信部51が、サーバ装置40の視野情報管理部42から、同一のコンテンツを視聴する他のユーザ(例えば、ユーザB及びC)の視野情報の取得を開始する。
ステップS2にて、視野画像決定部53は、他のユーザの視野情報に基づき、より多くの他のユーザが見ている範囲内の位置を視野中心の初期位置に決定する。さらに、視野画像決定部53は、視野中心の初期位置及び視野サイズに基づいて、コンテンツ画像におけるユーザの(視野に対応する)視野画像を決定する。視野中心の初期位置を、より多くの他のユーザが見ている範囲内の位置とすることにより、ユーザ(いまの場合、ユーザA)は、他のユーザと同じ画像を視野画像として直ちに見ることができるので、ユーザ間でコミュニケーションを行い易くすることができる。
ステップS3にて、画像切り出し部54は、コンテンツ画像から、視野画像決定部53で決定された視野画像111A(図5)を切り出すことにより生成する。
ステップS4にて、表示制御部60は、視野画像111Aに、他のユーザの視野を表す表示である視野位置指示画像を重畳する。この後、表示制御部60が、視野位置指示画像が重畳された視野画像111Aの画像信号を、表示装置22に供給して、表示部73に表示させる。
ここで、視野位置指示画像とは、広域画像112(図6)や、シンボル画像等である。シンボル画像とは、視野方向指示マーク121B及び121C(図7)や、視野方向指示ライン131B(図10)等である。
ステップS5にて、視野画像決定部53は、視線の移動量(回転角)や頭部の移動量(回転角)に基づき、表示部73に表示される視野画像を移動させるか否かを判定する。ここで、視野画像を移動させると判定された場合、処理はステップS6に進められる。
ステップS6にて、視野情報保持部55は、視線の移動量や頭部の移動量に基づき、ユーザの視野情報を更新、保持するとともに、通信部51に出力する。通信部51は、更新されたユーザの視野情報を、インターネット31を介してサーバ装置40に通知する。なお、サーバ装置40に通知された視野情報は、他のユーザ装置20に供給されることになる。
視野画像決定部53は、更新後の視野情報に基づいて、コンテンツ画像におけるユーザの視野に対応する視野画像を決定し、処理はステップS3に戻されて、それ以降の処理がコンテンツの再生終了まで繰り返される。以上のように、更新後の視野情報に基づいて、コンテンツ画像におけるユーザの視野に対応する視野画像が決定されることにより、表示部73に表示される視野画像は、ユーザの視線の移動量や頭部の移動量に基づいて移動する(コンテンツ画像から視野画像として切り出される範囲が移動する)。
また、ステップS5にて、視野画像を移動させないと判定された場合、視野画像決定部53は、前回の視野画像を、再度、ユーザの視野に対応する視野画像に決定し、ステップS6はスキップされる。そして、処理はステップS3に戻されて、それ以降の処理がコンテンツの再生終了まで繰り返される。
以上に説明した視野情報提示処理によれば、他のユーザの視野(視野が存在する方向を含む)が表示されることにより、ユーザに対して、他のユーザの視野が提示される。この提示に基づき、ユーザが自身の視野を移動させるように、視線や頭部を移動させれば、他のユーザと同じ画像を直ちに見ることができるので、ユーザ間でコミュニケーションを行う場合に、話が噛み合わない等の事態の発生を抑制することができる。
<6.視野画像と広域画像の切り替え>
ここまでの説明では、広域画像(図6)は、視野画像(図5)に重畳表示するか、他の表示デバイスに表示するものとして説明したが、表示装置22において視野画像と広域画像とを切り替えて表示するようにしてもよい。
表示装置22の表示を視野画像から広域画像に切り替えるときには、視野画像から広域画像に瞬時に切り替えてもよいし、視野画像をズームアウトしたり、視点を移動させたりすることによって徐々に広域画像まで変化させるようにしてもよい。
視野画像から広域画像への切り替えは、例えば、ユーザ(例えば、ユーザA)が他のユーザ(例えば、ユーザB)の視野(視野の方向を含む)を知りたいときに行うことができる。また、他のユーザが存在しない場合においても、ユーザAが、コンテンツ画像全体における自身の視野の位置や、ユーザ自身の視点(コンテンツが自由視点画像である場合)を把握したいときに行うことができる。
視野画像から広域画像に切り替えるトリガとしては、以下の例を挙げることができる。
例えば、ユーザによる入力部58(図2)に含まれるリモートコントローラのキーに対する操作をトリガとし、ユーザがリモートコントローラのキーを押している期間だけ、視野画像から広域画像に切り替えて表示するようにしてもよい。
また例えば、ユーザによる音声コマンドの発声をトリガとし、ユーザが予め決められている音声コマンド「引いて」を発声したことに応じて視野画像から広域画像に切り替え、音声コマンド「戻して」を発声したことに応じて広域画像から視野画像に戻すようにしてもよい。
また例えば、ユーザの頭部の動きをトリガとし、ユーザが真下を向いたことに応じて、視野画像から広域画像としての鳥瞰図等に切り替え、ユーザが真上を向いたことに応じて、視野画像から広域画像としての、コンテンツ空間に対応する2D地図の画像に切り替えるようにしてもよい。
また例えば、ユーザ間のコミュニケーションをトリガとし、ユーザが他のユーザとコミュニケーションを開始したことやコミュニケーション中の他のユーザとの距離が遠くなって視野から外れたこと等に応じて広域画像に切り替え、その後、ユーザによるうなずきや手の動き等の所定のジェスチャ操作に応じて、視野画像と広域画像を切り替えるようにしてもよい。
また例えば、コンテンツの中で何からのイベントが生じたことをトリガとし、これに応じて、視野画像から、イベントが生じた場所を含む広域画像に切り替えるようにしてもよい。
また例えば、コンテンツが実空間のライブ画像である場合等において実空間で何からのアラート(例えば、不審者の発見、火災、非常ボタンの操作等)が発生したことをトリガとし、これに応じて、視野画像から、アラートが発生した現場を含む広域画像に切り替えるようにしてもよい。
さらに、ユーザ間のコミュニケーションとしての会話の内容を解析し、その解析結果が所定の内容であったことをトリガとして、視野画像と広域画像との切り替えを行うことができる。
また、ユーザの左右を見るジェスチャ(動作)や、引き寄せるジェスチャ等に応じて、視野画像と広域画像との切り替えを行うことができる。
次に、図15は、視野画像から切り替わる広域画像の表示例を示す図である。同図のAは、ユーザAが装着している表示装置22に表示される視野画像181の表示例である。
同図のBは、トリガの検出に応じて、視野画像181(同図のA)から切り替えられる鳥瞰図による広域画像182の表示例である。広域画像182には、ユーザの位置(すなわち視点)と視野の方向を示す視野マーク183が重畳される。この鳥瞰図は、視野マーク183が示すユーザの現在の視野が分かりやすくなることを優先しつつ、視野マーク183が、広域画像182上の主要な建物等のオブジェクトの影に入らない角度で表示するようにする。
同図のCは、トリガの検出に応じて、視野画像181(同図のA)から切り替えられる正距円筒図による広域画像184の表示例である。広域画像184には、ユーザAの視野を表す視野範囲表示185Aが重畳される。
同図のDは、ユーザAがユーザBとコミュニケーションを開始したこと等をトリガとして、視野画像181(同図のA)から切り替えられる、正距円筒図による広域画像186の表示例である。広域画像186には、ユーザAの視野を表す視野範囲表示187Aと、ユーザBの視野を表す視野範囲表示187Bが重畳される。
同図のEは、ユーザAがユーザBとコミュニケーションを開始したこと等をトリガとして、視野画像181(同図のA)から切り替えられる正距円筒図による広域画像188の表示例である。広域画像188は、ユーザAとユーザBの視野を含む範囲を拡大した画像であり、ユーザAの視野を表す視野範囲表示189Aと、ユーザBの視野を表す視野範囲表示189Bが重畳される。
広域画像については、複数のユーザが、コンテンツを視聴しつつコミュニケーションする場合において、その複数のユーザの視野が大きくずれているときに、複数のユーザの視野(複数のユーザの視野画像)を同時に含むような俯瞰図等を、広域画像として採用して自動的に表示することができる。ARのコンテンツについては、例えば、実世界を別にカメラで撮像した画像を用いて、広域画像を生成することができる。
さらに、ARグラスを装着したユーザと、そのユーザがいる空間に配置されたライブカメラの画像のコンテンツを遠隔から視聴している他のユーザとがいる場合、そのユーザと他のユーザとのコミュニケーション時に、ユーザと他のユーザとの視野を同時に含むような俯瞰画像を、広域画像として採用して自動的に表示することができる。
また、複数のユーザの視野が大きくずれている場合には、視野画像の表示よりも広域画像の表示を優先することができる。
さらに、複数のユーザが、コンテンツ画像における異なるオブジェクトに注目していると推定される場合には、その異なるオブジェクトを含む画像(異なるオブジェクトが映る画像)を、広域画像として採用することができる。
また、広域画像としては、コンテンツ画像のうちの、ユーザの視野画像を中心とする所定の範囲を超広角で表示するように縮小した画像であって、他のユーザの位置を表示した画像を採用することができる。
さらに、広域画像としての俯瞰図については、表示装置22としてのHMDの向きによって、俯瞰図を見る視点と俯瞰図の画角を選択することができる。
広域画像を表示するトリガとしては、ユーザが他のユーザを認識して会話を始めたこと、すなわち、例えば、ユーザが、他のユーザのアイコンが表示されたメニューから、その他のユーザを選択して、音声通話やテキストチャットを開始したことを採用することができる。
また、広域画像を表示するトリガとしては、ユーザが他のユーザとの音声通話等の会話の途中で、他のユーザが、ユーザから遠ざかったことを採用することができる。
なお、コンテンツが自由視点画像である場合、その自由視点画像に映るコンテンツ空間を、任意の視点から任意の方向を見た光景が映る画像を、視野画像として、表示装置22としてのHMDに表示することができるが、ユーザがHMDを装着して動ける範囲は限られている。そのため、視野画像の移動については、回転方向の移動はユーザに許し、並行移動はユーザ装置20が自動的に行うことができる。以上のような自由視点画像を視聴する場合も、上述のように、広域画像を表示することができる。
また、広域画像は、ユーザの視界の全体を覆うように表示することができる。さらに、広域画像は、ユーザが下を向いたときに、ユーザの視野の下側に、地面に張り付くように表示することができる。また、広域画像は、視野画像の一部にウインドウを表示し、そのウインドウ内に表示することができる。
さらに、広域画像は、視野画像に比較して、輝度を低くして、うっすらと表示することができる。
広域画像によれば、ユーザと他のユーザとの視野が異なっており、コミュニケーションがスムーズに行かない場合に、ユーザと他のユーザとの視野を含む広域画像が表示されることで、コミュニケーションの障害(ギャップ)を改善することができる。
さらに、広域画像によれば、自由視点画像において、位置が分からなくなったユーザが、所望の位置に容易に復帰することや、大きい距離の移動を短時間で行うことが可能になる。
<視野画像と広域画像とを切り替える画像切り替え処理について>
次に、図16は、視野画像と広域画像とを切り替える画像切り替え処理を説明するフローチャートである。
ただし、画像切り替え処理の説明では、ユーザの視野の移動について言及しないことにする。
ステップS11にて、情報処理装置21は、ユーザの視野に対応する視野画像を生成し、生成した視野画像を表示部73に表示させる。
具体的には、情報処理装置21の画像切り出し部54が、コンテンツ保持部52に保持されているコンテンツ画像から、視野画像を切り出すことによって生成し、表示制御部60が、生成された視野画像の画像信号を、表示装置22に供給して、表示部73に表示させる。
ステップS12にて、情報処理装置21は、視野画像と広域画像との切り替えを指示するトリガの有無を判断する。具体的には、情報処理装置21のトリガ検出部59が、入力部58が入力するユーザからのキー操作、ユーザの発声、ユーザの画像等に基づき、広域画像への切り替えを指示する広域トリガを検出したか否かを判定する。ここで、広域トリガを検出していないと判定された場合、処理はステップS11に戻される。これにより、表示部73の表示は、視野画像のままとなる。
反対に、ステップS12にて、広域トリガを検出したと判定された場合、処理はステップS13に進められる。
ステップS13にて、情報処理装置21は広域画像を生成し、表示装置22は、表示部73の表示を視野画像から広域画像に切り替える。
具体的には、例えば、コンテンツ保持部52に保持されているコンテンツ画像の全体画像100(図4)に、表示制御部60が、各ユーザの視野を表す視野範囲表示(例えば、図15のDの視野範囲表示187A及び187B)を重畳することにより、広域画像(例えば、図15のDの広域画像186)を生成し、生成された広域画像の画像信号を、表示装置22に供給して、表示部73に表示させる。
なお、各ユーザの視野を表す視野範囲表示の表示位置は、表示制御部60が、視野情報保持部55に保持されている各ユーザの視野情報に基づいて決定できる。
上述したステップS13の後、処理はステップS14に進み、トリガ検出部59が、入力部58が入力するユーザからのキー操作、ユーザの発声、ユーザの画像等に基づき、視野画像への切り替えを指示する視野トリガを検出したか否かを判定する。ここで、視野トリガを検出していないと判定された場合、処理はステップS13に戻される。これにより、表示部73の表示は、広域画像のままとなる。
ステップS14において、視野トリガが検出されたと判定された場合、処理はステップS11に戻されて、表示部73の表示は、視野画像に切り替えられる。
以上に説明した画像切り替え処理によれば、ユーザは、トリガとなる操作、発声、動作、ジェスチャ等を行うことにより、視野画像と広域画像とを切り替えることができる。
広域画像を見たユーザは、他のユーザの視野を把握できるので、ユーザ間のコミュニケーションにおいて、話が噛み合わない等の事態の発生を抑制することができる。
また、広域画像を見たユーザは、自身の視野や視点(コンテンツが自由視点画像である場合のコンテンツ空間における自身の位置)を把握できるので、例えば、コンテンツ空間において自身に位置がわからなくなった場合等には、速やかに希望する位置に戻ることができる。
<7.視野画像の移動>
次に、視野画像の移動について説明する。
HMDでは、ユーザが頭部を回転することによって、コンテンツ画像から切り出す視野画像(の範囲)を移動され、これにより、ユーザの視野は移動する。ただし、例えば、コンテンツ画像において、表示装置22に現在表示されている視野画像の真後ろに視野画像を移動させるような場合、通常、人は頭部だけを180度回転させることはできないので、頭部とともに体も回転させる必要がある。したがって、ユーザがHMDを装着した状態で、高い頻度で左右や後方を見回したりすると身体的な疲労を生じることになる。
そこで、本実施の形態であるユーザ装置20では、ユーザの身体的疲労が軽減できるように、頭部の回転量よりも大きく視野画像(を決定するための視野情報に含まれる視野中心情報が表す視野中心)を移動させるようにする。すなわち、視野画像の回転角を、ユーザの頭部の回転角よりも大きくする。例えば、ユーザが頭部を水平方向に90度回転させたことに応じ、視野画像を水平方向に180度回転移動させるようにする。
図17は、ユーザの頭部の回転量よりも大きく視野画像が回転移動される例を示す図である。
同図のAは、ユーザが所定の方向を正面として向いて、コンテンツ画像200としての全天球画像を視聴している状態を上方から見た場合を示している。コンテンツ画像200において、ユーザの前方には物体201が存在し、ユーザの後方には物体202が存在する。このとき、物体201は、ユーザが正面を向いているときにコンテンツ画像200から切り出される視野画像(の範囲)203の中に存在するので、ユーザは物体201を視認できる。一方、物体202は、ユーザの視野画像203の外に存在するので、ユーザは物体202を視認できない。
この状態から、ユーザが頭部を90度回転させると、同図のBに示されるように、視野画像203は、コンテンツ画像200において、頭部の回転と同じ方向に、頭部の回転角より大きい、例えば、180度だけ回転される。このとき、物体201は、回転後の視野画像203の外に存在するので、ユーザは物体201を視認できなくなるが、物体202が回転後の視野画像203に存在するので、ユーザは物体202を視認できる。
ただし、図17に示されたように、単に頭部の回転量以上に視野画像を移動させた場合、ユーザによっては、不快感や酔い等を起こしてしまうことがある。そこで、ユーザ装置20では、ユーザが視野を大きく移動させたいという強い意志と見做せる動作を行った場合や、ユーザが視野の大きな移動に気付きにくい条件下である場合にだけ、頭部の回転量よりも大きく視野画像を回転移動させることができる。
<視線の移動に応じた視野画像の移動>
ユーザ装置20では、頭部が回転されなくても、視線が移動されるだけで、視野画像を移動させ、これにより、ユーザの視野を移動させることができる。
図18及び図19は、ユーザの視線の動きと視野画像の移動との関係を示す図である。
図18のAは、コンテンツ画像を平面に展開した全体画像190の例であり、全体画像190上の範囲191は、表示装置22の表示部73に表示される視野画像192(図18のB)として切り出される範囲を示している。図18のBは、視野画像192の表示例であり、X印は、視野画像192上のユーザの視線位置195を示している。図18のBの場合、視線位置195は視野画像192の中央下側に位置している。
図19のAは、ユーザの視線の動きを示している。図19のAでは、ユーザの視線位置195が、視野画像192の左端部下側に移動されている。図19のBは、視線の移動に応じた視野画像の移動、すなわち、図19のAに示した視線の移動後に視野画像として切り出される範囲を示している。
ユーザが、図19のAに示されるように、視線位置195が視野画像の端部に近づくように視線を移動した場合、ユーザには、現在の視野画像の範囲191の外側を見たいという意思があると見做せる。そこで、視野画像決定部53は、視線位置195が視野画像の端部に近づいたことに応じ、視野画像を、視線位置195を基準として移動させる。すなわち、視野画像として切り出す範囲が、範囲191(図17のA)から視線の移動方向と同じ方向に範囲196(図18のB)に移動される。以上のような(移動後の視線の)視線位置195を基準とする視野画像の移動は、例えば、視線位置195を視野中心として、コンテンツ画像から切り出す視野画像を決定することにより行うことができる。
<視線の移動量及び頭部の回転量に応じた視野画像の移動>
ユーザが視線の移動、及び頭部の回転を素早く行っている場合、そのユーザは視野の大きな移動に気付きにくいと考えられる。そこで、ユーザ装置20では、一定時間における、ユーザの視線の移動量としての回転角、及び頭部の回転量(回転角)が閾値以上である場合、頭部の回転量よりも大きく視野画像を移動させるようにする。
ただし、頭部の回転方向と視線の移動方向とが異なる場合、ユーザは、現在表示されている視野画像内の物体を見ている可能性が高く、このような状態下で、実際の頭部の回転以上に視野画像を移動させてしまうと、ユーザが不自然さや不快を感じさせてしまうことがある。したがって、この頭部の回転方向と視線の移動方向とが逆方向である場合には、頭部の回転と視線の移動(後述する視線移動角)との差分が一定時間内に閾値を超える変化があった場合にのみ、実際の頭部の回転以上に視野画像を移動させるようにする。
<視線移動角と頭部回転角の定義>
図20は、ユーザの視線の移動量を表す視線移動角の定義を説明するための図であり、表示装置22によって与えられるユーザの視野を上方から見た状態を示している。同図に示されるように、視野の中央を表す視野中央から視線の移動後の視線方向までの角度を、ユーザの視線の動き量としての回転角を表す視線移動角とし、例えば、視野中央から左の視野端側を正の視線移動角、視野中央から右の視野端側を負の視線移動角と定義する。
図21は、ユーザの頭部の回転量を表す頭部回転角の定義を説明するための図であり、ユーザがコンテンツ画像200としての全天球画像を視聴している状態を上方から見た様子を示している。頭部回転角は、同図のAに示す、ユーザの頭部が現在向いている所定の方向を0度とし、例えば、所定の方向から左側を正の頭部回転角、所定の方向から右側を負の頭部回転角と定義する。
なお、同図のAでは、頭部回転角は0度であるが、視線移動角は正の値を有している。同図のBでは、頭部回転角は正の値であり、視線移動角は、同図のAの視線移動角よりも大きい正の値を有している。同図のCでは、頭部回転角は正の値であり、視線移動角は、負の値を有している。
<視線の移動量及び頭部の回転量に応じた視野画像移動処理について>
次に、視線の移動量及び頭部の回転量に応じた視野画像移動処理について説明する。
図22は、視線の移動量及び頭部の回転量に応じて視野画像を移動する視野画像移動処理を説明するフローチャートである。この視野画像移動処理は、コンテンツの視聴が行われている間実行される。
ステップS21にて、表示装置22(図3)の頭部動き検出部72は、ユーザの頭部回転角の取得を開始する。取得されたユーザの頭部回転角は、情報処理装置21(図2)の視野画像決定部53に通知される。ステップS22にて、表示装置22の視線検出部71は、ユーザの視線を検出し、視線位置195(図18)、及びユーザの視線移動角の取得を開始する。視線位置195、及び、視線移動角は、情報処理装置21の視野画像決定部53に通知される。
ステップS23にて、視野画像決定部53は、視線検出部71からの通知に基づき、ユーザの視線が視野画像の端部に近づいたか否かを判定し、ユーザの視線が視野画像の端部に近づいたと判定した場合、処理をステップS24に進める。ステップS24にて、視野画像決定部53は、視野画像を、コンテンツ画像における現在の位置から、視線の移動方向と同じ方向に移動する。これにより、表示部73に表示される視野画像は視線の方向に移動される。
なお、ステップS23にて、ユーザの視線が視野画像の端部に近づいたと判定されなかった場合、ステップS24はスキップされて、処理はステップS25に進められる。
ステップS25にて、視野画像決定部53は、一定時間におけるユーザの頭部回転角と視線移動角とを合わせた合成角が閾値以上であるか否かを判定する。一定時間におけるユーザの頭部回転角と視線移動角とを合わせた合成角が閾値以上であると判定された場合、すなわち、例えば、ユーザの頭部と視線とが同じ方向に一定速度以上で動いている場合や、ユーザの頭部と視線とが逆方向に動いているが、頭部及び視線の動き(回転)のうちの一方が他方より十分大である場合、処理はステップS26に進められる。ステップS26にて、視野画像決定部53は、視野画像を、コンテンツ画像における現在の位置から、頭部回転角よりも大きく(回転)移動させる。なお、視野画像を頭部回転角よりも大きく移動させるときの視野画像の移動量(回転角)の算出には、任意の方法を用いることができる。この後、処理はステップS23に戻されて、それ以降が繰り返される。
反対に、ステップS25にて、一定時間におけるユーザの頭部回転角と視線移動角とを合わせた合成角が閾値よりも小さいと判定された場合、処理はステップS27に進められる。ステップS27にて、視野画像決定部53は、視野画像を、コンテンツ画像における現在の位置から、頭部回転角に合わせて移動させる。この後、処理はステップS23に戻されて、それ以降が繰り返される。
以上に説明した視野画像移動処理によれば、ユーザが視線を視野画像の端部に移動した場合には、ユーザには現在の視野画像(に映る光景)の外側(の光景)を見たいという意思があると見做せるので、ユーザが視線を動かした方向に、視野画像が移動される。
また、一定時間におけるユーザの頭部回転角と視線移動角とを足した合成角が閾値以上である場合には、ユーザは視野の大きな移動に気付きにくいと考えられるので、視野画像を、頭部回転角よりも大きく移動させる。これにより、ユーザは、例えば、体を回転させなくても、頭部をある程度回転させることにより、視野を真後ろに移動させることができる。よって、身体的な負荷を増すことなく、コンテンツの視聴において視野の移動を容易に行うことができる。
<8.表示するアバタの選択>
複数のユーザが同一のコンテンツを視聴するに際し、コンテンツが自由視点画像である場合、各ユーザはそれぞれの視点を任意に変えることができる。したがって、あるユーザの視野(ユーザが見ている視野画像)に、他のユーザ(の視点)が存在していることがあり、このような場合、視野画像(に映るコンテンツ空間)の、他のユーザ(の視点)が存在している位置に、他のユーザの分身としてのキャラクタである、例えば、アバタを(重畳)表示することができる。アバタは、絵であっても写真であってもよい。また、2次元的な表示でもよいし、3次元的な表示でもよい。
視野画像に他のユーザのアバタを表示すると、ユーザ間のコミュニケーションをより円滑に行うことができる効果が期待できる。
ただし、視野画像に他のユーザが複数存在し、複数の他のユーザそれぞれに対応するアバタを全て表示してしまうと、視野画像が、他のユーザのアバタ(他のユーザに対応するアバタ)で占められてしまったり、コミュニケーションと取りたい相手(アバタ)を見つけ出し難くなったり等の不都合がある。
よって、アバタを表示する場合においては、視野画像に表示するアバタを取捨選択する仕組みを導入することができる。
本実施の形態であるユーザ装置20では、情報処理装置21の表示制御部60(図2)により、視野画像に(重畳)表示するアバタを選択する。
図23は、表示制御部60において視野画像に表示するアバタを選択する方法を説明するための平面図である。同図は、複数のユーザが同一の自由視点画像のコンテンツを視聴している場合における、コンテンツ空間301を上方から見た場合を示している。
コンテンツ空間301には、ユーザAに対応するアバタ311A、ユーザBに対応するアバタ311B、ユーザCに対応するアバタ311C、及びユーザDに対応するアバタ311Dが存在している。図23では、ユーザAの視野画像に映る範囲312A、ユーザBの視野画像に映る範囲312B、ユーザCの視野画像に映る範囲312C、及び、ユーザDの視野画像に映る範囲312Dが示されている。
ユーザ装置20の情報処理装置21の表示制御部60では、ユーザの視野画像に存在している他のユーザ(アバタ)のうち、ユーザと同じものを見ている可能性が高いと考えられる順、すなわち、例えば、視野画像に映る範囲の重複する面積(ここでは、図23の平面図で見た面積)が広い順に、他のユーザ(のアバタ)に優先順位を設定し、その優先順位に従って、他のユーザのアバタを表示することができる。
例えば、ユーザAが用いるユーザ装置20の情報処理装置21の表示制御部60では、ユーザAの視野画像に映る範囲312Aに存在している他のユーザ(同図の場合、ユーザB,C,D)を特定し、ユーザAの視野画像に映る範囲312Aと他のユーザの視野画像に映る範囲との重複する面積を検出する。具体的には、表示制御部60は、範囲312AとユーザBの視野画像に映る範囲312Bとの重複範囲315AB、範囲312AとユーザCの視野画像に映る範囲312Cとの重複範囲315AC、及び、範囲312AとユーザDの視野画像に映る範囲312Dとの重複範囲315ADそれぞれの面積を検出する。
同図の場合、重複範囲315ADの面積が最も広く、次に重複範囲315AB、重複範囲315ACの順である。したがって、アバタを表示させる優先順位は、ユーザD、ユーザB、ユーザCに決定される。そして、ユーザAの視野画像に表示させる他のユーザのアバタ数に応じて、優先順位に従ってアバタが表示される。なお、視野画像に表示させる他のユーザのアバタ数は、予め決められており、ユーザが変更できる。
図24は、図23に示された状態に対応する、ユーザAが用いるユーザ装置20の表示装置22に表示されるユーザAの視野画像と、その視野画像に表示される他のユーザに対応するアバタの表示例を示す図である。ただし、同図は、視野画像に表示させる他のユーザのアバタ数が1とされている場合に対応する。
同図に示されるように、ユーザAの視野画像321Aには、実線で示されたユーザDに対応するアバタ311Dが重畳表示される。なお、点線で示されたユーザBに対応するアバタ311B、及び、ユーザCに対応するアバタ311は表示されない。ただし、視野画像に表示させる他のユーザのアバタ数が2とされている場合には、アバタ311D、及びアバタ311Bが表示されることになり、視野画像に表示させる他のユーザのアバタ数が3以上とされている場合には、アバタ311D、アバタ311B、及び311Cが表示される。
なお、ここでは、ユーザAの視野画像に映る範囲と、他のユーザの視野画像に映る範囲との重複する面積に応じて、ユーザAの視野画像に表示するアバタの優先順位を設定することにしたので、傾向としては、視野がユーザAの視野画像(に映る範囲)に近い他のユーザのアバタが優先的に、ユーザAの視野画像に表示される。
ユーザAの視野画像にアバタを表示する優先順位は、以上のように、他のユーザの視野のユーザAの視野画像との近さに応じて設定する他、ユーザAの視野画像(に映る範囲)と、他のユーザの視野との位置関係に応じて設定し、これにより、他のユーザのアバタを、ユーザAの視野画像に(重畳)表示するか否かを、ユーザAの視野画像と、他のユーザの視野との位置関係に応じて制御することができる。
<アバタ表示処理>
次に、図25は、上述したように、アバタに優先順位を設定して表示させるアバタ表示処理を説明するフローチャートである。
ステップS31にて、表示制御部60は、視野情報保持部55に保持されているユーザの視野情報と、他のユーザの視野情報を読み出す。ステップS32にて、表示制御部60は、ユーザと他のユーザの視野情報を参照し、ユーザの視野画像、すなわち、ユーザの視野情報に応じて決定されるユーザの視野画像(に映る範囲)に、他のユーザ(の視点)が所定数を超えて存在するか否かを判定する。この所定数とは、予め設定されている、ユーザの視野画像に表示させる他のユーザのアバタ数に相当する。
ステップS32にて、ユーザの視野画像に、他のユーザ(の視点)が所定数を超えて存在すると判定された場合、処理はステップS33に進められる。ステップS33にて、表示制御部60は、ユーザと他のユーザの視野情報を参照し、視野(視野画像に映る範囲)がユーザの視野画像(に映る範囲)と重複する範囲が広い順に、他のユーザのアバタに対して優先順位を設定する。
ステップS34にて、表示制御部60は、設定した優先順位に従い、ユーザの視野画像に表示する所定数の他のユーザのアバタ(他のユーザに対応するアバタ)を決定し、視野画像に、決定した他のユーザのアバタを重畳する。これにより、表示部73に表示される視野画像には、所定数のアバタが重畳表示される。
一方、ステップS32にて、ユーザの視野画像に、他のユーザ(の視点)が所定数を超えて存在しないと判定された場合、ユーザの視野画像に存在する他のユーザのアバタを全て表示することになり、処理はステップS35に進められる。
ステップS35にて、表示制御部60は、ユーザの視野画像に存在する全ての他のユーザのアバタを、視野画像に表示するアバタに決定し、視野画像に、決定した他のユーザのアバタを重畳する。これにより、表示部73に表示される視野画像には、所定数以下のアバタが重畳表示される。
以上に説明したアバタ表示処理によれば、ユーザには、同じような視野画像を見ていると考えられる他のアバタだけが見え、他のアバタは見えないので、見えているアバタに対応する他のユーザと話が噛み合わない等のコミュニケーション上の不具合の発生を抑制できる。また、ユーザの視野がアバタによって占められてしまうことを抑制できる。
また、他のユーザに対応するアバタの表示に関する優先順位は、ユーザが任意に設定できるようにしてもよい。また、例えば、メッセージのやり取りの回数が多いほど、優先順位を高く設定する等、コミュニケーションの履歴に応じて優先順位を設定するようにしてもよい。さらに、これら様々な基準によって設定された優先順位を切り替えられるようにしてもよい。
さらに、コンテンツが時間の経過とともに変化する内容である場合、視野画像(に映る範囲)の重複範囲の面積だけでなく、視野画像が重複している時間も考慮して、優先順位を設定するようにしてもよい。
なお、上述したアバタ表示処理は、アバタを表示させる代わりに、ユーザのアイコン(ユーザに対応するアイコン)や、ユーザの実写の画像、ユーザを表す文字(列)(の画像)、その他ユーザを表すユーザ画像を表示させる場合にも適用できる。
さらに、始めはアイコンを表示するようにし、ユーザ間の関係の深さやコミュニケーションの程度に応じて、アバタの輪郭だけの表示、アバタのモノクロ表示、アバタのフルカラー表示等に変更するようにしてもよい。
また、アイコンやアバタを表示する前に、ユーザ間で相互承認を行うようにしてもよい。
なお、ユーザの視野画像に、他のユーザのアバタ等のユーザ画像を(重畳)表示するか否かの制御は、自由視点画像及び全天球画像のいずれのコンテンツについても、様々な方法で行うことができる。
例えば、ユーザの視野画像には、ユーザと視野が近い他のユーザ、すなわち、視野画像が類似する他のユーザのアバタを、ユーザの視野画像の、ユーザから見て近い位置に表示することができる。
また、ユーザの視野画像には、ユーザ及び他のユーザが視聴している同一のコンテンツのシーク位置(コンテンツが再生されている時間的な位置)どうしの近さや、コンテンツが3Dゲーム等の自由視点画像である場合の、ユーザと他のユーザとの視点の近さ、ユーザと他のユーザとの過去の会話の履歴、SNSからの関係の近さ等に応じて、ユーザと話があいそうな他のユーザのアバタを、優先的に表示することができる。
さらに、各ユーザのアバタについては、アバタとともに、例えば、ユーザが行っている会話(テキストチャット)の内容の他、ユーザのニックネーム等のユーザに関するユーザ情報を表示することができる。ユーザの視野画像に、他のユーザのアバタが表示可能である場合、ユーザと他のユーザとの関係等に応じて、ユーザの視野画像に表示する他のユーザのアバタに関する表示を制限することができる。
例えば、ユーザの視野に、他のユーザのアバタ(の位置)が入っているが、他のユーザの視野には、ユーザのアバタが入っていない場合、ユーザの視野画像には、他のユーザのアバタに関する表示の詳細、すなわち、例えば、他のユーザのアバタの首の角度や表情、会話としてのテキスト等を表示せず、簡易なアバタ、すなわち、例えば、アバタのシルエット(外形)だけを表示することができる。そして、ユーザ及び他のユーザそれぞれの視野画像に、コミュニケーションの許可を求めるダイアログを表示し、ユーザ及び他のユーザのそれぞれがコミュニケーションを許可した場合に、視野画像に、相手のアバタに関する表示を表示することができる。この場合、ユーザが、他のユーザのコミュニケーションをのぞき見をすることを防止することができる。なお、その他、ユーザ及び他のユーザのそれぞれがコミュニケーションを許可する前は、相手のアイコンだけを表示し、ユーザ及び他のユーザのそれぞれがコミュニケーションを許可した場合には、相手のアバタや実写のシルエットを表示することができる。
また、ユーザの視野画像に、他のユーザのアバタを表示する場合には、他のユーザのアバタとして、3Dの画像等を採用し、ユーザの首や体の動きに従って、他のユーザのアバタに回り込むような視野画像を表示することで、ユーザは、他のユーザの存在を、リアルに感じることができる。
さらに、ユーザの視野画像に、ユーザと視野が近い他のユーザ、すなわち、視野画像が類似する他のユーザのアバタを、ユーザの視野画像に表示している場合において、他のユーザが首を回して遠ざかったときには、他のユーザのアバタを、ユーザの視野画像の、ユーザから見て遠い位置に移動することや、ユーザの視野画像に、他のユーザのアバタに代えて、ユーザと視野が近い別のユーザ(他のユーザとは別のユーザ)のアバタを表示することができる。
また、ユーザの視野画像に表示する他のユーザのアバタに関する表示は、ユーザと他のユーザとの関係に応じて変化させることができる。例えば、他のユーザと一度話して友達として登録されたユーザの視野画像には、他のユーザのアバタに関する表示の一部の情報(少ない情報)を表示し、他のユーザと会話を行っているユーザの視野画像には、他のユーザのアバタに関する表示の全部(多くの情報)を表示することができる。
さらに、表示装置22に表示される画像について、ユーザが、ズームインやズームアウトの操作により、画像の画角(画像に映る光景の範囲)を調整することができる場合には、ユーザの表示装置22に表示される画像の画角と、他のユーザの表示装置22に表示される画像の画角とが類似しているかどうかをも考慮して、ユーザの視野画像に、他のユーザのアバタを表示する優先順位を設定することができる。
また、コンテンツが、複数の全天球カメラで撮像された複数の全天球画像で構成される場合には、ユーザと他のユーザとが、同一の全天球カメラで撮像された全天球画像を視聴しているか、異なる全天球カメラで撮像された全天球画像を視聴しているかをも考慮して、ユーザの視野画像に、他のユーザのアバタを表示する優先順位を設定することができる。
さらに、コンテンツが自由視点画像である場合には、ユーザと他のユーザとの視野の近さは、例えば、ユーザ及び他のユーザそれぞれの首の角度や、ユーザ及び他のユーザそれぞれの視野画像に、同一の物体(オブジェクト)が映っているかどうか等に応じて判定することができる。ユーザ及び他のユーザそれぞれの視野画像に、同一の物体が映っているかどうかは、例えば、ユーザ及び他のユーザそれぞれの位置(視点)と、ユーザ及び他のユーザそれぞれの視野画像の画角との組み合わせ等により判定することができる。
また、アバタの表示については、ユーザの視野画像に、特定の他のユーザのアバタを表示するモードや、過去に会話をしたことがある他のユーザのアバタを優先して表示するモードを設け、ユーザの操作に応じて、かかるモードに、アバタを表示するモードを切り替えることができる。
以上のように、アバタを表示することにより、同一のコンテンツの同じような光景を見ている不特定多数のユーザどうしがつながりを持ち、会話が円滑に進めることが可能となる。さらに、視野の近さや、コミュニケーションの許可等に応じて、アバタ(他のユーザ)に優先順位を設定し、その優先順位に応じて、アバタを表示することにより、多数のアバタが、視野画像を覆い尽くし、コンテンツの視聴が妨げられることを防止することができる。
<9.一連の処理のソフトウェアによる実行>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ500では、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータ500が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
<1>
コンテンツのデータを取得するように構成されたコンテンツ取得部と、
前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すように構成された画像切り出し部と、
前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得するように構成された視野情報取得部と、
前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを行うように構成された表示制御部と
を備える情報処理装置。
<2>
前記表示制御部は、前記第2のユーザの視野情報に基づき、前記第2のユーザの視野の位置を示す視野位置指示画像を表示するよう前記表示装置を制御するように構成される
<1>に記載の情報処理装置。
<3>
前記視野位置指示画像は、前記第1の視野画像及び前記第2のユーザの視野に対応する第2の視野画像を含む広域画像を含む
<2>に記載の情報処理装置。
<4>
前記表示制御部は、所定のトリガに応じて、前記第1の視野画像と前記広域画像とを切り替えるよう前記表示装置を制御するように構成される
<3>に記載の情報処理装置。
<5>
前記所定のトリガは、前記第1のユーザによるキー操作、音声コマンド、頭部の動き、又はジェスチャ操作のうちの少なくとも一つを含む
<4>に記載の情報処理装置。
<6>
前記広域画像は、正距円筒図、メルカトル図、鳥瞰図、俯瞰図、又は2次元地図のうち少なくとも1つを含む
<3>ないし<5>のいずれかに記載の情報処理装置。
<7>
前記視野位置指示画像は、前記第2のユーザの視野の位置を示す、前記第1の視野画像に対して重畳されるシンボル画像を含む
<2>ないし<6>のいずれかに記載の情報処理装置。
<8>
前記第1のユーザの視線の移動、又は前記第1のユーザの頭部の移動の少なくとも一方に基づき、前記コンテンツ画像から切り出す前記第1の視野画像を決定するように構成された視野画像決定部をさらに備える
<1>ないし<7>のいずれかに記載の情報処理装置。
<9>
前記視野画像決定部は、前記第1のユーザの視線が前記第1の視野画像の端部に近づいたことに応じ、前記第1の視野画像を、前記第1のユーザの視線を基準として移動するように構成される
<8>に記載の情報処理装置。
<10>
前記視野画像決定部は、前記第1のユーザの視線の回転角と前記第1のユーザの頭部の回転角とに基づいて、前記第1の視野画像の回転角を、前記第1のユーザの頭部の回転角よりも大きくするように構成される
<8>又は<9>に記載の情報処理装置。
<11>
前記視野画像決定部は、前記第1のユーザが前記コンテンツの視聴を実質的に開始したタイミングに対応する前記第1のユーザの視野画像の初期位置を、前記第2のユーザの視野情報に基づいて決定するように構成される
<8>ないし<10>のいずれかに記載の情報処理装置。
<12>
前記表示装置は、ヘッドマウントディスプレイであり、
前記視野画像決定部は、前記ヘッドマウントディスプレイに関連付けられた、前記第1のユーザの視線の移動、又は前記第1のユーザの頭部の移動の少なくとも一方に基づき、前記第1の視野画像を決定するように構成される
<8>ないし<11>のいずれかに記載の情報処理装置。
<13>
前記第2のユーザは、複数のユーザを含み、
前記表示制御部は、前記複数のユーザに対応する複数のユーザ画像のうち少なくとも一つを前記第1の視野画像に重畳させるように前記表示装置を制御するように構成され、
前記表示制御部は、前記第1の視野画像と、前記複数のユーザそれぞれの視野との位置関係に応じて、前記複数のユーザ画像それぞれを前記第1の視野画像に重畳させるか否かを制御するように構成される
<1>ないし<12>のいずれかに記載の情報処理装置。
<14>
前記表示制御部は、前記複数のユーザのうち、その視野が前記第1の視野画像と相対的に近いユーザに対応するユーザ画像を前記第1の視野画像に優先的に重畳させるよう前記表示装置を制御するように構成される
<13>に記載の情報処理装置。
<15>
前記表示制御部は、前記第1のユーザと前記複数のユーザとのコミュニケーションの履歴に応じ、前記複数のユーザ画像のうち一部を優先的に前記第1の視野画像に重畳させるように前記表示装置を制御するよう構成される
<13>又は<14>に記載の情報処理装置。
<16>
前記コンテンツ画像は、全天球画像又は自由視点画像である
<1>ないし<15>のいずれかに記載の情報処理装置。
<17>
前記表示装置をさらに備える
<1>ないし<16>のいずれかに記載の情報処理装置。
<18>
コンテンツのデータを取得することと、
前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すことと、
前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得することと、
前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することと
を含む情報処理方法。
<19>
コンテンツのデータを取得するように構成されたコンテンツ取得部と、
前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すように構成された画像切り出し部と、
前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得するように構成された視野情報取得部と、
前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを行うように構成された表示制御部と
して、コンピュータを機能させるためのプログラム。
10 コンテンツ視聴システム, 20 ユーザ装置, 21 情報処理装置, 22 表示装置, 31 インターネット, 40 サーバ装置, 41 コンテンツ配信部, 42 視野情報管理部, 43 コミュニケーション管理部, 51 通信部, 52 コンテンツ保持部, 53 視野画像決定部, 54 画像切り出し部, 55 視野情報保持部, 58 入力部, 59 トリガ検出部, 60 表示制御部, 71 視線検出部, 72 頭部動き検出部, 73 表示部, 74 音声入出力部, 100 全体画像, 101 視野範囲, 111 視野画像, 112 広域画像, 113 視野範囲表示, 121 視野方向指示マーク,131 視野方向指示ライン,132 アイコン, 141 視野範囲表示,151 追尾画像, 162 アイコン, 163 矢印, 200 コンテンツ画像, 301 コンテンツ空間, 311 アバタ, 500 コンピュータ, 501 CPU

Claims (19)

  1. コンテンツのデータを取得するように構成されたコンテンツ取得部と、
    前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すように構成された画像切り出し部と、
    前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得するように構成された視野情報取得部と、
    前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを行うように構成された表示制御部と
    を備える情報処理装置。
  2. 前記表示制御部は、前記第2のユーザの視野情報に基づき、前記第2のユーザの視野の位置を示す視野位置指示画像を表示するよう前記表示装置を制御するように構成される
    請求項1に記載の情報処理装置。
  3. 前記視野位置指示画像は、前記第1の視野画像及び前記第2のユーザの視野に対応する第2の視野画像を含む広域画像を含む
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、所定のトリガに応じて、前記第1の視野画像と前記広域画像とを切り替えるよう前記表示装置を制御するように構成される
    請求項3に記載の情報処理装置。
  5. 前記所定のトリガは、前記第1のユーザによるキー操作、音声コマンド、頭部の動き、又はジェスチャ操作のうちの少なくとも一つを含む
    請求項4に記載の情報処理装置。
  6. 前記広域画像は、正距円筒図、メルカトル図、鳥瞰図、俯瞰図、又は2次元地図のうち少なくとも1つを含む
    請求項3に記載の情報処理装置。
  7. 前記視野位置指示画像は、前記第2のユーザの視野の位置を示す、前記第1の視野画像に対して重畳されるシンボル画像を含む
    請求項2に記載の情報処理装置。
  8. 前記第1のユーザの視線の移動、又は前記第1のユーザの頭部の移動の少なくとも一方に基づき、前記コンテンツ画像から切り出す前記第1の視野画像を決定するように構成された視野画像決定部をさらに備える
    請求項1に記載の情報処理装置。
  9. 前記視野画像決定部は、前記第1のユーザの視線が前記第1の視野画像の端部に近づいたことに応じ、前記第1の視野画像を、前記第1のユーザの視線を基準として移動するように構成される
    請求項8に記載の情報処理装置。
  10. 前記視野画像決定部は、前記第1のユーザの視線の回転角と前記第1のユーザの頭部の回転角とに基づいて、前記第1の視野画像の回転角を、前記第1のユーザの頭部の回転角よりも大きくするように構成される
    請求項8に記載の情報処理装置。
  11. 前記視野画像決定部は、前記第1のユーザが前記コンテンツの視聴を実質的に開始したタイミングに対応する前記第1の視野画像の初期位置を、前記第2のユーザの視野情報に基づいて決定するように構成される
    請求項8に記載の情報処理装置。
  12. 前記表示装置は、ヘッドマウントディスプレイであり、
    前記視野画像決定部は、前記ヘッドマウントディスプレイに関連付けられた、前記第1のユーザの視線の移動、又は前記第1のユーザの頭部の移動の少なくとも一方に基づき、前記第1の視野画像を決定するように構成される
    請求項8に記載の情報処理装置。
  13. 前記第2のユーザは、複数のユーザを含み、
    前記表示制御部は、前記複数のユーザに対応する複数のユーザ画像のうち少なくとも一つを前記第1の視野画像に重畳させるように前記表示装置を制御するように構成され、
    前記表示制御部は、前記第1の視野画像と、前記複数のユーザそれぞれの視野との位置関係に応じて、前記複数のユーザ画像それぞれを前記第1の視野画像に重畳させるか否かを制御するように構成される
    請求項1に記載の情報処理装置。
  14. 前記表示制御部は、前記複数のユーザのうち、その視野が前記第1の視野画像と相対的に近いユーザに対応するユーザ画像を前記第1の視野画像に優先的に重畳させるよう前記表示装置を制御するように構成される
    請求項13に記載の情報処理装置。
  15. 前記表示制御部は、前記第1のユーザと前記複数のユーザとのコミュニケーションの履歴に応じ、前記複数のユーザ画像のうち一部を優先的に前記第1の視野画像に重畳させるように前記表示装置を制御するよう構成される
    請求項13に記載の情報処理装置。
  16. 前記コンテンツ画像は、全天球画像又は自由視点画像である
    請求項1に記載の情報処理装置。
  17. 前記表示装置をさらに備える
    請求項1に記載の情報処理装置。
  18. コンテンツのデータを取得することと、
    前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すことと、
    前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得することと、
    前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することと
    を含む情報処理方法。
  19. コンテンツのデータを取得するように構成されたコンテンツ取得部と、
    前記コンテンツのデータに基づくコンテンツ画像から第1のユーザの視野に対応する第1の視野画像を切り出すように構成された画像切り出し部と、
    前記コンテンツ画像を視聴する第2のユーザの視野を表す視野情報を取得するように構成された視野情報取得部と、
    前記第1の視野画像を表示するよう表示装置を制御することと、前記第2のユーザの視野情報に基づいて前記第2のユーザの視野を表示するよう前記表示装置を制御することとを行うように構成された表示制御部と
    して、コンピュータを機能させるためのプログラム。
JP2019529056A 2017-07-13 2018-06-29 情報処理装置、情報処理方法、及びプログラム Active JP7127645B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017137027 2017-07-13
JP2017137027 2017-07-13
PCT/JP2018/024763 WO2019013016A1 (ja) 2017-07-13 2018-06-29 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019013016A1 true JPWO2019013016A1 (ja) 2020-05-07
JP7127645B2 JP7127645B2 (ja) 2022-08-30

Family

ID=65001256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019529056A Active JP7127645B2 (ja) 2017-07-13 2018-06-29 情報処理装置、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (4) US11094097B2 (ja)
EP (1) EP3654159A4 (ja)
JP (1) JP7127645B2 (ja)
KR (2) KR102662947B1 (ja)
CN (2) CN117931023A (ja)
WO (1) WO2019013016A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11287653B2 (en) 2015-09-09 2022-03-29 Vantrix Corporation Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
JP6744271B2 (ja) * 2017-09-22 2020-08-19 Kddi株式会社 表示装置、表示プログラム、表示方法及び表示システム
JP7080164B2 (ja) * 2018-12-17 2022-06-03 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP7339740B2 (ja) * 2019-02-14 2023-09-06 キヤノン株式会社 画像表示装置、画像表示装置の制御方法及びプログラム
WO2020184021A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020188721A1 (ja) * 2019-03-18 2020-09-24 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
CN110324648B (zh) * 2019-07-17 2021-08-06 咪咕文化科技有限公司 直播展现方法和系统
CA3084900A1 (en) * 2019-11-29 2021-05-29 Vantrix Corporation Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
CN113138734A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 用于显示的方法、装置和产品
US10999527B1 (en) * 2020-02-14 2021-05-04 Gopro, Inc. Generation of enhanced panoramic visual content
US11568610B2 (en) 2020-05-12 2023-01-31 Magic Leap, Inc. Privacy preserving expression generation for augmented or virtual reality client applications
JP7414139B2 (ja) * 2020-06-17 2024-01-16 日本電信電話株式会社 情報処理装置、情報処理方法及びプログラム
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
JP7466039B1 (ja) 2023-06-13 2024-04-11 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198692A (ja) * 2012-03-26 2013-10-03 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置、およびサーバシステム
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016131662A (ja) * 2015-01-19 2016-07-25 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
US20160361658A1 (en) * 2015-06-14 2016-12-15 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating
JP2017034479A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 制御装置、再生システム、補正方法、及び、コンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7673246B2 (en) * 2001-12-12 2010-03-02 Canon Kabushiki Kaisha Image information processing apparatus and method, virtual space presentation apparatus, information administration apparatus, and control methods thereof
JP4013922B2 (ja) 2004-06-14 2007-11-28 松下電工株式会社 仮想現実感生成装置および方法
US8161398B2 (en) * 2009-05-08 2012-04-17 International Business Machines Corporation Assistive group setting management in a virtual world
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US9094572B2 (en) * 2013-03-06 2015-07-28 Avaya Inc. Systems and methods to duplicate audio and visual views in a conferencing system
US20140267589A1 (en) * 2013-03-14 2014-09-18 Dai Nippon Printing Co., Ltd. Free viewpoint video display apparatus
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US20150331240A1 (en) * 2014-05-15 2015-11-19 Adam G. Poulos Assisted Viewing Of Web-Based Resources
JP2016045623A (ja) * 2014-08-21 2016-04-04 ソニー株式会社 情報処理装置および制御方法
GB2532243A (en) * 2014-11-13 2016-05-18 Nokia Technologies Oy An apparatus, method and computer program for using gaze tracking information
CN106296796B (zh) * 2015-06-04 2019-08-13 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
EP3128413A1 (en) * 2015-08-04 2017-02-08 Nokia Technologies Oy Sharing mediated reality content
US10565773B1 (en) * 2019-01-15 2020-02-18 Nokia Technologies Oy Efficient light field video streaming

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198692A (ja) * 2012-03-26 2013-10-03 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置、およびサーバシステム
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170150230A1 (en) * 2014-07-03 2017-05-25 Sony Corporation Information processing apparatus, information processing method, and program
JP2016131662A (ja) * 2015-01-19 2016-07-25 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
US20160361658A1 (en) * 2015-06-14 2016-12-15 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating
JP2017034479A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 制御装置、再生システム、補正方法、及び、コンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横井"THORMAN"祐介 ほか, メタルギア ソリッド2 サンズ オブ リバティ 公式完全ガイド〜エキスパート・ファイル〜, vol. 第1版,ISBN 4-575-16307-4, JPN6018028152, 5 March 2002 (2002-03-05), JP, pages 24 - 25, ISSN: 0004786447 *

Also Published As

Publication number Publication date
EP3654159A4 (en) 2020-07-22
US11861773B2 (en) 2024-01-02
KR20200031083A (ko) 2020-03-23
CN110869900A (zh) 2020-03-06
CN110869900B (zh) 2024-01-19
US20220028142A1 (en) 2022-01-27
KR102662947B1 (ko) 2024-05-07
EP3654159A1 (en) 2020-05-20
CN117931023A (zh) 2024-04-26
US11094097B2 (en) 2021-08-17
US20240070947A1 (en) 2024-02-29
JP7127645B2 (ja) 2022-08-30
US20200219300A1 (en) 2020-07-09
US20230281897A1 (en) 2023-09-07
KR20240064020A (ko) 2024-05-10
US11620776B2 (en) 2023-04-04
WO2019013016A1 (ja) 2019-01-17

Similar Documents

Publication Publication Date Title
JP7127645B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7167949B2 (ja) 画像処理装置、画像処理方法、および画像提供システム
JP7042644B2 (ja) 情報処理装置、画像生成方法およびコンピュータプログラム
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
US11250636B2 (en) Information processing device, information processing method, and program
JPWO2016002445A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11361497B2 (en) Information processing device and information processing method
JP6306765B1 (ja) 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
CN113938748B (zh) 视频播放方法、装置、终端、存储介质及程序产品
CN114651448A (zh) 信息处理系统、信息处理方法和程序
JP2018007180A (ja) 映像表示装置、映像表示方法及び映像表示プログラム
JP2021009647A (ja) 仮想現実制御装置、仮想現実ヘッドセット、仮想現実制御方法およびプログラム
JP2018142319A (ja) 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2018067157A (ja) 通信装置およびその制御方法
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP5653771B2 (ja) 映像表示機器及びプログラム
WO2024009653A1 (ja) 情報処理装置、情報処理方法、及び情報処理システム
JP2023067708A (ja) 端末、情報処理方法、プログラム、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R151 Written notification of patent or utility model registration

Ref document number: 7127645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151