WO2017115504A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2017115504A1
WO2017115504A1 PCT/JP2016/077349 JP2016077349W WO2017115504A1 WO 2017115504 A1 WO2017115504 A1 WO 2017115504A1 JP 2016077349 W JP2016077349 W JP 2016077349W WO 2017115504 A1 WO2017115504 A1 WO 2017115504A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
content
eye display
display unit
information
Prior art date
Application number
PCT/JP2016/077349
Other languages
English (en)
French (fr)
Inventor
秀人 森
健 西田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/060,233 priority Critical patent/US20180359463A1/en
Publication of WO2017115504A1 publication Critical patent/WO2017115504A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • HMD 10-1 according to the first embodiment and the HMD 10-2 according to the second embodiment may be collectively referred to as HMD10.
  • the server 20 is a device that stores a plurality of contents and applications. In addition, when a content acquisition request is received from another device such as the HMD 10, the server 20 can transmit the content to the other device based on the received acquisition request.
  • the server 20 When the server 20 does not store the requested content, the server 20 transmits the content acquisition request to another device connected to the communication network 22, and the other It is also possible to acquire content from the device.
  • the content acquisition unit 102 of the HMD 10-1 acquires the content to be displayed from the server 20, for example.
  • the content acquisition unit 102 also acquires content information (S101).
  • the drive control unit 108 sets the position and angle of the right eye display unit 126R to the actuator 128R according to the detected movement of the right eye 2R. It is also possible to change it.

Abstract

【課題】左目用表示部に表示される映像と右目用表示部に表示される映像とを、表示対象のコンテンツに適応的に変化させることが可能な、情報処理装置、情報処理方法、およびプログラムを提案する。 【解決手段】表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 従来、ユーザの左右の目に対して視差のある画像を表示する技術が提案されている。この技術によれば、ユーザは、画像を立体視することができ、奥行き感を知覚し得る。
 また、下記特許文献1には、観察画角を広げることを目的として、ユーザの眼前に配備される右目用光学系と左目用光学系とをそれぞれ外側に傾ける技術が記載されている。
特開2013-25101号公報
 しかしながら、特許文献1に記載の技術では、表示されるコンテンツとは無関係に、右目用光学系と左目用光学系とがそれぞれ外側に傾けられる。このため、例えば、コンテンツによっては、右目用光学系で表示される映像と、左目用光学系で表示される映像との位置関係が不適切になり得る。
 そこで、本開示では、左目用表示部に表示される映像と右目用表示部に表示される映像とを、表示対象のコンテンツに適応的に変化させることが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、を備える、情報処理装置が提供される。
 また、本開示によれば、表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とをプロセッサが変化させること、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、として機能させるための、プログラムが提供される。
 以上説明したように本開示によれば、左目用表示部に表示される映像と右目用表示部に表示される映像とを、表示対象のコンテンツに適応的に変化させることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の各実施形態に共通する情報処理システムの構成例を示した説明図である。 第1の実施形態によるHMD(Head Mounted Display)10‐1の原理を示した図である。 HMD10‐1の構成による視野角および両眼視領域32を示した模式図である。 第1の実施形態によるHMD10‐1の構成例を示した機能ブロック図である。 2Dコンテンツの映像信号に基づいて右目用画像および左目用画像が生成される例を示した説明図である。 左目で観察される左目用画像と、右目で観察される右目用画像との位置関係を示した説明図である。 3Dコンテンツの映像信号に基づいて右目用画像および左目用画像が生成される例を示した説明図である。 右目用画像の切り出し領域および左目用画像の切り出し領域の一例を示した説明図である。 図8に示した各切り出し領域に対して適用される補正の関数の例を示したグラフである。 第1の実施形態による動作例を示したフローチャートである。 第2の実施形態によるHMD10‐2の原理を示した図である。 第2の実施形態によるHMD10‐2の構成例を示した機能ブロック図である。 左目用表示部126Lに対する各ユーザの目の位置の例を示した説明図である。 右目用表示部126Rの移動の例を示した説明図である。 右目用表示部126Rの移動の例を示した説明図である。 第2の実施形態による動作例を示したフローチャートである。 各実施形態に共通するHMD10のハードウェア構成を示した説明図である。 本開示の変形例による左目用ディスプレイと右目用ディスプレイとの位置関係の変更例を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの基本構成
 2.第1の実施形態
 3.第2の実施形態
 4.ハードウェア構成
 5.変形例
 なお、本明細書及び図面において、第1の実施形態によるHMD10‐1、および第2の実施形態によるHMD10‐2を総称して、HMD10と称する場合がある。
<<1.情報処理システムの基本構成>>
 まず、本開示の各実施形態に共通する情報処理システムの基本構成について、図1を参照して説明する。図1に示したように、各実施形態による情報処理システムは、HMD10、サーバ20、および、通信網22を有する。
 <1-1.HMD10>
 HMD10は、本開示における表示装置または情報処理装置の一例である。HMD10は、コンテンツやアプリケーションの表示を制御する装置である。なお、以下では、HMD10がコンテンツの表示を制御する場面を中心として説明を行うが、アプリケーションの表示に関しても概略同様に制御可能である。
 例えば、HMD10は、通信網22を介してサーバ20から受信されるコンテンツに基づいて、後述する左目用表示部126Lに表示される左目用画像を生成し、かつ、後述する右目用表示部126Rに表示される右目用画像を生成する。ここで、コンテンツは、例えば各種記録媒体に記録されている映像データであってもよいし、通信網22を介して例えばサーバ20などから提供される映像データであってもよいし、または、その他のメディアファイルであってもよい。また、コンテンツは、2Dのコンテンツであってもよいし、3Dのコンテンツ(立体視映像)であってもよい。
 また、HMD10は、図1に示すように、基本的には、透過型のヘッドマウントディスプレイである。すなわち、右目用表示部126Rおよび左目用表示部126Lは透過型のディスプレイで構成され得る。但し、かかる例に限定されず、HMD10は、非透過型のヘッドマウントディスプレイであってもよい。
 <1-2.サーバ20>
 サーバ20は、複数のコンテンツやアプリケーションを記憶する装置である。また、サーバ20は、コンテンツの取得要求が例えばHMD10などの他の装置から受信された場合に、受信された取得要求に基づいてコンテンツを他の装置へ送信することが可能である。
 なお、要求されたコンテンツをサーバ20が記憶していない場合には、サーバ20は、通信網22に接続されている他の装置に対して当該コンテンツの取得要求を送信し、そして、当該他の装置からコンテンツを取得することも可能である。
 <1-3.通信網22>
 通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
<<2.第1の実施形態>>
 <2-1.背景>
 以上、各実施形態に共通する情報処理システムの構成について説明した。次に、第1の実施形態について説明する。まず、第1の実施形態によるHMD10‐1を創作するに至った背景について説明する。
 HMD10‐1では、例えばGUI(Graphical User Interface)などの仮想表示が適切な位置に配置されているようにユーザに知覚させることが望まれる。このため、左右の視差に応じて、適切な大きさおよび位置で仮想表示を左目と右目とに表示させる必要がある。
 しかしながら、公知のヘッドマウントディスプレイでは、両眼視差が他の認知よりも有効な領域(すなわち、ユーザからの距離が近い領域)において、右目用光学系によって表示される画像と左目用光学系によって表示される画像とが重ならない、または、重なる領域が小さい。すなわち、ユーザの近傍において、両眼視領域(すなわち、右目用画像と左目用画像とが重なっている領域)をほとんど形成することができない。
 そこで、上記事情を一着眼点にして、第1の実施形態によるHMD10‐1を創作するに至った。ここで、第1の実施形態の概要について、図2を参照して説明する。図2は、HMD10‐1の原理を示した図(上面図)である。HMD10‐1は、右目2Rに映像光を導く右目用光学系と、左目2Lに映像光を導く左目用光学系とを有する。そして、右目用光学系によって形成される右目用の虚像30Rにおける垂直方向の例えば中心線と右目2Rとを通る平面と、左目用光学系によって形成される左目用の虚像30Lにおける垂直方向の例えば中心線と左目2Lとを通る平面とが交差するように、右目用光学系と左目用光学系とが構成される。
 例えば、右目用光学系は、発光素子を含む右目用表示部126Rと一体的に構成され、かつ、左目用光学系は、発光素子を含む左目用表示部126Lと一体的に構成され得る。そして、図2に示すように、右目用の虚像30Rにおける垂直方向の中心線と右目2Rとを通る平面と、左目用の虚像30Lにおける垂直方向の中心線と左目2Lとを通る平面とが交差するように、右目用表示部126Rと左目用表示部126Lとが傾けられ得る。
 図3は、上述したようなHMD10‐1の構成による視野角および両眼視領域32を示した模式図(上面図)である。なお、図3の(a)は、第1の実施形態の比較例を示した図であり、また、図3の(b)は、HMD10‐1を示した図である。なお、本比較例は、右目用表示部126Rと左目用表示部126Lとが傾けられていない場合(すなわち、平行に設定されている場合)の例である。図3に示したように、HMD10‐1は、本比較例と比べて、よりユーザに近い距離から両眼視領域32が形成される。また、図3において矢印で示したように、ユーザの遠方では、本比較例とHMD10‐1との間で視野角の大きさの差はほとんど無く、広い視野角が確保される。
 <2-2.構成>
 次に、第1の実施形態によるHMD10‐1の構成について詳細に説明する。図4は、HMD10‐1の構成を示した機能ブロック図である。図4に示すように、HMD10‐1は、制御部100‐1、通信部120、センサ部122、記憶部124、左目用表示部126L、および、右目用表示部126Rを有する。
 [2-2-1.制御部100‐1]
 制御部100‐1は、HMD10‐1に内蔵される、後述するCPU(Central Processing Unit)150やRAM(Random Access Memory)154などのハードウェアを用いて、HMD10‐1の動作を全般的に制御する。また、図4に示すように、制御部100‐1は、コンテンツ取得部102、検出結果取得部104、および、出力制御部106を有する。
 [2-2-2.コンテンツ取得部102]
 コンテンツ取得部102は、表示対象のコンテンツを取得する。例えば、コンテンツ取得部102は、表示対象のコンテンツをサーバ20から受信する。または、コンテンツが記憶部124に格納されている場合には、コンテンツ取得部102は、表示対象のコンテンツを記憶部124から取得することも可能である。
 また、コンテンツ取得部102は、コンテンツの映像信号とともに、当該コンテンツのコンテンツ情報を取得することも可能である。ここで、コンテンツ情報は、例えば、該当のコンテンツの種類、ジャンル、または、タイトルなどを示すメタ情報である。
 [2-2-3.検出結果取得部104]
 検出結果取得部104は、センサ部122によりセンシングされた結果を取得する。例えば、検出結果取得部104は、HMD10‐1の速度、加速度、傾き、位置情報などの検出結果、または、環境の明るさなどの検出結果を取得する。また、検出結果取得部104は、センサ部122により撮影された画像を取得する。
 [2-2-4.出力制御部106]
 (2-2-4-1.画像の生成)
 出力制御部106は、コンテンツ取得部102により取得されたコンテンツの映像信号に基づいて右目用画像および左目用画像を生成する。例えば、コンテンツが2Dのコンテンツである場合には、出力制御部106は、当該コンテンツの(同一の)映像信号に基づいて右目用画像および左目用画像を生成する。また、コンテンツが3Dのコンテンツである場合には、出力制御部106は、コンテンツに含まれる右目用の映像信号に基づいて右目用画像を生成し、かつ、当該コンテンツに含まれる左目用の映像信号に基づいて左目用画像を生成する。
 より具体的には、出力制御部106は、コンテンツの映像信号から(生成対象の)右目用画像に対応する領域を切り出すことにより右目用画像を生成し、かつ、当該コンテンツの映像信号から(生成対象の)左目用画像に対応する領域を切り出すことにより左目用画像を生成する。
 ここで、図5~図8を参照して、上記の内容について説明する。図5は、2Dコンテンツの映像信号40に基づいて右目用画像42Rおよび左目用画像42Lが生成される例を示した説明図である。なお、図5では、映像信号40における水平方向(x方向)のx2~x3の区間の領域を右目用画像42Rおよび左目用画像42Lが含むように、右目用画像42Rおよび左目用画像42Lが生成される例を示している。図5に示したように、例えば、出力制御部106は、映像信号40の左端を含む領域(具体的にはx1~x3の区間の領域)を映像信号40から切り出すことにより右目用画像42Rを生成する。また、出力制御部106は、映像信号40の右端を含む領域(具体的にはx2~x4の区間の領域)を映像信号40から切り出すことにより左目用画像42Lを生成する。なお、右目用画像42Rおよび左目用画像42Lのサイズは、例えば左目用表示部126Lまたは右目用表示部126Rに表示可能な範囲内のサイズに定められ得る。
 図6は、上述した生成例による、左目用画像42Lと右目用画像42Rとの関係を示した説明図である。図6に示すように、左目用画像42Lは左目2Lで観察され、また、右目用画像42Rは右目2Rで観察される。また、図6に示すように、左目用画像42Lと右目用画像42Rとは互いに重なる領域と、重ならない領域とを含むように生成される。従って、広い視野角と、広い両眼視領域との両方を確保することを可能とする。
 図7は、3Dコンテンツに基づいて右目用画像42Rおよび左目用画像42Lが生成される例を示した説明図である。なお、図7では、コンテンツの右目用の映像信号40Rまたは左目用の映像信号40Lにおける水平方向のx2~x3の区間の領域をそれぞれ右目用画像42Rまたは左目用画像42Lが含むように、右目用画像42Rおよび左目用画像42Lが生成される例を示している。図7に示したように、例えば、出力制御部106は、右目用の映像信号40Rの左端を含む領域(具体的にはx1~x3の区間の領域)をそのまま切り出すことにより右目用画像42Rを生成する。また、出力制御部106は、左目用の映像信号40Lの右端を含む領域(具体的にはx2~x4の区間の領域)をそのまま切り出すことにより左目用画像42Lを生成する。
 なお、図5および図7では、コンテンツの映像信号全体から右目用画像または左目用画像が生成される例について説明したが、かかる例に限定されない。例えば、出力制御部106は、コンテンツの映像信号のうちの一部の領域(例えば80%の領域)に基づいて右目用画像または左目用画像を生成してもよい。
 ‐4種類のストリーム
 なお、一つのコンテンツには複数のストリームが予め用意され得る。例えば、一つのコンテンツには、公知の透過型ヘッドマウントディスプレイなどの表示デバイスで表示可能なコンテンツ(以下、ハの字型ディスプレイ用のコンテンツと称する場合がある)の左目用の映像信号および右目用の映像信号と、HMD10‐1で表示可能なコンテンツ(以下、HMD10‐1用のコンテンツと称する場合がある)の左目用の映像信号および右目用の映像信号との合計4種類のストリームが用意され得る。この場合、例えば、出力制御部106は、コンテンツ取得部102により取得された4種類のストリームのうち、HMD10‐1用のコンテンツの左目用の映像信号に基づいて左目用画像を生成し、また、当該コンテンツの右目用の映像信号に基づいて右目用画像を生成する。
 なお、例えば、HMD10‐1用のコンテンツの左目用の映像信号または当該コンテンツの右目用の映像信号が予め用意されていない等の理由により、HMD10‐1用のコンテンツの左目用の映像信号または当該コンテンツの右目用の映像信号が取得されない場合も想定される。この場合、例えば、出力制御部106は、コンテンツ取得部102により取得されたハの字型ディスプレイ用のコンテンツの左目用の映像信号および右目用の映像信号と、既存の画像処理技術とに基づいて、HMD10‐1用のコンテンツの代替映像を生成することも可能である。そして、出力制御部106は、生成した代替映像に基づいて、左目用画像または右目用画像を生成することが可能である。
 ‐コンテンツ情報を用いた画像の生成
 または、出力制御部106は、コンテンツ取得部102により(コンテンツとともに)取得されたコンテンツ情報に基づいて、右目用画像および左目用画像を生成することが可能である。例えば、出力制御部106は、コンテンツ情報が示す切り出し位置において、コンテンツの映像信号から(生成対象の)右目用画像に対応する領域と、(生成対象の)左目用画像に対応する領域とを切り出すことにより、右目用画像および左目用画像を生成してもよい。または、出力制御部106は、コンテンツ情報に基づいて、コンテンツの映像信号全体または特定の領域を拡大または縮小することにより、右目用画像および左目用画像を生成してもよい。
 ‐映像解析に基づいた画像の生成
 または、出力制御部106は、取得されたコンテンツの映像の解析に基づいて、右目用画像および左目用画像を生成することも可能である。例えば、出力制御部106は、コンテンツの映像解析結果に応じて切り出し位置を決定し、そして、決定した切り出し位置において、コンテンツの映像信号から右目用画像に対応する領域と、左目用画像に対応する領域とをそれぞれ切り出すことにより、右目用画像および左目用画像を生成してもよい。
 ‐映像信号のクリップ
 または、出力制御部106は、左目用表示部126Lまたは右目用表示部126Rが表示可能な映像のアスペクトに応じて、コンテンツの映像信号をクリップしたり、または、コンテンツの映像信号を拡大・縮小することが可能である。例えば、取得されたコンテンツが「16:9(=1920×1080)」の映像信号であり、かつ、左目用表示部126Lおよび右目用表示部126Rが「4:3(=640×480)」で映像を表示可能である場合には、出力制御部106は、取得されたコンテンツを「4:3」の映像信号に縮小し、そして、縮小した映像に基づいて右目用画像と左目用画像とを生成してもよい。
 ‐表示領域の決定
 または、出力制御部106は、取得されたコンテンツまたはコンテンツ情報に基づいて、コンテンツの表示位置を補正することも可能である。例えば、出力制御部106は、取得されたコンテンツまたはコンテンツ情報に基づいて、両眼視領域と片眼視領域(すなわち、右目用画像と左目用画像とが重なっていない領域)とのいずれに当該コンテンツ(に含まれる情報)を配置するかを決定する。例えば、取得されたコンテンツが3Dのコンテンツである場合には、出力制御部106は、当該コンテンツを両眼視領域に配置する。また、取得されたコンテンツが2Dのコンテンツである場合には、出力制御部106は、当該コンテンツを片眼視領域に配置してもよい。
 または、出力制御部106は、コンテンツに含まれる物体の初期位置とユーザとの距離に応じて、当該物体の配置位置を決定する。例えば、物体の初期位置とユーザとの距離が所定の閾値よりも小さい場合には、出力制御部106は、当該物体を両眼視領域に配置する。また、物体の初期位置とユーザとの距離が所定の閾値よりも大きい場合には、出力制御部106は、当該物体を片眼視領域に配置してもよい。また、物体の初期位置とユーザとの距離が中程度であり、かつ、当該物体の全部または一部が片眼視領域に表示される場合には、出力制御部106は、片眼視領域に表示される当該物体の表示を薄くしたり、ぼかしたり、または、ワイヤーフレームで表示させてもよい。これにより、物体までの距離を曖昧に知覚させる表現が可能となる。
 または、出力制御部106は、検出されたユーザの移動速度に応じて、コンテンツに含まれる物体の配置位置を決定する。例えば、ユーザの移動速度が所定の閾値以上である場合には、出力制御部106は、当該物体を片眼視領域(かつ、遠くの領域)に配置する。また、ユーザの移動速度が所定の閾値未満である場合には、出力制御部106は、当該物体を両眼視領域に配置する。
 または、出力制御部106は、3Dから2Dへ変化する映像(表現)に関しては、当該映像を簡易的に表示させてもよい。例えば、出力制御部106は、当該映像に関して、(例えばGPU(Graphics Processing Unit)によりリアルタイムで生成される)3Dの映像と、予め生成しておいた2Dの映像とをクロスフェードさせて表示させてもよい。さらに、出力制御部106は、(クロスフェードさせつつ)該当の映像のうち周辺視野領域に表示される映像をワイヤフレームで表示させたり、解像度を徐々に低下させたり、または、例えばブラーやシェーディングなどでぼかしてもよい。
 一般的に、周辺視野領域における人間の認識力は中心視野と比べて非常に低い。この制御例によれば、例えば境界部分が滑らかに表示されるので、不自然に知覚されることがない。さらに、例えばGPUなどの処理負荷を軽減することができる。
 (2-2-4-2.画像の補正処理)
 なお、コンテンツ(特に3Dのコンテンツ)の映像信号を単純に切り出すことにより右目用画像および左目用画像が生成された場合には、片眼視領域と両眼視領域との境界部分において例えば境界線が知覚されるなど不自然に知覚され得る。そこで、出力制御部106は、右目用画像の切り出し領域または左目用画像の切り出し領域に対して、片眼視領域と両眼視領域との境界部分において輝度変化を抑制する補正処理を行うことが好ましい。
 例えば、出力制御部106は、コンテンツにおける右目用画像の切り出し領域または左目用画像の切り出し領域における画素の輝度に応じた変化量で当該画素の輝度を変化させることが可能である。例えば、出力制御部106は、右目用画像の切り出し領域または左目用画像の切り出し領域における画素の輝度と所定のガンマ曲線とに基づいて、当該画素の輝度を変化させる。
 ここで、図8および図9を参照して、上記の内容について説明する。図8は、右目用画像の切り出し領域42Rおよび左目用画像の切り出し領域42Lの一例を示した説明図である。なお、図8では、(説明を容易にするため)切り出し領域42Rおよび切り出し領域42Lの全体が白色(白画面)である場合の例を示している。また、図8に示すように、切り出し領域42Rと切り出し領域42Lとは、x方向の「O1」および「O2」の区間において互いに重なる領域を有している。また、図9は、図8に示した切り出し領域42Rおよび切り出し領域42Lに対して適用される補正の関数の一例を示したグラフである。なお、図9の(a)が、切り出し領域42Rに対して適用される補正の関数の例を示したグラフであり、また、図9の(b)が、切り出し領域42Lに対して適用される補正の関数の例を示したグラフである。
 例えば、出力制御部106は、切り出し領域42Rのうち「O2」の区間の重なり領域422R(すなわち、切り出し領域42Rの右端を含む重なり領域)に対して、図9の(a)において「O2」の区間に示した形状のガンマ曲線を用いて輝度の補正を行う。また、出力制御部106は、左目用画像の切り出し領域42Lのうち「O1」の区間の重なり領域420L(すなわち、切り出し領域42Lの左端を含む重なり領域)に対して、図9の(b)において「O1」の区間に示した形状のガンマ曲線を用いて輝度の補正を行う。なお、ガンマ曲線の形状は、コンテンツの映像信号の画素ごとの輝度(図9に示した例では全て「255(最大値)」)に応じて定められ得る。また、図9では、ガンマ曲線における輝度の最低値が「0」である例を示しているが、かかる例に限定されず、任意の値に定められ得る。
 この補正例によれば、片眼視領域と両眼視領域との境界部分において右目用画像の切り出し領域と左目用画像の切り出し領域とが適切にブレンディングされるので、輝度変化が緩やかになる。このため、当該境界部分がユーザに自然に知覚され得る。
 また、出力制御部106は、切り出し後の右目用画像または左目用画像に対して、さらに歪除去を行うことも可能である。
 (2-2-4-3.画像の出力)
 また、出力制御部106は、生成した右目用画像を右目用表示部126Rに表示させ、かつ、生成した左目用画像を左目用表示部126Lに表示させる。
 [2-2-5.通信部120]
 通信部120は、HMD10‐1と通信可能な他の装置との間で情報の送受信を行う。例えば、通信部120は、コンテンツ取得部102の制御に従って、特定のコンテンツの取得要求をサーバ20へ送信する。また、通信部120は、サーバ20からコンテンツを受信する。
 [2-2-6.センサ部122]
 センサ部122は、例えば、3軸加速度センサ、ジャイロスコープ、磁気センサ、照度センサ、イメージセンサ、赤外線センサなどを含む。例えば、センサ部122は、HMD10‐1の速度、加速度、傾き、または方位などを測定する。また、センサ部122は、環境の明るさを測定する。また、センサ部122は、外部の映像をイメージセンサまたは赤外線センサを用いて検出することにより、デジタル画像として記録することも可能である。
 さらに、センサ部122は、例えばGPS(Global Positioning System)などの測位衛星から測位信号を受信して現在位置を測位する測位装置を含み得る。
 [2-2-7.記憶部124]
 記憶部124は、各種のデータや各種のソフトウェアを記憶する。
 [2-2-8.左目用表示部126L、右目用表示部126R]
 左目用表示部126Lおよび右目用表示部126Rは、発光により映像を表示する。例えば、左目用表示部126Lおよび右目用表示部126Rは、画像投影デバイスを有し、そして、左目用レンズ(左目用光学系)および右目レンズ(右目用光学系)のそれぞれ少なくとも一部の領域を投影面として当該画像投影デバイスに映像を投影させる。なお、左目用レンズおよび右目レンズは、例えば樹脂やガラスなどの透明材料により形成され得る。
 なお、変形例として、左目用表示部126Lおよび右目用表示部126Rはそれぞれ液晶パネルを有し、かつ、液晶パネルの透過率が制御可能であってもよい。これにより、左目用表示部126Lおよび右目用表示部126Rは、透明または半透明の状態に制御され得る。
 また、別の変形例として、左目用表示部126Lおよび右目用表示部126Rは、非透過型の表示装置として構成され、かつ、センサ部122により撮影される、ユーザの視線方向の映像が逐次表示されてもよい。例えば、左目用表示部126Lおよび右目用表示部126Rは、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などで構成されてもよい。
 <2-3.動作>
 以上、第1の実施形態による構成について説明した。次に、第1の実施形態による動作例について、図10を参照して説明する。図10は、第1の実施形態による動作の一例を示したフローチャートである。
 図10に示したように、まず、HMD10‐1のコンテンツ取得部102は、表示対象のコンテンツを例えばサーバ20から取得する。また、当該コンテンツがコンテンツ情報を有する場合には、コンテンツ取得部102は、コンテンツ情報も併せて取得する(S101)。
 そして、出力制御部106は、取得されたコンテンツが専用コンテンツ(すなわちHMD10‐1専用のコンテンツ)であるか否かを判定する(S103)。
 取得されたコンテンツが専用コンテンツである場合には(S103:Yes)、出力制御部106は、取得されたコンテンツの左目用の映像信号に基づいて左目用画像を生成し、かつ、当該コンテンツの右目用の映像信号に基づいて右目用画像を生成する(S105)。
 その後、左目用表示部126Lは、出力制御部106の制御に従って、生成された左目用画像を表示する。かつ、右目用表示部126Rは、出力制御部106の制御に従って、生成された右目用画像を表示する(S107)。
 また、S103において、取得されたコンテンツが専用コンテンツではない場合で(S103:No)、かつ、S101において当該コンテンツのコンテンツ情報が取得されている場合には(S109:Yes)、出力制御部106は、取得されたコンテンツおよびコンテンツ情報に基づいて、右目用画像および左目用画像を生成する(S111)。そして、HMD10‐1は、S107の処理を行う。
 また、S103において、取得されたコンテンツが専用コンテンツではない場合で(S103:No)、かつ、S101において当該コンテンツのコンテンツ情報が取得されなかった場合には(S109:No)、出力制御部106は、まず、当該コンテンツの映像信号を解析する(S113)。そして、出力制御部106は、当該コンテンツおよび映像解析の結果に基づいて、右目用画像および左目用画像を生成する(S115)。その後、HMD10‐1は、S107の処理を行う。
 <2-4.効果>
 以上説明したように、第1の実施形態によるHMD10‐1は、右目用の虚像30Rにおける垂直方向の中心線と右目2Rとを通る平面と、左目用の虚像30Lにおける垂直方向の中心線と左目2Lとを通る平面とが交差するように、右目用表示部126Rと左目用表示部126Lとが傾けられている。このため、広い視野角と、広い両眼視領域との両方を同時に確保することができる。
 例えば、公知の透過型ヘッドマウントディスプレイと比較して、よりユーザに近い距離から両眼視領域を確保することができる。従って、公知の技術と比較して、両眼視差が他の認知よりも有効な領域(ユーザからの距離が近い領域)のより広範囲において、両眼視差表現を用いた映像を適切に表示することができる。また、運動視差や相対的な物体の大きさが物体認知に有効な領域(ユーザからの距離が遠い領域)において、広い視野角の映像をユーザに視認させることができる。
 <2-5.変形例>
 なお、第1の実施形態は、上記の説明に限定されない。例えば、上記の説明では、HMD10‐1がコンテンツ取得部102および出力制御部106を有する例について説明したが、かかる例に限定されない。例えば、サーバ20が、HMD10‐1の代わりに、コンテンツ取得部102および出力制御部106(のそれぞれ少なくとも一部の機能)を有してもよい。
 そして、この変形例では、サーバ20は、表示対象のコンテンツと、例えばHMD10‐1などの他の装置から受信されるデバイス情報とに基づいて、右目用画像および左目用画像を生成し、そして、生成した右目用画像および左目用画像を当該他の装置へ送信することが可能である。例えば、サーバ20は、まず、他の装置から受信されるデバイス情報に基づいて、当該他の装置が有するディスプレイがハの字型ディスプレイであるか、HMD10‐1用のディスプレイ(すなわち、逆ハの字型ディスプレイ)であるかを判定する。次に、サーバ20は、表示対象のコンテンツの4種類のストリームのうち、判定したディスプレイ用の2種類のストリーム(すなわち、当該ディスプレイ用の左目用の映像信号および右目用の映像信号)を取得し、そして、取得したストリームに基づいて右目用画像および左目用画像を生成する。そして、サーバ20は、生成した右目用画像および左目用画像を当該他の装置へ送信する。
<<3.第2の実施形態>>
 以上、第1の実施形態について説明した。上述した第1の実施形態では、左目用表示部126Lと右目用表示部126Rとの位置関係(例えば角度など)が固定されている例について説明した。
 ところで、左目用表示部126Lと右目用表示部126Rとの望ましい位置関係は、利用シーンに応じて変化し得る。例えば、両眼視領域の広さを重視する場面では、左目用表示部126Lに表示される画像と、右目用表示部126Rに表示される画像との重なりの領域が大きくなるように、左目用表示部126Lと右目用表示部126Rとの位置関係が決まることが望ましい。この場合、例えば、図11の(a)に示すように、左目用表示部126Lと右目用表示部126Rとのなす角度が小さい、または、図2に示したように、左目用表示部126Lと右目用表示部126Rとが逆ハの字型に傾けられることが望ましい。
 また、視野角の広さを重視する場面では、左目用表示部126Lに表示される画像と、右目用表示部126Rに表示される画像との重なりの領域が小さくなるように、左目用表示部126Lと右目用表示部126Rとの位置関係が決まることが望ましい。この場合、例えば、図11の(b)に示すように、左目用表示部126Lと右目用表示部126Rとがハの字型に傾けられ、かつ、両者のなす角度が大きくなることが望ましい。
 次に、第2の実施形態について説明する。後述するように、第2の実施形態によるHMD10‐2は、左目用表示部126Lと右目用表示部126Rとの位置関係を、利用シーンに応じて変更することが可能である。
 ここで、左目用表示部126Lと右目用表示部126Rとの位置関係は手動で変更可能であってもよいし、自動で変更可能であってもよい。例えば、HMD10‐2に設置されているダイヤルなどの操作部(図示省略)に対する操作に基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係は手動で変更され得る。なお、左目用表示部126Lと右目用表示部126Rとの位置関係は、予め複数の段階が設けられ得る。
 <3-1.構成>
 まず、第2の実施形態によるHMD10‐2の構成について詳細に説明する。なお、以下では、第1の実施形態と重複する内容については説明を省略する。
 図12は、HMD10‐2の構成を示した機能ブロック図である。図12に示すように、HMD10‐2は、図4に示したHMD10‐1と比較して、制御部100‐1の代わりに、制御部100‐2を有する。この制御部100‐2は、駆動制御部108をさらに有する。また、HMD10‐2は、アクチュエータ128L、アクチュエータ128R、減光フィルター130L、および、減光フィルター130Rをさらに有する。
 [3-1-1.出力制御部106]
 (3-1-1-1.表示領域の決定)
 ‐コンテンツに関連する情報
 第2の実施形態による出力制御部106は、表示対象のコンテンツに関連する情報に基づいて、左目用表示部126Lで表示されるコンテンツ中の領域(以下、左目用表示領域と称する)と、右目用表示部126Rで表示されるコンテンツ中の領域(以下、右目用表示領域と称する)とを変化させる。例えば、出力制御部106は、左目用表示領域と右目用表示領域との重なりの程度を、表示対象のコンテンツに関連する情報に応じて変化させる。
 例えば、コンテンツが「16:9」の映像信号である場合、出力制御部106は、「16:9」の映像を表示可能なように、左目用表示領域と右目用表示領域との重なりの領域を小さくする。また、コンテンツが、領域の重なりに関する設定データを有する場合には、出力制御部106は、当該設定データに従って、左目用表示領域と右目用表示領域とを決定する。また、コンテンツが2Dのコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように(すなわち、左目用表示領域と右目用表示領域との合計の領域がより大きくなるように)左目用表示領域と右目用表示領域とを決定してもよい。また、コンテンツが3Dのコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。また、コンテンツが静止画のコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、コンテンツが示すジャンルに基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。ここで、コンテンツのジャンルとは、例えば、ナビゲーション、ショッピング、ゲーム、教育、または、例えばプラモデルの組み立ての取扱い説明書などの支援アプリケーションなどを含む。例えば、ジャンルがナビゲーションである場合、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、コンテンツに含まれるチャプターまたはシーンごとに、当該チャプターまたは当該シーンに関する情報に基づいて左目用表示領域と右目用表示領域とを決定することも可能である。
 また、表示対象が(コンテンツではなく)アプリケーションである場合には、出力制御部106は、アプリケーションが通知する情報に基づいて、アプリケーション中の左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 なお、アプリケーションにおいて、領域の重なりに関して特に規定されていない場合、もしくは、ユーザの行動に応じて領域の重なりを可変とするように規定されている場合には、出力制御部106は、ユーザまたは環境の状態に基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。
 ‐ユーザまたは環境に関連する情報
 また、出力制御部106は、ユーザまたは環境に関する情報に基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。ここで、ユーザまたは環境に関する情報は、例えば、ユーザの年齢、ユーザの設定情報、ユーザの移動速度、ユーザの行動認識の結果、または、ユーザの位置情報などを含み得る。
 ‐‐年齢
 例えば、ユーザの年齢が(例えば公的機関により定められている)3D視聴対象の年齢以外である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなる、もしくは無くなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザの年齢が3D視聴対象の年齢である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐設定情報
 また、広角での表示を希望することがユーザにより設定されているか否かに応じて、出力制御部106は、左目用表示領域と右目用表示領域とを決定してもよい。例えば、広角での表示を希望することが設定されている場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、広角での表示を希望しないことが設定されている場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐移動速度
 また、出力制御部106は、検出されたユーザの移動速度に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、検出された移動速度が所定の速度よりも大きい場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、検出された移動速度が所定の速度以下である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐行動認識
 また、出力制御部106は、検出結果取得部104によるユーザの行動認識の結果に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。ここで、ユーザの行動は、例えば、歩いている、走っている、自転車に乗っている、電車に乗っている、自動車に乗っている、階段を昇降している、エレベータまたはエスカレータに乗っているなどである。
 例えば、ユーザが歩いていることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザが走っていること、または、自転車に乗っていることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 また、ユーザが電車または自動車に乗っていることが認識された場合には、出力制御部106は、検出された電車または自動車の移動速度に応じて、左目用表示領域と右目用表示領域とを決定してもよい。例えば、検出された電車または自動車の移動速度が所定の速度よりも大きい場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、検出された電車または自動車の移動速度が所定の速度以下である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 また、ユーザが階段を昇降していることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐位置または場所
 また、出力制御部106は、検出されたユーザの位置に関する情報に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、出力制御部106は、検出されたユーザの位置情報に対応付けられている、領域の重なりに関する指定を含む情報を例えばサーバ20から取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。
 または、出力制御部106は、検出結果取得部104により特定される、ユーザが位置する場所に応じて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、ユーザがアトラクション施設にいることが特定された場合には、出力制御部106は、アトラクション施設の主催者により発信されている、領域の重なりに関する指定を含む情報を取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザがデパートなどの店舗にいることが特定された場合には、出力制御部106は、店舗の運営者により発信されている、領域の重なりに関する指定を含む情報を取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、ユーザが室内にいるか否かの検出結果に基づいて、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐行動履歴
 また、出力制御部106は、過去のユーザステータスを参照する設定がされているか否かに基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、過去のユーザステータスを参照する設定がされている場合には、出力制御部106は、ユーザの行動履歴に応じて、左目用表示領域と右目用表示領域とを決定してもよい。例えば、表示対象のコンテンツと同一または類似のコンテンツの過去の表示時に左目用表示領域と右目用表示領域とがどの程度重なるように設定されていたかに関する履歴に基づいて、出力制御部106は、左目用表示領域と右目用表示領域とを決定する。一例として、出力制御部106は、過去に最も多く設定された重なりの程度と同一になるように、左目用表示領域と右目用表示領域との重なりの領域を決定する。
 ここで、行動履歴は、該当のユーザ自身の行動履歴であってもよいし、または、該当のユーザと関連する他のユーザの行動履歴であってもよい。例えば、他のユーザは、該当のユーザが利用している所定のサービスに登録されている全部または一部のユーザである。
 また、過去のユーザステータスを参照する設定がされていない場合には、出力制御部106は、領域の重なりに関する現在の設定情報に応じて、左目用表示領域と右目用表示領域とを決定してもよい。
 (3-1-1-2.画像の生成)
 また、出力制御部106は、決定した左目用表示領域に基づいて左目用画像を生成し、かつ、決定した右目用表示領域に基づいて右目用画像を生成する。
 なお、出力制御部106は、左目用表示部126Lと右目用表示部126Rとの現在の位置関係に応じて、決定した左目用表示領域または右目用表示領域に含まれる物体を両眼視領域と片眼視領域とのいずれに配置するかを決定し、そして、決定した物体の配置に基づいて左目用画像および右目用画像を生成することも可能である。
 (3-1-1-3.ガイド情報の出力)
 また、左目用表示部126Lと右目用表示部126Rとの位置関係を手動で変更可能である場合には、出力制御部106は、決定した左目用表示領域と右目用表示領域とに応じて、当該位置関係の変更をユーザに指示するガイド情報の出力を制御する。ここで、ガイド情報は、位置関係の変更内容(例えば「ダイヤルを3番まで回すこと」)だけでなく、位置関係を変更するタイミングの指示を含み得る。
 例えば、出力制御部106は、決定した左目用表示領域と右目用表示領域とに応じて、当該位置関係の変更をユーザに指示するUIを左目用表示部126Lまたは右目用表示部126Rに表示させてもよいし、または、HMD10‐2に設置されているLEDをガイド情報に応じた点滅パターンで点滅させてもよい。または、出力制御部106は、ガイド情報の音声を出力させてもよいし、または、HMD10‐2またはユーザが携帯している他のデバイスを振動させてもよい。
 (3-1-1-4.位置関係の変更中を示す表示)
 また、左目用表示部126Lと右目用表示部126Rとの位置関係が(後述する駆動制御部108の制御により)自動で変更可能である場合には、出力制御部106は、左目用表示部126Lと右目用表示部126Rとの位置関係を変更中であることを示す表示を左目用表示部126Lまたは右目用表示部126Rに表示させる。例えば、出力制御部106は、変更中であることを示す文字または画像を左目用表示部126Lまたは右目用表示部126Rに表示させてもよい。または、出力制御部106は、左目用表示部126Lまたは右目用表示部126Rに現在表示されている映像を一時的に暗くしたり、表示されている映像の全部または一部を不明瞭に表示させたり、または、非表示にしてもよい。
 この制御例によれば、左目用表示部126Lと右目用表示部126Rとの位置関係が変化する際に視認性が低下する。従って、見た目の違和感を緩和させたり、または、映像酔いを軽減することができる。
 [3-1-2.駆動制御部108]
 駆動制御部108は、出力制御部106により決定された左目用表示領域と右目用表示領域とに基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係を自動的に変化させるための制御を実行する。例えば、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの位置関係が、決定された左目用表示領域と右目用表示領域とに応じた位置関係になるように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させる。
 ところで、HMD10‐2の装着時における、左目用表示部126Lまたは右目用表示部126Rに対するユーザの目の位置は、ユーザによって大きく異なり得る。例えば図13に示すように、左目用表示部126Lに対する或るユーザの左目の位置2-1Lと、別のユーザの左目の位置2-2Lとは大きく異なり得る。そして、左目用表示部126Lまたは右目用表示部126Rに対するユーザの目の位置によっては、ユーザは、表示対象のコンテンツを例えばコンテンツ製作者が想定する見え方(外観)通りに視認することができない場合がある。
 そこで、駆動制御部108は、例えばコンテンツごとに予め定められている目標の見え方と、左目用表示部126Lに対する左目の位置または右目用表示部126Rに対する右目の位置の検出結果とに基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係を変化させるための制御を実行することが好ましい。
 [3-1-3.アクチュエータ128L、アクチュエータ128R]
 アクチュエータ128Lおよびアクチュエータ128Rは、駆動制御部108の制御に従って、左目用表示部126Lまたは右目用表示部126Rの角度または位置を変化させる。
 図14および図15は、アクチュエータ128Rによる右目用表示部126Rの移動の例を示した説明図(上面図)である。例えば、図14の(a)に示すように、アクチュエータ128Rは、右目用表示部126Rの所定の位置を回転中心として右目用表示部126Rを例えば±90°回転させることが可能である。また、図14の(b)に示すように、アクチュエータ128Rは、例えばHMD10‐2に設けられたレール(図示省略)などに沿って、右目用表示部126Rの角度を維持したまま、右目用表示部126Rの位置に関して回転移動させることが可能である。また、図14の(c)に示すように、アクチュエータ128Rは、例えばレールなどに沿って、右目用表示部126Rを平行移動させることが可能である。
 または、図15に示すように、例えば右目2Rの動きが検出された場合には、駆動制御部108は、検出された右目2Rの動きに合わせて右目用表示部126Rの位置や角度をアクチュエータ128Rに変更させることも可能である。
 なお、図14および図15では、右目用表示部126Rの移動例について示しているが、左目用表示部126Lに関しても同様の方法で移動可能である。すなわち、アクチュエータ128Lは左目用表示部126Lを同様の方法で移動させることが可能である。
 [3-1-4.減光フィルター130L、減光フィルター130R]
 減光フィルター130Lおよび減光フィルター130Rは、例えばエレクトロクロミックなどの透過光量可変デバイスにより形成される。この減光フィルター130Lおよび減光フィルター130Rは、制御部100‐2の制御により、透過光量を減少させる。
 [3-1-5.変形例]
 なお、第2の実施形態によるHMD10‐2の構成は、上述した構成に限定されない。例えば、左目用表示部126Lと右目用表示部126Rとの位置関係は手動でのみ変更可能であってもよい。そして、この場合、駆動制御部108、アクチュエータ128L、および、アクチュエータ128Rは、HMD10‐2に含まれなくてもよい。
 また、減光フィルター130Lおよび減光フィルター130Rは、必ずしもHMD10‐2に含まれなくてもよい。
 <3-2.動作>
 以上、第2の実施形態による構成について説明した。次に、第2の実施形態による動作例について説明する。図16は、第2の実施形態による動作の一例を示したフローチャートである。なお、図16に示したS201は、第1の実施形態によるS101と同様である。
 S201の後、HMD10‐2のコンテンツ取得部102は、S201で取得されたコンテンツに関連する情報を例えばサーバ20から取得する(S203)。
 そして、検出結果取得部104は、センサ部122により検出される、ユーザまたは環境に関する情報を取得する(S205)。
 続いて、出力制御部106は、S203で取得されたコンテンツに関連する情報と、S205で取得されたユーザまたは環境に関する情報とに基づいて、左目用表示領域と右目用表示領域との重なりの程度を決定する。そして、出力制御部106は、決定した右目用表示領域に基づいて右目用画像を生成し、かつ、決定した左目用表示領域に基づいて左目用画像を生成する(S207)。
 そして、左目用表示部126Lと右目用表示部126Rとの位置関係が自動で変更可能ではない場合、すなわち手動でのみ変更可能である場合には(S209:No)、出力制御部106は、S207で決定された重なりの程度に応じて、右目用表示部126Rと左目用表示部126Lとの位置関係の変更をユーザに指示するUIを右目用表示部126Rまたは左目用表示部126Lに表示させる。そして、ユーザは、表示されたUIに沿って、例えばHMD10‐2の操作部に対して操作を行うことにより、右目用表示部126Rと左目用表示部126Lとの位置関係を変更する(S211)。その後、HMD10‐2は、後述するS215の処理を行う。
 一方、左目用表示部126Lと右目用表示部126Rとの位置関係が自動で変更可能である場合には(S209:Yes)、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの位置関係を、S207で決定された重なりの程度に応じて変更するように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させる(S213)。
 なお、図16に示したS215は、第1の実施形態によるS107と同様である。
 <3-3.効果>
 以上説明したように、第2の実施形態によるHMD10‐2は、利用シーンに応じて、左目用表示領域と右目用表示領域との重なりの程度を変化させることができる。
 例えば、両眼視領域の広さを重視する場面では、HMD10‐2は、左目用表示領域と左目用表示領域とが重なる領域が大きくなるように左目用表示領域と右目用表示領域とを決定する。また、視野角の広さを重視する場面では、HMD10‐2は、左目用表示領域と左目用表示領域とが重なる領域が小さくなるように左目用表示領域と右目用表示領域とを決定する。このように、HMD10‐2は、視野角の広さと両眼視領域の広さとを動的に調整することができ、利用シーンごとに最適な映像を表示することができる。
 <3-4.変形例>
 なお、第2の実施形態は、上述した説明に限定されない。例えば、HMD10‐2の一部が故障した場合には、出力制御部106は、エラーを通知する表示、音声、または振動を出力させることが可能である。または、この場合、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの角度が平行になるように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させてもよい。
 また、例えば自動車の運転中に移動速度が検出不可能になるなど、必要な情報が検出不可能になった場合には、出力制御部106は、左目用表示領域と左目用表示領域とが重なる領域をより小さくさせてもよい。これらの変形例によれば、HMD10‐2の使用時における安全性を向上することができる。
<<4.ハードウェア構成>>
 次に、各実施形態に共通するHMD10のハードウェア構成について、図17を参照して説明する。図17に示したように、HMD10は、CPU150、ROM152、RAM154、内部バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってHMD10内の動作全般を制御する。また、CPU150は、制御部100‐1または制御部100‐2の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
 内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を内部バス156と接続する。
 ストレージ装置164は、記憶部124として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
 通信装置166は、通信網22に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
<<5.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <5-1.変形例1>
 例えば、左目用ディスプレイおよび右目用ディスプレイが歪んでいる場合には、視認性が低下するという課題がある。ここで、図18の(a)を参照して、上記の内容についてより詳細に説明する。左目用ディスプレイおよび右目用ディスプレイが歪んでいる場合には、例えば、図18の(a)において破線で示したように、左目用表示領域44Lと右目用表示領域44Rとが重なる部分に関して、継ぎ目が凸凹になり得る。このため、継ぎ目の周辺の領域においてユーザは違和感を抱き得る。
 そこで、HMD10は、左目用ディスプレイおよび右目用ディスプレイの歪みに応じて、左目用ディスプレイと右目用ディスプレイとの位置関係(例えばディスプレイ間の角度など)を変化させることが望ましい。これにより、図18の(b)に示したように、左目用表示領域44Lと右目用表示領域44Rとが重なる部分に関して、継ぎ目を滑らかにつなげることができる。従って、ユーザに違和感を与えず、自然に知覚させることができる。
 <5-2.変形例2>
 また、上述した各実施形態では、本開示における表示装置および情報処理装置がHMD10である例について説明したが、かかる例に限定されない。例えば、当該表示装置または当該情報処理装置は、例えばレーザー光により網膜上に画像を描画する投影デバイスであってもよい。
 <5-3.変形例3>
 また、上述した制御部100‐1(または制御部100‐2)に含まれる全ての構成要素は、HMD10‐1(またはHMD10‐2)の代わりに、サーバ20に搭載されてもよい。そして、この場合、本開示における表示装置または情報処理装置は、HMD10‐1(またはHMD10‐2)ではなく、サーバ20になり得る。
 または、当該表示装置または当該情報処理装置は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、または、ゲーム機など、通信網22に接続可能な他の種類の装置であってもよい。
 また、上述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した各実施形態によるHMD10‐1またはHMD10‐2の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、
を備える、情報処理装置。
(2)
 前記出力制御部は、前記コンテンツに関連する情報に基づいて、前記第1の領域と前記第2の領域とが重なる領域の広さが変わるように前記第1の領域および前記第2の領域を決定する、前記(1)に記載の情報処理装置。
(3)
 前記情報処理装置は、前記出力制御部により決定された前記第1の領域と前記第2の領域とに基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御を実行する駆動制御部をさらに備える、前記(1)または(2)に記載の情報処理装置。
(4)
 前記駆動制御部は、さらに、左目または右目の位置の検出に基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御を実行する、前記(3)に記載の情報処理装置。
(5)
 前記出力制御部は、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御の実行時において、前記左目用表示部と前記右目用表示部との位置関係が変更中であることを示す表示を表示させる、前記(3)または(4)に記載の情報処理装置。
(6)
 前記出力制御部は、さらに、前記コンテンツに関連する情報に基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるためのガイド情報の出力を制御する、前記(1)または(2)に記載の情報処理装置。
(7)
 前記ガイド情報は、前記左目用表示部と前記右目用表示部との位置関係を変化させるタイミングを示す情報を含む、前記(6)に記載の情報処理装置。
(8)
 前記コンテンツに関連する情報は、前記コンテンツが三次元の映像を含むか否かを示す情報を含む、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記コンテンツに関連する情報は、前記コンテンツが静止画であるか否かを示す情報を含む、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記コンテンツに関連する情報は、前記コンテンツのジャンルを示す情報を含む、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
 前記コンテンツに関連する情報は、前記第1の領域と前記第2の領域との重なりに関する設定情報を含む、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記出力制御部は、さらに、ユーザまたは環境に関する情報に基づいて、前記第1の領域と前記第2の領域とを変化させる、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 前記ユーザまたは環境に関する情報は、ユーザの年齢を含む、前記(12)に記載の情報処理装置。
(14)
 前記ユーザまたは環境に関する情報は、前記第1の領域と前記第2の領域との重なりに関するユーザの設定情報を含む、前記(12)または(13)に記載の情報処理装置。
(15)
 前記ユーザまたは環境に関する情報は、ユーザの移動速度を含む、前記(12)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記ユーザまたは環境に関する情報は、ユーザの行動認識の結果を含む、前記(12)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記ユーザまたは環境に関する情報は、ユーザが位置する場所の情報を含む、前記(12)~(16)のいずれか一項に記載の情報処理装置。
(18)
 前記ユーザまたは環境に関する情報は、ユーザの行動履歴を含む、前記(12)~(17)のいずれか一項に記載の情報処理装置。
(19)
 表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とをプロセッサが変化させること、
を含む、情報処理方法。
(20)
 コンピュータを、
 表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、
として機能させるための、プログラム。
10‐1、10‐2 HMD
20 サーバ
22 通信網
100‐1、100‐2 制御部
102 コンテンツ取得部
104 検出結果取得部
106 出力制御部
108 駆動制御部
120 通信部
122 センサ部
124 記憶部
126L 左目用表示部
126R 右目用表示部
128L、128R アクチュエータ
130L、130R 減光フィルター

Claims (20)

  1.  表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、
    を備える、情報処理装置。
  2.  前記出力制御部は、前記コンテンツに関連する情報に基づいて、前記第1の領域と前記第2の領域とが重なる領域の広さが変わるように前記第1の領域および前記第2の領域を決定する、請求項1に記載の情報処理装置。
  3.  前記情報処理装置は、前記出力制御部により決定された前記第1の領域と前記第2の領域とに基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御を実行する駆動制御部をさらに備える、請求項1に記載の情報処理装置。
  4.  前記駆動制御部は、さらに、左目または右目の位置の検出に基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御を実行する、請求項3に記載の情報処理装置。
  5.  前記出力制御部は、前記左目用表示部と前記右目用表示部との位置関係を変化させるための制御の実行時において、前記左目用表示部と前記右目用表示部との位置関係が変更中であることを示す表示を表示させる、請求項3に記載の情報処理装置。
  6.  前記出力制御部は、さらに、前記コンテンツに関連する情報に基づいて、前記左目用表示部と前記右目用表示部との位置関係を変化させるためのガイド情報の出力を制御する、請求項1に記載の情報処理装置。
  7.  前記ガイド情報は、前記左目用表示部と前記右目用表示部との位置関係を変化させるタイミングを示す情報を含む、請求項6に記載の情報処理装置。
  8.  前記コンテンツに関連する情報は、前記コンテンツが三次元の映像を含むか否かを示す情報を含む、請求項1に記載の情報処理装置。
  9.  前記コンテンツに関連する情報は、前記コンテンツが静止画であるか否かを示す情報を含む、請求項1に記載の情報処理装置。
  10.  前記コンテンツに関連する情報は、前記コンテンツのジャンルを示す情報を含む、請求項1に記載の情報処理装置。
  11.  前記コンテンツに関連する情報は、前記第1の領域と前記第2の領域との重なりに関する設定情報を含む、請求項1に記載の情報処理装置。
  12.  前記出力制御部は、さらに、ユーザまたは環境に関する情報に基づいて、前記第1の領域と前記第2の領域とを変化させる、請求項1に記載の情報処理装置。
  13.  前記ユーザまたは環境に関する情報は、ユーザの年齢を含む、請求項12に記載の情報処理装置。
  14.  前記ユーザまたは環境に関する情報は、前記第1の領域と前記第2の領域との重なりに関するユーザの設定情報を含む、請求項12に記載の情報処理装置。
  15.  前記ユーザまたは環境に関する情報は、ユーザの移動速度を含む、請求項12に記載の情報処理装置。
  16.  前記ユーザまたは環境に関する情報は、ユーザの行動認識の結果を含む、請求項12に記載の情報処理装置。
  17.  前記ユーザまたは環境に関する情報は、ユーザが位置する場所の情報を含む、請求項12に記載の情報処理装置。
  18.  前記ユーザまたは環境に関する情報は、ユーザの行動履歴を含む、請求項12に記載の情報処理装置。
  19.  表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とをプロセッサが変化させること、
    を含む、情報処理方法。
  20.  コンピュータを、
     表示させるコンテンツに関連する情報に基づいて、左目用表示部に表示される前記コンテンツ中の領域である第1の領域と、右目用表示部に表示される前記コンテンツ中の領域である第2の領域とを変化させる出力制御部、
    として機能させるための、プログラム。
PCT/JP2016/077349 2015-12-28 2016-09-15 情報処理装置、情報処理方法、およびプログラム WO2017115504A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/060,233 US20180359463A1 (en) 2015-12-28 2016-09-15 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015255884 2015-12-28
JP2015-255884 2015-12-28

Publications (1)

Publication Number Publication Date
WO2017115504A1 true WO2017115504A1 (ja) 2017-07-06

Family

ID=59224905

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077349 WO2017115504A1 (ja) 2015-12-28 2016-09-15 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US20180359463A1 (ja)
WO (1) WO2017115504A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508426A (ja) * 2017-11-01 2021-03-04 ヴイアールジニアズ インコーポレイテッドVrgineers, Inc. 双方向性拡張または仮想現実装置
WO2021095396A1 (ja) * 2019-11-15 2021-05-20 ソニーグループ株式会社 画像表示装置及び調整方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10742964B2 (en) * 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images
JP2019154008A (ja) * 2018-03-06 2019-09-12 シャープ株式会社 立体画像表示装置、液晶ディスプレイの表示方法、および液晶ディスプレイのプログラム
US11057614B1 (en) * 2018-09-05 2021-07-06 Apple Inc. Motion blur compensation through display actuation
IL264032B (en) * 2018-12-30 2020-06-30 Elbit Systems Ltd System and methods for removing artifacts in binocular displays

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829725A (ja) * 1994-05-10 1996-02-02 Canon Inc 複眼式画像表示装置
JPH08125947A (ja) * 1994-10-21 1996-05-17 Canon Inc 画像表示装置
JP2002328330A (ja) * 2001-04-27 2002-11-15 Sony Corp 映像表示装置
JP2004007315A (ja) * 2002-06-03 2004-01-08 Victor Co Of Japan Ltd ヘッドマウントディスプレイ装置
JP2010171608A (ja) * 2009-01-21 2010-08-05 Nikon Corp 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP2011082698A (ja) * 2009-10-05 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
JP2011193057A (ja) * 2010-03-11 2011-09-29 Toshiba Corp 立体表示装置、映像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US8831278B2 (en) * 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US20140375540A1 (en) * 2013-06-24 2014-12-25 Nathan Ackerman System for optimal eye fit of headset display device
US20160239985A1 (en) * 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829725A (ja) * 1994-05-10 1996-02-02 Canon Inc 複眼式画像表示装置
JPH08125947A (ja) * 1994-10-21 1996-05-17 Canon Inc 画像表示装置
JP2002328330A (ja) * 2001-04-27 2002-11-15 Sony Corp 映像表示装置
JP2004007315A (ja) * 2002-06-03 2004-01-08 Victor Co Of Japan Ltd ヘッドマウントディスプレイ装置
JP2010171608A (ja) * 2009-01-21 2010-08-05 Nikon Corp 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP2011082698A (ja) * 2009-10-05 2011-04-21 Nikon Corp 画像生成装置、画像生成方法、および、プログラム
JP2011193057A (ja) * 2010-03-11 2011-09-29 Toshiba Corp 立体表示装置、映像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508426A (ja) * 2017-11-01 2021-03-04 ヴイアールジニアズ インコーポレイテッドVrgineers, Inc. 双方向性拡張または仮想現実装置
WO2021095396A1 (ja) * 2019-11-15 2021-05-20 ソニーグループ株式会社 画像表示装置及び調整方法

Also Published As

Publication number Publication date
US20180359463A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
WO2017115504A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017115505A1 (ja) 表示装置
US9756319B2 (en) Virtual see-through instrument cluster with live video
JP6511386B2 (ja) 情報処理装置および画像生成方法
US20200035206A1 (en) Compositing an image for display
EP3757727B1 (en) Image re-projection for foveated rendering
JP2013174642A (ja) 映像表示装置
JP2006301654A (ja) 画像呈示装置
JP2014232484A (ja) 情報処理装置、情報処理方法、及びプログラム
CN112116716A (zh) 基于检测到的对象来定位的虚拟内容
US10403048B2 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
JP2018042236A (ja) 情報処理装置、情報処理方法、及びプログラム
US11543655B1 (en) Rendering for multi-focus display systems
US10853681B2 (en) Information processing device, information processing method, and program
US10602116B2 (en) Information processing apparatus, information processing method, and program for performing display control
US11694379B1 (en) Animation modification for optical see-through displays
US10659755B2 (en) Information processing device, information processing method, and program
US11237413B1 (en) Multi-focal display based on polarization switches and geometric phase lenses
US20230396750A1 (en) Dynamic resolution of depth conflicts in telepresence
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
GB2560156A (en) Virtual reality system and method
JP2017069924A (ja) 画像表示装置
JP2018504014A (ja) 三次元の外観を有する画像の再生方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16881484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16881484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP