WO2018116580A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2018116580A1
WO2018116580A1 PCT/JP2017/036485 JP2017036485W WO2018116580A1 WO 2018116580 A1 WO2018116580 A1 WO 2018116580A1 JP 2017036485 W JP2017036485 W JP 2017036485W WO 2018116580 A1 WO2018116580 A1 WO 2018116580A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
stereoscopic image
information processing
plane
display surface
Prior art date
Application number
PCT/JP2017/036485
Other languages
English (en)
French (fr)
Inventor
横山 一樹
青山 幸治
谷野 友哉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP17882492.6A priority Critical patent/EP3550833A4/en
Priority to US16/347,062 priority patent/US11106050B2/en
Priority to CN201780076643.6A priority patent/CN110073660B/zh
Priority to JP2018557557A priority patent/JP7099326B2/ja
Priority to KR1020197014845A priority patent/KR102402381B1/ko
Publication of WO2018116580A1 publication Critical patent/WO2018116580A1/ja
Priority to US17/444,419 priority patent/US11924402B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • the field of view of the user is the range in which the field of view F32 and the field of view F33 are combined
  • the field of view for the user to observe the content can be obtained by displaying the object O31 on the back side of the display surface 92. Limited to F32.
  • FIG. 5 is a block diagram illustrating a configuration example of the information processing apparatus 1 according to the present embodiment.
  • the distance from the lower end 122 of the display surface 12 to the upper end 124 of the display surface 12 is L1.
  • a space having the lower end 122 of the display surface 12 and the upper end 124 of the display surface 12 as diagonal sides is set as a drawing space B10 by the control unit 50 described later.
  • the bottom surface B12 of the drawing space B10 is a horizontal surface (horizontal plane in the real space) with respect to the real space.
  • the bottom surface B12 is preferably substantially the same surface as the installation surface of the display unit 10.
  • the display surface detection unit 20 may be realized by, for example, any one of an acceleration sensor, a gyro sensor, and a magnetic sensor having a predetermined relationship with the display surface 12, or a combination of the above.
  • the display surface information acquisition unit 52 acquires display surface information regarding the display surface 12. For example, the display surface information acquisition unit 52 may acquire, from the display surface detection unit 20, information on an angle formed by the horizontal plane in the real space and the display surface 12 (attitude of the display surface 12) as display surface information. The display surface information acquisition unit 52 may acquire information on the distance from the lower end to the upper end of the display surface from the storage unit 40 as display surface information. The display surface information acquisition unit 52 provides the acquired display surface information to the display control unit 58.
  • FIG. 8 is a flowchart showing an operation example of the present embodiment.
  • 9 and 10 are explanatory diagrams for explaining the display control process by the display control unit 58 of the present embodiment.
  • the display control unit 58 virtually arranges the virtual projector Vpj at the same position and direction as the virtual camera Vc, and on the virtual display surface Vd virtually installed on the display surface 12 from the virtual projector Vpj,
  • the viewpoint image acquired in step S110 is projected (S112).
  • the virtual projector Vpj may project the viewpoint image with the same parameters as the virtual camera Vc (for example, focal length parameter, distortion parameter, etc.).
  • the content described in the above embodiment is an example, and the present technology is not limited to the example.
  • the display control unit 58 may display various contents.
  • the display surface 12 displays a mirror image O61 of the three-dimensional object O51, a mirror image P61 of the floor surface P51, and a mirror image O62 of the shadow object O52 of the three-dimensional object O51 added to the floor surface P51.
  • the display control unit 58 reproduces the reflection seen from the user's viewpoint based on the position and posture of the user's right eye and left eye, and draws it on the mirror surface (second plane), thereby the mirror image O61,
  • the mirror image P61 and the mirror image O62 are recognized by the user as mirror images. Such a configuration can further enhance the sense of coexistence.
  • the information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing apparatus 900 includes a bridge 904, an external bus 904b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, a communication device 913, and a sensor 915.
  • the information processing apparatus 900 may include a processing circuit such as a DSP or an ASIC in place of or in addition to the CPU 901.
  • the storage device 908 is a data storage device formed as an example of a storage unit of the information processing device 900.
  • the storage apparatus 908 is realized by, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the storage device 908 can form the storage unit 40, for example.
  • the drive 909 is a storage medium reader / writer, and is built in or externally attached to the information processing apparatus 900.
  • the drive 909 reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903.
  • the drive 909 can also write information to a removable storage medium.
  • a first plane parallel to the horizontal plane is observed in a region corresponding to a distance from the lower end to the upper end of the display surface on which the display unit displays a stereoscopic image and an angle formed between the horizontal plane and the display plane in real space.
  • an information processing method including displaying a stereoscopic image by a processor.
  • a first plane parallel to the horizontal plane is provided in a region corresponding to a distance from the lower end to the upper end of the display surface on which the display unit displays a stereoscopic image and an angle formed between the horizontal plane and the display surface in real space.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

立体画像を観察するユーザの負担を抑制するための情報処理装置、情報処理方法、及びプログラムを提供する。そのために、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように前記立体画像を表示させる表示制御を行う。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年、コンテンツを立体的に表示することが可能な立体画像表示装置が普及しつつある。立体画像表示装置では、例えばディスプレイ上に右目用画像及び左目用画像を水平方向にずらして表示し、そのずれの程度で視差量を調整し、これにより、奥行き方向の任意の距離にコンテンツを表示することが可能である。
 コンテンツを立体的に表示する方法としては、専用の眼鏡を用いた方式が提案されてきたが、近年では、専用の眼鏡を用いずに立体画像を見せることが可能な裸眼立体画像表示装置が提案されている(例えば下記特許文献1等)。
特開2015-012560号公報
 上記のような裸眼立体画像表示装置において、例えば表示されるコンテンツがユーザ(観察者)と同一の空間に存在するように感じさせるためには、視差量を大きくすることが望ましい。しかし、大きな視差量でコンテンツを表示すると、融像し辛くなり、例えば疲れや酔いが発生し易くなるため、ユーザにとって負担が大きくなる恐れがあった。
  そこで、本開示では、立体画像を観察するユーザの負担を抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
 本開示によれば、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように前記立体画像を表示させる表示制御部、を備える情報処理装置が提供される。
 また、本開示によれば、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、プロセッサが前記立体画像を表示させること、を含む情報処理方法が提供される。
 また、本開示によれば、コンピュータに、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、前記立体画像を表示させる機能、を実現させるための、プログラムが提供される。
 以上説明したように本開示によれば、立体画像を観察するユーザの負担を抑制することが可能である。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
立体ディスプレイによる立体表示の一例を示す説明図である。 立体ディスプレイによる立体表示の他の例を示す説明図である。 立体ディスプレイによる立体表示の他の例を示す説明図である。 本開示の一実施形態の概要を説明するための説明図である。 同実施形態に係る情報処理装置の構成例を示すブロック図である。 同実施形態に係る表示部10の設置例を示す説明図である。 同実施形態に係る表示制御部58が表示させる立体画像により、ユーザが知覚する立体感について説明するための説明図である。 同実施形態に係る動作例を示すフローチャート図である。 同実施形態に係る表示制御部58による表示制御処理を説明するための説明図である。 同実施形態に係る表示制御部58による表示制御処理を説明するための説明図である。 同実施形態に係る変形例を説明するための説明図である。 同実施形態に係る変形例を説明するための説明図である。 同実施形態に係る変形例を説明するための説明図である。 同実施形態に係る変形例を説明するための説明図である。 ハードウェア構成例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 <<1.概要>>
 <<2.構成>>
 <<3.動作>>
 <<4.変形例>>
  <4-1.変形例1>
  <4-2.変形例2>
  <4-3.変形例3>
 <<5.ハードウェア構成例>>
 <<6.むすび>>
 <<1.概要>>
 近年、専用の眼鏡を用いずにコンテンツを立体的に表示することが可能な裸眼立体画像表示装置(以下、裸眼立体ディスプレイ、または単に立体ディスプレイとも称する)が提案されている。このような裸眼立体ディスプレイは、視認角度毎に水平方向にずらした画像を表示することが可能であり、ユーザが左眼と右目で異なる画像を見ることで、コンテンツが立体的に観察され得る。
 このような立体表示において、ユーザが感じる立体感や、コンテンツが同一空間に存在するかのような感覚(以下、共存感とも称する)を高めるためには、例えば右目用画像及び左目用画像の水平方向のずれによって生じる視差量を大きくすることが望ましい。
 図1~図3は、立体ディスプレイによる立体表示の一例を示す説明図である。図1に示す例では、立体ディスプレイの表示面92の近傍に立体的なオブジェクトO11(コンテンツの一例)が表示されている。
 図1に示す例では、ユーザは比較的自由な視点位置から観察可能であり、例えばユーザが視点V11で観察した場合には視野F11にオブジェクトO11が含まれ、ユーザが視点V12で観察した場合には視野F12にオブジェクトO11が含まれる。しかし、ユーザは表示面92を基準にオブジェクトO11の奥行きを知覚するため、オブジェクトO11が表示面92の近傍に表示される図1の例では十分な立体感を得ることが困難である。また、図1に示す例では、オブジェクトO11の全体が表示面92の近傍に存在するため、立体ディスプレイに表示されているという感覚が強く、十分な共存感を得ることも困難である。
 立体感や共存感を高めるためには、例えば表示面92の手前側や奥側に知覚されるようにオブジェクトを配置することが考えられる。図2に示す例では、立体ディスプレイの表示面92の手前側にオブジェクトO21が配置され、図3に示す例では、立体ディスプレイの表示面92の奥側にオブジェクトO31が配置されている。
 しかし、図2に示すように表示面92の手前側にオブジェクトを配置すると、図1に示す例よりオブジェクトが大きく表示されるため、ユーザがオブジェクトO21を立体的に観察可能な視点位置が図1に示す例よりも制限される場合がある。図2に示す例では、ユーザが視点V21で観察した場合には視野F21にオブジェクトO21が全て含まれるが、ユーザが視点V22で観察した場合には視野F22にオブジェクトO21の一部が含まれない。そのため、ユーザが視点V22で観察した場合、所謂張り付き効果(額縁効果)が生じ、オブジェクトO21を立体的に観察することが困難となる恐れがある。
 また、図2に示すように表示面92の手前側にオブジェクトを配置する場合、図1に示す例よりもユーザが知覚する視差量(両眼視差量)が大きくなる。大きな視差量でコンテンツを観察すると、融像し辛くなり、疲れや酔いが発生し易くなるため、ユーザにとって負担が大きくなる恐れがあった。
 また、図3に示すように表示面92の奥側にオブジェクトを配置すると、ユーザは表示面92の奥側に存在する箱の中にオブジェクトO31が存在するように知覚する。そのため、ユーザの視野が制限され(狭くなり)、ユーザがオブジェクトO31を立体的に観察可能な視点位置が図1に示す例よりも制限される場合がある。図3に示す例では、ユーザが視点V31で観察した場合には視野F31にオブジェクトO31が全て含まれるが、ユーザが視点V32で観察した場合には視野F32にオブジェクトO31の一部が含まれない。ここで、ユーザの視野は視野F32と視野F33を合わせた範囲であるにも関わらず、表示面92の奥側にオブジェクトO31が表示されたことにより、ユーザがコンテンツを観察するための視野が視野F32に制限されている。
 また、図3に示すように表示面92の奥側にオブジェクトを配置した場合も、図2に示す例と同様にユーザが知覚する視差量が大きくなるため、ユーザにとって負担が大きくなる恐れがあった。
 そこで、上記事情を一着眼点にして本開示の一実施形態を創作するに至った。本実施形態によれば、立体画像を観察するユーザの負担を抑制しつつ、より広い範囲でユーザが立体的に観察することが可能である。図4は、本実施形態の概要を説明するための説明図である。
 図1~図3に示す例では、立体ディスプレイの表示面92が実空間における水平面に対して垂直になるように立体ディスプレイが設置されていた。一方、図4に示す例では、立体ディスプレイの表示面12が実空間における水平面に対して、斜めに(非垂直に)なるように立体ディスプレイが設置される。また、図4に示す例では、オブジェクトO1(立体オブジェクト)が、水平面に対して正立しつつ、表示面12と交差するように配置される。
 係る構成により、ユーザに表示面を感じさせることなく、オブジェクトO1がユーザと同じ空間に存在するような共存感を与えることが可能である。また、図2、図3に示した例よりも視差量を抑えつつも、後述するように、床面や壁面を配置することにより、十分な立体感を与えることが可能であり、ユーザへの負担を抑制することが可能である。また、図4に示すように、ユーザが視点V1で観察した場合には視野F1にオブジェクトO1が含まれ、ユーザが視点V2で観察した場合には視野F2にオブジェクトO1が含まれるため、ユーザはより広い視点位置から観察可能である。
 以下、このような効果を有する本実施形態に係る構成、及び動作について順次詳細に説明する。
 <<2.構成>>
 以上、本開示の一実施形態の概要について説明した。続いて、本実施形態に係る構成について説明する。図5は、本実施形態に係る情報処理装置1の構成例を示すブロック図である。
 図5に示すように本実施形態に係る情報処理装置1は、表示部10、表示面検出部20、ユーザ検出部30、記憶部40、及び制御部50を備える。
 表示部10は、後述する制御部50の制御に従い、立体画像を表示するディスプレイである。例えば、表示部10は裸眼立体ディスプレイ(裸眼立体画像表示装置)であってもよい。表示部10において、立体画像が表示される面が表示面12である。
 図4を参照して説明したように、本実施形態に係る表示部10は表示面12が実空間における水平面に対して斜め(非垂直)になるように設置され得る。図6は、本実施形態に係る表示部10の設置例を示す説明図である。なお、図6には示されていないが、表示部10は表示面12を支持する機構(筐体)を有してもよい。
 図6に示すように、表示面12の下端122から表示面12の上端124までの距離をL1とする。また、表示面12の下端122と、表示面12の上端124をそれぞれ対角辺とする空間が、後述する制御部50により描画空間B10として設定される。ここで、描画空間B10の底面B12は実空間に対して水平な面(実空間における水平面)である。なお、底面B12は、表示部10の設置面と略同一な面であることが望ましい。
 図6に示すように、表示部10は、実空間の水平面(底面B12)と表示面12とが、0°より大きく、90°より小さい角度θ1を有するように配置される。配置の方法は特に限定されず、表示部10の形状により係る配置が実現されてもよいし、表示部10とは異なる器具(スタンド等)により表示部10が支持されることで、係る配置が実現されてもよい。
 図5に示す表示面検出部20は、表示面12の姿勢を検出、制御部50に提供する。ここで、表示面検出部20が検出する表示面12の姿勢は、例えば、実空間における水平面と表示面12とがなす角度(図6に示す角度θ1)であってもよい。
 表示面検出部20は、例えば表示面12と所定の関係にある加速度センサ、ジャイロセンサ、磁気センサのうちいずれか、または上記の組み合わせにより実現されてもよい。
 ユーザ検出部30は、立体画像を観察するユーザに関する情報を検出し、制御部50に提供する。ユーザ検出部30は、ユーザの位置及び姿勢を検出してもよく、ユーザの位置及び姿勢は、例えば表示面12に対する相対的な位置及び姿勢であってもよい。また、ユーザの位置は、ユーザの目の位置であってもよく、ユーザの左目の位置及びユーザの右目の位置であってもよい。また、ユーザの姿勢はユーザの顔の向きであってもよいし、ユーザの左目、及び右目の視線方向であってもよい。
 ユーザ検出部30は、例えばカメラ、デプスカメラ、人感センサのうちいずれか、または上記の組み合わせにより実現されてもよい。
 記憶部40は、情報処理装置1の各構成が機能するためのプログラムやパラメータを記憶する。また、記憶部40は、コンテンツのデータを記憶していてもよい。記憶部40が記憶するコンテンツのデータは、例えば立体オブジェクト(3D画像)や、平面オブジェクト(2D画像)、音声等のデータを含んでもよい。また、記憶部40は、表示面に関する情報を含んでもよく、表示面に関する情報は、例えば表示面の下端から上端までの距離(図6に示す距離L1)の情報を含んでもよい。
 制御部50は、情報処理装置1の各構成を制御する。また、制御部50は、図5に示すように表示面情報取得部52、ユーザ情報取得部54、コンテンツ取得部56、及び表示制御部58としても機能する。
 表示面情報取得部52は、表示面12に関する表示面情報を取得する。例えば表示面情報取得部52は、表示面情報として、実空間における水平面と表示面12とがなす角度(表示面12の姿勢)の情報を表示面検出部20から取得してもよい。また、表示面情報取得部52は、表示面情報として、表示面の下端から上端までの距離の情報を記憶部40から取得してもよい。表示面情報取得部52は、取得した表示面情報を表示制御部58へ提供する。
 ユーザ情報取得部54は、ユーザに関するユーザ情報を取得する。例えば、ユーザ情報取得部54は、ユーザ情報として、ユーザの位置(ユーザの左目の位置、及びユーザの右目の位置)、及び姿勢の情報をユーザ検出部30から取得する。
 なお、ユーザ情報取得部54は、ユーザ検出部30からユーザの位置及び姿勢の情報を直接的に取得してもよいし、間接的に取得してもよい。例えば、ユーザ検出部30が表示面12の観察方向に向けられたカメラである場合、ユーザ情報取得部54は、ユーザ検出部30から提供される画像に基づいてユーザ情報を特定し、間接的に取得してもよい。ユーザ情報取得部54は、取得したユーザ情報を表示制御部58へ提供する。
 コンテンツ取得部56は、表示に係るコンテンツのデータを取得する。例えば、コンテンツ取得部56は、記憶部40に記憶されたコンテンツのデータを読み出して取得する。コンテンツ取得部56は、取得したコンテンツのデータを表示制御部58へ提供する。
 表示制御部58は、表示面情報取得部52から提供される表示面情報、ユーザ情報取得部54から提供されるユーザ情報、及びコンテンツ取得部56から提供されるコンテンツのデータに基づいて、表示部10の表示を制御する。
 表示制御部58は、図6を参照して説明した描画空間をユーザの位置(左目、及び右目の位置)に応じてレンダリングし、ユーザの位置に応じて正射影を行うことで立体画像(左目用画像、及び右目用画像)を生成し、表示部10の表示面12に表示させてもよい。係る構成により、表示制御部58は、表示部10が表示可能な全ての視点(視認角度)の画像を生成しなくてもよく、2視点分の画像のみを生成すればよいため、処理量が抑制され得る。なお、係るユーザの位置に応じた立体画像の生成の詳細については、図10を参照して後述する。
 例えば、表示制御部58は、表示面12の下端から上端までの距離、及び実空間における水平面と表示面12とがなす角度に応じた領域に、水平面と平行な床面(第一の平面)が観察されるように、立体画像を表示部10の表示面12に表示させてもよい。
 また、表示制御部58は、表示面の上端と接し、上記床面に垂直(すなわち水平面に垂直)な背壁面(第二の平面)が観察されるように立体画像を表示部10の表示面12に表示させてもよい。
 また、表示制御部58は、床面上に配置される立体オブジェクトが観察されるように立体画像を表示部10の表示面12に表示させてもよい。
 図7は、表示制御部58が表示させる立体画像により、ユーザが知覚する立体感について説明するための説明図である。
 図7に示すように、水平面と平行な床面P1が観察される。図7に示すように、床面P1は、表示面12の下端と接するように配置されることが望ましい。また、図7に示すように、床面P1に垂直な背壁面P2は、表示面12の上端に接するように配置されることが望ましい。係る構成により、表示面12の下端、及び上端に表示される画像の両眼視差と運動視差が小さくなる(例えば0となる)ように描画することが可能となる。上述のように、表示制御部58はユーザの位置に応じて立体画像を生成するため、ユーザの位置の検出誤差やレイテンシ(遅延)が発生する恐れがある。しかし、表示面12の下端、及び上端において両眼視差と運動視差が小さくなるように描画することで、検出誤差やレイテンシが発生した場合であっても、表示面12の下端、及び上端の近傍で変動が生じ難くなり、ユーザはコンテンツ全体の位置が動く(ずれる)ように感じ難くなる。
 また、上記のように床面P1、及び背壁面P2が配置される場合、床面P1の奥行き方向の長さL11、及び背壁面P2の高さL12は、図6に示した距離L1、及び角度θ1を用いて、次式(1)、(2)で表すことが出来る。
 L11=L1×cosθ1 ・・・(1)
 L21=L1×sinθ1 ・・・(2)
 係る構成により、床面P1及び背壁面P2が観察される領域は、表示面12の実際の物理的な長さと配置に応じた領域となるため、ユーザは床面、及び背壁面として認識(融像)しやすくなる。その結果、ユーザは描画される空間(描画空間)を容易に認識することが可能となり、立体的な観察に係る負担が抑制される。
 また、図7に示すように床面P1上に配置される立体オブジェクトO2は、表示面12と交差するように配置されることが望ましい。係る構成により、ユーザは、図7に示すような奥行き方向(引っ込み方向)の距離D1、及び飛び出し方向(手前方向)の距離D2に応じた視差を知覚し、奥行き方向と飛び出し方向の両方の立体感を得ることが可能となる。その結果、図2、図3に示した例と比較して、より小さい視差量で十分な立体感を得ることが可能となる。
 また、ユーザは、上述のようにして認識した床面P1と背壁面P2を基準として立体オブジェクトO2の位置や形状を知覚することが可能となり、より高い共存感を得ることが可能となる。
 表示制御部58が表示させるコンテンツは上記の例に限定されない。例えば、表示制御部58は、表示面の左端、または右端と接し、床面に垂直(すなわち水平面に垂直)な側壁面(第三の平面)が観察されるように立体画像を表示部10の表示面12に表示させてもよい。係る構成により、表示面12の左端、及び右端に表示される画像の両眼視差と運動視差が小さくなる(例えば0となる)ように描画することが可能となる。
 <<3.動作>>
 以上、本実施形態の構成例について説明した。続いて、図8~図10を参照して本実施形態の動作例について説明する。図8は、本実施形態の動作例を示すフローチャート図である。また、図9、図10は、本実施形態の表示制御部58による表示制御処理を説明するための説明図である。
 図8に示すように、まず表示面情報取得部52が、表示面12に関する表示面情報(実空間における水平面と表示面12とがなす角度、及び表示面の下端から上端までの距離)を取得する(S102)。
 続いて、表示制御部58が、表示面情報に基づいて、描画空間を設定する(S104)。例えば、表示制御部58は、図9に示すように、表示面12の上端と下端を対角辺とする描画空間B10を設定してもよい。
 続いて、表示制御部58は、床面、壁面(背壁面、側壁面)、及び立体オブジェクトを描画空間に配置する(S106)。例えば、表示制御部58は、図9に示すように、描画空間のうち、表示面12の奥側に、床面P1、背壁面P2、側壁面P3(P3a、P3b)、及び立体オブジェクトO3を配置する。
 続いて、ユーザ情報取得部54が、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する(S108)。
 表示制御部58は、図10に示すように、ユーザの目の位置を仮想視点として仮想カメラVcを仮想的に設置し、図9を参照して説明した描画空間のレンダリングを行って当該仮想視点での視点画像を取得する(S110)。表示制御部58は、ユーザの姿勢(顔の向き、または視線方向)に基づいて仮想カメラの方向を設定してもよいし、仮想カメラが表示面12に向くように仮想カメラの方向を設定してもよい。
 続いて、表示制御部58は、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面12に仮想的に設置した仮想ディスプレイ面Vd上に、ステップS110で取得した視点画像を投影する(S112)。ここで、仮想プロジェクタVpjは、仮想カメラVcと同一のパラメータ(例えば焦点距離パラメータ、歪みパラメータ等)で視点画像を投影してもよい。
 続いて、ステップS112で仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R1を取得する(S114)。表示画像R1は、現在の視点位置(ユーザの目の位置)以外から見ると歪んだ画像となるが、現在の視点位置から見ると正常な画像として知覚される。
 なお、図10では1視点分の処理しか示していないが、表示制御部58は、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像、及び右目用の表示画像を取得する。そして、表示制御部58は、左目用の表示画像、及び右目用の表示画像の組み合わせが、立体画像としてユーザに知覚されるように、表示面12に表示させる(S116)。
 上記のステップS108~S116の処理は、図8に示すように繰り返し行われてもよい。
 なお、図8に示すフローチャート図は一例であって、本実施形態の動作は係る例に限定されない。例えば、ステップS102~S116の処理全体が繰り返して行われてもよく、係る場合には水平面と表示面12とがなす角度の変化に応じて、表示制御部58が表示制御を行うことが可能である。
 <<4.変形例>>
 以上、本開示の一実施形態を説明した。以下では、本開示の一実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本開示の実施形態に適用されてもよいし、組み合わせで本開示の実施形態に適用されてもよい。また、各変形例は、本開示の実施形態で説明した構成に代えて適用されてもよいし、本開示の実施形態で説明した構成に対して追加的に適用されてもよい。
  <4-1.変形例1>
 上記実施形態で説明したコンテンツは一例であって、本技術は係る例に限定されない。表示制御部58は、多様なコンテンツを表示させてもよい。
 例えば、表示制御部58は、立体オブジェクトに応じた影や反射等の陰影が付加されるように立体画像を表示させてもよい。係る際、表示制御部58は、実空間における光源に関する情報(光源の位置、姿勢、強度、色等)に基づいて、陰影が付加された立体画像を表示させてもよい。光源に関する情報は、例えばユーザ検出部30に含まれるカメラや、光源を取得するために天井方向に向けられた他のカメラ等により取得される撮像画像に基づいて、取得されてもよい。係る構成により、立体感や共存感をより向上させることが可能である。
 また、例えば、表示制御部58は、表示面12の上端に接し床面に垂直な第二の平面が鏡面として観察されるように、立体画像を表示させてもよい。図11は、第二の平面が鏡面として観察されるように立体画像が表示された場合のユーザが視認する1視点分の画像の一例である。
 図11に示すように、表示面12には、立体オブジェクトO51の鏡像O61、床面P51の鏡像P61、及び床面P51に付加された立体オブジェクトO51の影オブジェクトO52の鏡像O62が表示される。表示制御部58が、ユーザの右目と左目の位置、及び姿勢に基づいて、ユーザの視点から見た映り込みを再現して鏡面(第二の平面)に描画することで、上記の鏡像O61、鏡像P61、鏡像O62が、鏡像としてユーザに認識される。係る構成により、共存感をさらに高めることが可能である。
 また、表示制御部58は、表示面12の観察方向(表示面12を観察するユーザが存在する側)に向けられたカメラ(例えばユーザ検出部30)により取得される撮像画像のうち少なくとも一部が、鏡面に含まれるように立体画像を表示させてもよい。例えば、表示制御部58は、当該撮像画像が、再現される映り込みの奥側に観察されるように立体画像を表示させてもよい。係る構成により、鏡面にユーザの存在する実空間や、ユーザの姿等が鏡像として知覚されるため、コンテンツの一部がユーザ自身と当該鏡像の間にあるという感覚をユーザに与え、共存感をさらに高めることが可能である。
  <4-2.変形例2>
 上記実施形態では、表示制御部58の機能により、立体画像を観察するユーザの負担を抑制する仕組みについて説明した。表示部10が立体画像の観察において立体画像との比較基準となり、実物体である比較基準部を有することで、ユーザの負担がさらに抑制されてもよい。図12~図14は、立体画像との比較基準となる比較基準部の一例を示す説明図である。
 図12に示す表示部10-2が有する比較基準部14のように、比較基準部は表示面12の下端に接し、描画空間B10の底面B12と連続する不透明な板であってもよい。また、図13に示す表示部10-3が有する比較基準部16a、16bのように、比較基準部は、描画空間B10の左右の面に沿った枠であってもよい。また、図14に示す表示部10-4が有する比較基準部18のように、比較基準部は、描画空間B10の上面に沿った透明な板であってもよい。
 係る構成により、ユーザは、比較基準部を立体画像の比較基準として観察することが可能であり、融像が促進され、また立体感が向上する。また、立体画像を観察する際、ユーザの視野に立体視の手がかり(比較基準部)と立体画像とが同時に含まれ易くなることで、酔いの低減につながり得る。そのため、立体画像を観察するユーザの負担がより抑制され得る。また、上述したように比較基準部が描画空間B10の面と連続し、または描画空間B10の面に沿って配置されることにより、図7、図9を参照して説明した床面P1や壁面P2、P3等と実物体である比較基準部とが連続するようにユーザは知覚する。その結果、ユーザはコンテンツと実空間との連続性を知覚することが可能であり、共存感がより向上する。
 なお、図12~図14に示した不透明な板、枠、及び透明な板は、比較基準部の一例であり、図12~図14を参照して説明した位置に不透明な板、枠、及び透明な板のいずれが配置されてもよい。また、表示部10は、図12~図14を参照して説明した比較基準部を組み合わせて有してもよい。
 また、上記では、比較基準部が描画空間B10の面と連続し、または描画空間B10の面に沿って配置される例を説明したが、係る例に限定されず、表示部10の形状等に応じて、近似的な位置(近傍)に配置されてもよい。
  <4-3.変形例3>
 上記実施形態では、水平面と平行な第一の平面が、表示面12の下端と接する床面である例を説明したが、本技術は係る例に限定されない。例えば、第一の平面は表示面12の上端と接する面(以下、天面と呼ぶ場合がある)であってもよい。
 また、第一の平面が表示面12の上端と接する天面である場合、表示制御部58は、表示面12の下端と接し、天面に垂直な背壁面(第二の平面)が観察されるように立体画像を表示部10の表示面12に表示させてもよい。
 上記のような表示制御は、表示部10がユーザの視点(ユーザの目の位置)よりも上部に設置される場合に行われることが望ましい。例えば、本技術が車載器や医療用の表示装置等に適用された場合に、係る設置が行われることが考えられる。
 なお、表示制御部58は、上端と接する天面、または下端と接する床面のうち、どちらを第一の平面として配置するか判定を行い、当該判定の結果に応じて第一の平面を配置してもよい。例えば、係る判定は、表示面情報取得部52から提供される表示面情報と、ユーザ情報取得部54から提供されるユーザ情報、のうちいずれか、または両方に基づいて行われてもよい。
 係る構成によれば、例えば表示部10がユーザの視点よりも上部に設置された場合であっても、ユーザは描画される空間を容易に認識することが可能となり、立体的な観察に係る負担が抑制される。
 <<5.ハードウェア構成例>>
 以上、本開示の実施形態を説明した。最後に、図15を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図15は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図15に示す情報処理装置900は、例えば、図5に示した情報処理装置1を実現し得る。本実施形態に係る情報処理装置1による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図15に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、制御部50を形成し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。出力装置907は、例えば表示部10を形成し得る。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。上記ストレージ装置908は、例えば、記憶部40を形成し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。
 センサ915は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサである。センサ915は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得する。また、センサ915は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。センサ915は、例えば、表示面検出部20、ユーザ検出部30を形成し得る。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<6.むすび>>
 以上説明したように、本開示の実施形態によれば、立体画像を観察するユーザの負担を抑制しつつ、より広い範囲でユーザが立体的に観察することが可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、表示部10と制御部50が同一の装置に含まれる例を説明したが、本技術は係る例に限定されない。例えば、表示部10と制御部50とは異なる装置に含まれてもよい。また、制御部50の一部の機能が別々の異なる装置に備えられてもよい。
 また、上記実施形態では、コンテンツのデータが記憶部40に記憶される例を説明したが、本技術は係る例に限定されず、例えばコンテンツ取得部56は、不図示の通信部を介して、他の装置からコンテンツのデータを取得してもよい。
 また、上記実施形態では、図6等に示すように表示面12が長方形の平面である例を説明したが、本技術は係る例に限定されない。例えば、表示面12は湾曲した面であってもよいし、円形、または楕円形等であってもよい。また、表示制御部58は、表示面12の形状に応じて描画空間を設定してもよく、例えば表示面12が円形である場合、設定される描画空間は球状であってもよい。
 また、上記実施形態では、表示制御部58がユーザの左目、及び右目の位置に応じて立体画像を表示させる例について図10を参照して説明したが、本技術は係る例に限定されない。例えば、表示制御部58は、表示部10が表示可能な全ての視点に応じた画像を生成することで、立体画像を表示させてもよい。係る場合、情報処理装置1は、ユーザ検出部30、及びユーザ情報取得部54の機能を有していなくてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように前記立体画像を表示させる表示制御部、を備える情報処理装置。
(2)
 前記第一の平面は、前記表示面の前記上端または前記下端と接する、前記(1)に記載の情報処理装置。
(3)
 前記第一の平面は、前記下端と接し、
 前記表示制御部は、前記表示面の前記上端と接し、前記第一の平面に垂直な第二の平面が観察されるように前記立体画像を表示させる、前記(2)に記載の情報処理装置。
(4)
 前記第一の平面は、前記上端と接し、
 前記表示制御部は、前記表示面の前記下端と接し、前記第一の平面に垂直な第二の平面が観察されるように前記立体画像を表示させる、前記(2)に記載の情報処理装置。
(5)
 前記表示制御部は、前記第二の平面が鏡面として観察されるように前記立体画像を表示させる、前記(3)または(4)に記載の情報処理装置。
(6)
 前記表示制御部は、前記表示面の観察方向に向けたカメラにより取得される撮像画像のうち少なくとも一部が前記鏡面に含まれるように前記立体画像を表示させる、前記(5)に記載の情報処理装置。
(7)
 前記表示制御部は、前記表示面の左端または右端と接し、前記第一の平面に垂直な第三の平面が観察されるように前記立体画像を表示させる、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記表示制御部は、前記立体画像を観察するユーザの位置に基づいて、前記立体画像を表示させる、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記表示制御部は、前記第一の平面上に配置される立体オブジェクトが観察されるように前記立体画像を表示させる、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記表示制御部は、前記表示面と交差する立体オブジェクトが観察されるように前記立体画像を表示させる、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
 前記表示制御部は、前記実空間における光源に関する情報に基づいて前記立体画像を表示させる、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記情報処理装置は、前記表示部を備え、
 前記表示部は、前記立体画像の観察において前記立体画像との比較基準となる比較基準部を有する、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、プロセッサが前記立体画像を表示させること、を含む情報処理方法。
(14)
 コンピュータに、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、前記立体画像を表示させる機能、を実現させるための、プログラム。
 1  情報処理装置
 10  表示部
 12  表示面
 20  表示面検出部
 30  ユーザ検出部
 40  記憶部
 50  制御部
 52  表示面情報取得部
 54  ユーザ情報取得部
 56  コンテンツ取得部
 58  表示制御部

Claims (14)

  1.  表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように前記立体画像を表示させる表示制御部、を備える情報処理装置。
  2.  前記第一の平面は、前記表示面の前記上端または前記下端と接する、請求項1に記載の情報処理装置。
  3.  前記第一の平面は、前記下端と接し、
     前記表示制御部は、前記表示面の前記上端と接し、前記第一の平面に垂直な第二の平面が観察されるように前記立体画像を表示させる、請求項2に記載の情報処理装置。
  4.  前記第一の平面は、前記上端と接し、
     前記表示制御部は、前記表示面の前記下端と接し、前記第一の平面に垂直な第二の平面が観察されるように前記立体画像を表示させる、請求項2に記載の情報処理装置。
  5.  前記表示制御部は、前記第二の平面が鏡面として観察されるように前記立体画像を表示させる、請求項3に記載の情報処理装置。
  6.  前記表示制御部は、前記表示面の観察方向に向けたカメラにより取得される撮像画像のうち少なくとも一部が前記鏡面に含まれるように前記立体画像を表示させる、請求項5に記載の情報処理装置。
  7.  前記表示制御部は、前記表示面の左端または右端と接し、前記第一の平面に垂直な第三の平面が観察されるように前記立体画像を表示させる、請求項1に記載の情報処理装置。
  8.  前記表示制御部は、前記立体画像を観察するユーザの位置に基づいて、前記立体画像を表示させる、請求項1に記載の情報処理装置。
  9.  前記表示制御部は、前記第一の平面上に配置される立体オブジェクトが観察されるように前記立体画像を表示させる、請求項1に記載の情報処理装置。
  10.  前記表示制御部は、前記表示面と交差する立体オブジェクトが観察されるように前記立体画像を表示させる、請求項1に記載の情報処理装置。
  11.  前記表示制御部は、前記実空間における光源に関する情報に基づいて前記立体画像を表示させる、請求項1に記載の情報処理装置。
  12.  前記情報処理装置は、前記表示部を備え、
     前記表示部は、前記立体画像の観察において前記立体画像との比較基準となる比較基準部を有する、請求項1に記載の情報処理装置。
  13.  表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、プロセッサが前記立体画像を表示させること、を含む情報処理方法。
  14.  コンピュータに、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と前記表示面とがなす角度に応じた領域に、前記水平面と平行な第一の平面が観察されるように、前記立体画像を表示させる機能、を実現させるための、プログラム。
PCT/JP2017/036485 2016-12-19 2017-10-06 情報処理装置、情報処理方法、及びプログラム WO2018116580A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP17882492.6A EP3550833A4 (en) 2016-12-19 2017-10-06 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US16/347,062 US11106050B2 (en) 2016-12-19 2017-10-06 Information processing apparatus, and information processing method
CN201780076643.6A CN110073660B (zh) 2016-12-19 2017-10-06 信息处理设备、信息处理方法和程序
JP2018557557A JP7099326B2 (ja) 2016-12-19 2017-10-06 情報処理装置、情報処理方法、及びプログラム
KR1020197014845A KR102402381B1 (ko) 2016-12-19 2017-10-06 정보 처리 장치, 정보 처리 방법, 및 프로그램
US17/444,419 US11924402B2 (en) 2016-12-19 2021-08-04 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-245396 2016-12-19
JP2016245396 2016-12-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/347,062 A-371-Of-International US11106050B2 (en) 2016-12-19 2017-10-06 Information processing apparatus, and information processing method
US17/444,419 Continuation US11924402B2 (en) 2016-12-19 2021-08-04 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
WO2018116580A1 true WO2018116580A1 (ja) 2018-06-28

Family

ID=62626239

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/036485 WO2018116580A1 (ja) 2016-12-19 2017-10-06 情報処理装置、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (2) US11106050B2 (ja)
EP (1) EP3550833A4 (ja)
JP (1) JP7099326B2 (ja)
KR (1) KR102402381B1 (ja)
CN (1) CN110073660B (ja)
WO (1) WO2018116580A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124680A1 (ja) 2019-12-18 2021-06-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2022230247A1 (ja) * 2021-04-27 2022-11-03 ソニーグループ株式会社 情報処理装置、プログラム及び情報処理方法
WO2022239297A1 (ja) * 2021-05-11 2022-11-17 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体
USD1009879S1 (en) 2019-07-31 2024-01-02 Sony Corporation Combined display support and display with three dimensional graphical user interface
WO2024185547A1 (ja) * 2023-03-08 2024-09-12 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム、ならびに、情報処理システム
WO2024190457A1 (ja) * 2023-03-10 2024-09-19 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム、ならびに、情報処理システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230308629A1 (en) * 2019-12-27 2023-09-28 Sony Group Corporation Information Processing Device, Information Processing System, And Member

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334145A (ja) * 2003-05-06 2004-11-25 Hideaki Miyashita 画面を立体に構成して空間を表示する方法
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
WO2009025034A1 (ja) * 2007-08-22 2009-02-26 Pioneer Corporation 画像表示装置
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2012194756A (ja) * 2011-03-16 2012-10-11 Mitsubishi Electric Corp 表示装置及びナビゲーション装置
JP2013237320A (ja) * 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp 違和感軽減表示装置およびその表示制御方法
JP2015012560A (ja) 2013-07-02 2015-01-19 ソニー株式会社 表示処理装置、表示装置および画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4033859B2 (ja) * 2004-12-28 2008-01-16 独立行政法人科学技術振興機構 立体画像表示方法
JP2013098840A (ja) * 2011-11-02 2013-05-20 Sony Corp 情報処理装置、表示制御方法およびプログラム
US9753293B2 (en) * 2014-03-20 2017-09-05 Tronxyz Technology Co., Ltd. Three-dimensional (3D) display apparatus and system comprising a two-dimensional (2D) display terminal, light-splitting device, and transflective device
CN105049827B (zh) * 2015-08-13 2017-04-05 深圳市华星光电技术有限公司 裸眼3d成像方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334145A (ja) * 2003-05-06 2004-11-25 Hideaki Miyashita 画面を立体に構成して空間を表示する方法
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
WO2009025034A1 (ja) * 2007-08-22 2009-02-26 Pioneer Corporation 画像表示装置
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2012194756A (ja) * 2011-03-16 2012-10-11 Mitsubishi Electric Corp 表示装置及びナビゲーション装置
JP2013237320A (ja) * 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp 違和感軽減表示装置およびその表示制御方法
JP2015012560A (ja) 2013-07-02 2015-01-19 ソニー株式会社 表示処理装置、表示装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3550833A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD1009879S1 (en) 2019-07-31 2024-01-02 Sony Corporation Combined display support and display with three dimensional graphical user interface
WO2021124680A1 (ja) 2019-12-18 2021-06-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2022230247A1 (ja) * 2021-04-27 2022-11-03 ソニーグループ株式会社 情報処理装置、プログラム及び情報処理方法
WO2022239297A1 (ja) * 2021-05-11 2022-11-17 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体
WO2024185547A1 (ja) * 2023-03-08 2024-09-12 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム、ならびに、情報処理システム
WO2024190457A1 (ja) * 2023-03-10 2024-09-19 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム、ならびに、情報処理システム

Also Published As

Publication number Publication date
JP7099326B2 (ja) 2022-07-12
US20210364815A1 (en) 2021-11-25
EP3550833A4 (en) 2020-06-10
JPWO2018116580A1 (ja) 2019-11-07
EP3550833A1 (en) 2019-10-09
US20200073135A1 (en) 2020-03-05
KR20190096976A (ko) 2019-08-20
US11106050B2 (en) 2021-08-31
CN110073660A (zh) 2019-07-30
US11924402B2 (en) 2024-03-05
KR102402381B1 (ko) 2022-05-27
CN110073660B (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
WO2018116580A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9684994B2 (en) Modifying perspective of stereoscopic images based on changes in user viewpoint
US7907167B2 (en) Three dimensional horizontal perspective workstation
KR102059969B1 (ko) 모바일 디스플레이 디바이스
US9204126B2 (en) Three-dimensional image display device and three-dimensional image display method for displaying control menu in three-dimensional image
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
TWI657431B (zh) 動態顯示系統
CN111034190B (zh) 信息处理设备、信息处理方法和程序
US20210400234A1 (en) Information processing apparatus, information processing method, and program
US11317082B2 (en) Information processing apparatus and information processing method
US20190149811A1 (en) Information processing apparatus, information processing method, and program
JP2012244433A (ja) 映像提示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17882492

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197014845

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2018557557

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017882492

Country of ref document: EP

Effective date: 20190702