WO2021132014A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2021132014A1
WO2021132014A1 PCT/JP2020/047137 JP2020047137W WO2021132014A1 WO 2021132014 A1 WO2021132014 A1 WO 2021132014A1 JP 2020047137 W JP2020047137 W JP 2020047137W WO 2021132014 A1 WO2021132014 A1 WO 2021132014A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
control unit
displayed
unit
texture
Prior art date
Application number
PCT/JP2020/047137
Other languages
English (en)
French (fr)
Inventor
横山 一樹
博文 島田
青山 幸治
一ノ瀬 勉
高橋 宏彰
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021132014A1 publication Critical patent/WO2021132014A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume

Definitions

  • a display related to autostereoscopic display there is a Light Field display represented by the lenticular method.
  • the user's left and right viewpoint positions are detected, the optimum light rays are focused on the viewpoint position, and an image for the right eye and an image for the left eye are generated.
  • the first region parallel to the horizontal plane is defined in a region corresponding to the distance from the lower end to the upper end of the display surface on which the display unit displays a stereoscopic image and the angle formed by the horizontal plane and the display surface in the real space.
  • a technique for displaying a stereoscopic image so that the plane of the above can be observed has been proposed.
  • the above-mentioned conventional technology cannot always improve the sense of depth of a stereoscopic image.
  • the first is parallel to the horizontal plane in a region corresponding to the distance from the lower end to the upper end of the display surface on which the display unit displays a stereoscopic image and the angle between the horizontal plane and the display surface in the real space.
  • the stereoscopic image is merely displayed so that the horizontal surface of the stereoscopic image can be observed, and the sense of depth of the stereoscopic image cannot always be improved.
  • the information processing apparatus is in a direction of intersecting the display surface of the display unit from the first surface located in the virtual space where the stereoscopic image is displayed by the display unit.
  • a display control unit for displaying a texture continuous with the texture of the second surface located in the real space extending in the direction toward the real space is provided on the first surface.
  • a naked-eye stereoscopic image display device (hereinafter, also simply referred to as a stereoscopic image display device) capable of three-dimensionally displaying contents without using dedicated glasses or the like has been proposed.
  • the left and right viewpoint positions of the user are detected, the optimum light rays are focused on the viewpoint position, and an image for the right eye and an image for the left eye are generated, respectively. ..
  • the stereoscopic image display device displays the generated image for the right eye and the image for the left eye by shifting them in the horizontal direction at each position on the display surface of the stereoscopic image display device.
  • the stereoscopic image display device causes parallax by shifting the image for the right eye and the image for the left eye in the horizontal direction, and causes the user's brain to recognize the depth of the space.
  • the fusion of the user is promoted by adding a perspective or a texture gradient that is a clue for perceiving the depth of the stereoscopic image to the virtual space in which the stereoscopic image is displayed by the display unit of the stereoscopic image display device.
  • the virtual space refers to a virtual space in which a stereoscopic image is displayed, which is a virtual space as if a camera or the like captured a real space.
  • perspective refers to a painting technique for expressing a sense of perspective and depth on a two-dimensional plane.
  • the texture refers to a pattern or texture on the surface of an object, or a repeating pattern.
  • the texture gradient gives the user more clues to perceive depth, which can help the user perceive depth more.
  • the information processing device arranges a floor surface, a wall surface, and a ceiling (hereinafter, also referred to as a clue surface) having a uniform pattern, texture, or repeated pattern on the surface in a virtual space where a stereoscopic image is displayed. This adds a textured gradient to the virtual space, which is a clue for perceiving the depth of the stereoscopic image. This is expected to promote user fusion.
  • the information processing device 100 is a virtual space in which a stereoscopic image is displayed by a display unit on a first clue surface to which a uniform pattern, texture, or repeated pattern is applied. Place in. Further, the information processing device 100 displays the pattern or texture of the first clue surface arranged in the virtual space, the pattern or texture continuous with the repeating pattern, or the second clue surface to which the repeating pattern is applied. Arrange in the direction in which the display surface faces so as to be continuous with the part. In this way, the information processing apparatus 100 arranges the second clue surface continuous with the first clue surface arranged in the virtual space in the direction facing the display surface in the real space.
  • the information processing apparatus 100 allows the user to observe the second clue surface having the same type of clue as the first clue surface arranged in the virtual space from a direction close to the normal direction. Therefore, the information processing device 100 can make the user correctly perceive the length of the second clue surface.
  • the information processing device 100 allows the user to observe the first clue surface arranged in the virtual space by using the second clue surface as a clue for comparison. Therefore, the information processing device 100 can make the user more correctly perceive the length of the first clue surface arranged in the virtual space.
  • the information processing apparatus 100 can improve the sense of depth of the stereoscopic image.
  • the information processing device 100 can promote the fusion of users.
  • the display unit 150 for displaying a stereoscopic image includes a triangular prism-shaped housing that supports the display surface 50.
  • the floor surface (horizontal plane) S2a in the real space is arranged by extending the floor surface in which one side surface of the triangular prism of the triangular prism-shaped housing supporting the display surface 50 of the display unit 150 is grounded in the direction facing the display surface 50.
  • the display surface 50 of the display unit 150 is installed at an angle of 45 degrees with respect to the floor surface S2a in the real space. Further, the position of the viewpoint of the user observing the display unit 150 is indicated by V1.
  • the floor surface S2a in the real space is provided with a uniform lattice pattern.
  • the information processing apparatus 100 displays a pattern continuous with the pattern of the floor surface S2a in the real space on the floor surface S1a of the virtual space VS1 on which the stereoscopic image is displayed by the display unit 150.
  • an object as shown in FIG. 5 described later may be arranged in the virtual space VS1.
  • the information processing apparatus 100 allows the user to observe the second surface (S2a) having the same kind of clues as the first surface (S1a) arranged in the virtual space from a direction close to the normal direction. it can. Therefore, the information processing device 100 can make the user correctly perceive the length of the second surface (S2a).
  • the information processing apparatus 100 can allow the user to observe the first surface (S1a) arranged in the virtual space VS1 by using the second surface (S2a) as a clue for comparison. Therefore, the information processing device 100 can make the user more correctly perceive the length of the first surface (S1a) arranged in the virtual space VS1. As a result, the information processing apparatus 100 can improve the sense of depth of the stereoscopic image. In addition, the information processing device 100 can promote the fusion of users.
  • FIG. 3 is a block diagram showing a configuration example of the information processing apparatus 100 according to the first embodiment.
  • the information processing device 100 includes a communication unit 110, a display surface detection unit 120, a user detection unit 130, a storage unit 140, a display unit 150, and a control unit 160.
  • the information processing device 100 may have an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the information processing device 100.
  • the communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from, for example, an external information processing device.
  • NIC Network Interface Card
  • the display surface detection unit 120 detects the posture of the display surface 50. Specifically, the display surface detection unit 20 detects the angle formed by the floor surface (horizontal plane) and the display surface 50 in the real space as the posture of the display surface 50. For example, the display surface detection unit 20 detects an angle greater than 0 degrees and 90 degrees or less as the angle formed by the floor surface in the real space and the display surface 50. Further, when the display surface detection unit 120 detects the posture of the display surface 50, the display surface detection unit 120 provides the control unit 160 with information regarding the detected posture of the display surface 50.
  • the display surface detection unit 120 is realized by, for example, any one of an acceleration sensor, a gyro sensor, and a magnetic sensor having a predetermined relationship with the display surface 50, or a combination described above.
  • the user detection unit 130 detects information about the user who observes the stereoscopic image. Specifically, the user detection unit 130 detects the position and posture of the user. For example, the user detection unit 130 detects the position and posture of the user relative to the display surface 50. For example, the user detection unit 130 detects the position of the user's eyes as the position of the user. For example, the user detection unit 130 detects the position of the user's left eye and the position of the user's right eye as the user's position. Further, for example, the user detection unit 130 detects the orientation of the user's face as the posture of the user. Further, the user detection unit 130 detects the line-of-sight directions of the user's left eye and right eye as the posture of the user.
  • the user detection unit 130 is realized by, for example, any one of a camera, a depth camera, and a motion sensor, or a combination of the above.
  • the storage unit 140 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory)
  • flash memory Flash Memory
  • storage device such as a hard disk or an optical disk.
  • the display unit 150 is a display that displays a stereoscopic image under the control of the control unit 160, which will be described later.
  • the display unit 150 is a naked-eye stereoscopic display (naked-eye stereoscopic image display device). Further, in the display unit 150, the surface on which the stereoscopic image is displayed is the display surface 50.
  • the display unit 150 can be installed so that the display surface 50 is oblique (non-vertical) to the floor surface (horizontal plane) in the real space. That is, in the display unit 150, the floor surface in the real space and the display surface 50 form an angle of 90 degrees or less, which is larger than 0 degrees. As shown in FIG. 1, the display unit 150 may have a mechanism (housing) for supporting the display surface 50.
  • the display control unit 164 which will be described later, sets a space in which the lower end of the display surface 50 and the upper end of the display surface 50 are diagonal sides, respectively, as the drawing space.
  • the bottom surface of the drawing space is a surface horizontal to the real space (floor surface in the real space). It is desirable that the bottom surface is substantially the same as the installation surface of the display unit 150.
  • the display control unit 164a is in the direction of intersecting the display surface 50A of the display unit 150A from the first surface (floor surface S1c) located in the virtual space VS2 on which the stereoscopic image is displayed by the display unit 150A.
  • the texture continuous with the texture of the second surface (floor surface S2c) located in the real space extending in the direction toward the real space is displayed on the first surface (floor surface S1c).
  • the display control unit 164a causes the first surface (floor surface S1c) to display the texture continuous with the texture of the second surface (floor surface S2c) located in the direction in which the display surface 50A of the display unit 150A faces.
  • the information processing apparatus 100A gives the user a second surface (floor surface S2c) having a clue similar to that of the first surface (floor surface S1c) arranged in the virtual space from a direction close to the normal direction. It can be observed. Therefore, the information processing device 100A can make the user correctly perceive the length of the second surface (floor surface S2c). Further, the information processing apparatus 100A allows the user to observe the first surface (floor surface S1c) arranged in the virtual space by using the second surface (floor surface S2c) as a clue for comparison. Therefore, the information processing device 100A can make the user more correctly perceive the length of the first surface (floor surface S1c) arranged in the virtual space. As a result, the information processing apparatus 100A can improve the sense of depth of the stereoscopic image. In addition, the information processing device 100A can promote the fusion of the user.
  • the information processing apparatus 100A gives the user a second surface (side wall surface S2b) having the same kind of clue as the first surface (side wall surface S1b) arranged in the virtual space from a direction close to the normal direction. It can be observed. Therefore, the information processing device 100A can make the user correctly perceive the length of the second surface (side wall surface S2b). Further, the information processing apparatus 100A allows the user to observe the first surface (side wall surface S1b) arranged in the virtual space VS2 by using the second surface (side wall surface S2b) as a clue for comparison. Therefore, the information processing device 100A can make the user more correctly perceive the length of the first surface (side wall surface S1b) arranged in the virtual space VS2. As a result, the information processing apparatus 100A can improve the sense of depth of the stereoscopic image. In addition, the information processing device 100A can promote the fusion of the user.
  • the information processing apparatus 100A can provide more clues to the user by using the floor surface and the side wall surface as the clues surface as compared with the case where only the floor surface is used as the clues surface. Therefore, the information processing apparatus 100A can further improve the sense of depth of the stereoscopic image. In addition, the information processing device 100A can further promote the fusion of the user.
  • the information processing apparatus 100 displays a pattern continuous with the pattern of the floor surface, the side wall surface, and the top surface arranged in the real space on the floor surface, the side wall surface, and the top surface of the virtual space.
  • the degree of freedom in expressing the stereoscopic image displayed in the virtual space is reduced. Therefore, in the second embodiment, the second surface (corresponding to the floor surface S2a shown in FIGS. 1 and 2) of the real space arranged so as to be continuous with the display unit for displaying the stereoscopic image is configured by the two-dimensional display. To do.
  • the information processing device 200 according to the second embodiment can improve the sense of depth of the stereoscopic image in the same manner as the information processing device 100 according to the first embodiment. Further, the information processing apparatus 200 can freely change the pattern on the second surface of the real space according to the pattern on the first surface of the virtual space, so that the degree of freedom of expression is further improved. Further, since the information processing device 200 can freely change the pattern of the first surface of the virtual space according to the pattern of the second surface of the real space, the degree of freedom of expression is further improved.
  • a uniform riding lattice pattern is displayed on the display surface 52 of the second display unit 152, which is a two-dimensional display.
  • the information processing device 200 is a virtual space VS3 in which a stereoscopic image is displayed by the first display unit 151 on a pattern continuous with the pattern of the riding grid pattern on the display surface 52 of the second display unit 152. It is displayed on the floor surface S1d of. Further, the information processing device 200 displays a pattern continuous with the pattern of the riding grid pattern displayed on the first surface S1d of the virtual space VS3 on which the stereoscopic image is displayed by the first display unit 151 on the display surface of the second display unit 152. It is displayed on 52.
  • the information processing device 200 generates a display image R11L'for the left eye and a display image R11R'for the right eye to be displayed on the first display unit 151, which is a naked-eye stereoscopic display. Subsequently, the display control unit 164A causes the display surface 51 to display the combination of the display image R11L'for the left eye and the display image R11R' for the right eye so that the user can perceive it as a stereoscopic image. In addition, the information processing device 200 generates a display image R2'displayed on the second display unit 152, which is a two-dimensional display. Subsequently, when the information processing apparatus 200 generates the display image R2', the generated display image R2 is displayed on the display surface 52 of the second display unit 152.
  • FIG. 9 is an explanatory diagram for explaining the outline of the second embodiment of the present disclosure.
  • FIG. 9 shows a view of FIG. 8 as viewed from the side (side surface) direction.
  • the virtual space VS3 shown by diagonal lines is a rectangular parallelepiped space in which the lower end of the display surface 51 and the upper end of the display surface 51 are diagonal sides, respectively.
  • the floor surface S1d of the virtual space VS3 described with reference to FIG. 8 corresponds to the surface of the plate-shaped floor P1d shown in FIG.
  • the display surface 52 shown in FIG. 8 corresponds to the surface of the plate-shaped second display unit 152 shown in FIG.
  • the information processing apparatus 200 allows the user to observe the second surface (52) having the same kind of clue as the first surface (S1d) arranged in the virtual space from a direction close to the normal direction. it can. Therefore, the information processing device 200 can make the user correctly perceive the length of the second surface (52). Further, the information processing apparatus 200 can allow the user to observe the first surface (S1d) arranged in the virtual space VS3 by using the second surface (52) as a clue for comparison. Therefore, the information processing device 200 can make the user more correctly perceive the length of the first surface (S1d) arranged in the virtual space VS3. As a result, the information processing apparatus 200 can improve the sense of depth of the stereoscopic image.
  • the information processing device 200 can promote the fusion of users. Further, since the information processing device 200 can freely change the pattern of the second surface, which is the display surface of the two-dimensional display, according to the pattern of the first surface of the virtual space, the degree of freedom of expression is further increased. Is improved.
  • FIG. 10 is a block diagram showing a configuration example of the information processing apparatus 200 according to the second embodiment.
  • the information processing device 200 includes a communication unit 110, a display surface detection unit 120, a user detection unit 130, a storage unit 140, a first display unit 151, a second display unit 152, and a control unit 160A.
  • the information processing device 100 described in the first embodiment further includes a second display unit 152. Therefore, the description of the storage unit and each science unit described with reference to FIG. 3 will be omitted.
  • the first display unit 151 is a display that displays a stereoscopic image under the control of the control unit 160A described later. Further, in the first display unit 151, the surface on which the stereoscopic image is displayed is the display surface 51. The first display unit 151 corresponds to the display unit 150 in the information processing device 100.
  • the second display unit 152 is a two-dimensional display that displays a flat image under the control of the control unit 160A described later. Further, in the second display unit 152, the surface on which the flat image is displayed is the display surface 52.
  • Control unit 160A The control unit 160A is a controller, and for example, various programs (corresponding to an example of an information processing program) stored in a storage device inside the information processing device 200 are executed by a CPU, MPU, or the like using the RAM as a work area. It is realized by. Further, the control unit 160A is a controller, and is realized by, for example, an integrated circuit such as an ASIC or FPGA.
  • the display control unit 164A displays the display surface 52 of the second display unit 152 on a flat surface having some irregularities without any discomfort, the display control unit 164A redisplays the viewpoint image from the camera placed at the center of the left eye and the right eye. It is desirable to obtain from the projected one. Further, if the display surface 52 of the second display unit 152 is limited to a flat surface having no unevenness, the display control unit 164A directly orthographicly projects the area of the position of the display surface 52 of the content displayed on the second display unit 152. The display image R2 may be acquired.
  • the display surface information acquisition unit 161 provides display surface information regarding the display surface 51 of the first display unit 151 (the angle formed by the floor surface and the display surface 51 in the real space, and from the lower end to the upper end of the display surface 51). Distance). Further, the display surface information acquisition unit 161 acquires display surface information (distance from the lower end to the upper end of the display surface 52) regarding the display surface 52 of the second display unit 152.
  • the display control unit 164A sets the drawing space based on the display surface information. For example, the display control unit 164A sets a drawing space corresponding to the virtual space VS3 shown in FIG. 9, and is a rectangular parallelepiped drawing space having the upper and lower ends of the display surface 51 as diagonal sides.
  • FIG. 11 is an explanatory diagram for explaining the display control process by the display control unit according to the second embodiment.
  • the display control unit 164A is in a direction intersecting the display surface 51 of the first display unit 151 from the floor surface P1 arranged in the drawing space, and is continuous with the floor surface P1 in the real space extending in the direction toward the real space.
  • the floor surface P5 to be used is arranged.
  • the display control unit 164A arranges the floor surface P5 at the position of the display surface 52 of the two-dimensional display (152) shown in FIG.
  • the floor surface P5 arranged in the real space is provided with a lattice pattern.
  • the floor surface P1 arranged in the drawing space is provided with a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5 arranged in the real space.
  • the display control unit 164 arranges the floor surface P1 having a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5 arranged in the real space in the drawing space.
  • the user information acquisition unit 162 acquires the positions of the left eye and the right eye of the user and the posture of the user as the user information. For example, the user information acquisition unit 162 acquires the position of V3 shown in FIGS. 8 and 9 as the position for one viewpoint of the user.
  • the display control unit 164A virtually installs the virtual camera Vc with the position of the user's eyes (for example, the position of V3) as a virtual viewpoint, and renders the drawing space corresponding to the virtual space VS3 shown in FIG. And acquire the viewpoint image at the virtual viewpoint. Further, the display control unit 164A renders the floor surface P5 and acquires a viewpoint image at the virtual viewpoint.
  • the information processing device 200A according to the modification according to the second embodiment uses the first display unit 151A instead of the first display unit 151 included in the information processing device 200 described in the second embodiment, and the second display unit.
  • a second display unit 152B is provided instead of the 152, and a display control unit 164b is provided instead of the display control unit 164A.
  • the second display unit 152B includes a second display unit 152a and a second display unit 152b. Therefore, the description of each science part described with reference to FIG. 10 will be omitted.
  • the second display unit 152b is arranged by extending a side wall surface, which is one side surface of a rectangular parallelepiped of a rectangular parallelepiped housing that supports the display surface 51A of the first display unit 151A, in a direction facing the display surface 51A. Further, the display surface 51A of the first display unit 151A is installed at an angle of 90 degrees with respect to the display surface 52a of the second display unit 152a arranged on the floor surface (horizontal plane) of the real space. Further, the position of the viewpoint of the user observing the first display unit 151A is indicated by V4.
  • the display control unit 164b displays a uniform striped pattern on the display surface 52b of the second display unit 152b. Further, the display control unit 164b displays the striped pattern displayed on the display surface 52b and the continuous striped pattern on the side wall surface S1f of the virtual space VS4 on which the stereoscopic image is displayed by the first display unit 151A. The display control unit 164b causes the display surface 52b of the second display unit 152b to display a striped pattern that is continuous with the striped pattern displayed on the side wall surface S1f of the virtual space VS4 on which the stereoscopic image is displayed by the first display unit 151A.
  • the display control unit 164b causes the generated display image R2a to be displayed on the display surface 52a of the second display unit 152a. Further, the display control unit 164b generates a display image R2b (an image including a striped pattern) to be displayed on the second display unit 152b, which is a two-dimensional display. Subsequently, when the display control unit 164b generates the display image R2b, the display control unit 164b causes the generated display image R2b to be displayed on the display surface 52b of the second display unit 152b.
  • a display image R2b an image including a striped pattern
  • the display control unit 164b displays a uniform lattice pattern on the display surface 52b of the second display unit 152b. Further, the display control unit 164b displays the pattern of the lattice pattern displayed on the display surface 52b and the pattern of the lattice pattern continuous with the pattern on the side wall surface S1f of the virtual space VS4 on which the stereoscopic image is displayed by the first display unit 151A. The display control unit 164b displays a grid pattern pattern continuous with the grid pattern displayed on the side wall surface S1f of the virtual space VS4 on which the stereoscopic image is displayed by the first display unit 151A on the display surface 52b of the second display unit 152b. To display.
  • the display control unit 164b when the display control unit 164b generates the display image R2a', the displayed display image R2a'is displayed on the display surface 52a of the second display unit 152a. In addition, the display control unit 164b generates a display image R2b'displayed on the second display unit 152b, which is a two-dimensional display. Subsequently, when the display control unit 164b generates the display image R2b', the displayed display image R2b'is displayed on the display surface 52b of the second display unit 152b.
  • objects as shown in FIG. 5 may be arranged in the virtual space VS4.
  • FIG. 13 is an explanatory diagram for explaining a modified example according to the second embodiment.
  • FIG. 13 shows a view of FIG. 12 from the side (side surface) direction.
  • the side wall surface is not shown.
  • the shaded virtual space VS4 is the space inside the rectangular parallelepiped housing shown in FIG.
  • the floor surface S1e of the virtual space VS4 described with reference to FIG. 12 corresponds to the surface of the plate-shaped floor P1e shown in FIG.
  • the display surface 52a of the second display unit 152a shown in FIG. 12 corresponds to the display surface 52a of the plate-shaped second display unit 152a shown in FIG.
  • the display control unit 164b arranges the floor surface, the wall surface (side wall surface, back wall surface), and the top surface in the drawing space.
  • the display control unit 164b may arrange the three-dimensional object in the drawing space. Specifically, the display control unit 164b arranges the floor surface P1A corresponding to the floor surface S1e of the virtual space VS4 shown in FIG. 13 in the drawing space.
  • the display control unit 164a arranges the back wall surface P2A, the side wall surface P3A (P3Aa, P3Ab), and the top surface P4A corresponding to the back wall surface, the side wall surface, and the top surface of the virtual space VS4 in the drawing space. To do.
  • the display control unit 164b is in a direction intersecting the display surface 51A of the first display unit 151A from the floor surface P1A arranged in the drawing space, and is continuous with the floor surface P1A in the real space extending in the direction toward the real space.
  • the floor surface P5A to be used is arranged.
  • the display control unit 164b arranges the floor surface P5A at the position of the display surface 52a of the two-dimensional display (152a) shown in FIG.
  • the side wall surface P6A arranged in the real space is provided with the same striped pattern as the striped pattern applied to the display surface 52b shown on the left side of FIG.
  • the side wall surface P3Aa arranged in the drawing space is provided with a striped pattern continuous with the striped pattern applied to the side wall surface P6A arranged in the real space.
  • the display control unit 164b arranges the side wall surface P3Aa having a striped pattern continuous with the striped pattern applied to the side wall surface P6A arranged in the real space in the drawing space.
  • the display control unit 164b virtually installs the virtual camera Vc 2 with the position of the user's eyes (for example, the position of V4) as a virtual viewpoint, and renders the drawing space corresponding to the virtual space VS4 shown in FIG. To acquire a viewpoint image at the virtual viewpoint.
  • the display control unit 164b virtually arranges the virtual projector Vpj 2 at the same position and direction as the virtual camera Vc 2, and the virtual display surface Vd virtually installed on the display surface 51A from the virtual projector Vpj 2. 2
  • the acquired viewpoint image is projected on the image.
  • the virtual projector Vpj 2 projects a viewpoint image with the same parameters as the virtual camera Vc 2 (for example, focal length parameter, distortion parameter, etc.).
  • the display control unit 164b projects the acquired viewpoint image from the virtual projector Vpj 2 onto the virtual display surface Ve 2 virtually installed at the position of the display surface 52a.
  • the display control unit 164b projects the acquired viewpoint image from the virtual projector Vpj 2 onto the virtual display surface Ve 3 virtually installed at the position of the display surface 52b.
  • the display control unit 164b orthographically projects the image projected and generated on the virtual display surface Vd 2 to acquire the display image R1a.
  • the display image R1a is a distorted image when viewed from a position other than the current viewpoint position (the position of the user's eyes), but is perceived as a normal image when viewed from the current viewpoint position.
  • the display control unit 164b orthographically projects the image projected and generated on the virtual display surface Ve 2 to acquire the display image R2a.
  • the display control unit 164b is the image generated is projected on the virtual display plane Ve 3 orthogonal projection to obtains the display image R2b.
  • the display control unit 164b performs the above processing at the viewpoints for the two viewpoints of the left eye and the right eye, and the display image R1aL for the left eye and the right eye.
  • the display image R1aR for use is acquired.
  • the display control unit 164b displays the combination of the display image R1aL for the left eye and the display image R1aR for the right eye on the display surface 51A so that the user can perceive it as a stereoscopic image.
  • the display control unit 164b displays the acquired display image R2a on the display surface 52a of the second display unit 152a.
  • the display control unit 164b displays the acquired display image R2b on the display surface 52b of the second display unit 152b.
  • the information processing device 200A can freely change the texture displayed on the display surface of the two-dimensional display according to the texture of the first surface located in the virtual space, and thus has more freedom of expression. The degree improves.
  • the information processing device 200A can freely change the texture of the first surface located in the virtual space according to the texture displayed on the display surface of the two-dimensional display, and thus has more freedom of expression. The degree improves.
  • the information processing apparatus 200A can provide more clues to the user by using the floor surface and the side wall surface as the clues surface as compared with the case where only the floor surface is used as the clues surface. Therefore, the information processing apparatus 200A can further improve the sense of depth of the stereoscopic image. In addition, the information processing device 200A can further promote the fusion of the user.
  • FIG. 15 is an explanatory diagram for explaining the outline of the third embodiment of the present disclosure.
  • FIG. 15 shows a view of FIG. 14 as viewed from the side (side surface) direction. In FIG. 15, the side wall surface is not shown.
  • the information processing device 300 includes a first display unit 151B for displaying a stereoscopic image and a third display unit 153. Further, the information processing device 300 includes a second display unit 152c and a second display unit 152d, which are two-dimensional displays, and a fourth display unit 154c and a fourth display unit 154d. Further, the information processing device 300 includes a half mirror HF. The information processing apparatus 300 may be provided with any reflector as long as it has a transmissive reflector, instead of the half mirror HF. Further, the position of the viewpoint of the user observing the display unit 150 is indicated by V5.
  • the display surface 51B of the first display unit 151B is installed at an angle of 90 degrees with respect to the display surface 52c of the second display unit 152c arranged on the floor surface (horizontal plane) of the real space.
  • the second display unit 152c extends in the direction in which the display surface 51B faces the floor surface on which one side surface of the rectangular parallelepiped housing (see FIG. 14) supporting the display surface 51B of the first display unit 151B is grounded. Is placed.
  • the virtual space VS5 shown by the diagonal lines is the space inside the rectangular parallelepiped housing shown in FIG. Further, the surface of the plate-shaped floor P1f shown in FIG. 15 corresponds to the floor surface S1f of the virtual space VS5. Further, the display surface 52c of the second display unit 152c shown in FIG. 15 corresponds to the display surface 52c of the second display unit 152c shown in FIG.
  • the display surface 53 of the third display unit 153 is installed facing downward with respect to the floor surface in the real space.
  • the half mirror HF is installed at an angle of 45 degrees with respect to the display surface 54c of the fourth display unit 154c arranged on the floor surface (horizontal plane) in the real space.
  • the half mirror HF reflects the image output from the display surface 53 of the third display unit 153 in the direction facing the display surface 51B of the first display unit 151B. That is, the image output from the display surface 53 of the third display unit 153 forms an angle of 90 degrees with respect to the display surface 54c of the fourth display unit 154c arranged on the floor surface (horizontal plane) in the real space. It is observed to be output from the display surface 53'of the installed third display unit 153'.
  • the third display unit 153' is a mirror image of the third display unit 153.
  • the display surface 53' is a mirror image of the display surface 53.
  • the virtual space VS6 indicated by diagonal lines is a rectangular parallelepiped space with the floor surface S3f as the bottom surface. Further, of the display surface 52c of the second display unit 152c shown in FIG. 15, a region closer to the third display unit 153 than the first display unit 151B corresponds to the floor surface S3f of the virtual space VS6.
  • FIG. 14 is an explanatory diagram for explaining the outline of the third embodiment of the present disclosure.
  • the display control unit 164B causes the display surface 52c of the second display unit 152c to display a uniform lattice pattern. Further, the display control unit 164B displays the pattern of the lattice pattern displayed on the display surface 52c and the pattern of the lattice pattern continuous with the pattern on the floor surface S1f of the virtual space VS5 on which the stereoscopic image is displayed by the first display unit 151B.
  • the display control unit 164B displays a grid pattern pattern continuous with the grid pattern displayed on the floor surface S1f of the virtual space VS5 on which the stereoscopic image is displayed by the first display unit 151B on the display surface 52c of the second display unit 152c. To display.
  • the display control unit 164B displays the generated display image R2c on the display surface 52c of the second display unit 152c. Further, the display control unit 164B generates a display image R2d to be displayed on the second display unit 152d, which is a two-dimensional display. Subsequently, when the display control unit 164B generates the display image R2d, the display control unit 164B displays the generated display image R2d on the display surface 52d of the second display unit 152d.
  • the display control unit 164B displays a uniform striped pattern on the display surface 54d of the fourth display unit 154d. Further, the display control unit 164B displays the striped pattern displayed on the display surface 54d and the continuous striped pattern on the side wall surface S3g of the virtual space VS6 on which the stereoscopic image is displayed by the third display unit 153. The display control unit 164B causes the display surface 54d of the fourth display unit 154d to display a striped pattern that is continuous with the striped pattern displayed on the side wall surface S3g of the virtual space VS6 on which the stereoscopic image is displayed by the third display unit 153.
  • the display control unit 164B generates a display image R1dL for the left eye and a display image R1dR for the right eye to be displayed on the third display unit 153, which is a naked-eye stereoscopic display. Then, the display control unit 164B displays the combination of the display image R1dL for the left eye and the display image R1dR for the right eye on the display surface 53 so that the user can perceive it as a stereoscopic image. Further, the display control unit 164B generates a display image R2d to be displayed on the fourth display unit 154c, which is a two-dimensional display.
  • the information processing apparatus 300 has a texture displayed on the first surface (S1f) located in the virtual space VS5 where the stereoscopic image is displayed by the first display unit 151B.
  • the texture continuous with is displayed on the second surface (52c), which is the display surface of the two-dimensional display (152c).
  • the information processing apparatus 300 displays a texture displayed on the first surface (S3f) located in the virtual space VS6 on which the stereoscopic image is displayed by the third display unit 153 on the two-dimensional display (154c). It is displayed on the second surface (54c), which is a surface.
  • the information processing apparatus 300 displays a texture displayed on the first surface (S1g) located in the virtual space VS5 on which the stereoscopic image is displayed by the first display unit 151B on the two-dimensional display (152d). It is displayed on the second surface (52d), which is a surface. Further, the information processing apparatus 300 displays a texture displayed on the first surface (S3g) located in the virtual space VS6 on which the stereoscopic image is displayed by the third display unit 153 on the two-dimensional display (154d). It is displayed on the second surface (54d), which is a surface.
  • the information processing apparatus 300 according to the third embodiment of the present disclosure includes a communication unit 110, a display surface detection unit 120, a user detection unit 130, a storage unit 140, a first display unit 151B, and a second display unit. It includes a display unit 152B, a third display unit 153, a fourth display unit 154, and a control unit 160B.
  • the information processing device 300 further includes a reflector (half mirror HF) having transparency, and the display surface (53) of the other display unit (third display unit 153) is relative to the floor surface in the real space. Installed downward, the reflector reflects the image output from the display surface of the other display unit in the direction facing the display surface (51B) of the display unit (first display unit 151B).
  • the first display unit 151B is a display that displays a stereoscopic image under the control of the control unit 160B described later. Further, in the first display unit 151B, the surface on which the stereoscopic image is displayed is the display surface 51B.
  • the second display unit 152B is a two-dimensional display that displays a flat image under the control of the control unit 160B described later. Further, in the second display unit 152B, the surface on which the flat image is displayed is the display surface 52.
  • the second display unit 152B includes a second display unit 152c and a second display unit 152d. Further, in the second display unit 152c, the surface on which the flat image is displayed is the display surface 52c. Further, in the second display unit 152d, the surface on which the flat image is displayed is the display surface 52d.
  • the third display unit 153 is a display that displays a stereoscopic image under the control of the control unit 160B described later. Further, in the third display unit 153, the surface on which the stereoscopic image is displayed is the display surface 53.
  • the fourth display unit 154 is a two-dimensional display that displays a flat image under the control of the control unit 160B described later.
  • the fourth display unit 154 includes a fourth display unit 154c and a fourth display unit 154d. Further, in the fourth display unit 154c, the surface on which the flat image is displayed is the display surface 54c. Further, in the fourth display unit 154d, the surface on which the flat image is displayed is the display surface 54d.
  • Control unit 160B is a controller, and for example, various programs (corresponding to an example of an information processing program) stored in a storage device inside the information processing device 300 are executed by a CPU, MPU, or the like using the RAM as a work area. It is realized by. Further, the control unit 160B is a controller, and is realized by, for example, an integrated circuit such as an ASIC or FPGA.
  • Display control unit 164B The display control unit 164B is located in the virtual space VS6 where the stereoscopic image is displayed by another display unit (third display unit 153) located in the direction in which the display surface (51B) of the display unit (first display unit 151B) faces.
  • the texture continuous with the texture of the fourth surface (54c) located in the real space extending from the third surface (S3f) toward the real space is displayed on the third surface (S3f).
  • the display control unit 164B performs a texture continuous with the texture of the fourth surface (54c) located in the direction in which the display surface (53') of the other display unit (third display unit 153') faces the third surface (S3f). To display. Further, the display control unit 164B performs a texture continuous with the texture of the fourth surface (54d) located in the direction facing the display surface (53') of the other display unit (third display unit 153'). Display on S3g). As described above, the display control unit 164B is in the direction of intersecting the display surface of the other display unit from the third surface, which is at least one of the floor surface, the side wall surface, and the top surface located in the virtual space VS6. The texture of the fourth surface and the texture continuous with the texture of the fourth surface located in the real space extending in the direction toward the real space are displayed on the third surface.
  • the display control unit 164B displays on the third surface (S3f) the texture that is continuous with the texture displayed on the fourth surface (54c), which is the display surface (54c) of the two-dimensional display (fourth display unit 154c). Further, the display control unit 164B causes the third surface (S3g) to display the texture that is continuous with the texture displayed on the fourth surface (54d), which is the display surface of the two-dimensional display (fourth display unit 154d).
  • the display control unit 164B displays the texture displayed on the third surface (S3f) and the texture continuous with the texture on the fourth surface (54c) which is the display surface (54c) of the two-dimensional display (fourth display unit 154c). Further, the display control unit 164B displays the texture displayed on the third surface (S3g) and the texture continuous with the texture on the fourth surface (54d) which is the display surface of the two-dimensional display (fourth display unit 154d).
  • the display control unit 164B displays the texture displayed on the fourth surface (54c) on the second surface (52c) which is the display surface (52c) of the two-dimensional display (second display unit 152c). Further, the display control unit 164B displays the texture displayed on the fourth surface (54d) on the second surface (52d) which is the display surface (52d) of the two-dimensional display (second display unit 152d).
  • the display control unit 164B causes the display unit (first display unit 151B) to display a portion of the stereoscopic image that is close to the display unit (first display unit 151B), and causes another display unit (third display unit 153') to display the portion. A close portion is displayed by another display unit (third display unit 153').
  • the display control unit 164B causes the first display unit 151B to display a portion of the objects included in the stereoscopic image that is closer to the first display unit 151B.
  • the display control unit 164B causes the third display unit 153'to display a portion of the objects included in the stereoscopic image that is closer to the third display unit 153' than the first display unit 151B.
  • the display control unit 164B sets the drawing space based on the display surface information. For example, the display control unit 164B sets a drawing space corresponding to the virtual space VS5 shown in FIG. Further, the display control unit 164B sets a drawing space corresponding to the virtual space VS6 shown in FIG. Specifically, the virtual space VS5 is a rectangular parallelepiped space having the floor surface S1f shown in FIG. 15 on the bottom surface. Further, the virtual space VS5 is a rectangular parallelepiped space having the floor surface S3f shown in FIG. 15 on the bottom surface.
  • the display control unit 164B arranges the floor surface, the wall surface (side wall surface, back wall surface), and the top surface in each drawing space.
  • the display control unit 164B may arrange the three-dimensional object in the drawing space. Specifically, the display control unit 164B arranges the floor surface P1B corresponding to the floor surface S1f of the virtual space VS5 shown in FIG. 15 in the drawing space.
  • the display control unit 164B arranges the back wall surface P2B, the side wall surface P3B (P3Ba, P3Bb), and the top surface P4B corresponding to the back wall surface, the side wall surface, and the top surface of the virtual space VS5 in the drawing space. To do.
  • the display control unit 164B is in a direction intersecting the display surface 51B of the first display unit 151B from the floor surface P1B arranged in the drawing space, and is continuous with the floor surface P1B in the real space extending in the direction toward the real space.
  • the floor surface P5B to be used is arranged.
  • the display control unit 164B arranges the floor surface P5B at the position of the display surface 52c of the second display unit 152c shown in FIG.
  • the floor surface P5B arranged in the real space is provided with the same lattice pattern as the lattice pattern applied to the display surface 52c shown in FIG.
  • the floor surface P1B arranged in the drawing space is provided with a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5B arranged in the real space.
  • the display control unit 164B arranges the floor surface P1B having a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5B arranged in the real space in the drawing space.
  • the display control unit 164B is in a direction intersecting the display surface 51B of the first display unit 151B from the side wall surface P3Ba arranged in the drawing space, and is continuous with the side wall surface P3Ba in the real space extending in the direction toward the real space.
  • the side wall surface P6B to be used is arranged.
  • the display control unit 164B arranges the side wall surface P6B at the position of the display surface 52d of the second display unit 152d shown in FIG.
  • the side wall surface P6B arranged in the real space is provided with the same striped pattern as the striped pattern applied to the display surface 52d shown on the left side of FIG.
  • the side wall surface P3Ba arranged in the drawing space is provided with a striped pattern continuous with the striped pattern applied to the side wall surface P6B arranged in the real space.
  • the display control unit 164B arranges the side wall surface P3Ba having a striped pattern continuous with the striped pattern applied to the side wall surface P6B arranged in the real space in the drawing space.
  • the display control unit 164B arranges the floor surface P1C corresponding to the floor surface S3f of the virtual space VS6 shown in FIG. 15 in the drawing space.
  • the display control unit 164B arranges the back wall surface P2C, the side wall surface P3C (P3Ca, P3Cb), and the top surface P4C corresponding to the back wall surface, the side wall surface, and the top surface of the virtual space VS6 in the drawing space. To do.
  • the display control unit 164B intersects the floor surface P1C arranged in the drawing space with the display surface 53'of the third display unit 153', and the floor surface P1C extends in the direction toward the real space.
  • the floor surface P5C continuous with is arranged.
  • the display control unit 164B arranges the floor surface P5C at the position of the display surface 54c of the fourth display unit 154c shown in FIG.
  • the floor surface P5C arranged in the real space is provided with the same lattice pattern as the lattice pattern applied to the display surface 54c shown in FIG.
  • the floor surface P1C arranged in the drawing space is provided with a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5C arranged in the real space.
  • the display control unit 164B arranges the floor surface P1C having a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5C arranged in the real space in the drawing space.
  • the display control unit 164B is in the direction of intersecting the display surface 53'of the third display unit 153'from the side wall surface P3Ca arranged in the drawing space, and the side wall surface P3Ca extends in the direction toward the real space.
  • a side wall surface P6C continuous with is arranged.
  • the display control unit 164B arranges the side wall surface P6C at the position of the display surface 54d of the fourth display unit 154d shown in FIG.
  • the floor surface P1C arranged in the drawing space is provided with a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5B arranged in the real space.
  • the display control unit 164B arranges the floor surface P1C having a lattice pattern pattern continuous with the lattice pattern pattern applied to the floor surface P5B arranged in the real space in the drawing space.
  • the side wall surface P3Ca arranged in the drawing space is provided with a striped pattern continuous with the striped pattern applied to the side wall surface P6B arranged in the real space.
  • the display control unit 164B arranges the side wall surface P3Ca having a striped pattern continuous with the striped pattern applied to the side wall surface P6B arranged in the real space in the drawing space.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本願に係る情報処理装置(100)は、表示部(150)によって立体画像が表示される仮想空間に位置する第1面から表示部(150)の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を第1面に表示させる表示制御部(164)を備える。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
 従来、ディスプレイに立体画像を表示させる様々な技術が提案されている。その中で、眼鏡等のツールを使用しない裸眼立体表示に関する提案もなされている。たとえば、裸眼立体表示に関するディスプレイとして、レンチキュラ方式に代表されるLight Fieldディスプレイがある。Light Fieldディスプレイに立体画像を表示する場合、ユーザの左右それぞれの視点位置を検出し、視点位置に最適な光線を集光し、右目用の画像及び左眼用の画像を生成する。
 例えば、特許文献1には、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と表示面とがなす角度に応じた領域に、水平面と平行な第一の平面が観察されるように立体画像を表示させる技術が提案されている。
国際公開第2018/116580号
 しかしながら、上記の従来技術では、立体画像の奥行き感を向上させることができるとは限らない。例えば、上記の従来技術では、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と表示面とがなす角度に応じた領域に、水平面と平行な第一の平面が観察されるように立体画像を表示させるにすぎず、立体画像の奥行き感を向上させることができるとは限らない。
 そこで、本開示では、立体画像の奥行き感を向上させることができる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
 上記の課題を解決するために、本開示の一形態に係る情報処理装置は、表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる表示制御部、を備える。
本開示の第1の実施形態の概要を説明するための説明図である。 本開示の第1の実施形態の概要を説明するための説明図である。 第1の実施形態に係る情報処理装置の構成例を示すブロック図である。 第1の実施形態に係る情報処理手順を示すフローチャートである。 第1の実施形態に係る表示制御部による表示制御処理を説明するための説明図である。 第1の実施形態に係る変形例を説明するための説明図である。 第1の実施形態に係る変形例を説明するための説明図である。 本開示の第2の実施形態の概要を説明するための説明図である。 本開示の第2の実施形態の概要を説明するための説明図である。 第2の実施形態に係る情報処理装置の構成例を示すブロック図である。 第2の実施形態に係る表示制御部による表示制御処理を説明するための説明図である。 第2の実施形態に係る変形例を説明するための説明図である。 第2の実施形態に係る変形例を説明するための説明図である。 本開示の第3の実施形態の概要を説明するための説明図である。 本開示の第3の実施形態の概要を説明するための説明図である。 第3の実施形態に係る情報処理装置の構成例を示すブロック図である。 情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1-1.概要
   1-2.構成
   1-3.情報処理の手順
   1-4.変形例
  2.第2の実施形態
   2-1.概要
   2-2.構成
   2-3.情報処理の手順
   2-4.変形例
  3.第3の実施形態
   3-1.概要
   3-2.構成
   3-3.情報処理の手順
  4.本開示に係る効果
  5.ハードウェア構成
[1.第1の実施形態]
[1-1.概要]
 近年、専用の眼鏡等を用いずにコンテンツを立体的に表示することが可能な裸眼立体画像表示装置(以下、単に立体画像表示装置とも称する)が提案されている。これらの立体画像表示装置に立体画像を表示する場合、ユーザの左右それぞれの視点位置を検出し、視点位置に最適な光線を集光し、右目用の画像及び左眼用の画像をそれぞれ生成する。そして、立体画像表示装置は、立体画像表示装置の表示面の各位置において、生成した右目用の画像と左眼用の画像を水平方向にずらして表示する。このように、立体画像表示装置は、右目用の画像と左眼用の画像を水平方向にずらすことにより、視差を生じさせて、ユーザの脳に空間の奥行きを認識させる。
 このような立体画像表示においては、右目用の画像と左眼用の画像を水平方向にずらす距離が大きくなるほど、ユーザの視差量が大きくなる。また、ユーザの視差量が大きくなるほど、ユーザにとって立体画像が画面の奥に位置するように見えるため、ユーザの奥行き感は増す。一方で、ユーザの視差量が大きくなるほど、ユーザが左右の網膜に映った像を融合し、一つの像として認識すること(以下、融像という)は困難になる。そこで、立体画像表示装置の表示部によって立体画像が表示される仮想空間に立体画像の奥行きを知覚するための手がかりとなるパースやきめの勾配を付加することにより、ユーザの融像を促進することが期待される。ここで、仮想空間とは、カメラ等であたかも実空間を撮像したかのような仮想的な空間であって、立体画像が表示される仮想的な空間を指す。
 ここで、パースとは、2次元平面上で遠近感や奥行き感を表現するための絵画の技法を指す。例えば、床面や壁面、天井が奥に続いているとき、手前ほど壁が大きく、奥に行くほど壁が小さくなっているように見える。また、きめ(肌理)とは、物体表面の模様や質感、あるいは繰り返しのパターンを指す。例えば、床面や壁面、天井の模様が奥に続いているとき、手前から奥にかけて、模様のきめが細かくなっているように見える。これを、きめの勾配と呼ぶ。パースに加えて、きめの勾配があると、奥行きを知覚するための手がかりが多くなるため、ユーザが奥行きを知覚するのをより助けることができる。
 例えば、手前ほど大きく、奥に行くほど小さくなるように表現された床面や壁面、天井を立体画像が表示される仮想空間に配置することにより、仮想空間に立体画像の奥行きを知覚するための手がかりとなるパースを付加する。さらに、情報処理装置は、一様な模様や質感、あるいは繰り返しのパターンが表面に施された床面や壁面、天井(以下、手がかり面ともいう)を立体画像が表示される仮想空間に配置することにより、仮想空間に立体画像の奥行きを知覚するための手がかりとなるきめの勾配を付加する。これにより、ユーザの融像を促進することが期待される。
 このように、立体画像が表示される仮想空間に手がかり面を配置することは、ユーザの融像を促進するのに有効な手段であると考えられる。しかしながら、立体画像が表示される仮想空間に手がかり面を配置するのみでは、立体画像の奥行き感を向上させるのに不十分な場合がある。
 例えば、平面に対して法線方向から平面を観察した場合、平面の長さを正しく知覚することは容易である。一方、平面に対して水平方向から平面を観察した場合、平面の長さを正しく知覚することは困難である。したがって、立体画像が表示される仮想空間に手がかり面を配置したとしても、ユーザが手がかり面に対して水平方向に近い方向から手がかり面を観察した場合、ユーザは手がかり面の長さを正しく知覚できないため、立体画像の奥行き感を向上させるための手がかりとして不十分である。
 そこで、本開示の第1の実施形態に係る情報処理装置100は、一様な模様や質感、あるいは繰り返しのパターンが施された第1の手がかり面を表示部によって立体画像が表示される仮想空間に配置する。また、情報処理装置100は、仮想空間に配置された第1の手がかり面の模様や質感、あるいは繰り返しのパターンと連続する模様や質感、あるいは繰り返しのパターンが施された第2の手がかり面を表示部と連続するように表示面が臨む方向に配置する。このように、情報処理装置100は、仮想空間に配置された第1の手がかり面と連続する第2の手がかり面を実空間の表示面が臨む方向に配置する。
 これにより、情報処理装置100は、ユーザに対して、仮想空間に配置された第1の手がかり面と同種の手がかりを持つ第2の手がかり面を法線方向に近い方向から観察させることができる。したがって、情報処理装置100は、ユーザに対して、第2の手がかり面の長さを正しく知覚させることができる。また、情報処理装置100は、ユーザに対して、第2の手がかり面を比較の手がかりとして、仮想空間に配置された第1の手がかり面を観察させることができる。したがって、情報処理装置100は、ユーザに対して、仮想空間に配置された第1の手がかり面の長さをより正しく知覚させることができる。これにより、情報処理装置100は、立体画像の奥行き感を向上させることができる。また、情報処理装置100は、ユーザの融像を促進することができる。
 ここから、図1および図2を用いて、本開示の第1の実施形態の概要について説明する。まず、図1を用いて説明する。図1は、本開示の第1の実施形態の概要を説明するための説明図である。図1では、立体画像を表示する表示部150は、表示面50を支持する三角柱型の筐体を備える。実空間の床面(水平面)S2aは、表示部150の表示面50を支持する三角柱型の筐体の三角柱の一側面が接地された床面を表示面50が臨む方向に延伸して配置される。表示部150の表示面50は、実空間の床面S2aに対して45度の角度をなして設置されている。また、表示部150を観察するユーザの視点の位置をV1で示す。
 図1に示すように、実空間の床面S2aには、一様な格子柄の模様が施されている。図1では、情報処理装置100は、実空間の床面S2aの模様と連続する模様を表示部150によって立体画像が表示される仮想空間VS1の床面S1aに表示する。なお、図1では図示は省略するが、仮想空間VS1には、後述する図5に示すようなオブジェクトが配置されていてもよい。
 次に、図2を用いて説明する。図2は、本開示の第1の実施形態の概要を説明するための説明図である。図2は、図1を横(側面)方向から見た図を示す。図2では、斜線で示す仮想空間VS1は、表示面50の下端と表示面50の上端をそれぞれ対角辺とする直方体の空間である。また、図1で説明した仮想空間VS1の床面S1aは、図2に示す板状の床P1aの表面に対応する。また、図1に示した実空間の床面S2aは、図2に示す板状の床P2aの表面に対応する。
 上述したように、本開示の第1の実施形態に係る情報処理装置100は、表示部150によって立体画像が表示される仮想空間VS1に位置する第1面(S1a)から表示部150の表示面50と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(S2a)の肌理と連続する肌理を第1面(S1a)に表示させる。これにより、情報処理装置100は、ユーザに対して、仮想空間に配置された第1面(S1a)と同種の手がかりを持つ第2面(S2a)を法線方向に近い方向から観察させることができる。したがって、情報処理装置100は、ユーザに対して、第2面(S2a)の長さを正しく知覚させることができる。また、情報処理装置100は、ユーザに対して、第2面(S2a)を比較の手がかりとして、仮想空間VS1に配置された第1面(S1a)を観察させることができる。したがって、情報処理装置100は、ユーザに対して、仮想空間VS1に配置された第1面(S1a)の長さをより正しく知覚させることができる。これにより、情報処理装置100は、立体画像の奥行き感を向上させることができる。また、情報処理装置100は、ユーザの融像を促進することができる。
[1-2.構成]
 次に、図3を用いて、本開示の第1の実施形態に係る情報処理装置100の構成について説明する。図3は、第1の実施形態に係る情報処理装置100の構成例を示すブロック図である。図3に示すように、情報処理装置100は、通信部110、表示面検出部120、ユーザ検出部130、記憶部140、表示部150、制御部160を備える。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。
(通信部110)
 通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、外部の情報処理装置との間で情報の送受信を行う。
(表示面検出部120)
 表示面検出部120は、表示面50の姿勢を検出する。具体的には、表示面検出部20は、表示面50の姿勢として、実空間における床面(水平面)と表示面50とがなす角度を検出する。例えば、表示面検出部20は、実空間の床面と表示面50とがなす角度として、0度より大きく90度以下の角度を検出する。また、表示面検出部120は、表示面50の姿勢を検出すると、検出した表示面50の姿勢に関する情報を制御部160に提供する。
 表示面検出部120は、例えば、表示面50と所定の関係にある加速度センサ、ジャイロセンサ、磁気センサのうちいずれか、または上記の組み合わせにより実現される。
(ユーザ検出部130)
 ユーザ検出部130は、立体画像を観察するユーザに関する情報を検出する。具体的には、ユーザ検出部130は、ユーザの位置及び姿勢を検出する。例えば、ユーザ検出部130は、表示面50に対するユーザの相対的な位置及び姿勢を検出する。例えば、ユーザ検出部130は、ユーザの位置として、ユーザの目の位置を検出する。例えば、ユーザ検出部130は、ユーザの位置として、ユーザの左目の位置及びユーザの右目の位置を検出する。また、例えば、ユーザ検出部130は、ユーザの姿勢として、ユーザの顔の向きを検出する。また、ユーザ検出部130は、ユーザの姿勢として、ユーザの左目、及び右目の視線方向を検出する。
 ユーザ検出部130は、例えば、カメラ、デプスカメラ、人感センサのうちいずれか、または上記の組み合わせにより実現される。
(記憶部140)
 記憶部140は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
(表示部150)
 表示部150は、後述する制御部160の制御に従い、立体画像を表示するディスプレイである。具体的には、表示部150は、裸眼立体ディスプレイ(裸眼立体画像表示装置)である。また、表示部150において、立体画像が表示される面が表示面50である。
 図1を参照して説明したように、表示部150は、表示面50が実空間における床面(水平面)に対して斜め(非垂直)になるように設置され得る。すなわち、表示部150は、実空間の床面と表示面50とが0度より大きく90度以下の角度をなす。なお、図1に示すように、表示部150は表示面50を支持する機構(筐体)を有してもよい。
 後述する表示制御部164は、表示面50の下端と表示面50の上端をそれぞれ対角辺とする空間を描画空間として設定する。ここで、描画空間の底面は実空間に対して水平な面(実空間における床面)である。なお、底面は、表示部150の設置面と略同一な面であることが望ましい。
(制御部160)
 制御部160は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部160は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
 図3に示すように、制御部160は、表示面情報取得部161と、ユーザ情報取得部162と、コンテンツ取得部163と、表示制御部164を有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部160の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
(表示面情報取得部161)
 表示面情報取得部161は、表示面50に関する表示面情報を取得する。具体的には、表示面情報取得部161は、表示面情報として、実空間における床面と表示面50とがなす角度(表示面50の姿勢)の情報を表示面検出部120から取得する。また、表示面情報取得部161は、表示面情報として、表示面50の下端から上端までの距離の情報を記憶部140から取得する。また、表示面情報取得部161は、取得した表示面情報を表示制御部164へ提供する。
(ユーザ情報取得部162)
 ユーザ情報取得部162は、ユーザに関するユーザ情報を取得する。具体的には、ユーザ情報取得部162は、ユーザ情報として、ユーザの位置(ユーザの左目の位置、及びユーザの右目の位置)、及び姿勢の情報をユーザ検出部130から取得する。
 なお、ユーザ情報取得部162は、ユーザ検出部130からユーザの位置及び姿勢の情報を直接的に取得してもよいし、間接的に取得してもよい。例えば、ユーザ検出部130が表示面50の観察方向に向けられたカメラである場合、ユーザ情報取得部162は、ユーザ検出部130から提供される画像に基づいてユーザ情報を特定し、間接的に取得してもよい。また、ユーザ情報取得部162は、取得したユーザ情報を表示制御部164へ提供する。
(コンテンツ取得部163)
 コンテンツ取得部163は、表示に係るコンテンツのデータを取得する。例えば、コンテンツ取得部163は、記憶部140に記憶されたコンテンツのデータを読み出して取得する。コンテンツ取得部163は、取得したコンテンツのデータを表示制御部164へ提供する。
(表示制御部164)
 表示制御部164は、表示面情報取得部161から提供される表示面情報、ユーザ情報取得部162から提供されるユーザ情報、及びコンテンツ取得部163から提供されるコンテンツのデータに基づいて、表示部150の表示を制御する。
 具体的には、表示制御部164は、図2を参照して説明した描画空間をユーザの位置(左目、及び右目の位置)に応じてレンダリングし、ユーザの位置に応じて正射影を行うことで立体画像(左目用画像、及び右目用画像)を生成し、表示部150の表示面50に表示させる。係る構成により、表示制御部164は、表示部150が表示可能な全ての視点(視認角度)の画像を生成しなくてもよく、2視点分の画像のみを生成すればよいため、処理量が抑制され得る。なお、ユーザの位置に応じた立体画像の生成の詳細については、後述する図5を用いて説明する。
 表示制御部164は、図2を参照して説明した仮想空間VS1に立体画像が観察されるように、立体画像を表示部150の表示面50に表示させる。
 例えば、表示制御部164は、表示面50の下端から上端までの距離、及び実空間における床面と表示面50とがなす角度に応じた領域に、水平面と平行な床面(第一の平面)が観察されるように、立体画像を表示部150の表示面50に表示させてもよい。
 図1および図2に示す例では、表示制御部164は、実空間に位置する床面S2aの模様と連続する模様を仮想空間VS1に位置する床面S1aに表示する。具体的には、表示制御部164は、表示部150によって立体画像が表示される仮想空間VS1に位置する第1面(S1a)から表示部150の表示面50と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(S2a)の肌理と連続する肌理を第1面(S1a)に表示させる。また、表示制御部164は、表示部150の表示面50が臨む方向に位置する第2面(S2a)の肌理と連続する肌理を第1面(S1a)に表示させる。
 より具体的には、表示制御部164は、裸眼立体ディスプレイである表示部150に表示させる左目用の表示画像R1L、及び右目用の表示画像R1Rを生成する。そして、表示制御部164は、左目用の表示画像、及び右目用の表示画像の組み合わせが、立体画像としてユーザに知覚されるように、表示面50に表示させる。なお、表示制御部164が画像を生成する処理の詳細については、後述する図4および図5を用いて説明する。
 また、表示制御部164は、表示面50の上端と接し、床面に垂直(すなわち水平面に垂直)な背壁面(第二の平面)が観察されるように立体画像を表示部150の表示面50に表示させてもよい。
 また、表示制御部164は、床面上に配置される立体オブジェクトが観察されるように立体画像を表示部150の表示面50に表示させてもよい。
 表示制御部164が表示させるコンテンツは上記の例に限定されない。例えば、表示制御部164は、表示面50の左端、または右端と接し、床面に垂直(すなわち床面に垂直)な側壁面(第三の平面)が観察されるように立体画像を表示部150の表示面50に表示させてもよい。
[1-3.情報処理の手順]
 次に、図4および図5を用いて、第1の実施形態に係る情報処理の手順について説明する。図4は、第1の実施形態に係る情報処理手順を示すフローチャートである。図4に示すように、表示面情報取得部161は、表示面50に関する表示面情報(実空間における床面と表示面50とがなす角度、及び表示面50の下端から上端までの距離)を取得する(S101)。
 続いて、表示制御部164は、表示面情報に基づいて、描画空間を設定する(S102)。例えば、表示制御部164は、図2に示す仮想空間VS1に対応する描画空間であって、表示面50の上端と下端を対角辺とする直方体の描画空間を設定する。
 続いて、表示制御部164は、床面、壁面(側壁面、背壁面)、及び立体オブジェクトを描画空間に配置する(S103)。例えば、表示制御部164は、図5に左側に示すように、描画空間のうち、表示面50の奥側に、床面P1、背壁面P2、側壁面P3(P3a、P3b)、及び立体オブジェクトO1を配置する。すなわち、表示制御部164は、図2に示す仮想空間VS1の床面S1aに対応する床面P1を描画空間に配置する。
 また、図示は省略するが、表示制御部164は、描画空間に配置された床面P1から表示部150の表示面50と交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1と連続する床面S2aを配置する。
 また、図1に示すように、実空間に配置された床面S2aには格子柄の模様が施されている。また、図5に左側に示すように、描画空間に配置された床面P1には、実空間に配置された床面S2aに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164は、実空間に配置された床面S2aに施された格子柄の模様と連続する格子柄の模様が施された床面P1を描画空間に配置する。
 続いて、ユーザ情報取得部162は、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する(S104)。例えば、ユーザ情報取得部162は、ユーザの1視点分の位置として、図1および図2に示すV1の位置を取得する。
 ここから、図5を用いて、第1の実施形態に係る表示制御部による表示制御処理について説明する。図5は、第1の実施形態に係る表示制御部による表示制御処理を説明するための説明図である。図5の左側に示すように、表示制御部164は、ユーザの目の位置を仮想視点として仮想カメラVcを仮想的に設置し、図2に示す仮想空間VS1に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する(S105)。表示制御部164は、ユーザの姿勢(顔の向き、または視線方向)に基づいて仮想カメラの方向を設定してもよいし、仮想カメラが表示面50に向くように仮想カメラの方向を設定してもよい。
 続いて、図5の中央に示すように、表示制御部164は、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面50に仮想的に設置した仮想ディスプレイ面Vd上に、ステップS105で取得した視点画像を投影する(S106)。ここで、仮想プロジェクタVpjは、仮想カメラVcと同一のパラメータ(例えば焦点距離パラメータ、歪みパラメータ等)で視点画像を投影する。
 続いて、図5の右側に示すように、表示制御部164は、ステップS106で仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R1を取得する(S107)。表示画像R1は、現在の視点位置(ユーザの目の位置)以外から見ると歪んだ画像となるが、現在の視点位置から見ると正常な画像として知覚される。
 なお、図5では1視点分の処理しか示していないが、表示制御部164は、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像、及び右目用の表示画像を取得する。表示制御部164は、左目用の表示画像R1L、及び右目用の表示画像R1Rを取得する。そして、表示制御部164は、左目用の表示画像、及び右目用の表示画像の組み合わせが、立体画像としてユーザに知覚されるように、表示面50に表示させる(S108)。
 このようにして、表示制御部164は、表示部150によって立体画像が表示される仮想空間VS1に位置する第1面(S1a)から表示部150の表示面50と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(S2a)の肌理と連続する肌理を第1面(S1a)に表示させる。
[1-4.変形例]
 次に、図6および図7を用いて、第1の実施形態に係る変形例について説明する。第1の実施形態に係る変形例にかかる情報処理装置100Aは、第1の実施形態で説明した情報処理装置100が備える表示部150の代わりに表示部150Aを、表示制御部164の代わりに表示制御部164aを備えるものである。したがって、図3で説明した各理部については説明を省略する。
 まず、図6を用いて説明する。図6は、第1の実施形態に係る変形例を説明するための説明図である。図6では、立体画像を表示する表示部150Aは、表示面50Aを支持する直方体型の筐体を備える。実空間の床面S2cは、表示部150Aの表示面50Aを支持する直方体型の筐体の直方体の一側面が接地された床面を表示面50Aが臨む方向に延伸して配置される。また、実空間の側壁面S2bは、表示部150Aの表示面50Aを支持する直方体型の筐体の側壁面を表示面50Aが臨む方向に延伸して配置される。また、表示部150Aの表示面50Aは、実空間の床面(水平面)S2cに対して90度の角度をなして設置されている。また、表示部150Aを観察するユーザの視点の位置をV2で示す。
 図6に示すように、実空間の床面S2cには、一様な格子柄の模様が施されている。図6では、表示制御部164aは、実空間の床面S2cの模様と連続する模様を表示部150Aによって立体画像が表示される仮想空間VS2の床面S1cに表示する。また、実空間の側壁面S2bには、一様な縞模様が施されている。表示制御部164aは、実空間の側壁面S2bの模様と連続する模様を表示部150Aによって立体画像が表示される仮想空間VS2の側壁面S1bに表示する。
 具体的には、表示制御部164aは、裸眼立体ディスプレイである表示部150Aに表示させる左目用の表示画像R1AL、及び右目用の表示画像R1ARを生成する。そして、表示制御部164aは、左目用の表示画像R1AL、及び右目用の表示画像R1ARの組み合わせが、立体画像としてユーザに知覚されるように、表示面50Aに表示させる。
 より具体的には、表示面情報取得部161は、表示面50Aに関する表示面情報(実空間における床面と表示面50Aとがなす角度、及び表示面50Aの下端から上端までの距離)を取得する。
 続いて、表示制御部164aは、表示面情報に基づいて、描画空間を設定する。例えば、表示制御部164aは、図7に示す仮想空間VS2に対応する描画空間を設定する。表示制御部164aは、図6に示す直方体型の筐体の内側の空間に相当する直方体型の描画空間を設定する。
 続いて、表示制御部164aは、床面、壁面(側壁面、背壁面)及び天面を描画空間に配置する。なお、表示制御部164aは、立体オブジェクを描画空間に配置してもよい。具体的には、表示制御部164aは、図7に示す仮想空間VS2の床面S1cに対応する床面P1Aを描画空間に配置する。また、図示は省略するが、表示制御部164aは仮想空間VS2の背壁面、側壁面、天面にそれぞれ対応する背壁面P2A、側壁面P3A(P3Aa、P3Ab)、天面P4Aを描画空間に配置する。
 また、表示制御部164aは、描画空間に配置された床面P1Aから表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1Aと連続する床面S2cを配置する。また、表示制御部164aは、描画空間に配置された側壁面P3Aaから表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に側壁面P3Aaと連続する側壁面S2bを配置する。
 また、図6に示すように、実空間に配置された床面S2cには格子柄の模様が施されている。また、描画空間に配置された床面P1Aには、実空間に配置された床面S2cに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164aは、実空間に配置された床面S2cに施された格子柄の模様と連続する格子柄の模様が施された床面P1Aを描画空間に配置する。
 また、図6に示すように、実空間に配置された側壁面S2bには縞模様が施されている。また、描画空間に配置された側壁面P3Aaには、実空間に配置された側壁面S2bに施された縞模様と連続する縞模様が施されている。表示制御部164aは、実空間に配置された側壁面S2bに施された縞模様と連続する縞模様が施された側壁面P3Aaを描画空間に配置する。
 続いて、ユーザ情報取得部162は、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する。例えば、ユーザ情報取得部162は、ユーザの1視点分の位置として、図6および図7に示すV2の位置を取得する。
 続いて、表示制御部164aは、ユーザの目の位置(例えば、V2の位置)を仮想視点として仮想カメラVcを仮想的に設置し、図7に示す仮想空間VS2に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する。表示制御部164aは、ユーザの姿勢(顔の向き、または視線方向)に基づいて仮想カメラの方向を設定してもよいし、仮想カメラが表示面50Aに向くように仮想カメラの方向を設定してもよい。
 続いて、表示制御部164aは、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面50Aに仮想的に設置した仮想ディスプレイ面Vd上に、取得した視点画像を投影する。ここで、仮想プロジェクタVpjは、仮想カメラVcと同一のパラメータ(例えば焦点距離パラメータ、歪みパラメータ等)で視点画像を投影する。
 続いて、表示制御部164aは、仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R1Aを取得する。表示画像R1Aは、現在の視点位置(ユーザの目の位置)以外から見ると歪んだ画像となるが、現在の視点位置から見ると正常な画像として知覚される。
 なお、上述した説明では、1視点分の処理しか示していないが、表示制御部164aは、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像R1AL、及び右目用の表示画像R1ARを取得する。そして、表示制御部164aは、左目用の表示画像R1AL、及び右目用の表示画像R1ARの組み合わせが、立体画像としてユーザに知覚されるように、表示面50Aに表示させる。
 このようにして、表示制御部164aは、表示部150Aによって立体画像が表示される仮想空間VS2に位置する第1面(床面S1c)から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(床面S2c)の肌理と連続する肌理を第1面(床面S1c)に表示させる。また、表示制御部164aは、表示部150Aの表示面50Aが臨む方向に位置する第2面(床面S2c)の肌理と連続する肌理を第1面(床面S1c)に表示させる。
 また、表示制御部164aは、表示部150Aによって立体画像が表示される仮想空間VS2に位置する第1面(側壁面S1b)から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(側壁面S2b)の肌理と連続する肌理を第1面(側壁面S1b)に表示させる。また、表示制御部164aは、表示部150Aの表示面50Aが臨む方向に位置する第2面(側壁面S2b)の肌理と連続する肌理を第1面(側壁面S1b)に表示させる。
 なお、図示は省略するが、表示制御部164aは、仮想空間VS2に位置する天面である第1面から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する天面である第2面の肌理と連続する肌理を第1面に表示させてもよい。この場合、表示制御部164aは、実空間の天面に施された肌理と連続する肌理が施されている天面P4Aを描画空間に配置して、表示画像R1Aを生成する。
 このように、表示制御部164aは、仮想空間VS2に位置する床面、側壁面、または天面のうち少なくともいずれかである第1面から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を第1面に表示させる。
 次に、図7を用いて説明する。図7は、第1の実施形態に係る変形例を説明するための説明図である。図7は、図6を横(側面)方向から見た図を示す。なお、図7では、側壁面の図示は省略する。図7では、斜線で示す仮想空間VS2は、図6に示す直方体型の筐体の内側の空間である。また、図6で説明した仮想空間VS2の床面S1cは、図7に示す板状の床P1cの表面に対応する。また、図6に示した実空間の床面S2cは、図7に示す板状の床P2cの表面に対応する。
 上述したように、第1の実施形態の変形例に係る情報処理装置100Aは、表示部150Aによって立体画像が表示される仮想空間VS2に位置する第1面(床面S1c)から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(床面S2c)の肌理と連続する肌理を第1面(床面S1c)に表示させる。
 これにより、情報処理装置100Aは、ユーザに対して、仮想空間に配置された第1面(床面S1c)と同種の手がかりを持つ第2面(床面S2c)を法線方向に近い方向から観察させることができる。したがって、情報処理装置100Aは、ユーザに対して、第2面(床面S2c)の長さを正しく知覚させることができる。また、情報処理装置100Aは、ユーザに対して、第2面(床面S2c)を比較の手がかりとして、仮想空間に配置された第1面(床面S1c)を観察させることができる。したがって、情報処理装置100Aは、ユーザに対して、仮想空間に配置された第1面(床面S1c)の長さをより正しく知覚させることができる。これにより、情報処理装置100Aは、立体画像の奥行き感を向上させることができる。また、情報処理装置100Aは、ユーザの融像を促進することができる。
 また、情報処理装置100Aは、表示部150Aによって立体画像が表示される仮想空間VS2に位置する第1面(側壁面S1b)から表示部150Aの表示面50Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面(側壁面S2b)の肌理と連続する肌理を第1面(側壁面S1b)に表示させる。
 これにより、情報処理装置100Aは、ユーザに対して、仮想空間に配置された第1面(側壁面S1b)と同種の手がかりを持つ第2面(側壁面S2b)を法線方向に近い方向から観察させることができる。したがって、情報処理装置100Aは、ユーザに対して、第2面(側壁面S2b)の長さを正しく知覚させることができる。また、情報処理装置100Aは、ユーザに対して、第2面(側壁面S2b)を比較の手がかりとして、仮想空間VS2に配置された第1面(側壁面S1b)を観察させることができる。したがって、情報処理装置100Aは、ユーザに対して、仮想空間VS2に配置された第1面(側壁面S1b)の長さをより正しく知覚させることができる。これにより、情報処理装置100Aは、立体画像の奥行き感を向上させることができる。また、情報処理装置100Aは、ユーザの融像を促進することができる。
 また、情報処理装置100Aは、床面だけを手がかり面とする場合と比べて、床面および側壁面を手がかり面とすることにより、ユーザに対して、より多くの手がかりを提供することができる。したがって、情報処理装置100Aは、立体画像の奥行き感をより向上させることができる。また、情報処理装置100Aは、ユーザの融像をより促進することができる。
[2.第2の実施形態]
[2-1.概要]
 第1の実施形態に係る情報処理装置100は、実空間に配置される床面や側壁面、天面の模様と連続する模様を仮想空間の床面や側壁面、天面に表示させるため、仮想空間に表示される立体画像の表現の自由度が低くなる。そこで、第2の実施形態では、立体画像を表示する表示部に連続するように配置される実空間の第2面(図1と図2に示す床面S2aに相当)を2次元ディスプレイで構成する。
 これにより、第2の実施形態に係る情報処理装置200は、第1の実施形態に係る情報処理装置100と同じように、立体画像の奥行き感を向上させることができる。さらに、情報処理装置200は、仮想空間の第1面の模様に合わせて、実空間の第2面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。また、情報処理装置200は、実空間の第2面の模様に合わせて、仮想空間の第1面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
 ここから、図8および図9を用いて、本開示の第2の実施形態の概要について説明する。まず、図8を用いて説明する。図8は、本開示の第2の実施形態の概要を説明するための説明図である。図8では、立体画像を表示する第1表示部151は、表示面51を支持する三角柱型の筐体を備える。2次元ディスプレイである第2表示部152は、第1表示部151の表示面51を支持する三角柱型の筐体の三角柱の一側面が接地された床面を表示面51が臨む方向に延伸して配置される。第1表示部151の表示面51は、第2表示部152の表示面52に対して45度の角度をなして設置されている。また、第1表示部151を観察するユーザの視点の位置をV3で示す。
 図8の左側に示す例では、2次元ディスプレイである第2表示部152の表示面52には、一様な格子柄の模様が表示されている。図8の左側に示す例では、情報処理装置200は、第2表示部152の表示面52の格子柄の模様と連続する模様を第1表示部151によって立体画像が表示される仮想空間VS3の床面S1dに表示する。また、情報処理装置200は、第1表示部151によって立体画像が表示される仮想空間VS3の第1面S1dに表示された格子柄の模様と連続する模様を第2表示部152の表示面52に表示させる。
 具体的には、情報処理装置200は、裸眼立体ディスプレイである第1表示部151に表示させる左目用の表示画像R11L、及び右目用の表示画像R11Rを生成する。続いて、表示制御部164Aは、左目用の表示画像R11L、及び右目用の表示画像R11Rの組み合わせが、立体画像としてユーザに知覚されるように、表示面51に表示させる。また、情報処理装置200は、2次元ディスプレイである第2表示部152に表示させる表示画像R2を生成する。続いて、情報処理装置200は、表示画像R2を生成すると、生成した表示画像R2を第2表示部152の表示面52に表示させる。なお、情報処理装置200が画像を生成する処理の詳細については、後述する図11を用いて説明する。
 図8の右側に示す例では、2次元ディスプレイである第2表示部152の表示面52には、一様な乗馬格子柄の模様が表示されている。図8の右側に示す例では、情報処理装置200は、第2表示部152の表示面52の乗馬格子柄の模様と連続する模様を第1表示部151によって立体画像が表示される仮想空間VS3の床面S1dに表示する。また、情報処理装置200は、第1表示部151によって立体画像が表示される仮想空間VS3の第1面S1dに表示された乗馬格子柄の模様と連続する模様を第2表示部152の表示面52に表示させる。
 具体的には、情報処理装置200は、裸眼立体ディスプレイである第1表示部151に表示させる左目用の表示画像R11L´、及び右目用の表示画像R11R´を生成する。続いて、表示制御部164Aは、左目用の表示画像R11L´、及び右目用の表示画像R11R´の組み合わせが、立体画像としてユーザに知覚されるように、表示面51に表示させる。また、情報処理装置200は、2次元ディスプレイである第2表示部152に表示させる表示画像R2´を生成する。続いて、情報処理装置200は、表示画像R2´を生成すると、生成した表示画像R2を第2表示部152の表示面52に表示させる。
 また、図8では図示は省略するが、仮想空間VS3には、図5に示すようなオブジェクトが配置されていてもよい。
 次に、図9を用いて説明する。図9は、本開示の第2の実施形態の概要を説明するための説明図である。図9は、図8を横(側面)方向から見た図を示す。図9では、斜線で示す仮想空間VS3は、表示面51の下端と表示面51の上端をそれぞれ対角辺とする直方体の空間である。また、図8で説明した仮想空間VS3の床面S1dは、図9に示す板状の床P1dの表面に対応する。また、図8に示した表示面52は、図9に示す板状の第2表示部152の表面に対応する。
 上述したように、本開示の第2の実施形態に係る情報処理装置200は、第1表示部151によって立体画像が表示される仮想空間VS3に位置する第1面(S1d)に表示された肌理と連続する肌理を2次元ディスプレイ(152)の表示面である第2面(52)に表示させる。また、情報処理装置200は、2次元ディスプレイ(152)の表示面である第2面(52)に表示された肌理と連続する肌理を第1面に表示させてもよい。
 これにより、情報処理装置200は、ユーザに対して、仮想空間に配置された第1面(S1d)と同種の手がかりを持つ第2面(52)を法線方向に近い方向から観察させることができる。したがって、情報処理装置200は、ユーザに対して、第2面(52)の長さを正しく知覚させることができる。また、情報処理装置200は、ユーザに対して、第2面(52)を比較の手がかりとして、仮想空間VS3に配置された第1面(S1d)を観察させることができる。したがって、情報処理装置200は、ユーザに対して、仮想空間VS3に配置された第1面(S1d)の長さをより正しく知覚させることができる。これにより、情報処理装置200は、立体画像の奥行き感を向上させることができる。また、情報処理装置200は、ユーザの融像を促進することができる。また、情報処理装置200は、仮想空間の第1面の模様に合わせて、2次元ディスプレイの表示面である第2面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
[2-2.構成]
 次に、図10を用いて、本開示の第2の実施形態に係る情報処理装置200の構成について説明する。図10は、第2の実施形態に係る情報処理装置200の構成例を示すブロック図である。図10に示すように、情報処理装置200は、通信部110、表示面検出部120、ユーザ検出部130、記憶部140、第1表示部151、第2表示部152、制御部160Aを備える。
 第2の実施形態にかかる情報処理装置200は、第1の実施形態で説明した情報処理装置100がさらに第2表示部152を備えるものである。したがって、図3で説明した記憶部および各理部については説明を省略する。
 (第1表示部151)
 第1表示部151は、後述する制御部160Aの制御に従い、立体画像を表示するディスプレイである。また、第1表示部151において、立体画像が表示される面が表示面51である。第1表示部151は、情報処理装置100における表示部150に相当する。
 (第2表示部152)
 第2表示部152は、後述する制御部160Aの制御に従い、平面画像を表示する2次元ディスプレイである。また、第2表示部152において、平面画像が表示される面が表示面52である。
(制御部160A)
 制御部160Aは、コントローラであり、例えば、CPUやMPU等によって、情報処理装置200内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部160Aは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
(表示制御部164A)
 表示制御部164Aは、2次元ディスプレイ(152)の表示面である第2面(52)に表示された肌理と連続する肌理を第1面(S1d)に表示させる。具体的には、表示制御部164Aは、裸眼立体ディスプレイである第1表示部151に表示させる左目用の表示画像、及び右目用の表示画像を生成する。続いて、表示制御部164Aは、左目用の表示画像、及び右目用の表示画像の組み合わせが、立体画像としてユーザに知覚されるように、表示面51に表示させる。
 また、表示制御部164Aは、第1面(S1d)に表示された肌理と連続する肌理を2次元ディスプレイ(152)の表示面である第2面(52)に表示させる。具体的には、表示制御部164Aは、2次元ディスプレイである第2表示部152に表示させる表示画像を生成する。続いて、表示制御部164Aは、表示画像を生成すると、生成した表示画像を第2表示部152の表示面52に表示させる。表示制御部164Aが取得する表示画像R2は、左右の目のどちらの視点の画像も同じ画像となるため、どちらを取得してもよい。
 なお、表示制御部164Aは、第2表示部152の表示面52が多少の凹凸のある平面であっても違和感なく表示する場合は、左目と右目の中心に置いたカメラからの視点画像を再投影したものから取得するのが望ましい。また、表示制御部164Aは、第2表示部152の表示面52が全く凹凸のない平面に限定するなら、第2表示部152に表示されたコンテンツの表示面52の位置の領域を直接正射影して表示画像R2を取得してもよい。
[2-3.情報処理の手順]
 次に、第2の実施形態に係る情報処理の手順について説明する。具体的には、表示面情報取得部161は、第1表示部151の表示面51に関する表示面情報(実空間における床面と表示面51とがなす角度、及び表示面51の下端から上端までの距離)を取得する。また、表示面情報取得部161は、第2表示部152の表示面52に関する表示面情報(表示面52の下端から上端までの距離)を取得する。
 続いて、表示制御部164Aは、表示面情報に基づいて、描画空間を設定する。例えば、表示制御部164Aは、図9に示す仮想空間VS3に対応する描画空間であって、表示面51の上端と下端を対角辺とする直方体の描画空間を設定する。
 ここから、図11を用いて、第2の実施形態に係る表示制御部による表示制御処理について説明する。図11は、第2の実施形態に係る表示制御部による表示制御処理を説明するための説明図である。
 表示制御部164Aは、床面、壁面(側壁面、背壁面)、及び立体オブジェクトを描画空間に配置する。例えば、表示制御部164Aは、図11の左側に示すように、描画空間のうち、表示面51の奥側に、床面P1、背壁面P2、側壁面P3(P3a、P3b)、及び立体オブジェクトO1を配置する。
 また、表示制御部164Aは、描画空間に配置された床面P1から第1表示部151の表示面51と交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1と連続する床面P5を配置する。表示制御部164Aは、図8に示す2次元ディスプレイ(152)の表示面52の位置に床面P5を配置する。
 また、図11に示すように、実空間に配置された床面P5には格子柄の模様が施されている。また、描画空間に配置された床面P1には、実空間に配置された床面P5に施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164は、実空間に配置された床面P5に施された格子柄の模様と連続する格子柄の模様が施された床面P1を描画空間に配置する。
 続いて、ユーザ情報取得部162は、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する。例えば、ユーザ情報取得部162は、ユーザの1視点分の位置として、図8および図9に示すV3の位置を取得する。
 続いて、表示制御部164Aは、ユーザの目の位置(例えば、V3の位置)を仮想視点として仮想カメラVcを仮想的に設置し、図9に示す仮想空間VS3に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する。また、表示制御部164Aは、床面P5のレンダリングを行って、当該仮想視点での視点画像を取得する。
 続いて、表示制御部164Aは、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面51に仮想的に設置した仮想ディスプレイ面Vd上に、取得した視点画像を投影する。また、図11の中央に示すように、表示制御部164Aは、仮想プロジェクタVpjから、表示面52の位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。
 続いて、表示制御部164Aは、仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R11を取得する。表示画像R11は、現在の視点位置(ユーザの目の位置)以外から見ると歪んだ画像となるが、現在の視点位置から見ると正常な画像として知覚される。また、図11の右側に示すように、表示制御部164Aは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2を取得する。
 なお、上述した説明では、1視点分の処理しか示していないが、表示制御部164Aは、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像、及び右目用の表示画像を取得する。表示制御部164Aは、左目用の表示画像R11L、及び右目用の表示画像R11Rを取得する。そして、表示制御部164Aは、左目用の表示画像R11L、及び右目用の表示画像R11Rの組み合わせが、立体画像としてユーザに知覚されるように、表示面51に表示させる。また、表示制御部164Aは、取得した表示画像R2を第2表示部152の表示面52に表示させる。
 このようにして、表示制御部164Aは、第1面(S1d)に表示された肌理と連続する肌理を2次元ディスプレイ(152)の表示面である第2面(52)に表示させる。また、表示制御部164Aは、2次元ディスプレイ(152)の表示面である第2面(52)に表示された肌理と連続する肌理を第1面(S1d)に表示させる。
[2-4.変形例]
 次に、図12および図13を用いて、第2の実施形態に係る変形例について説明する。第2の実施形態に係る変形例にかかる情報処理装置200Aは、第2の実施形態で説明した情報処理装置200が備える第1表示部151の代わりに第1表示部151Aを、第2表示部152の代わりに第2表示部152Bを、表示制御部164Aの代わりに表示制御部164bを備えるものである。なお、第2表示部152Bは、第2表示部152aおよび第2表示部152bを備える。したがって、図10で説明した各理部については説明を省略する。
 まず、図12を用いて説明する。図12は、第2の実施形態に係る変形例を説明するための説明図である。図12では、立体画像を表示する第1表示部151Aは、表示面51Aを支持する直方体型の筐体を備える。第2表示部152aは、第1表示部151Aの表示面51Aを支持する直方体型の筐体の直方体の一側面が接地された床面を表示面51Aが臨む方向に延伸して配置される。第2表示部152bは、第1表示部151Aの表示面51Aを支持する直方体型の筐体の直方体の一側面である側壁面を表示面51Aが臨む方向に延伸して配置される。また、第1表示部151Aの表示面51Aは、実空間の床面(水平面)に配置された第2表示部152aの表示面52aに対して90度の角度をなして設置されている。また、第1表示部151Aを観察するユーザの視点の位置をV4で示す。
 図12の左側に示すように、表示制御部164bは、第2表示部152aの表示面52aに一様な格子柄の模様を表示させる。また、表示制御部164bは、表示面52aに表示された格子柄の模様と連続する格子柄の模様を第1表示部151Aによって立体画像が表示される仮想空間VS4の床面S1eに表示する。表示制御部164bは、第1表示部151Aによって立体画像が表示される仮想空間VS4の床面S1eに表示された格子柄の模様と連続する格子柄の模様を第2表示部152aの表示面52aに表示させる。
 また、表示制御部164bは、第2表示部152bの表示面52bに一様な縞模様を表示させる。また、表示制御部164bは、表示面52bに表示された縞模様と連続する縞模様を第1表示部151Aによって立体画像が表示される仮想空間VS4の側壁面S1fに表示する。表示制御部164bは、第1表示部151Aによって立体画像が表示される仮想空間VS4の側壁面S1fに表示された縞模様と連続する縞模様を第2表示部152bの表示面52bに表示させる。
 具体的には、表示制御部164bは、裸眼立体ディスプレイである第1表示部151Aに表示させる左目用の表示画像R1aL、及び右目用の表示画像R1aRを生成する。そして、表示制御部164bは、左目用の表示画像R1aL、及び右目用の表示画像R1aRの組み合わせが、立体画像としてユーザに知覚されるように、表示面51Aに表示させる。また、表示制御部164bは、2次元ディスプレイである第2表示部152aに表示させる表示画像R2aを生成する。続いて、表示制御部164bは、表示画像R2aを生成すると、生成した表示画像R2aを第2表示部152aの表示面52aに表示させる。また、表示制御部164bは、2次元ディスプレイである第2表示部152bに表示させる表示画像R2b(縞模様を含む画像)を生成する。続いて、表示制御部164bは、表示画像R2bを生成すると、生成した表示画像R2bを第2表示部152bの表示面52bに表示させる。
 図12の右側に示すように、表示制御部164bは、第2表示部152aの表示面52aに一様な縞模様を表示させる。また、表示制御部164bは、表示面52aに表示された縞模様と連続する縞模様を第1表示部151Aによって立体画像が表示される仮想空間VS4の床面S1eに表示する。表示制御部164bは、第1表示部151Aによって立体画像が表示される仮想空間VS4の床面S1eに表示された縞模様と連続する縞模様を第2表示部152aの表示面52aに表示させる。
 また、表示制御部164bは、第2表示部152bの表示面52bに一様な格子柄の模様を表示させる。また、表示制御部164bは、表示面52bに表示された格子柄の模様と連続する格子柄の模様を第1表示部151Aによって立体画像が表示される仮想空間VS4の側壁面S1fに表示する。表示制御部164bは、第1表示部151Aによって立体画像が表示される仮想空間VS4の側壁面S1fに表示された格子柄の模様と連続する格子柄の模様を第2表示部152bの表示面52bに表示させる。
 具体的には、表示制御部164bは、裸眼立体ディスプレイである第1表示部151Aに表示させる左目用の表示画像R1aL´、及び右目用の表示画像R1aR´を生成する。そして、表示制御部164bは、左目用の表示画像R1aL´、及び右目用の表示画像R1aR´の組み合わせが、立体画像としてユーザに知覚されるように、表示面51Aに表示させる。また、表示制御部164bは、2次元ディスプレイである第2表示部152aに表示させる表示画像R2a´を生成する。続いて、表示制御部164bは、表示画像R2a´を生成すると、生成した表示画像R2a´を第2表示部152aの表示面52aに表示させる。また、表示制御部164bは、2次元ディスプレイである第2表示部152bに表示させる表示画像R2b´を生成する。続いて、表示制御部164bは、表示画像R2b´を生成すると、生成した表示画像R2b´を第2表示部152bの表示面52bに表示させる。
 なお、図12では図示は省略するが、仮想空間VS4には、図5に示すようなオブジェクトが配置されていてもよい。
 次に、図13を用いて説明する。図13は、第2の実施形態に係る変形例を説明するための説明図である。図13は、図12を横(側面)方向から見た図を示す。なお、図13では、側壁面の図示は省略する。図13では、斜線で示す仮想空間VS4は、図12に示す直方体型の筐体の内側の空間である。また、図12で説明した仮想空間VS4の床面S1eは、図13に示す板状の床P1eの表面に対応する。また、図12に示した第2表示部152aの表示面52aは、図13に示す板状の第2表示部152aの表示面52aに対応する。
 ここから、第2の実施形態に係る変形例にかかる表示制御処理の手順について説明する。まず、表示面情報取得部161は、表示面51Aに関する表示面情報(実空間における床面と表示面51Aとがなす角度、及び表示面51Aの下端から上端までの距離)を取得する。
 続いて、表示制御部164bは、表示面情報に基づいて、描画空間を設定する。例えば、表示制御部164bは、図13に示す仮想空間VS4に対応する描画空間を設定する。表示制御部164bは、図12に示す直方体型の筐体の内側の空間に相当する直方体型の描画空間を設定する。
 続いて、表示制御部164bは、床面、壁面(側壁面、背壁面)及び天面を描画空間に配置する。なお、表示制御部164bは、立体オブジェクを描画空間に配置してもよい。具体的には、表示制御部164bは、図13に示す仮想空間VS4の床面S1eに対応する床面P1Aを描画空間に配置する。また、図示は省略するが、表示制御部164aは仮想空間VS4の背壁面、側壁面、天面にそれぞれ対応する背壁面P2A、側壁面P3A(P3Aa、P3Ab)、天面P4Aを描画空間に配置する。
 また、表示制御部164bは、描画空間に配置された床面P1Aから第1表示部151Aの表示面51Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1Aと連続する床面P5Aを配置する。表示制御部164bは、図12に示す2次元ディスプレイ(152a)の表示面52aの位置に床面P5Aを配置する。
 また、表示制御部164bは、描画空間に配置された側壁面P3Aaから第1表示部151Aの表示面51Aと交わる方向であって、実空間へ向かう方向に延伸した実空間に側壁面P3Aaと連続する側壁面P6Aを配置する。表示制御部164bは、図12に示す2次元ディスプレイ(152b)の表示面52bの位置に側壁面P6Aを配置する。
 また、実空間に配置された床面P5Aには、図12の左側に示す表示面52aに施された格子柄の模様と同じ格子柄の模様が施されている。また、描画空間に配置された床面P1Aには、実空間に配置された床面P5Aに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164bは、実空間に配置された床面P5Aに施された格子柄の模様と連続する格子柄の模様が施された床面P1Aを描画空間に配置する。
 また、実空間に配置された側壁面P6Aには、図12の左側に示す表示面52bに施された縞模様と同じ縞模様が施されている。また、描画空間に配置された側壁面P3Aaには、実空間に配置された側壁面P6Aに施された縞模様と連続する縞模様が施されている。表示制御部164bは、実空間に配置された側壁面P6Aに施された縞模様と連続する縞模様が施された側壁面P3Aaを描画空間に配置する。
 続いて、ユーザ情報取得部162は、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する。例えば、ユーザ情報取得部162は、ユーザの1視点分の位置として、図12および図13に示すV4の位置を取得する。
 続いて、表示制御部164bは、ユーザの目の位置(例えば、V4の位置)を仮想視点として仮想カメラVcを仮想的に設置し、図13に示す仮想空間VS4に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する。
 続いて、表示制御部164bは、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面51Aに仮想的に設置した仮想ディスプレイ面Vd上に、取得した視点画像を投影する。ここで、仮想プロジェクタVpjは、仮想カメラVcと同一のパラメータ(例えば焦点距離パラメータ、歪みパラメータ等)で視点画像を投影する。また、表示制御部164bは、仮想プロジェクタVpjから、表示面52aの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。また、表示制御部164bは、仮想プロジェクタVpjから、表示面52bの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。
 続いて、表示制御部164bは、仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R1aを取得する。表示画像R1aは、現在の視点位置(ユーザの目の位置)以外から見ると歪んだ画像となるが、現在の視点位置から見ると正常な画像として知覚される。また、表示制御部164bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2aを取得する。また、表示制御部164bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2bを取得する。
 なお、上述した説明では、1視点分の処理しか示していないが、表示制御部164bは、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像R1aL、及び右目用の表示画像R1aRを取得する。そして、表示制御部164bは、左目用の表示画像R1aL、及び右目用の表示画像R1aRの組み合わせが、立体画像としてユーザに知覚されるように、表示面51Aに表示させる。また、表示制御部164bは、取得した表示画像R2aを第2表示部152aの表示面52aに表示させる。また、表示制御部164bは、取得した表示画像R2bを第2表示部152bの表示面52bに表示させる。
 このようにして、表示制御部164bは、2次元ディスプレイ(152a)の表示面である第2面(52a)に表示された肌理と連続する肌理を第1面(S1e)に表示させる。また、表示制御部164bは、2次元ディスプレイ(152b)の表示面である第2面(52b)に表示された肌理と連続する肌理を第1面(S1f)に表示させる。
 これにより、情報処理装置200Aは、仮想空間に位置する第1面の肌理に合わせて、2次元ディスプレイの表示面に表示される肌理を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、表示制御部164bは、第1面(S1e)に表示された肌理と連続する肌理を2次元ディスプレイ(152a)の表示面である第2面(52a)に表示させる。また、表示制御部164bは、第1面(S1f)に表示された肌理と連続する肌理を2次元ディスプレイ(152b)の表示面である第2面(52b)に表示させる。
 これにより、情報処理装置200Aは、2次元ディスプレイの表示面に表示される肌理に合わせて、仮想空間に位置する第1面の肌理を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、情報処理装置200Aは、床面だけを手がかり面とする場合と比べて、床面および側壁面を手がかり面とすることにより、ユーザに対して、より多くの手がかりを提供することができる。したがって、情報処理装置200Aは、立体画像の奥行き感をより向上させることができる。また、情報処理装置200Aは、ユーザの融像をより促進することができる。
[3.第3の実施形態]
[3-1.概要]
 第2の実施形態では、一つの裸眼立体ディスプレイと連続するように一つの2次元ディスプレイを組み合わせて構成した。第3の実施形態では、二つの裸眼立体ディスプレイの間に2次元ディスプレイを組み合わせて構成する。
 ここから、図14および図15を用いて、本開示の第3の実施形態の概要について説明する。まず、図15を用いて説明する。図15は、本開示の第3の実施形態の概要を説明するための説明図である。図15は、図14を横(側面)方向から見た図を示す。なお、図15では、側壁面の図示は省略する。
 図15に示すように、情報処理装置300は、立体画像を表示する第1表示部151Bと、第3表示部153とを備える。また、情報処理装置300は、2次元ディスプレイである第2表示部152cおよび第2表示部152dと、第4表示部154cおよび第4表示部154dを備える。また、情報処理装置300は、ハーフミラーHFを備える。なお、情報処理装置300は、ハーフミラーHFの代わりに、透過性を有する反射板であれば、いかなる反射板を備えてもよい。また、表示部150を観察するユーザの視点の位置をV5で示す。
 第1表示部151Bの表示面51Bは、実空間の床面(水平面)に配置された第2表示部152cの表示面52cに対して90度の角度をなして設置されている。第2表示部152cは、第1表示部151Bの表示面51Bを支持する直方体型の筐体(図14を参照)の直方体の一側面が接地された床面を表示面51Bが臨む方向に延伸して配置される。
 また、斜線で示す仮想空間VS5は、図14に示す直方体型の筐体の内側の空間である。また、図15に示す板状の床P1fの表面が仮想空間VS5の床面S1fに対応する。また、図15に示す第2表示部152cの表示面52cは、図14に示す第2表示部152cの表示面52cに対応する。
 第3表示部153の表示面53は、実空間の床面に対して下向きに設置される。ハーフミラーHFは、実空間の床面(水平面)に配置された第4表示部154cの表示面54cに対して45度の角度をなして設置されている。
 ハーフミラーHFは、第3表示部153の表示面53から出力される画像を第1表示部151Bの表示面51Bが臨む方向に反射する。すなわち、第3表示部153の表示面53から出力される画像は、あたかも実空間の床面(水平面)に配置された第4表示部154cの表示面54cに対して90度の角度をなして設置された第3表示部153´の表示面53´から出力されるように観察される。なお、第3表示部153´は、第3表示部153の鏡像である。また、表示面53´は、表示面53の鏡像である。
 また、斜線で示す仮想空間VS6は、床面S3fを底面とする直方体型の空間である。また、図15に示す第2表示部152cの表示面52cのうち、第1表示部151Bよりも第3表示部153に近い領域が仮想空間VS6の床面S3fに対応する。
 次に、図14を用いて説明する。図14は、本開示の第3の実施形態の概要を説明するための説明図である。図14に示すように、表示制御部164Bは、第2表示部152cの表示面52cに一様な格子柄の模様を表示させる。また、表示制御部164Bは、表示面52cに表示された格子柄の模様と連続する格子柄の模様を第1表示部151Bによって立体画像が表示される仮想空間VS5の床面S1fに表示する。表示制御部164Bは、第1表示部151Bによって立体画像が表示される仮想空間VS5の床面S1fに表示された格子柄の模様と連続する格子柄の模様を第2表示部152cの表示面52cに表示させる。
 また、表示制御部164Bは、第2表示部152dの表示面5dbに一様な縞模様を表示させる。また、表示制御部164Bは、表示面52dに表示された縞模様と連続する縞模様を第1表示部151Bによって立体画像が表示される仮想空間VS5の側壁面S1gに表示する。表示制御部164Bは、第1表示部151Bによって立体画像が表示される仮想空間VS5の側壁面S1gに表示された縞模様と連続する縞模様を第2表示部152dの表示面52dに表示させる。
 具体的には、表示制御部164Bは、裸眼立体ディスプレイである第1表示部151Bに表示させる左目用の表示画像R1cL、及び右目用の表示画像R1cRを生成する。そして、表示制御部164Bは、左目用の表示画像R1cL、及び右目用の表示画像R1cRの組み合わせが、立体画像としてユーザに知覚されるように、表示面51Bに表示させる。また、表示制御部164Bは、2次元ディスプレイである第2表示部152cに表示させる表示画像R2cを生成する。続いて、表示制御部164Bは、表示画像R2cを生成すると、生成した表示画像R2cを第2表示部152cの表示面52cに表示させる。また、表示制御部164Bは、2次元ディスプレイである第2表示部152dに表示させる表示画像R2dを生成する。続いて、表示制御部164Bは、表示画像R2dを生成すると、生成した表示画像R2dを第2表示部152dの表示面52dに表示させる。
 また、表示制御部164Bは、第4表示部154cの表示面54cに一様な格子柄の模様を表示させる。また、表示制御部164Bは、表示面54cに表示された格子柄の模様と連続する格子柄の模様を第3表示部153によって立体画像が表示される仮想空間VS6の床面S3fに表示する。表示制御部164Bは、第3表示部153によって立体画像が表示される仮想空間VS6の床面S3fに表示された格子柄の模様と連続する格子柄の模様を第4表示部154cの表示面54cに表示させる。
 また、表示制御部164Bは、第4表示部154dの表示面54dに一様な縞模様を表示させる。また、表示制御部164Bは、表示面54dに表示された縞模様と連続する縞模様を第3表示部153によって立体画像が表示される仮想空間VS6の側壁面S3gに表示する。表示制御部164Bは、第3表示部153によって立体画像が表示される仮想空間VS6の側壁面S3gに表示された縞模様と連続する縞模様を第4表示部154dの表示面54dに表示させる。
 具体的には、表示制御部164Bは、裸眼立体ディスプレイである第3表示部153に表示させる左目用の表示画像R1dL、及び右目用の表示画像R1dRを生成する。そして、表示制御部164Bは、左目用の表示画像R1dL、及び右目用の表示画像R1dRの組み合わせが、立体画像としてユーザに知覚されるように、表示面53に表示させる。また、表示制御部164Bは、2次元ディスプレイである第4表示部154cに表示させる表示画像R2dを生成する。続いて、表示制御部164Bは、表示画像R2dを生成すると、生成した表示画像R2dを第4表示部154cの表示面54cに表示させる。また、表示制御部164Bは、2次元ディスプレイである第4表示部154dに表示させる表示画像R2eを生成する。続いて、表示制御部164Bは、表示画像R2eを生成すると、生成した表示画像R2eを第4表示部154dの表示面54dに表示させる。
 上述したように、本開示の第3の実施形態に係る情報処理装置300は、第1表示部151Bによって立体画像が表示される仮想空間VS5に位置する第1面(S1f)に表示された肌理と連続する肌理を2次元ディスプレイ(152c)の表示面である第2面(52c)に表示させる。また、情報処理装置300は、第3表示部153によって立体画像が表示される仮想空間VS6に位置する第1面(S3f)に表示された肌理と連続する肌理を2次元ディスプレイ(154c)の表示面である第2面(54c)に表示させる。
 また、情報処理装置300は、第1表示部151Bによって立体画像が表示される仮想空間VS5に位置する第1面(S1g)に表示された肌理と連続する肌理を2次元ディスプレイ(152d)の表示面である第2面(52d)に表示させる。また、情報処理装置300は、第3表示部153によって立体画像が表示される仮想空間VS6に位置する第1面(S3g)に表示された肌理と連続する肌理を2次元ディスプレイ(154d)の表示面である第2面(54d)に表示させる。
 このように、情報処理装置300は、情報処理装置200よりも多くの手がかりを備えるため、奥行の手がかりがより確かなものとなり、ユーザの融像の促進や、より正しい距離の把握を可能とする。したがって、情報処理装置300は、立体画像の奥行き感をより向上させることができる。
[3-2.構成]
 次に、図16を用いて、本開示の第3の実施形態に係る情報処理装置300の構成について説明する。図16に示すように、本開示の第3の実施形態に係る情報処理装置300は、通信部110、表示面検出部120、ユーザ検出部130、記憶部140、第1表示部151B、第2表示部152B、第3表示部153、第4表示部154、制御部160Bを備える。
 また、情報処理装置300は、透過性を有する反射板(ハーフミラーHF)をさらに備え、他の表示部(第3表示部153)の表示面(53)は、実空間の床面に対して下向きに設置され、反射板は、他の表示部の表示面から出力される画像を表示部(第1表示部151B)の表示面(51B)が臨む方向に反射する。
 (第1表示部151B)
 第1表示部151Bは、後述する制御部160Bの制御に従い、立体画像を表示するディスプレイである。また、第1表示部151Bにおいて、立体画像が表示される面が表示面51Bである。
 (第2表示部152B)
 第2表示部152Bは、後述する制御部160Bの制御に従い、平面画像を表示する2次元ディスプレイである。また、第2表示部152Bにおいて、平面画像が表示される面が表示面52である。なお、第2表示部152Bは、第2表示部152cおよび第2表示部152dを備える。また、第2表示部152cにおいて、平面画像が表示される面が表示面52cである。また、第2表示部152dにおいて、平面画像が表示される面が表示面52dである。
 (第3表示部153)
 第3表示部153は、後述する制御部160Bの制御に従い、立体画像を表示するディスプレイである。また、第3表示部153において、立体画像が表示される面が表示面53である。
 (第4表示部154)
 第4表示部154は、後述する制御部160Bの制御に従い、平面画像を表示する2次元ディスプレイである。なお、第4表示部154は、第4表示部154cおよび第4表示部154dを備える。また、第4表示部154cにおいて、平面画像が表示される面が表示面54cである。また、第4表示部154dにおいて、平面画像が表示される面が表示面54dである。
 (制御部160B)
 制御部160Bは、コントローラであり、例えば、CPUやMPU等によって、情報処理装置300内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部160Bは、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
 (表示制御部164B)
 表示制御部164Bは、表示部(第1表示部151B)の表示面(51B)が臨む方向に位置する他の表示部(第3表示部153)によって立体画像が表示される仮想空間VS6に位置する第3面(S3f)から実空間へ向かう方向に延伸した実空間に位置する第4面(54c)の肌理と連続する肌理を第3面(S3f)に表示させる。
 表示制御部164Bは、他の表示部(第3表示部153´)の表示面(53´)が臨む方向に位置する第4面(54c)の肌理と連続する肌理を第3面(S3f)に表示させる。また、表示制御部164Bは、他の表示部(第3表示部153´)の表示面(53´)が臨む方向に位置する第4面(54d)の肌理と連続する肌理を第3面(S3g)に表示させる。このように、表示制御部164Bは、仮想空間VS6に位置する床面、側壁面、または天面のうち少なくともいずれかである第3面から他の表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を第3面に表示させる。
 表示制御部164Bは、2次元ディスプレイ(第4表示部154c)の表示面(54c)である第4面に表示された肌理と連続する肌理を第3面(S3f)に表示させる。また、表示制御部164Bは、2次元ディスプレイ(第4表示部154d)の表示面である第4面(54d)に表示された肌理と連続する肌理を第3面(S3g)に表示させる。
 表示制御部164Bは、第3面(S3f)に表示された肌理と連続する肌理を2次元ディスプレイ(第4表示部154c)の表示面(54c)である第4面に表示させる。また、表示制御部164Bは、第3面(S3g)に表示された肌理と連続する肌理を2次元ディスプレイ(第4表示部154d)の表示面である第4面(54d)に表示させる。
 表示制御部164Bは、第4面(54c)に表示された肌理と連続する肌理を2次元ディスプレイ(第2表示部152c)の表示面(52c)である第2面に表示させる。また、表示制御部164Bは、第4面(54d)に表示された肌理と連続する肌理を2次元ディスプレイ(第2表示部152d)の表示面(52d)である第2面に表示させる。
 表示制御部164Bは、立体画像のうち、表示部(第1表示部151B)に近い部分を表示部(第1表示部151B)によって表示させ、他の表示部(第3表示部153´)に近い部分を他の表示部(第3表示部153´)によって表示させる。例えば、表示制御部164Bは、立体画像に含まれるオブジェクトのうち、第1表示部151Bにより近い部分を第1表示部151Bによって表示させる。また、表示制御部164Bは、立体画像に含まれるオブジェクトのうち、第1表示部151Bよりも第3表示部153´により近い部分を第3表示部153´によって表示させる。
[3-3.情報処理の手順]
 次に、第3の実施形態に係る情報処理の手順について説明する。まず、表示面情報取得部161は、表示面51Bに関する表示面情報(実空間における床面と表示面51Bとがなす角度、及び表示面51Bの下端から上端までの距離)を取得する。また、表示面情報取得部161は、表示面51Bと同様にして、表示面53´に関する表示面情報を取得する。
 続いて、表示制御部164Bは、表示面情報に基づいて、描画空間を設定する。例えば、表示制御部164Bは、図15に示す仮想空間VS5に対応する描画空間を設定する。また、表示制御部164Bは、図15に示す仮想空間VS6に対応する描画空間を設定する。具体的には、仮想空間VS5は、図15に示す床面S1fを底面に持つ直方体型の空間である。また、仮想空間VS5は、図15に示す床面S3fを底面に持つ直方体型の空間である。
 続いて、表示制御部164Bは、床面、壁面(側壁面、背壁面)及び天面をそれぞれの描画空間に配置する。なお、表示制御部164Bは、立体オブジェクを描画空間に配置してもよい。具体的には、表示制御部164Bは、図15に示す仮想空間VS5の床面S1fに対応する床面P1Bを描画空間に配置する。また、図示は省略するが、表示制御部164Bは仮想空間VS5の背壁面、側壁面、天面にそれぞれ対応する背壁面P2B、側壁面P3B(P3Ba、P3Bb)、天面P4Bを描画空間に配置する。
 また、表示制御部164Bは、描画空間に配置された床面P1Bから第1表示部151Bの表示面51Bと交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1Bと連続する床面P5Bを配置する。表示制御部164Bは、図14に示す第2表示部152cの表示面52cの位置に床面P5Bを配置する。
 また、実空間に配置された床面P5Bには、図14に示す表示面52cに施された格子柄の模様と同じ格子柄の模様が施されている。また、描画空間に配置された床面P1Bには、実空間に配置された床面P5Bに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164Bは、実空間に配置された床面P5Bに施された格子柄の模様と連続する格子柄の模様が施された床面P1Bを描画空間に配置する。
 また、表示制御部164Bは、描画空間に配置された側壁面P3Baから第1表示部151Bの表示面51Bと交わる方向であって、実空間へ向かう方向に延伸した実空間に側壁面P3Baと連続する側壁面P6Bを配置する。表示制御部164Bは、図14に示す第2表示部152dの表示面52dの位置に側壁面P6Bを配置する。
 また、実空間に配置された側壁面P6Bには、図14の左側に示す表示面52dに施された縞模様と同じ縞模様が施されている。また、描画空間に配置された側壁面P3Baには、実空間に配置された側壁面P6Bに施された縞模様と連続する縞模様が施されている。表示制御部164Bは、実空間に配置された側壁面P6Bに施された縞模様と連続する縞模様が施された側壁面P3Baを描画空間に配置する。
 また、表示制御部164Bは、図15に示す仮想空間VS6の床面S3fに対応する床面P1Cを描画空間に配置する。また、図示は省略するが、表示制御部164Bは仮想空間VS6の背壁面、側壁面、天面にそれぞれ対応する背壁面P2C、側壁面P3C(P3Ca、P3Cb)、天面P4Cを描画空間に配置する。
 また、表示制御部164Bは、描画空間に配置された床面P1Cから第3表示部153´の表示面53´と交わる方向であって、実空間へ向かう方向に延伸した実空間に床面P1Cと連続する床面P5Cを配置する。表示制御部164Bは、図14に示す第4表示部154cの表示面54cの位置に床面P5Cを配置する。
 また、実空間に配置された床面P5Cには、図14に示す表示面54cに施された格子柄の模様と同じ格子柄の模様が施されている。また、描画空間に配置された床面P1Cには、実空間に配置された床面P5Cに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164Bは、実空間に配置された床面P5Cに施された格子柄の模様と連続する格子柄の模様が施された床面P1Cを描画空間に配置する。
 また、表示制御部164Bは、描画空間に配置された側壁面P3Caから第3表示部153´の表示面53´と交わる方向であって、実空間へ向かう方向に延伸した実空間に側壁面P3Caと連続する側壁面P6Cを配置する。表示制御部164Bは、図14に示す第4表示部154dの表示面54dの位置に側壁面P6Cを配置する。
 また、実空間に配置された側壁面P6Cには、図14に示す表示面54dに施された縞模様と同じ縞模様が施されている。また、描画空間に配置された側壁面P3Caには、実空間に配置された側壁面P6Cに施された縞模様と連続する縞模様が施されている。表示制御部164Bは、実空間に配置された側壁面P6Cに施された縞模様と連続する縞模様が施された側壁面P3Caを描画空間に配置する。
 また、描画空間に配置された床面P1Cには、実空間に配置された床面P5Bに施された格子柄の模様と連続する格子柄の模様が施されている。表示制御部164Bは、実空間に配置された床面P5Bに施された格子柄の模様と連続する格子柄の模様が施された床面P1Cを描画空間に配置する。
 また、描画空間に配置された側壁面P3Caには、実空間に配置された側壁面P6Bに施された縞模様と連続する縞模様が施されている。表示制御部164Bは、実空間に配置された側壁面P6Bに施された縞模様と連続する縞模様が施された側壁面P3Caを描画空間に配置する。
 続いて、ユーザ情報取得部162は、ユーザ情報として、ユーザの左目と右目の位置、及びユーザの姿勢を取得する。例えば、ユーザ情報取得部162は、ユーザの1視点分の位置として、図14および図15に示すV5の位置を取得する。
 続いて、表示制御部164Bは、ユーザの目の位置(例えば、V5の位置)を仮想視点として仮想カメラVcを仮想的に設置し、図15に示す仮想空間VS5に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する。
 続いて、表示制御部164Bは、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面51Bに仮想的に設置した仮想ディスプレイ面Vd上に、取得した視点画像を投影する。また、表示制御部164Bは、仮想プロジェクタVpjから、表示面52cの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。また、表示制御部164Bは、仮想プロジェクタVpjから、表示面52dの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。
 続いて、表示制御部164Bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R1cを取得する。また、表示制御部164Bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2cを取得する。また、表示制御部164Bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2dを取得する。
 続いて、表示制御部164Bは、ユーザの目の位置(例えば、V5の位置)を仮想視点として仮想カメラVcを仮想的に設置し、図15に示す仮想空間VS6に対応する描画空間のレンダリングを行って当該仮想視点での視点画像を取得する。
 続いて、表示制御部164Bは、仮想カメラVcと同一の位置、方向で仮想プロジェクタVpjを仮想的に配置し、仮想プロジェクタVpjから、表示面53´に仮想的に設置した仮想ディスプレイ面Vd上に、取得した視点画像を投影する。また、表示制御部164Bは、仮想プロジェクタVpjから、表示面54cの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。また、表示制御部164Bは、仮想プロジェクタVpjから、表示面54dの位置に仮想的に設置した仮想ディスプレイ面Ve上に、取得した視点画像を投影する。
 続いて、表示制御部164Bは、仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R1dを取得する。また、表示制御部164Bは、仮想ディスプレイ面Vd上に投影されて生成された画像を正射影して、表示画像R2dを取得する。また、表示制御部164Bは、仮想ディスプレイ面Ve上に投影されて生成された画像を正射影して、表示画像R2eを取得する。
 なお、上述した説明では、1視点分の処理しか示していないが、表示制御部164Bは、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像R1cL、及び右目用の表示画像R1cRを取得する。そして、表示制御部164Bは、左目用の表示画像R1cL、及び右目用の表示画像R1cRの組み合わせが、立体画像としてユーザに知覚されるように、表示面51Bに表示させる。また、表示制御部164Bは、取得した表示画像R2cを第2表示部152cの表示面52cに表示させる。また、表示制御部164Bは、取得した表示画像R2dを第2表示部152dの表示面52dに表示させる。
 また、表示制御部164Bは、左目、及び右目の2視点分の視点において上記の処理を行い、左目用の表示画像R1dL、及び右目用の表示画像R1dRを取得する。そして、表示制御部164Bは、左目用の表示画像R1dL、及び右目用の表示画像R1dRの組み合わせが、立体画像としてユーザに知覚されるように、表示面53´に表示させる。また、表示制御部164Bは、取得した表示画像R2dを第4表示部154cの表示面54cに表示させる。また、表示制御部164Bは、取得した表示画像R2eを第4表示部154dの表示面54dに表示させる。
[4.本開示に係る効果]
 上述のように、本開示に係る情報処理装置(第1の実施形態では情報処理装置100、第2の実施形態では情報処理装置200、第3の実施形態では情報処理装置300)は、表示制御部(第1~第3の実施形態では表示制御部164)を備える。表示制御部は、表示部(第1の実施形態では表示部150、第2の実施形態では第1表示部151、第3の実施形態では第1表示部151)によって立体画像が表示される仮想空間に位置する第1面から表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を第1面に表示させる。また、表示制御部は、表示部の表示面が臨む方向に位置する第2面の肌理と連続する肌理を第1面に表示させる。
 これにより、情報処理装置は、ユーザに対して、仮想空間に配置された第1の手がかり面と同種の手がかりを持つ第2の手がかり面を法線方向に近い方向から観察させることができる。したがって、情報処理装置は、ユーザに対して、第2の手がかり面の長さを正しく知覚させることができる。また、情報処理装置は、ユーザに対して、第2の手がかり面を比較の手がかりとして、仮想空間に配置された第1の手がかり面を観察させることができる。したがって、情報処理装置は、ユーザに対して、仮想空間に配置された第1の手がかり面の長さをより正しく知覚させることができる。これにより、情報処理装置は、立体画像の奥行き感を向上させることができる。また、情報処理装置は、ユーザの融像を促進することができる。
 また、情報処理装置は、立体画像が表示される仮想空間に表示する壁面や床面と同一あるいは同種の手がかりを持つ面を立体画像表示装置の周りに連続して配置することにより、連続した手がかりの量が多くなることから、ユーザの融像を容易にする。その結果、情報処理装置は、立体画像の奥行き感を向上させることができる。
 また、表示制御部は、仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである第1面から表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を第1面に表示させる。
 これにより、情報処理装置は、より多くの手がかり面をユーザに対して観察させることができるため、立体画像の奥行き感をより向上させることができる。
 また、表示制御部は、2次元ディスプレイ(第2の実施形態では第2表示部152、第3の実施形態では第2表示部152)の表示面である第2面に表示された肌理と連続する肌理を第1面に表示させる。
 これにより、情報処理装置は、実空間の第2面の模様に合わせて、仮想空間の第1面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、表示制御部は、第1面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である第2面に表示させる。
 これにより、情報処理装置は、仮想空間の第1面の模様に合わせて、実空間の第2面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、表示部(第1の実施形態では表示部150、第2の実施形態では第1表示部151、第3の実施形態では第1表示部151)は、実空間の床面と表示面とが0度より大きく90度以下の角度をなす。
 これにより、情報処理装置は、立体画像を観察するユーザの負担を抑制しつつ、より広い範囲でユーザが立体的に観察することを可能にする。
 また、表示制御部は、表示部(第3の実施形態では第1表示部151)の表示面が臨む方向に位置する他の表示部(第3の実施形態では第3表示部153)によって立体画像が表示される仮想空間に位置する第3面から実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を第3面に表示させる。また、表示制御部は、他の表示部の表示面が臨む方向に位置する第4面の肌理と連続する肌理を第3面に表示させる。
 これにより、情報処理装置は、よりも多くの手がかりを備えるため、奥行の手がかりがより確かなものとなり、ユーザの融像の促進や、より正しい距離の把握を可能とする。したがって、情報処理装置は、立体画像の奥行き感をより向上させることができる。
 また、表示制御部は、仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである第3面から他の表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を第3面に表示させる。
 これにより、情報処理装置は、より多くの手がかり面をユーザに対して観察させることができるため、立体画像の奥行き感をより向上させることができる。
 また、表示制御部は、2次元ディスプレイ(第3の実施形態では第4表示部154)の表示面である第4面に表示された肌理と連続する肌理を第3面に表示させる。
 これにより、情報処理装置は、実空間の第4面の模様に合わせて、仮想空間の第3面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、表示制御部は、第3面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である第4面に表示させる。
 これにより、情報処理装置は、仮想空間の第3面の模様に合わせて、実空間の第4面の模様を自由に変更することが可能になるため、より表現の自由度が向上する。
 また、表示制御部は、第4面に表示された肌理と連続する肌理を2次元ディスプレイ(第3の実施形態では第2表示部152)の表示面である第2面に表示させる。
 これにより、情報処理装置は、より距離の長い手がかり面をユーザに対して観察させることができるため、立体画像の奥行き感をより向上させることができる。
 また、情報処理装置300は、透過性を有する反射板をさらに備える。他の表示部の表示面は、実空間の床面に対して下向きに設置される。反射板は、他の表示部の表示面から出力される画像を表示部の表示面が臨む方向に反射する。
 これにより、情報処理装置は、ユーザに対して、2つの表示部によってそれぞれ表示される立体画像を重畳して観察させることができる。
 また、表示制御部は、立体画像のうち、表示部に近い部分を表示部によって表示させ、他の表示部に近い部分を他の表示部によって表示させる。
 これにより、情報処理装置は、立体画像の奥行き感をより向上させることができる。
[5.ハードウェア構成]
 上述してきた第1~第3の実施形態や変形例に係る情報処理装置100、情報処理装置200および情報処理装置300等の情報機器は、例えば図17に示すような構成のコンピュータ1000によって実現される。図17は、情報処理装置100、情報処理装置200および情報処理装置300等の情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。以下、第1の実施形態に係る情報処理装置100を例に挙げて説明する。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、制御部160等の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、記憶部140内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる表示制御部、
 を備える情報処理装置。
(2)
 前記表示制御部は、
 前記表示部の表示面が臨む方向に位置する前記第2面の肌理と連続する肌理を前記第1面に表示させる、
 前記(1)に記載の情報処理装置。
(3)
 前記表示制御部は、
 前記仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである前記第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる、
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記表示制御部は、
 2次元ディスプレイの表示面である前記第2面に表示された肌理と連続する肌理を前記第1面に表示させる、
 前記(1)~(3)のいずれか1つに記載の情報処理装置。
(5)
 前記表示制御部は、
 前記第1面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第2面に表示させる、
 前記(1)~(4)のいずれか1つに記載の情報処理装置。
(6)
 前記表示部は、実空間の床面と前記表示面とが0度より大きく90度以下の角度をなす、
 前記(1)~(5)のいずれか1つに記載の情報処理装置。
(7)
 前記表示制御部は、
 前記表示部の表示面が臨む方向に位置する他の表示部によって立体画像が表示される仮想空間に位置する第3面から実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を前記第3面に表示させる、
 前記(1)~(6)のいずれか1つに記載の情報処理装置。
(8)
 前記表示制御部は、
 前記他の表示部の表示面が臨む方向に位置する前記第4面の肌理と連続する肌理を前記第3面に表示させる、
 前記(7)に記載の情報処理装置。
(9)
 前記表示制御部は、
 前記仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである前記第3面から前記他の表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を前記第3面に表示させる、
 前記(7)または(8)に記載の情報処理装置。
(10)
 前記表示制御部は、
 2次元ディスプレイの表示面である前記第4面に表示された肌理と連続する肌理を前記第3面に表示させる、
 前記(7)~(9)のいずれか1つに記載の情報処理装置。
(11)
 前記表示制御部は、
 前記第3面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第4面に表示させる、
 前記(7)~(10)のいずれか1つに記載の情報処理装置。
(12)
 前記表示制御部は、
 前記第4面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第2面に表示させる、
 前記(7)~(11)のいずれか1つに記載の情報処理装置。
(13)
 透過性を有する反射板をさらに備え、
 前記他の表示部の表示面は、実空間の床面に対して下向きに設置され、
 前記反射板は、前記他の表示部の表示面から出力される画像を前記表示部の表示面が臨む方向に反射する、
 前記(7)~(12)のいずれか1つに記載の情報処理装置。
(14)
 前記表示制御部は、
 前記立体画像のうち、前記表示部に近い部分を前記表示部によって表示させ、前記他の表示部に近い部分を前記他の表示部によって表示させる、
 前記(7)~(13)のいずれか1つに記載の情報処理装置。
(15)
 コンピュータが、
 表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる、
 処理を実行する情報処理方法。
(16)
 コンピュータに、
 表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる表示制御手順、
 を実行させるための情報処理プログラム。
  100 情報処理装置
  110 通信部
  120 表示面検出部
  130 ユーザ検出部
  140 記憶部
  150 表示部
  160 制御部
  161 表示面情報取得部
  162 ユーザ情報取得部
  163 コンテンツ取得部
  164 表示制御部
  200 情報処理装置
  151 第1表示部
  152 第2表示部
 160A 制御部
 164A 表示制御部
  300 情報処理装置
 151B 第1表示部
 152B 第2表示部
  153 第3表示部
  154 第4表示部
 160B 制御部
 164B 表示制御部

Claims (16)

  1.  表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる表示制御部、
     を備える情報処理装置。
  2.  前記表示制御部は、
     前記表示部の表示面が臨む方向に位置する前記第2面の肌理と連続する肌理を前記第1面に表示させる、
     請求項1に記載の情報処理装置。
  3.  前記表示制御部は、
     前記仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである前記第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる、
     請求項1に記載の情報処理装置。
  4.  前記表示制御部は、
     2次元ディスプレイの表示面である前記第2面に表示された肌理と連続する肌理を前記第1面に表示させる、
     請求項1に記載の情報処理装置。
  5.  前記表示制御部は、
     前記第1面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第2面に表示させる、
     請求項1に記載の情報処理装置。
  6.  前記表示部は、実空間の床面と前記表示面とが0度より大きく90度以下の角度をなす、
     請求項1に記載の情報処理装置。
  7.  前記表示制御部は、
     前記表示部の表示面が臨む方向に位置する他の表示部によって立体画像が表示される仮想空間に位置する第3面から実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を前記第3面に表示させる、
     請求項1に記載の情報処理装置。
  8.  前記表示制御部は、
     前記他の表示部の表示面が臨む方向に位置する前記第4面の肌理と連続する肌理を前記第3面に表示させる、
     請求項7に記載の情報処理装置。
  9.  前記表示制御部は、
     前記仮想空間に位置する床面、側壁面、または天面のうち少なくともいずれかである前記第3面から前記他の表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第4面の肌理と連続する肌理を前記第3面に表示させる、
     請求項7に記載の情報処理装置。
  10.  前記表示制御部は、
     2次元ディスプレイの表示面である前記第4面に表示された肌理と連続する肌理を前記第3面に表示させる、
     請求項7に記載の情報処理装置。
  11.  前記表示制御部は、
     前記第3面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第4面に表示させる、
     請求項7に記載の情報処理装置。
  12.  前記表示制御部は、
     前記第4面に表示された肌理と連続する肌理を2次元ディスプレイの表示面である前記第2面に表示させる、
     請求項7に記載の情報処理装置。
  13.  透過性を有する反射板をさらに備え、
     前記他の表示部の表示面は、実空間の床面に対して下向きに設置され、
     前記反射板は、前記他の表示部の表示面から出力される画像を前記表示部の表示面が臨む方向に反射する、
     請求項7に記載の情報処理装置。
  14.  前記表示制御部は、
     前記立体画像のうち、前記表示部に近い部分を前記表示部によって表示させ、前記他の表示部に近い部分を前記他の表示部によって表示させる、
     請求項7に記載の情報処理装置。
  15.  コンピュータが、
     表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる、
     処理を実行する情報処理方法。
  16.  コンピュータに、
     表示部によって立体画像が表示される仮想空間に位置する第1面から前記表示部の表示面と交わる方向であって、実空間へ向かう方向に延伸した実空間に位置する第2面の肌理と連続する肌理を前記第1面に表示させる表示制御手順、
     を実行させるための情報処理プログラム。
PCT/JP2020/047137 2019-12-27 2020-12-17 情報処理装置、情報処理方法及び情報処理プログラム WO2021132014A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019238900 2019-12-27
JP2019-238900 2019-12-27

Publications (1)

Publication Number Publication Date
WO2021132014A1 true WO2021132014A1 (ja) 2021-07-01

Family

ID=76576088

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/047137 WO2021132014A1 (ja) 2019-12-27 2020-12-17 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
WO (1) WO2021132014A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334145A (ja) * 2003-05-06 2004-11-25 Hideaki Miyashita 画面を立体に構成して空間を表示する方法
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334145A (ja) * 2003-05-06 2004-11-25 Hideaki Miyashita 画面を立体に構成して空間を表示する方法
JP2006211453A (ja) * 2005-01-31 2006-08-10 Univ Waseda 立体映像呈示装置

Similar Documents

Publication Publication Date Title
KR102450992B1 (ko) 홀로그램 초해상도를 위한 인코딩된 에너지 도파관
JP5497882B2 (ja) 表示装置、端末装置および表示方法
KR102415502B1 (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP4849091B2 (ja) 映像表示装置、映像表示方法
KR101732131B1 (ko) 사용자 위치 기반의 영상 제공 장치 및 방법
US9210407B2 (en) Image processing apparatus and method, and program
JP2011164781A (ja) 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
KR20140067575A (ko) 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치
US8908017B2 (en) Method for driving glasses-type stereoscopic display preventing visual fatigue and refractive index-variable shutter glasses
KR101329164B1 (ko) 집적영상방식의 3차원 영상표시장치
US11012682B2 (en) Linearly actuated display
JP2020118963A (ja) ヘッドマウントディスプレイ
TWI515457B (zh) 多視點三維顯示器系統及其控制方法
WO2021132014A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Baker Generating images for a time-multiplexed stereoscopic computer graphics system
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
JPH03236698A (ja) 両眼立体視の画像生成装置
KR101086305B1 (ko) 3차원 영상 디스플레이 장치 및 방법
WO2021132013A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7140954B2 (ja) 立体表示装置、立体表示方法、および、立体表示プログラム
KR101093929B1 (ko) 깊이 지도를 이용하여 3차원 영상을 표시하는 방법 및 시스템
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
WO2013140702A1 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20190063862A (ko) 다중시점영상의 디스플레이 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20907320

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20907320

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP