WO2018084087A1 - 画像表示システム、画像表示装置、その制御方法、及びプログラム - Google Patents

画像表示システム、画像表示装置、その制御方法、及びプログラム Download PDF

Info

Publication number
WO2018084087A1
WO2018084087A1 PCT/JP2017/038936 JP2017038936W WO2018084087A1 WO 2018084087 A1 WO2018084087 A1 WO 2018084087A1 JP 2017038936 W JP2017038936 W JP 2017038936W WO 2018084087 A1 WO2018084087 A1 WO 2018084087A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
user
image
processing apparatus
display device
Prior art date
Application number
PCT/JP2017/038936
Other languages
English (en)
French (fr)
Inventor
中島 聡
掛 智一
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US16/342,773 priority Critical patent/US10957106B2/en
Priority to JP2018548984A priority patent/JP6687751B2/ja
Publication of WO2018084087A1 publication Critical patent/WO2018084087A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Definitions

  • the present invention relates to an image display system, an image display device, a control method thereof, and a program.
  • an image display system such as an HMD (Head-Mount-Display) that is mounted on the user's head and allows stereoscopic viewing by presenting left-eye and right-eye images to the left and right eyes of the user, respectively.
  • HMD Head-Mount-Display
  • a projection image is generated by projecting the panoramic image onto a virtual sphere centered on the user viewpoint.
  • an image in the visual field range of the user is displayed on the display device.
  • the panoramic image can be viewed in the direction of the visual field.
  • non-transparent HMD that does not allow a user to visually recognize an actual image around the user.
  • an image of a virtual game space is displayed on such a non-transparent HMD
  • the user moves from a real space to a virtual game space displayed in the HMD when the HMD is mounted.
  • the immersion in the virtual game space may be impaired.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide an image display system, an image display apparatus, a control method thereof, and a program that can further improve the immersive feeling.
  • One aspect of the present invention for solving the problems of the conventional example described above is an image processing apparatus connected to a display device mounted on the user's head, which acquires panoramic image data obtained by imaging the user's surroundings. Then, the panorama image data is projected on a projection surface of a predetermined shape virtually arranged around the viewpoint position of the user in the virtual space, and based on the predetermined three-dimensional model data Means for combining the generated model image data with the background image data to generate composite image data; and output means for outputting a visual field image of the user generated based on the composite image data to the display device.
  • the feeling of immersion can be further improved.
  • FIG. 1 is a block diagram illustrating a configuration example of an image display system including an image processing device according to an embodiment of the present invention. It is a functional block diagram showing the example of the image processing apparatus which concerns on embodiment of this invention. It is explanatory drawing showing the example of the projection surface which the image processing apparatus which concerns on embodiment of this invention sets. It is explanatory drawing showing the example of another projection surface which the image processing apparatus which concerns on embodiment of this invention sets. It is explanatory drawing showing the example of another projection surface which the image processing apparatus which concerns on embodiment of this invention sets. It is explanatory drawing showing the example of another projection surface which the image processing apparatus which concerns on embodiment of this invention sets. It is explanatory drawing showing the example of another projection surface which the image processing apparatus which concerns on embodiment of this invention sets.
  • an image processing system 1 including an image processing apparatus 10 includes an image processing apparatus 10, an operation device 20, a relay control device 30, a display device 40, It is comprised including.
  • the image processing device 10 is a device that supplies image data representing an image to be displayed by the display device 40, and is, for example, a home game machine, a portable game machine, a personal computer, a smartphone, or a tablet. As shown in FIG. 1, the image processing apparatus 10 includes a control unit 11, a storage unit 12, and an interface unit 13.
  • the control unit 11 is a program control device such as a CPU, and executes a program stored in the storage unit 12.
  • the control unit 11 acquires panoramic image data obtained by imaging the user's surroundings.
  • the control unit 11 also generates background image data obtained by projecting the panoramic image data onto a projection surface having a predetermined shape virtually arranged around the viewpoint position of the user in the virtual space.
  • the control part 11 synthesize
  • the control unit 11 outputs the user's visual field image generated based on the composite image data to the display device 40. Detailed operation of the control unit 11 will be described later.
  • the storage unit 12 includes at least one memory device such as a RAM and stores a program executed by the control unit 11.
  • the storage unit 12 also operates as a work memory for the control unit 11 and stores data used by the control unit 11 in the course of program execution.
  • the program may be provided by being stored in a computer-readable non-transitory recording medium and stored in the storage unit 12.
  • the storage unit 12 may store panoramic image data obtained by photographing a room where the user is located in advance.
  • the panoramic image data may be omnidirectional image data (image data of the entire celestial sphere).
  • the interface unit 13 is an interface for the control unit 11 of the image processing apparatus 10 to perform data communication with the operation device 20 and the relay control device 30.
  • the image processing apparatus 10 is connected to the operation device 20, the relay control apparatus 30, or the like via the interface unit 13 by either wired or wireless.
  • the interface unit 13 transmits HDMI (registered trademark) (High-Definition Multimedia Interface) or the like in order to transmit image data (distorted image data) or audio supplied by the image processing device 10 to the relay control device 30. Multimedia interfaces may be included.
  • a data communication interface such as a USB may be included.
  • the interface unit 13 may include a data communication interface such as a USB in order to receive a signal indicating the content of the user's operation input to the operation device 20.
  • the operation device 20 is a controller or the like of a consumer game machine, and is used by the user to perform various instruction operations on the image processing apparatus 10.
  • the content of the user's operation input to the operation device 20 is transmitted to the image processing apparatus 10 by either wired or wireless.
  • the operation device 20 is not necessarily separate from the image processing apparatus 10, and may include operation buttons, a touch panel, and the like arranged on the surface of the image processing apparatus 10.
  • the relay control device 30 is connected to the display device 40 and receives image data supplied from the image processing device 10. Then, the relay control device 30 generates image data in which the input image data is rearranged in the pixel arrangement of the display unit D in the video display element 51 of the display device 40, which will be described later, and further supplied as necessary.
  • the image represented by the corrected image data is subjected to processing for correcting the image corresponding to the distortion caused by the optical system of the display device 40, and a video signal representing the corrected image is output.
  • the video signal output from the relay control device 30 to the display device 40 includes two video signals, one for the left eye and one for the right eye.
  • the relay control device 30 relays various kinds of information transmitted and received between the image processing device 10 and the display device 40 such as audio data and control signals.
  • the image processing apparatus 10 may also function as the relay control apparatus 30. In this case, the image processing apparatus 10 outputs a video signal including two video signals, one for the left eye and one for the right eye, to the display device 40, and the relay control device 30 is separate from the image processing device 10. Is not always necessary.
  • the display device 40 is a display device that the user wears on the head and uses the video corresponding to the video signal input from the relay control device 30 to allow the user to browse. In the present embodiment, it is assumed that the display device 40 displays an image corresponding to each eye in front of each of the user's right eye and left eye. As shown in FIG. 1, the display device 40 includes an image display element 51 and an optical element 52.
  • the video display element 51 is an organic EL display panel, a liquid crystal display panel or the like, and displays a video according to an instruction input from the relay control device 30.
  • the video display element 51 may be a single display element that displays the left-eye video and the right-eye video in a line, or displays the left-eye video and the right-eye video independently. A pair of display elements may be included.
  • a smartphone screen may be used as it is as the video display element 51.
  • the display device 40 may be a retinal irradiation type (retinal projection type) device that directly projects an image on a user's retina.
  • the video display element 51 may be configured by a laser that emits light and a MEMS (Micro Electro Mechanical Systems) mirror that scans the light.
  • MEMS Micro Electro Mechanical Systems
  • the optical element 52 is a hologram, a prism, a half mirror, or the like, and is disposed in front of the user's eyes.
  • the optical element 52 transmits or refracts the image light displayed by the image display element 51 to enter the user's eyes.
  • the optical element 52 includes a left-eye optical element 52L and a right-eye optical element 52R, and the image for the left eye displayed by the image display element 51 passes through the left-eye optical element 52L.
  • the image may be incident on the left eye, and the image for the right eye may be incident on the right eye of the user via the right eye optical element 52R.
  • the user can view the left-eye video with the left eye and the right-eye video with the right eye while the display device 40 is mounted on the head.
  • the display device 40 is a non-transmissive display device in which the user cannot visually recognize the appearance of the outside world.
  • this control unit 11 is functionally functional, as illustrated in FIG. 2, an acquisition unit 21, a projection plane setting unit 22, a background generation unit 23, a model image processing unit 24, and a composition.
  • a processing unit 25 and an output unit 26 are included.
  • the acquisition unit 21 acquires panoramic image data obtained by imaging the user's surroundings.
  • panoramic image data obtained by photographing a room in which the image processing apparatus 10 is installed in advance is stored in the storage unit 12. Since such panoramic image data can be photographed using a so-called omnidirectional camera, a smartphone having a panoramic image photographing function, or the like, detailed description thereof is omitted here.
  • the projection plane setting unit 22 sets a projection plane on which the panoramic image data acquired by the acquisition unit 21 is projected.
  • the projection plane setting unit 22 sets a virtual sphere with a radius R centered on the user's viewpoint position (predetermined as the center position of both eyes of the user) as the projection plane.
  • a line segment drawn in the direction of gravity is represented on a virtual plane whose normal is the user's line-of-sight direction (which may be the initial line-of-sight direction when the user wears the display device 40).
  • An axis along a line segment that is projected onto the surface is defined as a Z-axis (vertical upward is a positive direction).
  • the user's line-of-sight direction is the Y-axis (the direction of the user's line-of-sight is the positive direction), and the direction orthogonal to the Z-axis and the Y-axis is the X-axis (the direction from the user's left hand to the right hand is the positive).
  • XYZ three-dimensional coordinates (referred to as world coordinates for convenience) are set, and the position of the user's viewpoint is set as the center (0, 0, 0) of this world coordinate system.
  • the radius R of the virtual sphere may be determined according to the size of the room where the user is located, for example, or may be a predetermined value.
  • it asks for the input of the size of the room where the user is located (how much area, the length of each height and width, etc.), and according to the request What is necessary is just to determine according to the value which the user input.
  • the background generation unit 23 projects the panoramic image data acquired by the acquisition unit 21 onto the projection plane set by the projection plane setting unit 22 to generate background image data. Since this projection image generation method can use a well-known texture mapping technique that aligns panoramic image data inside a virtual sphere, a detailed description thereof is omitted here.
  • the model image processing unit 24 acquires 3D model data specified by an instruction from the user or by another application such as a game application. Further, there may be a plurality of three-dimensional model data acquired here. In this case, relative arrangement positions of the respective 3D model data are designated by coordinate information of a coordinate system (referred to as a local coordinate system) unique to the 3D model data.
  • the model image processing unit 24 generates model image data based on the three-dimensional model data acquired here. Specifically, the model image processing unit 24 arranges a plurality of three-dimensional model data of virtual three-dimensional objects such as chairs and desks (for example, at positions specified by the coordinate information of the local coordinate system, respectively). Model image data representing a state is generated.
  • a surface in a predetermined direction when the local coordinate system is a ⁇ orthogonal coordinate system
  • ⁇ , ⁇ , ⁇ the surface of which is a circumscribed cuboid composed of normal lines
  • the surface of the model image data may be determined as a surface in the negative direction of the ⁇ axis).
  • the composition processing unit 25 also determines the inclination of the model image data in the YZ plane by a predetermined method. As an example, the normal directions of ⁇ , ⁇ , and ⁇ may coincide with the normal directions of X, Y, and Z in the world coordinate system.
  • the composition processing unit 25 acquires information on the user's viewpoint position and line-of-sight direction. Specifically, the composition processing unit 25 tracks the movement of the user's head (detected at each predetermined timing), detects the position and direction of the head, and acquires information on the viewpoint position and the line-of-sight direction. A widely known method can be adopted as the information acquisition method of the position of the viewpoint and the line-of-sight direction.
  • the composition processing unit 25 renders and generates an image (field image) of the visual field range in the user's line-of-sight direction viewed from the viewpoint position of the user specified by the acquired information based on the synthetic image data.
  • This process can be performed by a general three-dimensional graphic image generation process in which a virtual camera is set in position and direction and a virtual object is rendered.
  • the output unit 26 outputs the visual field image generated by the synthesis processing unit 25 to the display device 40.
  • the composition processing unit 25 performs rendering based on the composite image data every time the position of the user's viewpoint and the line-of-sight direction change, and outputs a field-of-view image as a rendering result to the output unit 26. To do.
  • an image in the line-of-sight direction viewed from the position of the viewpoint can be viewed as a background in the panoramic image, and based on the model image data If there is an image in the field of view among the virtual object images generated in this way, the image can be visually recognized as a foreground.
  • a panoramic image of a room where the user is located is displayed as a background, and a model image A virtual object rendered based on the data is displayed as the foreground. Therefore, for example, a virtual object based on the three-dimensional model data representing the virtual game space is arranged on the image of the desk top included in the panorama image, and the virtual device is operated by the user's operation on the operation device 20. It is possible to perform a process such as entering an object (moving the viewpoint virtually toward the inside of the virtual object), and the transition to the game space can be naturally performed, and it is immersive. The feeling can be improved.
  • control unit 11 of the image processing apparatus 10 may set a projection plane that has at least the lower side of the user viewpoint position as a plane as the operation of the projection plane setting unit 22.
  • the projection plane setting unit 22 of this example has a plane lower than the viewpoint position U of the user by a distance L (corresponding to the position of the bottom surface of the model image data).
  • a projection plane P is arranged, and a projection plane above the projection plane P is a part S of a sphere having a radius R (R> L) and a center at the user's viewpoint position U.
  • the background generation unit 23 projects the panoramic image data acquired by the acquisition unit 21 onto the projection plane set by the projection plane setting unit 22 to generate background image data.
  • the composition processing unit 25 uses the background image data generated by the background generation unit 23 as the background (an image at infinity), and the bottom surface of the model image data generated by the model image processing unit 24 is placed on the plane projection plane P. Arrange. In other words, the composition processing unit 25 arranges the model image data so that the bottom surface of the model image data is in contact with the Z-axis direction at a position L lower than the user's viewpoint position in the Z-axis direction.
  • the composition processing unit 25 acquires information on the user's viewpoint position and line-of-sight direction, and specifies the acquired information based on the composite image data in which the virtual object image represented by the model image data is arranged at the above position.
  • An image of the visual field range (visual field image) in the user's line-of-sight direction viewed from the user's viewpoint position is rendered and generated.
  • the virtual object based on the model image data is visually recognized as being arranged on the plane projection plane P.
  • the projection plane setting unit 22 may use a projection plane as a hexahedron such as a rectangular parallelepiped instead of a spherical surface.
  • the position of the bottom surface of the projection plane (downward in the Z-axis direction) is set to be L below the user's viewpoint position.
  • the bottom surface of the projection plane is parallel to the actual floor surface (the Z axis is the normal line).
  • the projection plane setting unit 22 and the background generation unit 23 may set the projection plane based on the panoramic image data acquired by the acquisition unit 21.
  • the background generation unit 23 performs region division processing on the panoramic image data acquired by the acquisition unit 21.
  • This area dividing process uses, for example, a known method such as graph cut.
  • the background generation unit 23 performs labeling for each area obtained from the panoramic image data by the area dividing process. For example, the background generation unit 23 calculates an average value of hues (Hue) represented by pixel values in the area, and the difference between the calculated average values of hues is smaller than a predetermined threshold value. Assign a common label and label the region. In this example, the same label is assigned to a plurality of areas in which the difference in hue is smaller than the threshold value. This is due to the fact that hues are relatively common on walls and the like, whereas objects arranged on the near side of the wall generally have different hues.
  • the labeling method in the present embodiment is not limited to this.
  • the background generation unit 23 obtains, for each assigned label, the total area of the area to which the label is assigned (if there is only one area to which the label is assigned, the area is the area itself).
  • the background generation unit 23 uses a plurality of predetermined area threshold values Ath_1, Ath_2,... Ath_n (Ath_1> Ath_2>...> Ath_n) and is smaller than the area threshold value Ath_ (i ⁇ 1)
  • partial image data (partial image data) in the region to which the estimated distance label i is assigned is projected onto the corresponding range of the surface by texture mapping. For example, if there is no region to which the estimated distance label k is assigned, nothing is projected onto the projection plane which is a virtual sphere with the radius rk.
  • Each virtual sphere here corresponds to a plurality of projection planes virtually arranged at different positions from the user's viewpoint position in the present invention.
  • the panoramic image data is divided into regions, and based on the distance estimated for each region, the partial image data of the region is projected onto the projection plane at the corresponding distance, so that background image data is generated. , Can reduce the sense of discomfort in the distance.
  • the projection plane setting unit 22 sets a single plane projection plane P below the user's viewpoint position U by a distance L (corresponding to the position of the bottom surface of the model image data). It may be arranged.
  • the background generation unit 23 extracts the partial image data of the portion of the panoramic image data that should be projected below the user's viewpoint position U by the distance L or more into the region obtained by the region division process.
  • the projection plane P is projected by texture mapping.
  • the compositing processing unit 25 has the bottom surface of the circumscribed cuboid that circumscribes the virtual objects M1, M2,... Included in the model image data on the flat projection surface set by the projection surface setting unit 22.
  • the model image data is arranged so that the bottom surface of the model image data is in contact, but the present embodiment is not limited to this.
  • the projection plane setting unit 22 makes contact with the specified plane among the faces of the circumscribed cuboid B circumscribing the virtual objects M1, M2,... Included in the model image data.
  • a projection plane may be set.
  • the projection plane setting unit 22 accepts information specifying in which direction of the world coordinate system the model image data is arranged.
  • Information specifying this direction may be represented by a vector (x, y, z) representing the direction.
  • the projection plane setting unit 22 uses a vector that is the information as a normal line, and arranges a plane projection plane P at a position separated by a predetermined distance L from the position of the user's viewpoint.
  • the projection plane setting unit 22 arranges a spherical projection plane S ′ having a radius of R (R> L) and a center as the user's viewpoint position U, and the spherical projection plane S ′ is a plane projection plane P. Set the projected plane of the cut shape.
  • the background generation unit 23 projects the panoramic image data acquired by the acquisition unit 21 onto the projection plane set by the projection plane setting unit 22 to generate background image data.
  • the synthesis processing unit 25 accepts an instruction as to which direction of the circumscribed cuboid B circumscribing the virtual objects M1, M2,... Included in the model image data matches the planar projection plane P.
  • This indication is, for example, which axis of ⁇ , ⁇ , and ⁇ is a normal surface, and of which is the surface on the positive direction side or the negative direction side of the normal axis. Contains information that identifies
  • the composition processing unit 25 has an axis that is a normal line to the surface specified by the information coincides with a normal line of the plane projection plane P (a line segment in a direction represented by a vector (x, y, z)).
  • the 3D image data is arranged by rotating the 3D image data and translating the 3D image data so that the plane specified by the information is in contact with the projection plane P.
  • the three-dimensional image data is controlled while controlling the angle of view from the initial angle of view (hereinafter referred to as the initial angle of view) so that the angle of view gradually decreases (so that the virtual space looks larger).
  • the initial angle of view the angle of view gradually decreases (so that the virtual space looks larger).
  • a virtual space in which 3D image data is arranged in various directions can be presented to the user by designating the direction of the projection plane as a plane for each. .
  • the user can select the 3D image data and enter the game space represented by the selected 3D image data.
  • the composition processing unit 25 may produce an effect so as to return to the inside of the projection plane on which the 3D image data is arranged.
  • the composition processing unit 25 holds the composite image data in the storage unit 12, and at the end of the application such as a game, from the arrangement position of the 3D image data corresponding to the terminated application until the initial angle of view is reached. Control the angle of view to gradually increase (so that the virtual space looks smaller), and move the virtual viewpoint of the user from the position where the 3D image data is placed to the center of the world coordinate system
  • the image of the visual field range (visual field image) presented to the user is rendered, generated and displayed based on the stored composite image data.
  • the projection plane setting unit 22 is a planar projection plane below the distance L from the user's original viewpoint position U as schematically shown in FIG. P is arranged, and the projection plane above the projection plane P is set as a part S of a sphere having a radius R (R> L) and a center as the user's original viewpoint position U (FIG. 5A). ).
  • the synthesis processing unit 25 tracks the movement of the user's head (detected at predetermined timings), detects the position and direction of the head, and acquires information on the viewpoint position U ′ and the line-of-sight direction, When the distance between the acquired viewpoint position U ′ and the projection plane is less than a predetermined distance Rth (Rth ⁇ R), the acquired information on the viewpoint position and line-of-sight direction of the user is output to the projection plane setting unit 22.
  • the projection plane setting unit 22 that has received the information on the user's viewpoint position U ′ and the line-of-sight direction receives the user's viewpoint position U ′ at a position separated by a predetermined distance L in the user's line-of-sight direction.
  • a flat projection plane Q with the line-of-sight direction as the normal direction is set (FIG. 5B).
  • the background generation unit 23 projects the panoramic image data acquired by the acquisition unit 21 onto the projection plane including the projection plane Q set by the projection plane setting unit 22 to generate background image data.
  • the image of the portion in the direction of the panorama image data is presented as the background on the projection surface of the plane virtually arranged in the approaching direction.
  • the normal direction of the plane projection plane is dynamically changed so as to be the line-of-sight direction. This allows the user to recognize that he is naturally close to the wall.
  • the distance L may be set to a predetermined value.
  • the user's line-of-sight direction is a normal line, and the 3D image is displayed. It may be the distance to the surface circumscribing the data.
  • the composition processing unit 25 is based on the composite image data, and the image in the visual field range in the visual line direction of the user (view image) viewed from the user's viewpoint position specified by the acquired information.
  • the shadow may be rendered as follows.
  • an image of a shadow formed on the projection surface when a virtual object based on the model image data blocks light from the light source. (Shadow image data) may be combined with background image data for drawing. Since the shape of the shadow drawn here and the drawing method are the same as in general rendering processing, a detailed description thereof is omitted here.
  • the planar projection plane P is disposed below the user's viewpoint position U by a distance L (corresponding to the position of the bottom surface of the model image data), the shadow of the virtual object is reflected on the projection plane P. This is combined with a part of the projected panoramic image data (mapped as a texture). For this reason, the shadow of the virtual object arranged on the bottom surface of the model image data is drawn in contact with the bottom surface, and the uncomfortable feeling is reduced compared to the case where the projection surface is a spherical surface.

Abstract

ユーザの頭部に装着される表示装置に接続される画像処理装置が、ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する。また画像処理装置は所定の三次元モデルデータに基づいて生成されたモデル画像データを、背景画像データに合成して合成画像データを生成し、表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する。

Description

画像表示システム、画像表示装置、その制御方法、及びプログラム
 本発明は、画像表示システム、画像表示装置、その制御方法、及びプログラムに関する。
 HMD(Head Mount Display)などのようにユーザの頭部に装着され、ユーザの左右の目に、それぞれ左目用,右目用の画像を提示して立体視を可能とする画像表示システムが存在する。こうした画像表示システムでは、いわゆる全天球画像など、パノラマ画像を表示する際には、ユーザ視点を中心とした仮想的な球体にパノラマ画像を投影した投影像を生成する。そして当該投影像のうち、ユーザの視野範囲の画像を表示装置に表示させている。これによりユーザは頭部を動かして視野範囲を移動させると、パノラマ画像のうち当該視野の方向の画像を見ることができるようになる。
 このようなHMDのうちには、ユーザ周囲の現実の画像をユーザに視認させない、いわゆる非透過型のHMDがある。こうした非透過型のHMDに例えば仮想的なゲーム空間の映像を表示する場合、ユーザはHMDの装着時に、現実の空間からいきなりHMD内に表示される仮想のゲーム空間に移動することとなる。こうした唐突な場面変換が生じると、当該仮想のゲーム空間に対する没入感が損なわれる場合がある。
 本発明は上記実情に鑑みて為されたもので、没入感をより向上できる画像表示システム、画像表示装置、その制御方法、及びプログラムを提供することを、その目的の一つとする。
 上記従来例の問題点を解決するための本発明の一態様は、ユーザの頭部に装着される表示装置に接続される画像処理装置であって、ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する手段と、所定の三次元モデルデータに基づいて生成されたモデル画像データを、前記背景画像データに合成して合成画像データを生成する手段と、前記表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する出力手段と、を有することとしたものである。
 本発明によると、没入感をより向上できる。
本発明の実施の形態に係る画像処理装置を含む画像表示システムの構成例を表すブロック図である。 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る画像処理装置が設定する投影面の例を表す説明図である。 本発明の実施の形態に係る画像処理装置が設定するもう一つの投影面の例を表す説明図である。 本発明の実施の形態に係る画像処理装置が設定するまた別の投影面の例を表す説明図である。 本発明の実施の形態に係る画像処理装置が設定するさらに別の投影面の例を表す説明図である。
 本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置10を含む画像処理システム1は、図1に例示するように、画像処理装置10と、操作デバイス20と、中継制御装置30と、表示装置40と、を含んで構成されている。
 画像処理装置10は、表示装置40が表示すべき画像を表す画像データを供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、またはタブレット等である。図1に示されるように、この画像処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
 制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されているプログラムを実行する。本実施の形態では、この制御部11は、ユーザの周囲を撮像したパノラマ画像データを取得する。制御部11は、また、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する。そして制御部11は、所定の三次元モデルデータに基づいて生成されたモデル画像データを、上記背景画像データに合成して合成画像データを生成する。制御部11は、表示装置40に対し、この合成画像データに基づいて生成した、ユーザの視野画像を出力する。この制御部11の詳しい動作については、後に述べる。
 記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラムを格納する。また、この記憶部12は制御部11のワークメモリとしても動作し、制御部11がプログラム実行の過程で使用するデータを格納する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。
 また本実施の形態の例では、この記憶部12には、予めユーザの所在する部屋を撮影して得たパノラマ画像データが格納されていてもよい。本実施の形態のある例では、このパノラマ画像データは、全天球画像データ(image data of the entire celestial sphere)であってもよい。
 インタフェース部13は、操作デバイス20や中継制御装置30との間で画像処理装置10の制御部11がデータ通信を行うためのインタフェースである。画像処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20や中継制御装置30等と接続される。一例として、このインタフェース部13は、画像処理装置10が供給する画像データ(歪像画像データ)や音声を中継制御装置30に送信するために、HDMI(登録商標)(High-Definition Multimedia Interface)などのマルチメディアインタフェースを含んでよい。また、中継制御装置30経由で表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。さらにインタフェース部13は、操作デバイス20に対するユーザの操作入力の内容を示す信号を受信するために、USB等のデータ通信インタフェースを含んでよい。
 操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザが画像処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザの操作入力の内容は、有線又は無線のいずれかにより画像処理装置10に送信される。なお、操作デバイス20は必ずしも画像処理装置10と別体でなくてもよく、画像処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。
 中継制御装置30は、表示装置40と接続されており、画像処理装置10から供給される画像データを受け付ける。そして中継制御装置30は、入力された画像データを、後に述べる、表示装置40の映像表示素子51における表示部Dの画素の配列に並べ替えた画像データを生成し、さらに必要に応じて、供給された画像データが表す画像に対して、表示装置40の光学系によって生じる歪みに対応して、当該画像を補正する処理などを実行し、補正された画像を表す映像信号を出力する。
 なお、中継制御装置30から表示装置40に出力される映像信号は、左目用のものと右目用のものとの二つの映像信号を含んでいる。また、中継制御装置30は、映像信号以外にも、音声データや制御信号など、画像処理装置10と表示装置40との間で送受信される各種の情報を中継する。また、画像処理装置10が中継制御装置30としての機能を兼ねてもよい。この場合は、画像処理装置10が左目用のものと右目用のものとの二つの映像信号を含む映像信号を表示装置40に出力することとなり、画像処理装置10と別体の中継制御装置30は必ずしも必要でない。
 表示装置40は、ユーザが頭部に装着して使用する表示デバイスであって、中継制御装置30から入力される映像信号に応じた映像を表示し、ユーザに閲覧させる。本実施形態では、表示装置40はユーザの右目と左目とのそれぞれの目の前に、それぞれの目に対応した映像を表示するものとする。この表示装置40は、図1に示したように、映像表示素子51、及び光学素子52を含んで構成される。
 映像表示素子51は、有機EL表示パネルや液晶表示パネルなどであって、中継制御装置30から入力される指示に従って映像を表示する。この映像表示素子51は、左目用の映像と右目用の映像とを一列に並べて表示する1つの表示素子であってもよいし、左目用の映像と右目用の映像とをそれぞれ独立に表示する一対の表示素子を含んで構成されてもよい。また、本実施の形態の別の例では、スマートフォンの画面をそのまま映像表示素子51として用いてもよい。また表示装置40は、ユーザの網膜に直接映像を投影する網膜照射型(網膜投影型)の装置であってもよい。この場合、映像表示素子51は、光を発するレーザーとその光を走査するMEMS(Micro Electro Mechanical Systems)ミラーなどによって構成されてもよい。
 光学素子52は、ホログラムやプリズム、ハーフミラーなどであって、ユーザの目の前に配置され、映像表示素子51が表示する映像の光を透過又は屈折させて、ユーザの目に入射させる。具体的に、この光学素子52は、左目用光学素子52Lと、右目用光学素子52Rとを含み、映像表示素子51が表示する左目用の映像は、左目用光学素子52Lを経由してユーザの左目に入射し、右目用の映像は右目用光学素子52Rを経由してユーザの右目に入射するようにしてもよい。これによりユーザは、表示装置40を頭部に装着した状態で、左目用の映像を左目で、右目用の映像を右目で、それぞれ見ることができるようになる。なお、本実施形態において表示装置40は、ユーザが外界の様子を視認することができない非透過型の表示装置である。
 次に、画像処理装置10の制御部11の動作について説明する。本実施の形態では、この制御部11は機能的には、図2に例示するように、取得部21と、投影面設定部22と、背景生成部23と、モデル画像処理部24と、合成処理部25と、出力部26とを含んで構成される。
 取得部21は、ユーザの周囲を撮像したパノラマ画像データを取得する。本実施の形態の一例では、このパノラマ画像データは、予め画像処理装置10が設置されている室内を撮影して得たパノラマ画像データが、記憶部12に格納されているものとする。こうしたパノラマ画像データは、いわゆる全天球カメラや、パノラマ画像の撮影機能を有したスマートフォン等を用いて撮影できるので、ここでの詳しい説明を省略する。
 投影面設定部22は、取得部21が取得したパノラマ画像データを投影する投影面を設定する。本実施の形態の一例では、この投影面設定部22は、ユーザの視点位置(ユーザの両目の中心位置などとして予め定めておく)を中心とした半径Rの仮想的な球体を投影面として設定する。なお、ここでの例では、ユーザの視線方向(ユーザが表示装置40を装着したときの初期の視線方向でよい)を法線とする仮想的な面において、重力の方向に引いた線分を当該面に射影してできる線分に沿った軸をZ軸(鉛直上向きを正の向きとする)とする。また、このユーザの視線方向をY軸(ユーザの視線の向きを正の方向とする)とし、これらZ軸とY軸とに直交する方向をX軸(ユーザの左手から右手に向かう方向を正の方向とする)としたXYZ三次元座標(便宜的にワールド座標と呼ぶ)が設定され、ユーザの視点の位置を、このワールド座標系の中心(0,0,0)とする。
 また、上記仮想的な球体の半径Rは、例えばユーザの所在する部屋の広さに応じて決定してもよいし、予め定められた値としておいてもよい。部屋の広さに応じて決定する場合は、例えばユーザに所在する部屋の大きさ(どれほどの面積であるかや、縦横高さのそれぞれの長さなど)の入力を求め、当該求めに応じてユーザが入力した値に応じて決定することとすればよい。
 背景生成部23は、投影面設定部22が設定した投影面に対して、取得部21が取得したパノラマ画像データを投影して背景画像データを生成する。この投影像の生成方法は、仮想的な球体の内側にパノラマ画像データを位置合わせする、広く知られたテクスチャーマッピング技術を用いることができるので、ここでの詳しい説明を省略する。
 モデル画像処理部24は、ユーザからの指示により、あるいはゲームアプリケーション等、他のアプリケーションによって指定される三次元モデルデータを取得する。またここで取得する三次元モデルデータは、複数あってもよい。この場合、三次元モデルデータに固有の座標系(ローカル座標系と呼ぶ)の座標情報でそれぞれの三次元モデルデータの相対的な配置位置が指定される。モデル画像処理部24は、ここで取得した三次元モデルデータに基づき、モデル画像データを生成する。具体的にこのモデル画像処理部24は、椅子や机など、仮想的な三次元の物体の三次元モデルデータを、(例えばそれぞれ上記ローカル座標系の座標情報で指定された位置に)複数配置した状態を表すモデル画像データを生成する。
 なお、以下の説明ではモデル画像データに含まれる仮想的な物体に外接する仮想的な外接直方体の面のうち、予め定められた方向の面(上記ローカル座標系がξηζ直交座標系である場合に、ξ,η,ζの各軸を法線とする面で構成した外接直方体としたときには、ζ軸の負の方向の面と定めればよい)を、このモデル画像データの底面とする。
 合成処理部25は、背景生成部23が生成した背景画像データを背景として、モデル画像処理部24で生成したモデル画像データを、所定の座標情報で示される位置(例えばモデル画像データの底面が、ユーザの視点位置からワールド座標系のZ軸方向にLだけ下(Z=-L)のXY面に接する位置)に配する。つまり、合成処理部25は、モデル画像データが表す仮想的な物体を、上記座標情報で示される位置に配置して合成画像データを生成する。なお、合成処理部25は、X,Y軸方向の位置については、ユーザの視線方向に合わせ、仮想的にユーザの眼前にあるように設定する。具体的にはX軸方向にはユーザの前方(X=0)でよく、Y軸方向については、所定の距離だけ前方(Y=y,yは、投影面である仮想的な球体の半径Rより十分小さく、y>0なる所定の値)に設定すればよい。また、合成処理部25は、モデル画像データのYZ面内での傾きも所定の方法で定める。一例としては、ξ,η,ζの法線方向を、ワールド座標系のX,Y,Zの法線方向に一致させることとしてもよい。
 またこの合成処理部25は、ユーザの視点位置及び視線方向の情報を取得する。具体的に合成処理部25は、ユーザの頭部の動きをトラッキング(所定のタイミングごとに検出)し、当該頭部の位置及び方向を検出して視点位置及び視線方向の情報を取得する。このような視点の位置や視線方向の情報取得方法は広く知られた方法を採用できる。
 合成処理部25は当該合成画像データに基づいて、取得した情報で特定されるユーザの視点位置から見た、ユーザの視線方向の視野範囲の画像(視野画像)をレンダリングして生成する。この処理は、仮想的なカメラの位置、方向を設定して、仮想的な物体をレンダリング処理する、一般的な三次元グラフィック画像の生成処理によることができる。出力部26は、合成処理部25にて生成された視野画像を、表示装置40に対して出力する。
 また、本実施の形態において合成処理部25は、ユーザの視点の位置や視線方向が変化するごとに、合成画像データに基づくレンダリングを行い、出力部26に対してレンダリング結果である視野画像を出力する。これにより、ユーザが頭部を動かして視点の位置や視線方向を変化させると、パノラマ画像のうち、当該視点の位置から見た視線方向にある像が背景として視認でき、またモデル画像データに基づいて生成された仮想的な物体の画像のうち、視野内にある画像があれば、当該画像が前景として視認できるようになる。
 以上の構成を備えた本実施の形態の画像処理装置10によると、ユーザが表示装置40を装着したときに、当該ユーザが所在している部屋のパノラマ画像が背景として表示されるとともに、モデル画像データに基づいてレンダリングされた仮想的な物体が前景として表示されることとなる。従って、例えばパノラマ画像に含まれる机の天板の画像上に仮想的なゲーム空間を表す三次元モデルデータに基づく仮想的な物体を配しておき、ユーザの操作デバイス20に対する操作によって当該仮想的な物体に入り込む(仮想的な物体の内部に向かって仮想的に視点を移動させていく)演出を行うといった処理が可能となって、ゲーム空間への遷移が自然に演出できるようになり、没入感を向上できる。
 しかしながら、このようにパノラマ画像に対して、三次元モデルデータに基づき、演算によりレンダリングして得られた仮想的な物体の画像を合成すると、次のような場合に違和感を生じることがある。
 すなわち、図3に例示するように、パノラマ画像のうち、球体の投影面Sに投影された机の天板Tが表示されている位置にモデル画像データに基づく仮想的な物体Mを配置すると、パノラマ画像の机の天板Tが平板ではなく球面である投影面Sに投影された像となっているのに対して、合成された、モデル画像データに基づく仮想的な物体Mが平面に配置された像となる。このため、ユーザが頭部を動かして視野を図3のAからBへ変動させたとき、背景となっているパノラマ画像はほとんど移動しないのに対して、当初は机の上に配置されていると視認される仮想的な物体はその向きを大きく変えて表示されることとなって違和感が生じてしまう。
 本実施の形態の画像処理装置10では、このような事情を考慮して、次の動作を行ってもよい。すなわち、本実施の形態の画像処理装置10の制御部11は、投影面設定部22の動作として、少なくともユーザ視点位置の下方側を平面とした投影面を設定してもよい。
 具体的に、この例の投影面設定部22は、図4に模式的に示すように、ユーザの視点位置Uよりも距離L(モデル画像データの底面の位置に相当する)だけ下方に平面の投影面Pを配し、この投影面Pから上側の投影面を、半径をR(R>L)とし、中心をユーザの視点位置Uとした球の一部Sとする。
 背景生成部23は、投影面設定部22が設定したこの投影面に対して、取得部21が取得したパノラマ画像データを投影して背景画像データを生成する。
 合成処理部25は、背景生成部23が生成した背景画像データを背景(無限遠にある像)として、モデル画像処理部24で生成したモデル画像データの底面を、上記平面の投影面P上に配する。すなわち、合成処理部25は、重力方向をZ軸として、Z軸方向にユーザの視点位置からLだけ下方の位置に、モデル画像データの底面が接するように、モデル画像データを配置する。
 そして合成処理部25は、ユーザの視点位置及び視線方向の情報を取得し、上記の位置にモデル画像データが表す仮想的な物体の画像を配置した合成画像データに基づいて、取得した情報で特定されるユーザの視点位置から見た、ユーザの視線方向の視野範囲の画像(視野画像)をレンダリングして生成する。
 これによると、モデル画像データによる仮想的な物体は、平面の投影面P上に配置された状態として視認される。一般的に、現実空間の机の天板等の面は、ユーザの視点位置よりも下方であるので、上記平面の投影面Pにはパノラマ画像に撮像された像のうち、机の天板や床面の像が投影される。このため、ユーザが頭部を動かして視野を図4のUからU′へ変動させたときでも、背景となっているパノラマ画像と、モデル画像とが一体的に見えることとなり、違和感が軽減される。さらに別の例では、本実施の形態における投影面設定部22は投影面を、球面ではなく、直方体等の六面体としてもよい。六面体とする場合、投影面の底面(Z軸方向に下方向)の位置を、ユーザの視点位置から上記Lだけ下方とする。また投影面の底面は現実の床面に平行とする(Z軸を法線とする)。
 さらに本実施の形態のある例では、投影面設定部22及び背景生成部23は、取得部21が取得したパノラマ画像データに基づいて投影面を設定してもよい。一例として本実施の形態の投影面設定部22は、ユーザの視点位置を中心とし、半径ri(i=1,2,…,n、ただしr1>r2>…>rnとする)の複数の仮想球を投影面として設定する。
 背景生成部23は、取得部21が取得したパノラマ画像データに対して、領域分割処理を実行する。この領域分割処理は例えば、グラフカット等の公知の方法を用いる。
 背景生成部23は、パノラマ画像データから領域分割処理で得られた領域ごとにラベリングを行う。例えば背景生成部23は、領域内の画素値によって表される色相(Hue)の平均値を演算し、当該演算された色相の平均値の差が、予め定めたしきい値より小さい領域同士に共通のラベルを割り当てて、領域をラベリングする。この例ではそれぞれの色相の差が上記しきい値より小さい複数の領域には同じラベルが割り当てられることとなる。これは、壁などでは色相が比較的共通するのに対して、壁より手前側に配される物体は、一般には色相が互いに異なることを考慮したものである。もっとも本実施の形態におけるラベリングの方法はこれに限られるものではない。
 背景生成部23は、割り当てたラベルごとに、当該ラベルが割り当てられた領域の面積の合計値(当該ラベルが割り当てられた領域が一つだけの場合は当該領域の面積そのものとする)を求める。そして背景生成部23は、予め定めた複数の面積しきい値Ath_1,Ath_2,…Ath_n(Ath_1>Ath_2>…>Ath_nとする)を用い、面積しきい値Ath_(i-1)より小さくかつ、Ath_i以上である(i=1,2,…,n、ただし、Ath_0は無限大とする)領域について推定距離ラベルiを割り当てる。
 背景生成部23は、予め定められた、ユーザの視点位置を中心とし、半径ri(i=1,2,…,n)の複数の仮想球を投影面として、半径riの仮想球である投影面の対応する範囲に、パノラマ画像データのうち、推定距離ラベルiが割り当てられている領域内の部分的な画像データ(部分画像データ)をテクスチャーマッピングにより投影する。なお、例えば推定距離ラベルkが割り当てられた領域がなければ、半径rkの仮想球である投影面には何も投影されないこととなる。ここでの各仮想球が本発明における、ユーザの視点位置からの距離が互いに異なる位置に、仮想的に複数配された投影面に相当する。
 この例によると、パノラマ画像データを領域に分割し、領域ごとに推定された距離に基づき、対応する距離にある投影面に当該領域の部分画像データが投影されて背景画像データが生成されるので、距離感の違和感を軽減できる。
 また、この例の場合においても、投影面設定部22は、ユーザの視点位置Uよりも距離L(モデル画像データの底面の位置に相当する)だけ下方には単一の平面の投影面Pを配してもよい。この場合、背景生成部23は、パノラマ画像データのうち、ユーザの視点位置Uよりも上記距離L以上だけ下方に投影されるべき部分の部分画像データは、領域分割の処理により得られた領域によらず、この投影面Pにテクスチャーマッピングにより投影する。
[仮想的な物体の配置位置に基づく投影面の設定]
 ここまでの説明においては、合成処理部25が、投影面設定部22により設定された平面の投影面に、モデル画像データに含まれる仮想的な物体M1,M2…に外接する外接直方体の底面(モデル画像データの底面)が接するように、モデル画像データを配置することとしていたが、本実施の形態はこれに限られない。
 すなわち、本実施の形態の一例では、モデル画像データに含まれる仮想的な物体M1,M2…に外接する外接直方体Bの面のうち、指定された面が接するように、投影面設定部22が投影面を設定してもよい。
 具体的に、この例では、投影面設定部22は、ワールド座標系のどの方向にモデル画像データを配置するかを指定する情報を受け入れる。この方向を指定する情報は、方向を表すベクトル(x,y,z)によって表されてもよい。
 投影面設定部22は、図6に例示するように、当該情報であるベクトルを法線とし、ユーザの視点の位置から所定の距離Lだけ離れた位置に平面の投影面Pを配する。また投影面設定部22は、半径をR(R>L)とし、中心をユーザの視点位置Uとした球形の投影面S′を配して、球形投影面S′が平面の投影面Pによって切断された形状の投影面を設定する。
 背景生成部23は、投影面設定部22が設定したこの投影面に対して、取得部21が取得したパノラマ画像データを投影して背景画像データを生成する。
 さらに合成処理部25は、モデル画像データに含まれる仮想的な物体M1,M2…に外接する外接直方体Bのうち、どの方向の面を平面の投影面Pに一致させるかの指示を受け入れる。この指示は、例えば、ξ,η,ζのどの軸を法線とする面であるか、またそのうち、当該法線とする軸の正の方向側の面か負の方向側の面であるかを特定する情報を含む。
 合成処理部25は、当該情報で特定される面に対する法線となる軸が、平面の投影面Pの法線(ベクトル(x,y,z)で表される方向の線分)に一致するよう、三次元画像データを回転させ、また当該情報で特定される面が投影面Pに接するよう三次元画像データを平行移動して、三次元画像データを配置する。
 この例によると、当初の画角(以下の説明では当初画角と呼ぶ)から徐々に画角が小さくなるように(仮想的な空間が大きく見えるように)制御しつつ、三次元画像データを配した位置にユーザの仮想的な視点を移動させるなどの制御を行って、壁面に貼り付けられた三次元画像データの表すゲーム空間に入り込むような演出を実現できる。
 また、三次元画像データを複数配置する場合、それぞれについて平面とする投影面の方向を指定しておくことで、種々の方向に三次元画像データが配された仮想的な空間をユーザに提示できる。この例では、ユーザが三次元画像データを選択できるようにしておき、当該選択された三次元画像データの表すゲーム空間に入り込む、といった演出が可能となる。
[終了時処理]
 さらに、ゲームなどのアプリケーション終了時には、合成処理部25が三次元画像データを配置した、投影面内部に戻ってくるように演出してもよい。この場合、合成処理部25は、合成画像データを記憶部12に保持しておき、ゲーム等のアプリケーション終了時に、終了したアプリケーションに対応する三次元画像データの配置位置から、当初画角となるまで徐々に画角が大きくなるように(仮想的な空間が小さく見えるように)制御し、また三次元画像データを配した位置からワールド座標系の中心方向にユーザの仮想的な視点を移動させるなどの制御を行いながら、上記記憶している合成画像データに基づいて、ユーザに提示する視野範囲の画像(視野画像)をレンダリングして生成して表示させる。
 これにより、ユーザに対して、ゲーム空間から離れて、現実空間に戻ってきたかのような演出を提示できる。
[視点位置からの距離に基づく投影面の設定]
 なお、投影面は、ユーザの視点位置が当初の位置から移動したときに、当該移動の内容に応じて動的に変化されてもよい。具体的に、本実施の形態のある例では、投影面設定部22が、図4に模式的に示したように、ユーザの当初の視点位置Uよりも上記距離Lだけ下方に平面の投影面Pを配し、この投影面Pから上側の投影面を、半径をR(R>L)とし、中心をユーザの当初の視点位置Uとした球の一部Sとする(図5(a))。
 その後、合成処理部25が、ユーザの頭部の動きをトラッキング(所定のタイミングごとに検出)し、当該頭部の位置及び方向を検出して視点位置U′及び視線方向の情報を取得し、取得した視点位置U′と投影面との距離が予め定めた距離Rth(Rth<R)を下回っているときには、取得したユーザの視点位置及び視線方向の情報を投影面設定部22に出力する。
 ユーザの視点位置U′及び視線方向の情報の入力を受けた投影面設定部22は、入力された視点位置U′の情報からユーザの視線方向に所定の距離Lだけ離れた位置に、ユーザの視線方向を法線方向とする平面の投影面Qを設定する(図5(b))。
 そして背景生成部23が、投影面設定部22が設定した、投影面Qを含む投影面に対して、取得部21が取得したパノラマ画像データを投影して背景画像データを生成する。
 この例では、ユーザが移動して、壁等に近接すると、当該近接した方向に仮想的に配された平面の投影面に、パノラマ画像データのうち、当該方向の部分の画像が背景として提示される。またユーザが視線方向を変化させると、平面の投影面の法線方向が視線方向となるよう動的に変更される。これによりユーザは自然に壁に近接していることを認識できるようになる。
 なお、ここで距離Lは、予め定めた値としておいてもよいし、当該投影面Qの方向に三次元画像データが配置されているときには、ユーザの視線方向を法線とし、当該三次元画像データに外接する面までの距離としてもよい。
[影のレンダリング]
 また本実施の形態の例では、合成処理部25は、合成画像データに基づいて、取得した情報で特定されるユーザの視点位置から見た、ユーザの視線方向の視野範囲の画像(視野画像)をレンダリングして生成するとともに次のように影をレンダリングしてもよい。すなわち合成処理部25は、予め定めた光源位置に仮想的な光源を配したときに、モデル画像データによる仮想的な物体が当該光源からの光を遮ることで投影面に形成される影の画像(影画像データ)を背景画像データに合成して描画してもよい。ここで描画される影の形状や描画の方法は、一般的なレンダリングの処理と同様であるのでここでの詳しい説明を省略するが、本実施の形態の一例では、図4に例示したように、ユーザの視点位置Uよりも距離L(モデル画像データの底面の位置に相当する)だけ下方に平面の投影面Pが配されているので、仮想的な物体の影は、この投影面Pに投影された(テクスチャとしてマッピングされた)パノラマ画像データの一部に合成されることとなる。このためモデル画像データの底面に配された仮想的な物体の影は、当該底面に接して描画されることとなり、投影面を球面とする場合に比べて違和感が軽減される。
 10 画像処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、21 取得部、22 投影面設定部、23 背景生成部、24 モデル画像処理部、25 合成処理部、26 出力部、30 中継制御装置、40 表示装置、51 映像表示素子、52 光学素子。

Claims (8)

  1.  ユーザの頭部に装着される表示装置と、
     当該表示装置に接続される画像処理装置とを含み、
     前記画像処理装置は、
     ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する手段と、
     所定の三次元モデルデータに基づいて生成されたモデル画像データを、前記背景画像データに合成して合成画像データを生成する手段と、
     前記表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する出力手段と、
     を有する画像表示システム。
  2.  ユーザの頭部に装着される表示装置に接続され、
     ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する手段と、
     所定の三次元モデルデータに基づいて生成されたモデル画像データを、前記背景画像データに合成して合成画像データを生成する手段と、
     前記表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する出力手段と、
     を有する画像処理装置。
  3.  請求項2に記載の画像処理装置であって、
     前記投影面は、少なくともユーザ視点位置の下方側が平面となっている投影面である画像処理装置。
  4.  請求項2に記載の画像処理装置であって、
     前記投影面は、ユーザの視点位置からの距離が互いに異なる位置に、仮想的に複数配され、
     前記背景画像データを生成する手段は、パノラマ画像データ内の複数の部分について、各部分に撮像された対象物のユーザの視点位置からの距離を推定して、当該推定された距離に基づいて前記パノラマ画像データを複数の部分画像データに分割し、当該部分画像データごとに推定された距離に基づいて、前記複数配された投影面のいずれかを選択して、当該選択した投影面に当該部分画像データを投影し、背景画像データを生成する画像処理装置。
  5.  請求項4に記載の画像処理装置であって、
     前記投影面は、ユーザ視点位置の下方側には単一の平面が配された投影面であり、
     前記背景画像データを生成する手段は、前記パノラマ画像データに撮像された画像部分のうち、ユーザの視点から予め定めた距離以上下方に相当する画像部分は、前記単一の平面に投影する画像処理装置。
  6.  請求項2から5のいずれか一項に記載の画像処理装置であって、
     前記合成画像データを生成する手段は、前記モデル画像データとともに、前記三次元モデルデータに基づいて生成される影画像データを、前記背景画像データに合成する画像処理装置。
  7.  ユーザの頭部に装着される表示装置に接続された画像処理装置の制御方法であって、
     ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する工程と、
     所定の三次元モデルデータに基づいて生成されたモデル画像データを、前記背景画像データに合成して合成画像データを生成する工程と、
     前記表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する出力工程と、
     を有する画像処理装置の制御方法。
  8.  ユーザの頭部に装着される表示装置に接続されたコンピュータを、
     ユーザの周囲を撮像したパノラマ画像データを取得し、当該パノラマ画像データを、仮想空間内のユーザの視点位置周囲に仮想的に配した所定形状の投影面に投影した、背景画像データを生成する手段と、
     所定の三次元モデルデータに基づいて生成されたモデル画像データを、前記背景画像データに合成して合成画像データを生成する手段と、
     前記表示装置に対し、合成画像データに基づいて生成した、ユーザの視野画像を出力する出力手段と、
    として機能させるプログラム。
PCT/JP2017/038936 2016-11-01 2017-10-27 画像表示システム、画像表示装置、その制御方法、及びプログラム WO2018084087A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/342,773 US10957106B2 (en) 2016-11-01 2017-10-27 Image display system, image display device, control method therefor, and program
JP2018548984A JP6687751B2 (ja) 2016-11-01 2017-10-27 画像表示システム、画像表示装置、その制御方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-214420 2016-11-01
JP2016214420 2016-11-01

Publications (1)

Publication Number Publication Date
WO2018084087A1 true WO2018084087A1 (ja) 2018-05-11

Family

ID=62076779

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038936 WO2018084087A1 (ja) 2016-11-01 2017-10-27 画像表示システム、画像表示装置、その制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US10957106B2 (ja)
JP (1) JP6687751B2 (ja)
WO (1) WO2018084087A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188022A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484647B1 (ko) * 2018-07-11 2023-01-04 삼성전자주식회사 전자 장치의 제어방법 및 컴퓨터 판독 가능 기록매체
JP7341674B2 (ja) * 2019-02-27 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2008033531A (ja) * 2006-07-27 2008-02-14 Canon Inc 情報処理方法
JP2008234473A (ja) * 2007-03-22 2008-10-02 Canon Inc 画像処理装置及びその制御方法
US20140354690A1 (en) * 2013-06-03 2014-12-04 Christopher L. Walters Display application and perspective views of virtual space

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5891388B2 (ja) * 2011-03-31 2016-03-23 パナソニックIpマネジメント株式会社 立体視画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム
US9488492B2 (en) * 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
GB2526263B (en) * 2014-05-08 2019-02-06 Sony Interactive Entertainment Europe Ltd Image capture method and apparatus
US9877016B2 (en) * 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2008033531A (ja) * 2006-07-27 2008-02-14 Canon Inc 情報処理方法
JP2008234473A (ja) * 2007-03-22 2008-10-02 Canon Inc 画像処理装置及びその制御方法
US20140354690A1 (en) * 2013-06-03 2014-12-04 Christopher L. Walters Display application and perspective views of virtual space

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188022A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2018084087A1 (ja) 2019-04-11
JP6687751B2 (ja) 2020-04-28
US20190259211A1 (en) 2019-08-22
US10957106B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
US11361513B2 (en) Head-mounted display with pass-through imaging
US11277603B2 (en) Head-mountable display system
JP6732716B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
EP3287837A1 (en) Head-mountable display system
JPWO2012147363A1 (ja) 画像生成装置
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US11120632B2 (en) Image generating apparatus, image generating system, image generating method, and program
WO2014199155A1 (en) Head-mountable apparatus and systems
JP2012079291A (ja) プログラム、情報記憶媒体及び画像生成システム
WO2018084087A1 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
US11961194B2 (en) Non-uniform stereo rendering
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP2020064592A (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
WO2017191702A1 (ja) 画像処理装置
US11187895B2 (en) Content generation apparatus and method
WO2021200494A1 (ja) 仮想空間における視点変更方法
WO2017191703A1 (ja) 画像処理装置
WO2017085803A1 (ja) 映像表示装置及び映像表示方法
JP2020031413A (ja) 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法
JP2020106587A (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム
JP6562371B1 (ja) 表示装置、表示処理装置、および表示処理プログラム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2024015868A (ja) ヘッドマウントディスプレイおよび画像表示方法
WO2018096315A1 (en) Virtual reality
JP2018112885A (ja) プログラム及び画像生成システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018548984

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868208

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868208

Country of ref document: EP

Kind code of ref document: A1