WO2017130621A1 - 仮想現実空間提供方法および仮想現実空間提供プログラム - Google Patents

仮想現実空間提供方法および仮想現実空間提供プログラム Download PDF

Info

Publication number
WO2017130621A1
WO2017130621A1 PCT/JP2016/088730 JP2016088730W WO2017130621A1 WO 2017130621 A1 WO2017130621 A1 WO 2017130621A1 JP 2016088730 W JP2016088730 W JP 2016088730W WO 2017130621 A1 WO2017130621 A1 WO 2017130621A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
display
reality space
virtual reality
view
Prior art date
Application number
PCT/JP2016/088730
Other languages
English (en)
French (fr)
Inventor
健登 中島
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2017130621A1 publication Critical patent/WO2017130621A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Definitions

  • the present invention relates to a virtual reality space providing method and a virtual reality space providing program.
  • Patent Document 1 discloses a head-mounted display (Head-Mounted Disp). lay. Hereinafter, it may be referred to as “HMD”. ) Is disclosed in which the external image of the user in the real space is superimposed on the content image of the virtual space that is displayed to the user wearing the device.
  • Patent Document 1 merely displays an external image superimposed on a content image on the HMD in order to notify a user who cannot visually recognize the external environment with the HMD attached.
  • the visual effect on the user is limited.
  • a virtual display for wipe display capable of outputting predetermined content in a three-dimensional virtual reality space (hereinafter, simply referred to as “three-dimensional virtual space”, “virtual space”, or “virtual reality space”).
  • three-dimensional virtual space capable of outputting predetermined content in a three-dimensional virtual reality space
  • virtual space capable of outputting predetermined content in a three-dimensional virtual reality space
  • virtual reality space a three-dimensional virtual reality space
  • an object of the present invention is to present a user with a three-dimensional virtual reality space image having various visual effects.
  • a method for providing a virtual reality space in which a user is immersed using a head-mounted display the step of defining the virtual reality space, and a head mount
  • a step of identifying a reference line of sight from the viewpoint in the virtual reality space according to a movement of the user wearing the display a step of identifying a field of view from the viewpoint based on the reference line of sight, and a virtual display in the virtual reality space
  • a method includes moving to a position within the viewing area and generating a viewing image corresponding to the viewing area and displaying it on a head mounted display.
  • a program for providing a virtual reality space in which a user is immersed using a head mounted display and means for defining the virtual reality space in a computer coupled to the head mounted display And means for identifying a reference line of sight from the viewpoint in the virtual reality space according to the movement of the user wearing the head-mounted display, means for identifying the view area from the viewpoint based on the reference line of sight, and in the virtual reality space
  • a program that functions as a means for moving the virtual display to a position within the visual field area and a means for generating a visual field image corresponding to the visual field area and displaying it on the head mounted display is obtained.
  • the present invention it is possible to dynamically display the content image on the virtual display together with various visual effects by dynamically controlling the arrangement of the virtual display with respect to the visual region in the three-dimensional virtual reality space.
  • FIG. 1 is an exemplary schematic diagram illustrating an HMD system of an embodiment. It is an example functional block diagram of the control circuit part of one embodiment. It is an XYZ space figure which shows the example of the three-dimensional virtual space of one Embodiment.
  • FIG. 4 is a side view and a plan view corresponding to the XYZ space diagram shown in FIG. 3. It is a flowchart which shows the operation example of the control circuit part of one Embodiment. It is the schematic which shows the operation example of the control circuit part which concerns on 1st Embodiment. It is the schematic which shows the operation example of the control circuit part which concerns on 2nd Embodiment.
  • a virtual reality space providing method and a virtual reality space providing program according to an embodiment of the present invention have the following configurations.
  • (Item 1) A method of providing a virtual reality space in which a user is immersed using a head-mounted display, Defining the virtual reality space; Identifying a reference line of sight from a viewpoint in the virtual reality space according to the movement of the user wearing the head mounted display; Identifying a field of view from the viewpoint based on the reference line of sight; Moving a virtual display in the virtual reality space to a position in the field of view; Generating a view image corresponding to the view region and displaying the view image on the head mounted display.
  • (Item 3) In the method according to Item 1, Determining whether an overlapping ratio of the virtual display with the view area is equal to or less than a predetermined value; The method wherein the step of moving the virtual display is performed when it is determined that the overlap ratio is less than or equal to the predetermined value.
  • (Item 7) The method according to any one of Items 1 to 6, The method wherein in the step of moving the virtual display, the position in the field of view is a position having a predetermined polar angle and / or azimuth angle from a reference line of sight.
  • the virtual reality space is defined to place a target object;
  • the step of moving the virtual display further includes the step of identifying the target object in the virtual reality space, wherein the virtual display further includes the direction in the direction from the reference line of sight to the target object.
  • the method is moved to a position within the field of view.
  • the computer further includes: Function as a means for determining whether the overlapping ratio of the virtual display and the view area is equal to or less than a predetermined value; A program for moving the virtual display when it is determined that the overlap ratio is equal to or less than the predetermined value.
  • FIG. 1 is an exemplary hardware configuration diagram of an HMD system 100 according to an embodiment.
  • the HMD system 100 includes an HMD 110 and a control circuit unit 200.
  • the HMD 110 and the control circuit unit 200 are electrically connected by a wired cable 140 and can communicate with each other.
  • a wireless connection may be used instead of the wired cable 140.
  • HMD11 Reference numeral 0 denotes a display device that is used by being worn on the head of the user 150.
  • the HMD 110 includes a display 112, a sensor 114, an eye tracking device (Eye Track). ing Device. Hereinafter, it is referred to as “ETD”. 116, speaker (headphones) 118. Only one of the ETD 116 and the sensor 114 may alternatively be provided.
  • the display 112 is configured to present an image to the field of view of the user 150 wearing the HMD 110.
  • the display 112 can be configured as a non-transmissive display.
  • the external scene of the HMD 110 is blocked from the view of the user 150, and only the image displayed on the display 112 is delivered to the user's 150 eye.
  • a view field image generated using computer graphics is displayed.
  • An example of an image by computer graphics is a virtual space image obtained by imaging a virtual reality space (for example, a world created by a computer game). In this way, the user wearing the HMD is immersed in the three-dimensional virtual reality space.
  • the display 112 may include a right-eye sub-display that provides a right-eye image and a left-eye sub-display that provides a left-eye image.
  • the two two-dimensional images for the left eye and the right eye are superimposed on the display 112, so that a three-dimensional virtual space image having a stereoscopic effect is provided to the user 150.
  • you may be comprised by one display apparatus.
  • the right-eye image and the left-eye image can be provided independently by switching the shutter so that the display image can be recognized by only one eye at high speed.
  • the ETD 116 is configured to track the movement of the eyeball of the user 150 and detect in which direction the line of sight of the user 150 is directed.
  • the ETD 116 includes an infrared light source and an infrared camera.
  • the infrared light source irradiates infrared rays toward the eyes of the user 150 wearing the HMD 110.
  • the infrared camera captures an image of the eyes of the user 150 irradiated with infrared rays. Infrared rays are reflected on the surface of the eye of the user 150, but the reflectance of the infrared rays differs between the pupil and a portion other than the pupil.
  • the difference in the reflectance of the infrared appears as the brightness of the image.
  • the pupil is identified in the image of the eye of the user 150, and the direction of the line of sight of the user 150 is detected based on the position of the identified pupil.
  • Sensor 114 detects the inclination and / or position of HMD 110 mounted on the head of user 150.
  • any of a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof may be used.
  • the sensor 114 is a magnetic sensor, an angular velocity sensor, or an acceleration sensor, the sensor 114 is built in the HMD 110 and outputs a value (magnetism, angular velocity, or acceleration value) corresponding to the inclination or position of the HMD 110.
  • a value magnetism, angular velocity, or acceleration value
  • the inclination and position of the HMD 110 may be used to change the display image of the display 112 so as to follow the movement when the user 150 moves his / her head. For example, when the user 150 turns his head to the right (or left, up, down), the display 112 displays a virtual scene in the right (or left, up, down) direction of the user in the virtual reality space. It may be. In this way, it is possible to further enhance the sense of immersion in the virtual reality space that the user 150 can experience.
  • a sensor provided outside the HMD 110 may be applied as the sensor 114.
  • the sensor 114 may be an infrared sensor installed at a fixed position in the room that is separate from the HMD 110. An infrared light emitter or an infrared reflective marker provided on the surface of the HMD 110 is detected using an infrared sensor. This type of sensor 114 is sometimes referred to as a position tracking sensor.
  • Speakers (headphones) 118 are provided around the left and right ears of the user 150 wearing the HMD 110, respectively.
  • the speaker 118 converts the electrical sound signal generated by the control circuit unit 200 into physical vibration and provides sound to the left and right ears of the user.
  • the user 150 can perceive the direction and distance of the sound source arranged in the virtual space.
  • the control circuit unit 200 is a computer connected to the HMD 110.
  • the control circuit unit 200 may be mounted on the HMD 110 or may be configured as another hardware (for example, a known personal computer or a server computer via a network). Further, the control circuit unit 200 may implement some functions in the HMD 110 and implement the remaining functions in different hardware.
  • the control circuit unit 200 includes a processor 202, a memory 204, and an input / output interface 206.
  • the control circuit unit 200 may further include a communication interface 208 (not shown).
  • the processor 202 is configured to read a program stored in the memory 204 and execute processing according to the program.
  • each function of the control circuit unit 200 (described later) is realized as software.
  • the processor 202 is a CPU (Central Process). ssing Unit) and GPU (Graphics Processing Unit) t).
  • the memory 204 stores at least an operating system and an information processing program.
  • the operating system is a computer program for controlling the overall operation of the control circuit unit 200.
  • the information processing program is a computer program for implementing each function of the control circuit unit 200.
  • the memory 204 can also temporarily or permanently store data generated by the operation of the control circuit unit 200. Specific examples of the memory 204 include a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, a flash memory, and an optical disk.
  • the input / output interface 206 is configured to receive an input for causing the control circuit unit 200 to function from the user 150 of the HMD system 100.
  • Specific examples of the user input interface 206 are a game controller, a touch pad, a mouse, a keyboard, and the like.
  • the communication interface 208 (not shown) is configured to include various wired connection terminals for communicating with an external device via a network and various processing circuits for wireless connection, via a LAN (Local Area Network) or the Internet. Thus, it is configured to conform to various communication standards and protocols for receiving external camera content, Web content, and digital broadcast content.
  • FIG. 2 is an exemplary block diagram illustrating a functional configuration implemented in the control circuit unit 200.
  • the control circuit unit 200 includes a storage unit 210 and a processing unit 220.
  • the storage unit 210 further includes object information 211 and virtual space configuration information 212.
  • the storage unit 210 corresponds to the memory 204 illustrated in FIG.
  • the processing unit 220 includes a space definition unit 221, an HMD motion detection unit 222, a line-of-sight detection unit 223, a reference line-of-sight specification unit 224, a visual field region determination unit 225, a determination unit 226, a virtual display moving unit 227, and a visual field image generation unit. 228.
  • the units 221 to 228 included in the processing unit 220 are preferably implemented as software. That is, the processor 202 shown in FIG. 1 reads and executes each program module in the memory 204, thereby realizing the functionality of the units 221 to 228.
  • FIG. 3 is an XYZ space diagram illustrating an example of a three-dimensional virtual reality space according to an embodiment.
  • the XZ plane represents the ground surface, and the Y axis extends in the height direction.
  • the virtual space 6 is formed in, for example, a spherical shape with the center 3 as the center.
  • a virtual camera 1 as a user's viewpoint and a plurality of computer-controlled objects (for example, a virtual display object 10 and a target object (not shown)) may be arranged.
  • the virtual camera 1 is arranged inside the virtual space 6.
  • the virtual camera 1 may always be arranged at the center 3 or may move so as to follow the movement of the user 150 (that is, movement of the head or movement of the line of sight).
  • FIG. 4 shows a side view (a) of the ground surface seen from the side and a plan view (b) seen from above corresponding to the XYZ space diagram of FIG.
  • a view area 5 from the virtual camera 1 (viewpoint) in the virtual space 6 is determined based on the reference line of sight 4.
  • the visual field region 5 is a three-dimensional space region, and is defined to include a range including a predetermined polar angle ⁇ around the reference visual line 4 and a range including a predetermined azimuth angle ⁇ .
  • the viewing area 5 is further defined to have a portion of the celestial sphere.
  • a view field image from the virtual camera 1 is generated as an image corresponding to the view field area 5 and displayed on the HMD.
  • the view image may be formed such that the 360-degree content is a spherical image along the celestial sphere.
  • the 360-degree content is a spherical image along the celestial sphere.
  • the 360-degree content can be any digital content including still image content, moving image content, audio content, and the like.
  • the object (virtual display 10 in FIGS. 3 and 4) is further arranged to be accommodated in the field of view 5 of the virtual space 6 and includes an image of the object viewed from the virtual camera 1.
  • a view field image is generated. That is, a 360-degree content image displayed in a portion of the celestial sphere associated with the view area 5 is used as a background image, and a view image is generated by superimposing the images of objects arranged in the view area 5.
  • the virtual display 10 disposed in the virtual space 6 is preferably a virtual television or a virtual web browser capable of displaying television content and web content in the virtual reality space, and is externally provided via the communication interface 208 of the control device. The received content can be output.
  • the content on the virtual display 10 can be any digital content including still image content, moving image content, audio content, and the like, as with 360-degree content.
  • the virtual display 10 can have an arbitrary shape and can be arranged at an arbitrary spatial position. As an example, the virtual display may have a curved surface shape.
  • FIG. 5 shows an operation example of the control circuit unit 200 that provides a method for providing a virtual reality space in which a user is immersed using an HMD according to an embodiment.
  • FIG. 5 is a flowchart showing information processing of the control circuit unit 200. Each process is executed by causing each functional block shown in FIG. 2 to function.
  • the space definition unit 221 defines a virtual reality space and develops the virtual reality space (S401). More specifically, the virtual reality space is defined and developed using the object information 211 and the virtual space configuration information 212 stored in the storage unit 210.
  • the object information 211 includes arrangement information of the virtual display 10 and the target object (described later) together with accompanying information such as attribute tag information associated with each.
  • the virtual space configuration information 212 includes 360-degree content video information pasted along the celestial sphere and content information displayed on the virtual display.
  • the HMD motion detection unit 222 determines the user's viewing direction according to the movement of the user 150 wearing the HMD 110 (S402), and the line-of-sight detection unit 223 determines the user's viewing direction (S403).
  • the reference line-of-sight specifying unit 224 specifies the reference line of sight from the viewpoint in the virtual reality space (S404).
  • the field-of-view area determination unit 225 receives the reference line of sight 4 Based on the above, the visual field region 5 from the viewpoint shown in FIGS. 3 and 4 is determined (S405).
  • the HMD motion detection unit 222 acquires data according to the inclination and / or position of the HMD 110 detected by the sensor 114 over time, and determines the viewing direction of the user 150.
  • the line-of-sight detection unit 223 determines the user's line-of-sight direction based on the user's right-eye and / or left-eye line-of-sight detected by the ETD 116.
  • the line-of-sight direction may be defined as a direction in which a straight line extends through the center of the user's right eye and left eye and the point of gaze that is the intersection of the user's right eye and left eye.
  • the reference line-of-sight specifying unit 224 specifies, for example, a straight line connecting the center of the right eye and the left eye of the user 150 and the center of the display 112 positioned in the viewing direction as the reference line of sight, and corresponds to the reference line of sight 4 in the virtual reality space.
  • a three-dimensional configuration configured to include a viewpoint, a range including a predetermined polar angle ⁇ centered on the reference line of sight 4 and a range including a predetermined azimuth angle ⁇ , and a part of the celestial sphere specified according to these ranges
  • the field-of-view area 5 is determined as the area (see FIGS. 3 and 4). It is understood that the determined three-dimensional viewing area 5 changes in conjunction with the displacement of the reference line of sight 4 according to the movement of the user wearing the HMD.
  • the operation of the virtual display 10 is dynamically controlled in association with the determined visual field area 5. That is, the determination unit 226 determines whether or not the virtual display 10 should be moved with respect to the view area 5 (S406). If the determination is positive (“Yes”), the virtual display movement unit 227 Is moved to a predetermined position in the field-of-view area (S407).
  • the determination unit 226 can make a positive determination in response to an arbitrary timing.
  • the timing may be set to a timing at which the object of the virtual display deviates from the view field area 5 and the user can no longer see on the display.
  • the timing may be set every time when the reference line of sight is displaced in accordance with the movement of the user wearing the HMD.
  • the virtual display moving unit 227 can move the virtual display 10 in an arbitrary manner within the virtual space 6.
  • the virtual display moving unit 227 may move the virtual display 10 along a spherical surface having the same center as the celestial sphere on which 360-degree content is displayed and having a predetermined radius.
  • the predetermined radius may be the same as or different from the radius of the celestial sphere of the virtual space 6.
  • the position of the destination of the virtual display can be set to an arbitrary position in the visual field area 5.
  • the “virtual display” is not necessarily limited to a three-dimensional object, and any “virtual display” may be used as long as it displays a content image in the three-dimensional virtual space 6.
  • the embedded area can be regarded as a “virtual display”.
  • the sub-content video is configured as a spherical video having a predetermined size and is directly pasted on the top spherical surface of the virtual space 6.
  • the sub-content image can be updated in position on the celestial sphere. That is, the sub-content video can be configured to be movable on the celestial sphere so as to enter the visual field region 5.
  • the visual field image generation unit 228 generates a visual field image corresponding to the visual field region 5 and displays it on the HMD display 112 (S408). While the user is wearing the HMD and operating the HMD, the above steps S402 to S408 are preferably repeated.
  • FIGS. 6 and 7 each show a set of a view image and a (XZ) plan view of the virtual space that are displayed to the user when the view region changes from (a) to (c).
  • an image of the world map is pasted along the celestial sphere, and different map portions are displayed according to the movement of the user wearing the HMD.
  • FIGS. 6 and 7 show a set of a view image and a (XZ) plan view of the virtual space that are displayed to the user when the view region changes from (a) to (c).
  • an image of the world map is pasted along the celestial sphere, and different map portions are displayed according to the movement of the user wearing the HMD.
  • the position of the virtual camera 1 is arranged at the center of the celestial sphere, and along the concentric spherical surface inside the celestial sphere as the field of view transitions from (a) to (c).
  • region is changed to the left direction from (a) to (c), it cannot be overemphasized that it can change to arbitrary directions according to a user's motion.
  • the is field image a 1 as the virtual display image is superimposed on the lower right is displayed.
  • field image b 1 is displayed. Since the arrangement position of the virtual display 10 has not changed, only a part of the virtual display image is superimposed on the view image b 1 .
  • the determination unit 226 determines that the virtual display 10 should be moved (S406 in FIG. 5).
  • the virtual display follows the viewing area (solid arrow), again viewing the image c 1 is displayed as a virtual display image is superimposed on the lower right.
  • the “lower right” position on which the virtual display image is superimposed can be defined as a predetermined relative position with respect to the view field area 5. Specifically, it may be defined as a position having a predetermined azimuth angle and / or azimuth angle from the reference line of sight in the visual field region 5.
  • the virtual display 10 can be dynamically moved so as to be interlocked with the change in the field of view.
  • the virtual display image is not simply superimposed on the fixed position of the visual field image, but the virtual display 10 can be displayed in the visual field region in various movement modes, and various wipe display modes can be realized.
  • the “follow-up” type shown in FIG. 6 or the “appearance” type movement mode in which the virtual display appears from a state where there is nothing in the field of view is preferable.
  • a field-of-view image having various visual effects can be presented to the user.
  • the second embodiment shown in FIG. 7 is different from the first embodiment shown in FIG. 6 in that the target object 15 is arranged in the virtual space and the arrangement of the virtual display 10 is determined at a position associated with the arrangement. Is different.
  • the view images a 2 and b 2 in FIGS. 7A and 7B are the same as the view images a 1 and b 1 in FIG. 6, respectively, and the view image c 2 in FIG. 7C is the view image in FIG. c Different from 1 .
  • FIG. 7B when the virtual display moving unit 227 moves the virtual display 10 (S407), the arrangement of the target object 15 in the virtual space is specified.
  • the virtual display moving unit 227 moves the virtual display 10 to a predetermined position in the direction from the reference line of sight at the viewpoint to the target object.
  • field image c 2 of FIG. 7 (c) is different from the field image c 1 in FIG. 6 (c), the virtual display image is displayed so as to be superimposed on the lower left.
  • the second embodiment has an effect that the virtual display 10 can be applied to guide the user's line of sight toward the target object 15.
  • the content to be displayed on the virtual display may be configured to display content related to the attribute tag information of the target object to enhance the effect of the line-of-sight guidance.
  • the virtual display is a virtual Web browser
  • a Web page specified by attribute tag information may be displayed.
  • the virtual display is moved on the celestial sphere and the celestial sphere.
  • the present invention is not limited to this, and any mode can be used as long as it can guide the line of sight toward the target object.
  • the virtual display may be moved the shortest distance toward the target object.
  • the virtual display may be configured to continue to move at any speed towards the target object. Further, as the virtual display approaches the target object, the volume of the audio content reproduced on the virtual display may be increased to further enhance the effect of the line-of-sight guidance.
  • HMD Head mounted display
  • 112 ... Display
  • 114 ... Sensor part, 116 ... ETD, 118 ... Speaker, 200 ...
  • storage part, 220 ... Processing part, 1 ... Virtual Camera, 4 ... reference line of sight, 5 ... field of view, 6 ... virtual reality space, 10 ... virtual display, 15 ... target object

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

多様な視覚効果を有する3次元仮想現実空間画像をユーザに提示することを目的とする。ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、仮想現実空間を定義するステップと、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定するステップと、基準視線に基づいて、視点からの視界領域を特定するステップと、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させるステップと、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示するステップと、を含む、方法が得られる。

Description

仮想現実空間提供方法および仮想現実空間提供プログラム
 本発明は、仮想現実空間提供方法および仮想現実空間提供プログラムに関するものである。
 特許文献1には、ヘッドマウントディスプレイ(Head-Mounted Disp
lay。以下、「HMD」と称することもある。)を装着したユーザに表示される仮想空間のコンテンツ画像に、現実空間におけるユーザの外界画像を重ねて表示する技術が開示される。
国際公開第2014/156389号
 特許文献1の技術は、HMDを装着した状態で外部環境が視認できないユーザに対し、その状況を知らせるために、単にコンテンツ画像中に外部画像を重ねてHMDに表示するに過ぎない。ユーザへの視覚的な効果は限定的である。
 本発明は、上記の点に鑑みてなされたものである。即ち、3次元仮想現実空間(以下、単に、「3次元仮想空間」、「仮想空間」、「仮想現実空間」と称することもある。)に所定のコンテンツを出力可能なワイプ表示用の仮想ディスプレイを配置し、該仮想ディスプレイの動作をダイナミックに制御可能とする。つまり、本発明は、多様な視覚効果を有する3次元仮想現実空間画像をユーザに提示することを目的とする。
 上述した課題を解決するために、本発明の一態様によれば、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、仮想現実空間を定義するステップと、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定するステップと、基準視線に基づいて、視点からの視界領域を特定するステップと、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させるステップと、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示するステップと、を含む、方法が得られる。
 また、本発明の他の態様によれば、ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、ヘッドマウントディスプレイに結合されるコンピュータに、仮想現実空間を定義する手段と、ヘッドマウントディスプレイを装着したユーザの動きにしたがって、仮想現実空間において視点からの基準視線を特定する手段と、基準視線に基づいて、視点からの視界領域を特定する手段と、仮想現実空間内の仮想ディスプレイを視界領域内の位置に移動させる手段と、視界領域に対応した視界画像を生成し、ヘッドマウントディスプレイに表示する手段と、として機能させる、プログラムが得られる。
 本発明によれば、3次元仮想現実空間内の視覚領域に対し、仮想ディスプレイの配置をダイナミックに制御して、仮想ディスプレイ上のコンテンツ画像を多様な視覚効果と共に
ワイプ表示可能とする。
一実施形態のHMDシステムを示す例示の模式図である。 一実施形態の制御回路部の例示の機能ブロック図である。 一実施形態の3次元仮想空間例を示すXYZ空間図である。 図3に示したXYZ空間図に対応する側面図および平面図である。 一実施形態の制御回路部の動作例を示すフローチャートである。 第1実施形態に係る制御回路部の動作例を示す概略図である。 第2実施形態に係る制御回路部の動作例を示す概略図である。
 [本発明の実施形態の説明]
 最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態による仮想現実空間提供方法および仮想現実空間提供プログラムは、以下のような構成を備える。
 (項目1) ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
 前記仮想現実空間を定義するステップと、
 前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定するステップと、
 前記基準視線に基づいて、前記視点からの視界領域を特定するステップと、
 前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させるステップと、
 前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示するステップと
を含む、方法。
 (項目2) 項目1記載の方法において、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる前記ステップが繰り返し実行される、方法。
 (項目3) 項目1記載の方法において、更に、
 前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定するステップを含み、
 前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
 (項目4) 項目1から3のいずれか一項記載の方法であって、
 前記仮想ディスプレイを移動させる前記ステップにおいて、第1半径を有する球面に沿って前記仮想ディスプレイを移動させる、方法。
 (項目5) 項目4記載の方法であって、
 前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
 (項目6) 項目4記載の方法であって、
 前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径とは異なる第2半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
 (項目7) 項目1から6のいずれか一項記載の方法であって、
 前記仮想ディスプレイを移動させる前記ステップにおいて、前記視界領域内の位置が、基準視線からの所定の極角および/または方位角を有する位置である、方法。
 (項目8) 項目1から7のいずれか一項記載の方法において、
 前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、ターゲット・オブジェクトを配置するように定義され、
 前記仮想ディスプレイを移動させる前記ステップが、更に、前記仮想現実空間に前記ターゲット・オブジェクトを特定するステップを含み、前記仮想ディスプレイが更に、前記視点における前記基準視線から前記ターゲット・オブジェクトへの方向の前記視界領域内の位置に移動される、方法。
 (項目9) 項目1から8のいずれか一項記載の方法において、
 所定のユーザ作用に応答して、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
 (項目10) ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、前記ヘッドマウントディスプレイに結合されるコンピュータに、
 仮想ディスプレイが配置される前記仮想現実空間を定義する手段と、
 前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定する手段と、
 前記基準視線に基づいて、前記視点からの視界領域を特定する手段と、
 前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させる手段と、
 前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示する手段と
として機能させる、プログラム。
 (項目11) 項目10記載のプログラムにおいて、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる、プログラム。
 (項目12) 項目10記載のプログラムにおいて、更に、前記コンピュータに、
 前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定する手段として機能させ、
 前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる、プログラム。
 〔本発明の実施形態の詳細〕
 本発明の実施形態に係る仮想現実空間提供方法および仮想現実空間提供プログラムの具体例を、以下に図面を参照しながら説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 図1は、実施形態によるHMDシステム100の例示のハードウェア構成図である。HMDシステム100は、HMD110および制御回路部200を備える。HMD110および制御回路部200は、一例として有線ケーブル140によって電気的に接続され、相互に通信可能である。有線ケーブル140に代えて、無線接続としてもよい。HMD11
0は、ユーザ150の頭部に装着されて利用される表示デバイスである。HMD110は、ディスプレイ112、センサ114、アイトラッキングデバイス(Eye Track
ing Device。以下、「ETD」と称する。)116、スピーカ(ヘッドホン)
118を備える。ETD116とセンサ114は、どちらか一方だけが択一的に設けられてもよい。
 ディスプレイ112は、HMD110を装着したユーザ150の視界に画像を提示するように構成される。例えば、ディスプレイ112は、非透過型ディスプレイとして構成することができる。HMD110の外界の光景はユーザ150の視界から遮断され、ユーザ150の目にはディスプレイ112に映し出された画像だけが届けられる。ディスプレイ112には、例えば、コンピュータグラフィックスを用いて生成した視界画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想空間画像である。このようにして、HMDを装着したユーザは3次元仮想現実空間に没入することになる。
 ディスプレイ112は、右目用画像を提供する右目用サブディスプレイと、左目用画像を提供する左目用サブディスプレイを含んでもよい。左目用と右目用の2つの2次元画像がディスプレイ112に重畳されることにより、立体感を有する3次元の仮想空間画像がユーザ150に提供される。また、右目用画像と左目用画像を提供できるのであれば、1つの表示装置で構成されていてもよい。例えば、表示画像が一方の目にしか認識できないようにするシャッターを高速に切り替えることにより、右目用画像と左目用画像を独立して提供し得る。
 ETD116は、ユーザ150の眼球の動きを追跡して、ユーザ150の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD116は、赤外線光源および赤外線カメラを備える。赤外線光源は、HMD110を装着したユーザ150の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ150の目の画像を撮像する。赤外線はユーザ150の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ150の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ150の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ150の視線の方向が検出される。
 センサ114は、ユーザ150の頭部に装着されたHMD110の傾き、および/または位置を検知する。例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、またはこれらの組み合わせを用いるのがよい。センサ114が磁気センサ、角速度センサ、または加速度センサである場合、センサ114はHMD110に内蔵されて、HMD110の傾きや位置に応じた値(磁気、角速度、又は加速度の値)を出力する。センサ114からの出力値を適宜の方法で加工することで、ユーザ150の頭部に装着されたHMD110の傾きや位置が算出される。HMD110の傾きや位置は、ユーザ150が頭を動かした際にその動きに追従するようにディスプレイ112の表示画像を変化させるのに利用されてよい。例えば、ユーザ150が頭を右(又は左、上、下)に向けると、ディスプレイ112には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されるのであってよい。このようにして、ユーザ150が体感する仮想現実空間への没入感を更に高めることができる。なお、センサ114として、HMD110の外部に設けられたセンサを適用することとしてもよい。例えば、センサ114は、HMD110とは別体の、室内の固定位置に設置された赤外線センサであってよい。赤外線センサを用いて、HMD110の表面に設けられた赤外線発光体又は赤外線反射マーカーを検知する。このようなタイプのセンサ114は、ポジショントラッキングセンサと呼ばれることもある。
 スピーカ(ヘッドホン)118はHMD110を装着したユーザ150の左右の耳の周辺にそれぞれ設けられる。スピーカ118は、制御回路部200によって生成された電気的な音信号を物理的な振動に変換し、ユーザの左右の耳に音を提供する。左右のスピーカから出力される音に時間差、音量差を設けることにより、ユーザ150は仮想空間内に配置された音源の方向、距離を知覚することができる。
 制御回路部200は、HMD110に接続されるコンピュータである。制御回路部200はHMD110に搭載されていても、別のハードウェア(例えば公知のパーソナルコンピュータ、ネットワークを通じたサーバ・コンピュータ)として構成してもよい。また、制御回路部200は、一部の機能をHMD110に実装し、残りの機能を別のハードウェアに実装してもよい。図1に示すように、制御回路部200は、プロセッサ202、メモリ204、および入出力インターフェイス206を備える。制御回路部200は更に通信インターフェイス208(図示せず)を含んでもよい。
 プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された情報処理プログラムを実行することによって、制御回路部200(後記)の各機能がソフトウェアとして実現される。プロセッサ202は、CPU(Central Proce
ssing Unit)およびGPU(Graphics Processing Uni
t)を備える。メモリ204には、少なくともオペレーティングシステムおよび情報処理プログラムが格納されている。オペレーティングシステムは、制御回路部200の全体的な動作を制御するためのコンピュータプログラムである。情報処理プログラムは、制御回路部200の各機能を実装するためのコンピュータプログラムである。メモリ204はまた、制御回路部200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
 入出力インターフェイス206は、HMDシステム100のユーザ150から制御回路部200を機能させるための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。通信インターフェイス208(図示せず)は、ネットワークを介して外部装置と通信するための各種有線接続端子、無線接続のための各種処理回路を含んで構成され、LAN(Local Area Network)やインターネットを介して、外部カメラ・コンテンツやWebコンテンツやデジタル放送コンテンツを受信するための各種通信規格・プロトコルに適合するように構成されている。
 図2は、制御回路部200に実装される機能的な構成を示す例示のブロック図である。制御回路部200は記憶部210および処理部220を有する。記憶部210は更に、オブジェクト情報211および仮想空間構成情報212を含む。記憶部210は、図1に示したメモリ204に対応する。また、処理部220は、空間定義部221、HMD動作検知部222、視線検知部223、基準視線特定部224、視界領域決定部225、判定部226、仮想ディスプレイ移動部227、および視界画像生成部228を含む。処理部220に含まれる各部221から228はソフトウェアとして実装するのがよい。即ち、図1に示したプロセッサ202がメモリ204内の各プログラムモジュールを読み出して実行することによって、各部221から228の機能性が実現される。
 図3は、一実施形態による3次元仮想現実空間の一例を示すXYZ空間図である。XZ平面は地表面を表し、Y軸は高さ方向に延びる。仮想空間6は、中心3を中心として、例
えば天球状に形成される。仮想空間6内には、ユーザの視点としての仮想カメラ1、およびコンピュータ制御の複数のオブジェクト(例えば、仮想ディスプレイ・オブジェクト10やターゲット・オブジェクト(図示せず))が配置されてもよい。仮想カメラ1は、仮想空間6の内部に配置される。仮想カメラ1は、常に中心3に配置されてもよいし、ユーザ150の動き(即ち、頭の動きや視線の動き)に追随するように移動してもよい。
 図4に、図3のXYZ空間図に対応した、地表面を横から見た側面図(a)および上から見た平面図(b)を示す。仮想空間6における仮想カメラ1(視点)からの視界領域5は、基準視線4に基づいて決定される。図示のように、視界領域5は3次元の空間領域であり、基準視線4を中心とした所定の極角αを含む範囲、および所定の方位角βを含む範囲を含むように定義される。視界領域5は更に、天球面の一部を有するように定義される。仮想カメラ1からの視界画像が視界領域5に対応した画像として生成され、HMDに表示されることになる。一実施形態では、視界画像は、360度コンテンツを天球面に沿った球面映像とするように形成するのがよい。具体的には、天球面を格子状に形成し、各格子に360度コンテンツの一部を関連づけて貼り付けることにより、全体として球面映像を形成するのがよい。後記する図6および図7の視界画像例では、天球面に沿って世界地図の画像を球面画像として貼り付けていることが理解される。360度コンテンツは、静止画コンテンツ、動画コンテンツ、オーディオ・コンテンツ等を含む任意のデジタルコンテンツとすることができる。
 一実施形態によれば、更に、オブジェクト(図3および図4では仮想ディスプレイ10)を仮想空間6の視界領域5内に収容するように配置し、仮想カメラ1から見たオブジェクトの画像も含めるように視界画像が生成される。即ち、天球面の内の視界領域5に関連付けられた部分に表示される360度コンテンツの画像を背景画像とし、視界領域5内に配置されたオブジェクトの画像を重畳して視界画像が生成される。仮想空間6に配置される仮想ディスプレイ10は、仮想現実空間内でテレビ・コンテンツやwebコンテンツを表示可能な仮想テレビや仮想webブラウザとするのがよく、制御装置の通信インターフェイス208を介して外部から受信したコンテンツを出力可能とする。仮想ディスプレイ10上のコンテンツは、360度コンテンツと同様に、静止画コンテンツ、動画コンテンツ、オーディオ・コンテンツ等を含む任意のデジタルコンテンツとすることができる。仮想ディスプレイ10は任意の形状とすることができ、また、任意の空間位置に配置することができる。一例として、仮想ディスプレイは、曲面形状を有してもよい。
 図5に、一実施形態により、HMDを用いてユーザが没入する仮想現実空間を提供する方法を提供する制御回路部200の動作例を示す。図5は、制御回路部200の情報処理を示すフローチャートである。図2に示した各機能ブロックを機能させることで各処理が実行される。
 最初に、空間定義部221は、仮想現実空間を定義して、仮想現実空間を展開する(S401)。より詳細には、記憶部210に格納されたオブジェクト情報211や仮想空間構成情報212を用いて仮想現実空間を定義・展開する。オブジェクト情報211は、仮想ディスプレイ10やターゲット・オブジェクト(後記)の配置情報を、各々に関連付けられる属性タグ情報のような付随情報と共に含む。仮想空間構成情報212は、天球に沿って貼り付けられた360度コンテンツ映像情報、および仮想ディスプレイ上に表示されるコンテンツ情報を含む。
 HMD動作検出部222は、HMD110を装着したユーザ150の動きにしたがって、ユーザの視界方向を決定し(S402)、視線検知部223は、ユーザの視線方向を決定する(S403)。これにより、基準視線特定部224は、仮想現実空間において視点からの基準視線を特定する(S404)。そして、視界領域決定部225は、基準視線4
に基づいて、図3および図4に示した、視点からの視界領域5を決定する(S405)。
 より詳細には、HMD動作検出部222は、センサ114により検出されたHMD110の傾き、および/または位置に応じたデータを経時的に取得して、ユーザ150の視界方向を決定する。次いで、視線検知部223は、ETD116によって検出されたユーザの右目および/または左目の視線方向に基づいて、ユーザの視線方向を決定する。視線方向は、一例として、ユーザの右目および左目の中心と、ユーザの右目および左目の視線方向の交点である注視点とが通る直線の伸びる方向として定義するのがよい。引き続き、基準視線特定部224は、例えば、ユーザ150の右目および左目の中心と、視界方向に位置するディスプレイ112の中心とを結ぶ直線を基準視線として特定し、仮想現実空間における基準視線4に対応させる。視点、基準視線4を中心とした所定の極角αを含む範囲および所定の方位角βを含む範囲、並びに、これら範囲にしたがって特定される天球面の一部を含むように構成される3次元領域として視界領域5が決定される(図3および図4を参照)。決定した3次元の視界領域5は、HMDを装着したユーザの動きに従い、基準視線4が変位するのに連動して変化することが理解される。
 S406以降の処理では、決定された視界領域5に関連づけて、仮想ディスプレイ10の動作をダイナミックに制御する。即ち、判定部226は、視界領域5に対し、仮想ディスプレイ10を移動させるべきかについて判定し(S406)、肯定的な判断(「はい」)の場合に、仮想ディスプレイ移動部227は、仮想ディスプレイを視界領域内の所定の位置に移動させる(S407)。
 より詳細には、判定部226では、任意のタイミングに応答して肯定的な判断を行うことができる。タイミングは、一例として、仮想ディスプレイのオブジェクトが視界領域5から外れてユーザがディスプレイ上で視認できなくなったタイミングとするのがよい。代替として、HMDを装着したユーザの動きに伴い基準視線に変位があった毎のタイミングとしてもよい。仮想ディスプレイ移動部227は、仮想空間6内で任意の態様で、仮想ディスプレイ10を移動させることができる。一例として、仮想ディスプレイ移動部227は、360度コンテンツが表示される天球面と同一の中心を有する、所定の半径を有する球面に沿って仮想ディスプレイ10を移動させてもよい。所定の半径は、仮想空間6の天球面の半径と同一でもよいし、異なるものとしてもよい。また、仮想ディスプレイの移動先の位置は、視界領域5内の任意の位置とすることができる。
 なお、「仮想ディスプレイ」は、必ずしも、3次元オブジェクトには限定されず、3次元仮想空間6内でコンテンツ画像を表示するものであれば任意のものでよい。例えば、360度コンテンツ映像中に直接埋め込まれたサブコンテンツ映像についても、埋め込み領域のことを「仮想ディスプレイ」とみなすことができる。この場合、サブコンテンツ映像は、所定のサイズを有する球面映像として構成され、仮想空間6の天球面に直接貼り付けられる。360度コンテンツ映像が天球面に固定的に配置されるのとは異なり、サブコンテンツ映像は天球面上で位置を更新することができる。即ち、サブコンテンツ映像は、視界領域5に入り込むように天球面上で移動可能とするように構成されることができる。
 最後に、視界画像生成部228は、視界領域5に対応した視界画像を生成し、HMDのディスプレイ112に表示する(S408)。ユーザがHMDを装着し、HMDを操作している間は、上記ステップS402からS408を繰り返し実行するのがよい。
 図5のフローチャートの情報処理を実行することにより、図6に示す第1実施形態の動作例、および図7に示す第2実施形態の動作例が実現される。図6および図7は、それぞれ、(a)から(c)までの状態に視界領域が変化する際にユーザに表示される視界画像と仮想空間の(XZ)平面図とのセットを示す。図6および図7の実施形態では、それぞ
れ、世界地図の画像が天球に沿って貼り付けられ、HMDを装着したユーザの動きに応じて、異なる地図部分が表示されるように構成される。また、図6および図7の実施形態では、それぞれ、仮想カメラ1の位置を天球の中心に配置し、(a)から(c)まで視界領域が遷移するのに従って天球の内側の同心球面に沿って仮想ディスプレイ10を追従させる。なお、(a)から(c)まで視界領域を左方向に遷移させているが、ユーザの動きに応じて任意の方向に遷移可能であることは言うまでもない。
 図6に示す第1実施形態において、(a)では、仮想ディスプレイ画像が右下に重畳されるように視界画像aが表示される。HMDを装着したユーザの動きに応じて視界領域が左方向に変位すると、図6の(b)のように、視界画像bが表示される。仮想ディスプレイ10の配置位置が変わっていないために、視界画像bでは仮想ディスプレイ画像の一部のみが重畳される。仮想ディスプレイの視界領域との重複割合が所定の値以下(例えば、50%以下)となったタイミングや、ユーザが入出力インターフェイス206を介してユーザ作用を与えたイベントが生じたタイミングが検知される。即ち、判定部226が仮想ディスプレイ10を移動させるべきと判定する(図5のS406)。その結果、図6の(c)のように、仮想ディスプレイが視界領域に追従して(実線矢印)、再度、仮想ディスプレイ画像が右下に重畳されるように視界画像cが表示される。仮想ディスプレイ画像が重畳される「右下」の位置は、視界領域5に対する所定の相対位置として定義することができる。具体的には、視界領域5において、基準視線からの所定の方位角および/または方位角を有する位置として定義するのがよい。
 このように、第1実施形態では、視界領域の変化に連動させるように仮想ディスプレイ10をダイナミックに移動可能である。単に、視界画像の固定位置に仮想ディスプレイ画像が重畳されるのではなく、仮想ディスプレイ10を様々な移動態様で視界領域に表示させることができ、多様なワイプ表示態様を実現可能とする。具体的には、図6に示した「後追い」型や、視界に何もない状態から仮想ディスプレイが出現する「出現」型の移動態様とするのがよい。この結果、多様な視覚効果を有する視界画像をユーザに提示することができる。
 図7に示す第2実施形態は、仮想空間にターゲット・オブジェクト15が配置され、該配置に関連づけられる位置に仮想ディスプレイ10の配置が決定される点において、図6に示した第1実施形態とは相違する。図7の(a)および(b)の視界画像a,bは、図6の視界画像a,bとそれぞれ同様であり、(c)の視界画像cが図6の視界画像cと相違する。図7の(b)において、仮想ディスプレイ移動部227が仮想ディスプレイ10を移動させる際(S407)、仮想空間内のターゲット・オブジェクト15の配置を特定する。その上で、仮想ディスプレイ移動部227は、視点における基準視線からターゲット・オブジェクトへの方向の所定位置に仮想ディスプレイ10を移動する。この結果、図7の(c)の視界画像cは、図6の(c)の視界画像cとは異なり、仮想ディスプレイ画像が左下に重畳されるように表示される。
 上記第1実施形態の効果に加えて、第2実施形態は、ターゲット・オブジェクト15に向けてユーザ視線を誘導するように仮想ディスプレイ10を適用可能であるという効果を有する。仮想ディスプレイに表示するコンテンツとして、ターゲット・オブジェクトの属性タグ情報に関連するコンテンツを表示するように構成して視線誘導の効果を高めてもよい。例えば、仮想ディスプレイを仮想Webブラウザとした場合に、属性タグ情報によって特定されるWebページを表示してもよい。図7の例では、仮想ディスプレイを天球と同心球上を移動させるようにしたが、これに限定されず、ターゲット・オブジェクトに向けて視線誘導する態様であれば任意のものとすることができる。代替例として、仮想ディスプレイを、ターゲット・オブジェクトに向けて最短距離で移動させてもよい。ターゲット・オブジェクトに向けて任意の速度で移動し続けるように仮想ディスプレイを構成して
もよい。また、仮想ディスプレイがターゲット・オブジェクトに接近するにつれ、仮想ディスプレイ上で再生されているオーディオ・コンテンツの音量を増加させるように構成して、視線誘導の効果を更に高めてもよい。
 上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 100…ヘッドマウントディスプレイ(HMD)システム、110…HMD、112…ディスプレイ、114…センサ部、116…ETD、118…スピーカ、200…制御回路部、210…記憶部、220…処理部、1…仮想カメラ、4…基準視線、5…視界領域、6…仮想現実空間、10…仮想ディスプレイ、15…ターゲット・オブジェクト

Claims (12)

  1.  ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供する方法であって、
     前記仮想現実空間を定義するステップと、
     前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定するステップと、
     前記基準視線に基づいて、前記視点からの視界領域を特定するステップと、
     前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させるステップと、
     前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示するステップと
    を含む、方法。
  2.  請求項1記載の方法において、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる前記ステップが繰り返し実行される、方法。
  3.  請求項1記載の方法において、更に、
     前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定するステップを含み、
     前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
  4.  請求項1から3のいずれか一項記載の方法であって、
     前記仮想ディスプレイを移動させる前記ステップにおいて、第1半径を有する球面に沿って前記仮想ディスプレイを移動させる、方法。
  5.  請求項4記載の方法であって、
     前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
  6.  請求項4記載の方法であって、
     前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、前記第1半径とは異なる第2半径を有する前記球面上に360度コンテンツを表示するよう定義される、方法。
  7.  請求項1から6のいずれか一項記載の方法であって、
     前記仮想ディスプレイを移動させる前記ステップにおいて、前記視界領域内の位置が、基準視線からの所定の極角および/または方位角を有する位置である、方法。
  8.  請求項1から7のいずれか一項記載の方法において、
     前記仮想現実空間を定義する前記ステップにおいて、前記仮想現実空間が、ターゲット・オブジェクトを配置するように定義され、
     前記仮想ディスプレイを移動させる前記ステップが、更に、前記仮想現実空間に前記ターゲット・オブジェクトを特定するステップを含み、
     前記仮想ディスプレイが、更に、前記視点における前記基準視線から前記ターゲット・オブジェクトへの方向の前記視界領域内の位置に移動される、方法。
  9.  請求項1から8のいずれか一項記載の方法において、
     所定のユーザ作用に応答して、前記仮想ディスプレイを移動させる前記ステップが実行される、方法。
  10.  ヘッドマウントディスプレイを用いてユーザが没入する仮想現実空間を提供するプログラムであって、前記ヘッドマウントディスプレイに結合されるコンピュータに、
     前記仮想現実空間を定義する手段と、
     前記ヘッドマウントディスプレイを装着した前記ユーザの動きにしたがって、前記仮想現実空間において視点からの基準視線を特定する手段と、
     前記基準視線に基づいて、前記視点からの視界領域を特定する手段と、
     前記仮想現実空間内の仮想ディスプレイを前記視界領域内の位置に移動させる手段と、
     前記視界領域に対応した視界画像を生成し、前記ヘッドマウントディスプレイに表示する手段と
    として機能させる、プログラム。
  11.  請求項10記載のプログラムにおいて、前記ヘッドマウントディスプレイを装着した前記ユーザの動きに伴う前記基準視線の変位に連動して、前記仮想ディスプレイを移動させる、プログラム。
  12.  請求項10記載のプログラムにおいて、更に、前記コンピュータに、
     前記仮想ディスプレイの前記視界領域との重複割合が所定の値以下であるかを判定する手段として機能させ、
     前記重複割合が前記所定の値以下であると判断された場合に、前記仮想ディスプレイを移動させる、プログラム。
PCT/JP2016/088730 2016-01-29 2016-12-26 仮想現実空間提供方法および仮想現実空間提供プログラム WO2017130621A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-015384 2016-01-29
JP2016015384A JP6134019B1 (ja) 2016-01-29 2016-01-29 仮想現実空間提供方法および仮想現実空間提供プログラム

Publications (1)

Publication Number Publication Date
WO2017130621A1 true WO2017130621A1 (ja) 2017-08-03

Family

ID=58745790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088730 WO2017130621A1 (ja) 2016-01-29 2016-12-26 仮想現実空間提供方法および仮想現実空間提供プログラム

Country Status (3)

Country Link
US (1) US20170221180A1 (ja)
JP (1) JP6134019B1 (ja)
WO (1) WO2017130621A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110300266A (zh) * 2019-07-04 2019-10-01 珠海西山居移动游戏科技有限公司 一种镜头移动方法及系统、一种计算设备及存储介质
CN111566596A (zh) * 2018-01-05 2020-08-21 微软技术许可有限责任公司 用于虚拟现实显示器的真实世界门户

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10539797B2 (en) * 2016-05-06 2020-01-21 Colopl, Inc. Method of providing virtual space, program therefor, and recording medium
US9978181B2 (en) * 2016-05-25 2018-05-22 Ubisoft Entertainment System for virtual reality display
US20180164952A1 (en) * 2016-12-12 2018-06-14 Lenovo (Beijing) Co., Ltd. Virtual interface display method, electronic device, and apparatus
JP6522092B1 (ja) * 2017-12-06 2019-05-29 株式会社スクウェア・エニックス 表示システム及び表示方法
US10360713B1 (en) * 2018-07-17 2019-07-23 Disney Enterprises, Inc. Event enhancement using augmented reality effects
GB2590718A (en) * 2019-12-31 2021-07-07 Nokia Technologies Oy Mediated reality
CN117784915A (zh) * 2022-09-20 2024-03-29 北京字跳网络技术有限公司 虚拟环境中的观影画面调整方法、装置、存储介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JPH07281815A (ja) * 1994-04-13 1995-10-27 Agency Of Ind Science & Technol 広視野映像提示装置
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002183763A (ja) * 2000-12-18 2002-06-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
US20150317833A1 (en) * 2014-05-01 2015-11-05 Michael John Ebstyne Pose tracking an augmented reality device
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326120B1 (en) * 1993-08-12 2010-02-24 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
US9460314B2 (en) * 2013-12-01 2016-10-04 Apx Labs, Inc. Systems and methods for providing task-based instructions
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
EP3882851B1 (en) * 2014-12-30 2023-01-18 Ventana Medical Systems, Inc. Method for co-expression analysis

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785316A (ja) * 1993-08-31 1995-03-31 Sun Microsyst Inc コンピュータによって生成された情報を表示する方法およびコンピュータによって生成されたモデルを表示する装置
JPH07281815A (ja) * 1994-04-13 1995-10-27 Agency Of Ind Science & Technol 広視野映像提示装置
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
JP2002183763A (ja) * 2000-12-18 2002-06-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
US20150317833A1 (en) * 2014-05-01 2015-11-05 Michael John Ebstyne Pose tracking an augmented reality device
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111566596A (zh) * 2018-01-05 2020-08-21 微软技术许可有限责任公司 用于虚拟现实显示器的真实世界门户
CN111566596B (zh) * 2018-01-05 2023-07-14 微软技术许可有限责任公司 用于虚拟现实显示器的真实世界门户
CN110300266A (zh) * 2019-07-04 2019-10-01 珠海西山居移动游戏科技有限公司 一种镜头移动方法及系统、一种计算设备及存储介质

Also Published As

Publication number Publication date
US20170221180A1 (en) 2017-08-03
JP2017134716A (ja) 2017-08-03
JP6134019B1 (ja) 2017-05-24

Similar Documents

Publication Publication Date Title
JP6134019B1 (ja) 仮想現実空間提供方法および仮想現実空間提供プログラム
JP6017664B1 (ja) 情報処理方法及び情報処理プログラム
US9934614B2 (en) Fixed size augmented reality objects
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6342038B1 (ja) 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
JP6002286B1 (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
JP6558839B2 (ja) 媒介現実
JP6130478B1 (ja) プログラム及びコンピュータ
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
JP6332652B1 (ja) 表示制御装置、及びプログラム
US10504296B2 (en) Information processing method and system for executing the information processing method
JP2017021824A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US11443487B2 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
JP2017121082A (ja) プログラム及びコンピュータ
JP2014071277A (ja) ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP6113337B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
GB2517008A (en) Head-mountable apparatus and systems
JP2018195172A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2018007227A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6347375B1 (ja) 表示制御装置、及びプログラム
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6332658B1 (ja) 表示制御装置、及びプログラム
JP6275809B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16888205

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16888205

Country of ref document: EP

Kind code of ref document: A1