WO2023140004A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2023140004A1
WO2023140004A1 PCT/JP2022/046713 JP2022046713W WO2023140004A1 WO 2023140004 A1 WO2023140004 A1 WO 2023140004A1 JP 2022046713 W JP2022046713 W JP 2022046713W WO 2023140004 A1 WO2023140004 A1 WO 2023140004A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
mounted display
image
head
play area
Prior art date
Application number
PCT/JP2022/046713
Other languages
English (en)
French (fr)
Inventor
武 中川
敬志 畑田
邦明 大江
静華 小原
春香 岩城
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Publication of WO2023140004A1 publication Critical patent/WO2023140004A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to data processing technology, and more particularly to an information processing device and an information processing method.
  • An image display system that allows a user wearing a head-mounted display to view the target space from any viewpoint has become widespread.
  • electronic content that realizes virtual reality (VR) by using a virtual three-dimensional space as a display target and displaying an image according to the user's line of sight on a head-mounted display.
  • VR virtual reality
  • a walk-through system has also been developed in which a user wearing a head-mounted display physically moves to virtually walk around in a space displayed as an image.
  • the present invention has been made in view of these problems, and one of its purposes is to provide a technique for providing a user wearing a head-mounted display with a UX that makes them want to look around themselves with a small amount of memory.
  • an information processing apparatus includes: a look around screen generation unit that generates a look around screen that is a screen for allowing the user to look around the play area in a play area that a user wearing a head mounted display can move while playing an application; a display control unit that displays the look around screen on the head mounted display; and a map generator for generating a map.
  • a look around screen a predetermined special image is superimposed on the image showing the play area, and the area matching the user's line of sight direction in the special image changes to a different display mode than before, and the looking around screen generating part sets the special image in a space around the head-mounted display within a range narrower than the maximum range of the play area.
  • a computer executes the steps of generating a look around screen, which is a screen for allowing the user to look around the play area while the user wearing the head mounted display is movable while playing an application, displaying the look around screen on the head mounted display, and generating a map for estimating the position of the user in the play area based on a plurality of camera images of the space surrounding the user captured from a plurality of directions by a camera of the head mounted display.
  • a predetermined special image is superimposed on the image showing and a region matching the line-of-sight direction of the user in the special image is changed to a display mode different from that before, and the step of generating the looking around screen sets the special image in a space around the head-mounted display and narrower than the maximum range of the play area.
  • FIG. 3 is a diagram for explaining an example of an image world displayed on a head-mounted display by an image generating device; 3 is a diagram showing the internal circuit configuration of the image generation device; FIG. It is a figure which shows the internal circuit structure of a head mounted display. 2 is a block diagram showing functional blocks of the image generation device; FIG. FIG. 11 is a diagram showing an example of a look around screen; It is a figure which shows the unit shape of the visually recognized area
  • FIG. 11 is a diagram showing an example of a look around screen; It is a figure which shows the range of the visual recognition area
  • 4 is a flow chart showing the operation of the image generating device;
  • FIG. 10 is a diagram schematically showing user behavior at the time of initial setting; It is a figure which shows the example of a camera image.
  • FIG. 4 is a diagram showing an example of keyframes;
  • FIG. 10 is a diagram showing multiple bins; 4 is a flow chart showing the operation of the image generating device;
  • FIG. 1 shows an appearance example of a head mounted display 100 of an embodiment.
  • the head mounted display 100 includes an output mechanism section 102 and a mounting mechanism section 104 .
  • the mounting mechanism section 104 includes a mounting band 106 that is worn by the user so as to go around the head and fix the device.
  • the output mechanism unit 102 includes a housing 108 shaped to cover the left and right eyes when the user wears the head-mounted display 100, and has a display panel inside so as to face the eyes when the head-mounted display 100 is worn. It is assumed that the display panel of the head mounted display 100 of the embodiment has no transparency. That is, the head mounted display 100 of the embodiment is a non-transmissive head mounted display.
  • the housing 108 may further include an eyepiece lens that is positioned between the display panel and the user's eyes when the head-mounted display 100 is worn, and that expands the user's viewing angle.
  • the head-mounted display 100 may further include speakers or earphones at positions corresponding to the ears of the user when worn.
  • the head mounted display 100 incorporates a motion sensor to detect the translational motion and rotational motion of the head of the user wearing the head mounted display 100, as well as the position and posture at each time.
  • the head mounted display 100 also includes a stereo camera 110 on the front surface of the housing 108 .
  • the stereo camera 110 captures moving images of the surrounding real space with a field of view corresponding to the line of sight of the user. By displaying a photographed image immediately, it is possible to realize so-called video see-through, in which the real space in the direction the user faces can be seen as it is. Furthermore, augmented reality (AR) can be realized by drawing a virtual object on the image of the real object appearing in the captured image.
  • the number of cameras included in the image display system 10 is not limited, and the head mounted display 100 may include one camera or three or more cameras.
  • FIG. 2 shows a configuration example of the image display system 10 of the embodiment.
  • the image display system 10 includes a head mounted display 100, an image generation device 200, and a controller 140.
  • the head mounted display 100 is connected to the image generation device 200 by wireless communication.
  • the image generation device 200 may also be connected to a server via a network.
  • the server may provide the image generating device 200 with data of an online application such as a game in which a plurality of users can participate via a network.
  • the image generation device 200 is an information processing device that identifies the position of the viewpoint and the direction of the line of sight based on the position and posture of the head of the user wearing the head-mounted display 100, generates a display image so as to have a corresponding field of view, and outputs it to the head-mounted display 100.
  • the image generation device 200 may generate and display a display image of the virtual world, which is the stage of the game, while progressing the electronic game, or may generate and display a moving image for viewing or providing information regardless of whether it is the virtual world or the real world.
  • the image generation device 200 may be a stationary game machine, a PC, or a tablet terminal.
  • the controller 140 is an input device (for example, a game controller) that is held in the user's hand and through which the user's operation is input.
  • User operations include operations for controlling image generation in image generation device 200 and operations for controlling image display in head mounted display 100 .
  • the controller 140 is connected to the image generation device 200 by wireless communication.
  • one or both of the head mounted display 100 and the controller 140 may be connected to the image generation device 200 by wired communication via a signal cable or the like.
  • FIG. 3 is a diagram for explaining an example of an image world displayed on the head mounted display 100 by the image generation device 200.
  • FIG. This example creates a state in which the user 12 is in a room that is a virtual space.
  • objects such as walls, floors, windows, tables, and objects on the table are arranged in the world coordinate system that defines the virtual space.
  • the image generation device 200 defines the view screen 14 in the world coordinate system according to the position of the viewpoint and the direction of the line of sight of the user 12, and draws the display image by expressing the image of the object there.
  • the image generating device 200 acquires the position of the viewpoint and the direction of the line of sight of the user 12 (hereinafter these may be collectively referred to as "viewpoint") from the head mounted display 100 at a predetermined rate, and changes the position and direction of the view screen 14 accordingly. Accordingly, an image can be displayed on the head mounted display 100 in a field of view corresponding to the user's viewpoint.
  • the image generation device 200 generates a stereo image with parallax and displays the stereo image on the left and right regions of the display panel of the head mounted display 100, thereby allowing the user 12 to stereoscopically view the virtual space. This allows the user 12 to experience virtual reality as if they were in a room in the displayed world.
  • FIG. 4 shows the internal circuit configuration of the image generation device 200.
  • the image generation device 200 includes a CPU (Central Processing Unit) 222 , a GPU (Graphics Processing Unit) 224 and a main memory 226 . These units are interconnected via a bus 230 . An input/output interface 228 is also connected to the bus 230 . A communication unit 232 , a storage unit 234 , an output unit 236 , an input unit 238 and a recording medium drive unit 240 are connected to the input/output interface 228 .
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the communication unit 232 includes peripheral device interfaces such as USB and IEEE1394, and network interfaces such as wired LAN and wireless LAN.
  • the storage unit 234 includes a hard disk drive, nonvolatile memory, and the like.
  • the output unit 236 outputs data to the head mounted display 100 .
  • Input unit 238 receives data input from head mounted display 100 and also receives data input from controller 140 .
  • a recording medium drive unit 240 drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory.
  • the CPU 222 controls the entire image generation device 200 by executing the operating system stored in the storage unit 234 .
  • the CPU 222 also executes various programs (such as VR game applications) read from the storage unit 234 or a removable recording medium and loaded into the main memory 226 or downloaded via the communication unit 232 .
  • the GPU 224 has a function of a geometry engine and a function of a rendering processor, performs drawing processing according to drawing commands from the CPU 222 , and outputs drawing results to the output unit 236 .
  • One or both of CPU 222 and GPU 224 may also be referred to as processors.
  • the main memory 226 is composed of a RAM (Random Access Memory) and stores programs and data necessary for processing.
  • FIG. 5 shows the internal circuit configuration of the head mounted display 100.
  • Head mounted display 100 includes CPU 120 , main memory 122 , display section 124 and audio output section 126 . These units are interconnected via a bus 128 .
  • An input/output interface 130 is also connected to the bus 128 .
  • Input/output interface 130 is connected to communication unit 132 including a wireless communication interface, motion sensor 134 , and stereo camera 110 .
  • the CPU 120 processes information acquired from each unit of the head-mounted display 100 via the bus 128 , and also supplies display image and audio data acquired from the image generation device 200 to the display unit 124 and the audio output unit 126 .
  • the main memory 122 stores programs and data necessary for processing in the CPU 120 .
  • the display unit 124 includes a display panel such as a liquid crystal panel or an organic EL panel, and displays an image in front of the user wearing the head mounted display 100 .
  • the display unit 124 may realize stereoscopic vision by displaying a pair of stereo images in regions corresponding to left and right eyes.
  • the display unit 124 may further include a pair of lenses that are positioned between the display panel and the user's eyes when the head-mounted display 100 is worn to expand the user's viewing angle.
  • the audio output unit 126 is composed of speakers and earphones provided at positions corresponding to the ears of the user when the head mounted display 100 is worn, and allows the user to hear the audio.
  • the communication unit 132 is an interface for transmitting and receiving data to and from the image generation device 200, and realizes communication using a known wireless communication technology such as Bluetooth (registered trademark).
  • Motion sensor 134 includes a gyro sensor and an acceleration sensor, and acquires angular velocity and acceleration of head mounted display 100 .
  • the stereo camera 110 is a pair of video cameras that shoot the surrounding real space from left and right viewpoints with a field of view corresponding to the user's viewpoint.
  • An image of the surrounding space of the user captured by the stereo camera 110 is hereinafter also referred to as a "camera image”.
  • a camera image can be said to be an image of the real space in the user's line-of-sight direction (typically, in front of the user), and can be said to be an image of an object existing in the user's line-of-sight direction.
  • Measured values by the motion sensor 134 and data of images (camera images) captured by the stereo camera 110 are transmitted to the image generation device 200 via the communication unit 132 as necessary.
  • a play area is set that defines a range in the real world in which a user wearing the head mounted display 100 can move while playing an application.
  • the play area can be said to be an area or range in which the user is allowed to move around while viewing a virtual reality image (hereinafter also referred to as a "VR image") in the space surrounding the user (the real world space that spreads around the user).
  • a VR image virtual reality image
  • the image display system 10 provides the user with a warning with content that calls attention or prompts the user to return to the play area.
  • the application described above is a game application that displays VR images on the head-mounted display 100, and is hereinafter also referred to as a "VR game".
  • the VR game may be, for example, a tennis game in which a VR image showing a tennis court in the virtual world is displayed, and the position of the character on the tennis court in the virtual world is changed according to the movement (walking, etc.) of the user in the real world.
  • the image display system 10 performs tracking processing for estimating the user's position in a play area that the user wearing the head-mounted display 100 can move while playing the VR game, and displays a VR image corresponding to the user's position on the head-mounted display 100.
  • tracking processing for estimating the user's position in a play area that the user wearing the head-mounted display 100 can move while playing the VR game, and displays a VR image corresponding to the user's position on the head-mounted display 100.
  • detailed map data regarding the play area is required.
  • the user wearing the head mounted display 100 needs to look around himself/herself.
  • it is desirable that the provision of UX that makes the user want to look around can be realized with less memory.
  • a look-around screen which is a user interface (UI) including AR content that makes the user want to look around
  • UI user interface
  • the provision of UX that makes the user want to look around can be realized with less memory.
  • FIG. 6 is a block diagram showing functional blocks of the image generation device.
  • the image generating device 200 executes various information processes such as the progress of the VR game and communication with the server, and FIG. 6 specifically shows the functional blocks related to setting the play area and map data in detail.
  • the plurality of functional blocks shown in FIG. 6 can be realized in hardware by the configuration of the CPU 222, GPU 224, main memory 226, storage unit 234, etc. shown in FIG. 4, and in software by a computer program that implements the functions of the plurality of functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and are not limited to either one.
  • the image generation device 200 includes a data processing section 250 and a data storage section 252 .
  • the data processing unit 250 executes various data processing. Data processing unit 250 transmits and receives data to and from head mounted display 100 and controller 140 via communication unit 232, output unit 236, and input unit 238 shown in FIG.
  • the data storage unit 252 stores data referenced or updated by the data processing unit 250 .
  • the data storage unit 252 includes an App storage unit 254 , a play area storage unit 255 , a map storage unit 256 and a visible area storage unit 257 .
  • the App storage unit 254 stores data of applications (VR games in the embodiment) that generate VR images.
  • the play area storage unit 255 stores data regarding the play area.
  • Data related to the play area may include data indicating the position of the point group forming the boundary of the play area (for example, coordinate values of each point in the world coordinate system).
  • the map storage unit 256 stores map data for estimating the position of the head mounted display 100 (that is, the position of the user wearing the head mounted display 100).
  • the map data of the embodiment is an image (feature points appearing in the image) showing the room (real space) in which the user plays the VR game, and includes a set of images (feature points appearing in the image) whose positional relationship (position and direction) is known.
  • the map data may include a plurality of sets in which the positions of the head mounted display 100, line-of-sight directions, and key frames are associated with each other.
  • the map data may also include other items necessary for so-called self-position estimation.
  • a set of keyframes is data that indicates features of an image seen at the same set of positions and viewing directions.
  • the key frame of the embodiment is an image generated based on the camera image captured by the stereo camera 110 of the head mounted display 100, and is an image including a predetermined number or more of feature points.
  • the number of feature points to be included in the keyframe may be 24 or more.
  • Feature points may include corners detected by known corner detection methods, or may be detected based on intensity gradients.
  • a key frame can also be said to be a set of partial images (images of feature points) extracted from a camera image.
  • the visible area storage unit 257 stores data indicating an area (in other words, an area that has coincided with the line-of-sight direction of the user, hereinafter also referred to as a "visible area”) in the space around the head mounted display 100 (in other words, the user).
  • the data processing unit 250 includes a system unit 260 , an App execution unit 290 and a display control unit 292 .
  • the functionality of these multiple functional blocks may be implemented in a computer program.
  • the processors for example, the CPU 222 and the GPU 224) of the image generation device 200 may read out the computer program from the storage unit 234 or recording medium to the main memory 226 and execute it, thereby exerting the functions of the plurality of functional blocks.
  • the App execution unit 290 reads data related to the application (VR game in the embodiment) selected by the user from the App storage unit 254, and executes the application selected by the user.
  • the App execution unit 290 generates an application execution result according to the position of the head mounted display 100 (in other words, the user's position) estimated by the system unit 260 (position estimation unit 272 described later).
  • the display control unit 292 transmits data of various images generated by the system unit 260 and the App execution unit 290 (for example, VR images and AR images showing the execution results of the VR game) and various screens (including a round screen described later) to the head mounted display 100.
  • the display control unit 292 causes the display unit 124 of the head mounted display 100 to display those images and screens.
  • the system unit 260 executes system processing related to the head mounted display 100 .
  • the system unit 260 provides common services to multiple applications for the head mounted display 100 (for example, VR games). Common services include play area setup, map data generation and setup, and user location estimation.
  • System section 260 includes camera image acquisition section 262 , play area setting section 264 , gaze direction detection section 266 , looking around screen generation section 268 , map generation section 270 , position estimation section 272 and warning processing section 274 .
  • the camera image acquisition unit 262 acquires camera image data captured by the stereo camera 110 of the head mounted display 100, which is transmitted from the head mounted display 100.
  • the play area setting unit 264 executes various processes to support the setting of the play area.
  • the play area setting unit 264 detects and sets the play area based on the camera image acquired by the camera image acquisition unit 262 and the user's operation input via the controller 140.
  • the play area setting unit 264 stores data regarding the detected and set play area in the play area storage unit 255 .
  • the play area setting unit 264 includes a play area detection function that automatically detects the play area from the surrounding space of the user wearing the head mounted display 100, based on the camera image acquired by the camera image acquisition unit 262.
  • the play area setting unit 264 may include a play area editing function that accepts a user's operation for editing the automatically detected play area and changes the shape of the play area according to the operation.
  • the line-of-sight direction detection unit 266 detects the position and posture of the head of the user wearing the head-mounted display 100 based on the angular velocity and acceleration of the head-mounted display 100 detected by the motion sensor 134 of the head-mounted display 100 and the image around the head-mounted display 100 captured by the stereo camera 110.
  • the line-of-sight direction detection unit 266 further detects the position and line-of-sight direction of the user based on the position and posture of the user's head.
  • Known techniques may be used to detect the position and posture of the user's head, and the position and line-of-sight direction of the user.
  • the look around screen generation unit 268 generates data for a look around screen, which is a screen for allowing the user to look around the play area.
  • a predetermined special image is superimposed on the image indicating the play area, and the area of the special image that matches the line-of-sight direction of the user changes to a different display mode.
  • the looking around screen generation unit 268 sets a special image in a space around the head mounted display 100, which is narrower than the maximum range of the play area.
  • the map generation unit 270 In parallel with the detection of the play area by the play area setting unit 264, the map generation unit 270 generates map data for estimating the position of the user in the play area based on multiple camera images obtained by the camera image acquisition unit 262, which capture the space around the user from multiple directions. Map generation unit 270 stores the generated map data in map storage unit 256 . The map generation unit 270 terminates map generation when a predetermined number or more of camera images, which are camera images of the user's surrounding space taken from a plurality of directions, are input.
  • the position estimation unit 272 performs tracking processing for estimating the position of the head mounted display 100 (in other words, the user) in the real world based on the map data stored in the map storage unit 256 and the camera image acquired by the camera image acquisition unit 262. That is, the position estimation section 272 estimates the position of the head mounted display 100 (in other words, the user) in the play area. For example, the position estimation unit 272 may match a plurality of key frames included in the map data with the camera image, and estimate the position of the head mounted display 100 based on the matching result and the position and line-of-sight direction of the head mounted display 100 associated with each key frame. Also, the position estimation unit 272 may estimate the user's position using a known self-position estimation technique such as SLAM (Simultaneous Localization and Mapping).
  • SLAM Simultaneous Localization and Mapping
  • the warning processing unit 274 executes warning processing for the user according to the relationship between the boundary of the play area and the position of the user.
  • FIG. 7 shows an example of the look around screen.
  • a looking screen 300 in FIG. 7 shows a left-eye image 301 and a right-eye image 302 .
  • Each of the left-eye image 301 and the right-eye image 302 includes a video see-through AR image, and more specifically, a special image 304 is superimposed on the play area image 303 .
  • the play area image 303 is an image showing the play area around the user, and in the embodiment, it is an image of the real space around the user captured by the stereo camera 110 of the head mounted display 100 .
  • the special image 304 is an image that emphasizes the unconfirmed area 305 by filling the area (hereinafter also referred to as "unconfirmed area 305") that has never coincided with the user's line of sight direction with a predetermined color.
  • the special image 304 shows an area that has coincided with the line-of-sight direction of the user (hereinafter also referred to as a "visible area 306") and an unconfirmed area 305 in different manners.
  • the round screen generation unit 268 sets the unconfirmed area 305 in the special image 304 to a first transmittance (e.g., 50% transmittance), and sets the visible area 306 in the special image 304 to a second transmittance (e.g., 100% transmittance) higher than the first transmittance.
  • a first transmittance e.g. 50% transmittance
  • a second transmittance e.g. 100% transmittance
  • the round screen generation unit 268 may change the special image 304 in the viewed area 306 to non-display, or may erase the special image 304 in the viewed area 306 .
  • the unit shape of the visible area 306 whose transparency changes at one time is a circle.
  • the size of the circle, which is the unit shape (that is, the unit size of the visually recognized area 306) is the apparent size in the virtual space of 40 cm in diameter.
  • FIG. 8 shows the unit shape of the viewed area 306.
  • FIG. A viewing angle 311 of the head mounted display 100 is 120 degrees.
  • the special image 304 is provided at a position 50 cm away from the user's viewpoint 310 .
  • the diameter 40 cm of the circle, which is the unit shape of the viewed area 306, is determined so that the angle 312 between both ends of the circle and the user's viewpoint 310 is approximately 40 degrees.
  • the value of the angle 312 is a value that falls within an appropriate range of the amount of head rotation that the user should perform, which is derived from the developer's knowledge and experiments.
  • the survey screen generation unit 268 generates the survey screen 300 in which the entire play area image 303 is covered with the special image 304 having the first transparency (for example, 50% transmittance) as the initial survey screen 300 .
  • the survey screen generation unit 268 generates a survey screen 300 in which the area of the special image 304 with the second transmittance (for example, 100% transmittance) (that is, the viewed area 306) gradually expands as the user looks around.
  • the looking around screen generation unit 268 may gradually narrow the display area of the special image 304 as the user looks around.
  • the image display system 10 of the embodiment can provide a UI that gradually clears the field of view covered with translucent paint by looking around oneself, and can provide a UX that makes one want to look around oneself. As a result, it is possible to create detailed map data and achieve accurate tracking.
  • the looking around screen generation unit 268 gradually changes the transparency at the boundary between the unconfirmed area 305 and the viewed area 306 in the special image 304 .
  • the round screen generation unit 268 sets a gradation that gradually increases the transparency from the first transparency (for example, 50% transparency) to the second transparency (for example, 100% transparency) from the unconfirmed region 305 to the recognized region 306 of the special image 304.
  • the user's depth conflict can be suppressed, and the user's 3D motion sickness can be suppressed.
  • FIG. 10 shows the range of the visible area to be stored.
  • the viewing area is the area seen by the user, in other words, the area that has coincided with the user's line of sight direction.
  • the maximum range of the play area 320 is defined as 5 m long by 5 m wide. Therefore, to be exact, it is necessary to store in the visual recognition area storage unit 257 where the user has looked, with the space (cube) of 5 m in length ⁇ 5 m in width as the storage target area 322 . In this case, the visible area storage unit 257 requires a large memory.
  • FIG. 11 also shows the range of the visible area to be stored.
  • a specific space 324 which is a space narrower than the maximum range of the play area 320, is set as the storage target area 322, and where the user looked is stored in the visible area storage unit 257.
  • the storage target area 322 that is, the specific space 324) of the example is configured as a cube composed of six 1 m long by 1 m wide squares.
  • the round screen generator 268 draws the special image 304 on each face of the cube in the specific space 324 . Therefore, the special image 304 is rendered 50 cm ahead of the user's viewpoint.
  • the round screen generator 268 may apply a known cube map (also called “texture cube”) technology to draw the special image 304 on each face of the cube in the specific space 324 .
  • a known cube map also called “texture cube”
  • the drawing position of the special image 304 is preferably in front of the boundary of the play area. This is because, if the special image 304 is drawn beyond the boundary of the play area (for example, the wall of the room), the user is likely to experience depth conflict and feel 3D motion sickness. Therefore, it is preferable to set the drawing position of the special image to be 50 cm ahead of the user's viewpoint. Also, the best focus position (the focal length of the projected image) in the head-mounted display 100 is 2 m ahead of the viewpoint. The drawing position of the special image is set in front of the focal length of the head mounted display 100 .
  • the looking around screen generation unit 268 identifies an area (visible area) that matches the user's gaze direction detected by the gaze direction detection unit 266 in the specific space 324 (each face of the cube), and stores data indicating the position of the visible area in the specific space 324 in the visible area storage unit 257.
  • the data indicating the position of the viewing area may be coordinate values in a coordinate system with the user's viewpoint as the origin, or may be coordinate values of an area on each surface of a cube that constitutes the specific space 324 that matches the user's support direction.
  • the round screen generation unit 268 sets the transparency of the visible area stored in the visible area storage unit 257 higher than the transparency of the unconfirmed area.
  • the round screen generation unit 268 changes the position of the specific space 324 (each face of the cube) following the change in the position of the head mounted display 100 (user's head). For example, when the position of the head-mounted display 100 changes, the looking-around screen generator 268 translates the specific space 324 by the amount of change.
  • the round screen generation unit 268 does not rotate the specific space 324 (cube) even if the head mounted display 100 (user's head) rotates. In other words, looking around screen generator 268 does not change the angle of specific space 324 even if the orientation of head mounted display 100 changes.
  • the memory usage of the visual recognition area storage unit 257 can be greatly reduced.
  • FIG. 12 is a flow chart showing the operation of the image generating device 200.
  • the system section 260 of the image generating device 200 causes the head mounted display 100 to display the setting menu of the image display system 10 .
  • the head mounted display 100 starts transmitting a camera image of the real space in the direction of the user's line of sight and various sensor data to the image generation device 200.
  • the sensor data includes values measured by the motion sensor 134 , such as angular velocity and acceleration of the head mounted display 100 .
  • the camera image acquisition unit 262 of the image generation device 200 acquires the camera image transmitted from the head mounted display 100 (S10).
  • Fig. 13 schematically shows the behavior of the user at the time of initial setting.
  • the user wears the head-mounted display 100 on the head and moves while looking around.
  • a user 32 in FIG. 13 indicates the position of the user at this time.
  • An arrow 34 indicates the user's viewing direction.
  • a play area 36 is an example of a set play area.
  • the line-of-sight direction detection unit 266 of the image generation device 200 detects the position and line-of-sight direction of the head mounted display 100 (user's head) based on the camera image acquired by the camera image acquisition unit 262 and the angular velocity, acceleration, etc. of the head mounted display 100 detected by the sensor of the head mounted display 100 (S11).
  • the looking-around screen generation unit 268 of the image generation device 200 identifies an area that matches the user's gaze direction in a predetermined specific space 324 that is narrower than the maximum size of the play area 320 (5 m long x 5 m wide) (for example, point groups on each surface of a cube that constitutes the specific space 324) as a visible area.
  • the map generation unit 270 stores data indicating the visible area in the specific space 324 in the visible area storage unit 257 .
  • the survey screen generation unit 268 generates survey screen data including the camera image acquired by the camera image acquisition unit 262 (in other words, the play area image 303). That is, the round screen generation unit 268 performs a video see-through that shows the user the state of the real space in the direction the user is facing. This increases user safety.
  • the round screen generation unit 268 sets a translucent special image 304 in the specific space 324 (each face of the cube). Specifically, the round screen generation unit 268 sets a translucent special image 304 in an area (unconfirmed area) excluding the visible area stored in the visible area storage unit 257 in the specific space 324 (each face of the cube). Then, the round screen generation unit 268 generates round screen data including an AR image in which the special image 304 is superimposed on the play area image 303 .
  • the display control unit 292 causes the display unit 124 of the head-mounted display 100 to display a look-around screen (S12). The user looks around himself while watching the looking around screen.
  • the play area setting unit 264 of the image generation device 200 automatically detects the play area in the user's surrounding space based on the camera image and sensor data acquired in S10 (S13). For example, the play area setting unit 264 may estimate the 3D shape of the user's room by a known method based on the camera image and sensor data corresponding to the camera image. Based on the estimated 3D shape of the room, the play area setting unit 264 detects a plane perpendicular to the direction of gravity indicated by the sensor data (typically the floor surface), and the result of synthesizing a plurality of detected planes of the same height may be detected as the play area. The play area setting unit 264 stores, in the play area storage unit 255, play area data including the coordinate values of the point group forming the boundary of the play area.
  • the map generation unit 270 of the image generation device 200 In parallel with the processing of S13, the map generation unit 270 of the image generation device 200 generates map data for estimating the user's position based on the camera image and sensor data acquired in S10 (S14).
  • FIG. 14 shows an example of a camera image
  • FIG. 15 shows an example of keyframes.
  • the map generator 270 extracts a plurality of feature points 44 included in the camera image 40 using a known method such as a corner detection method, and generates a key frame 42 indicating the extracted plurality of feature points 44 .
  • the map generation unit 270 stores map data in which the key frames 42 including the extracted 24 or more feature points 44 are associated with the user's position and line-of-sight direction specified by the sensor data in the map storage unit 256 (S15).
  • the map generation unit 270 stores a plurality of criteria (hereinafter referred to as "bins") for deriving a score for the percentage of the user's surrounding space covered by the input camera image (in the example, keyframes generated from the camera image).
  • the multiple bins are multiple criteria that divide the user's surrounding space differently.
  • FIG. 16 shows multiple bins.
  • Each of the bins 50, 52, and 54 is obtained by dividing the user's surrounding space with the user's position as the center and the gravity direction as the axis.
  • the bins 50 are standards obtained by dividing the user's surrounding space into four quarters with a central angle of 90 degrees based on the user's line-of-sight direction at the start of play area setting and a direction perpendicular to the line-of-sight direction.
  • Bin 52 is 45 degrees out of phase with respect to bin 50 .
  • the bins 54 are a reference into which the user's surrounding space is divided into 16 with a central angle of 22.5 degrees.
  • the divided areas in the user's surrounding space defined by the bins 50, 52, and 54 are hereinafter referred to as "divided areas.”
  • the map generation unit 270 Based on the bins 50, 52, and 54, the map generation unit 270 derives a score regarding the percentage of the surrounding space of the user that is covered by the input multiple camera images (keyframes generated from the camera images in this embodiment). If the score is equal to or greater than a predetermined threshold, map generation section 270 terminates the map generation process.
  • the map generation unit 270 assumes that the divided areas that match the line-of-sight direction in which the keyframe was obtained are filled for each of the bins 50, 52, and 54, and counts the total number of filled divided areas in each bin as a score. After generating a new key frame, the map generation unit 270 adds the number of newly filled divided areas in each bin to the score by the same algorithm.
  • the process returns to S10, and repeats the round screen update process, play area detection process, and map generation process. If the score is equal to or greater than the threshold "10" (Y of S16), the play area setting unit 264 ends the play area detection process, and the map generation unit 270 ends the map generation process.
  • the score threshold "10" is a value that can be cleared by the user wearing the head-mounted display 100 by looking around 180 degrees around him/herself, but is defined as a value that cannot be cleared by the user not looking around.
  • FIG. 17 is also a flowchart showing the operation of the image generating device 200.
  • FIG. The figure shows the operation during execution of the VR game.
  • the App execution unit 290 of the image generation device 200 reads play area data stored in the play area storage unit 255, for example, data indicating the shape and size of the play area (S21).
  • the App execution unit 290 reads the VR game program data from the App storage unit 254 and starts the VR game (S22). For example, the App execution unit 290 may place a game item within the range of the play area in the virtual space depicting the game world, thereby causing the user to acquire the item.
  • the display control unit 292 causes the display unit 124 of the head mounted display 100 to display a game image (for example, a VR image) generated by the App execution unit 290 .
  • the camera image acquisition unit 262 of the image generation device 200 sequentially acquires camera images sequentially transmitted from the head mounted display 100, and the position estimation unit 272 of the image generation device 200 sequentially estimates the user's position and line-of-sight direction in the real world (S23).
  • the App execution unit 290 progresses the VR game based on the user's position and line-of-sight direction estimated by the position estimation unit 272 (S24). For example, the App execution unit 290 may move the user character in the VR game according to the change in the user's position in the real world (in other words, inside the play area).
  • the warning processing unit 274 of the image generation device 200 detects when the user's position in the real world reaches the vicinity of the boundary of the play area, for example, when the distance from the head-mounted display 100 worn by the user to the boundary of the play area becomes equal to or less than a predetermined threshold value (eg, 30 cm) (Y in S25).
  • the warning processing unit 274 executes predetermined warning processing for the user (S26).
  • the warning processing unit 274 may pass an image showing the boundary of the play area to the display control unit 292 when the user's position reaches the vicinity of the boundary of the play area.
  • the display control unit 292 may cause the display unit 124 of the head mounted display 100 to display a game image generated by the App execution unit 290 with an image indicating the boundary of the play area superimposed thereon as a display image.
  • the warning processing unit 274 may display a video see-through image on the display unit 124 of the head mounted display 100 via the display control unit 292.
  • S26 is skipped.
  • the play area image 303 set behind the special image 304 on the look around screen 300 is an image showing the real space around the user.
  • the play area image 303 of the looking around screen 300 may be a VR image showing the play area of the virtual world.
  • the functions implemented in the image generation device 200 in the above embodiments may be implemented in the head mounted display 100, or may be implemented in a server connected to the image generation device 200 via a network.
  • the head mounted display 100 may have a function of generating various screens and image data based on camera images and sensor measurement values.
  • the server may also have a function of generating data for various screens and images based on camera images and sensor measurement values, and the head mounted display 100 may display screens and images generated by the server.
  • a look-around screen generation unit that generates a look-around screen, which is a screen for allowing the user to look around the play area in a play area that the user wearing the head-mounted display can move while playing the application; a display control unit for displaying the looking around screen on the head mounted display; a map generation unit that generates a map for estimating the position of the user in the play area based on a plurality of camera images taken from a plurality of directions of the space around the user captured by the camera of the head-mounted display; with In the look-around screen, a predetermined special image is superimposed on the image showing the play area, and an area in the special image that matches the line-of-sight direction of the user changes to a different display mode, The looking around screen generation unit sets the special image in a space around the head mounted display, which is narrower than the maximum range of the play area.
  • Information processing equipment According to this information processing device, it is possible to provide a user wearing a head-mounted display with a UX that makes the user want to look around the user with a small amount of memory.
  • the round screen generation unit changes the position of the specific space, which is the space in which the special image is set, in accordance with the change in the position of the head mounted display.
  • the information processing apparatus according to Item 1. According to this information processing apparatus, it is possible to continuously provide UX that makes the user want to look around even if the user's position changes.
  • the looking around screen generation unit does not rotate the specific space even if the head mounted display rotates.
  • the information processing device according to item 2.
  • the processing load and memory capacity for displaying a special image in a specific space can be reduced.
  • a first transparency is set to an area that has never matched the user's line-of-sight direction in the special image
  • a second transparency that is higher than the first transparency is set to an area that has never matched the user's line-of-sight direction in the special image. 3.
  • the information processing apparatus according to any one of items 1 to 3. According to this information processing device, since the play area that is viewed by the user is displayed more clearly than before, it is possible to provide a UX that makes the user want to look around at the leader.
  • the round screen generation unit gradually changes transparency at a boundary between an area in the special image that has never matched the line-of-sight direction of the user and an area that has matched the line-of-sight direction of the user in the special image.
  • the information processing device according to item 4. According to this information processing device, depth conflict can be suppressed and 3D motion sickness can be suppressed.
  • the size of the area whose display mode changes when it matches the user's line of sight is determined so that the angle formed by both ends of the area and the user's viewpoint is approximately 40 degrees. 6.
  • the information processing apparatus according to any one of Items 1 to 5. According to this information processing device, the amount of head rotation that the user should perform can be kept within an appropriate range.
  • generating a look-around screen which is a screen for allowing the user to look around the play area for a play area that the user wearing the head-mounted display can move while playing the application; displaying the look around screen on the head mounted display; generating a map for estimating the position of the user in the play area based on a plurality of camera images taken from a plurality of directions of the space around the user captured by the camera of the head-mounted display; is executed by the computer and
  • a predetermined special image is superimposed on the image showing the play area, and an area in the special image that matches the line-of-sight direction of the user changes to a different display mode,
  • the special image is set in a space surrounding the head-mounted display, which is narrower than the maximum range of the play area.
  • a function of generating a look-around screen which is a screen for allowing the user to look around the play area for a play area that the user wearing the head-mounted display can move while playing an application; a function of displaying the looking-around screen on the head-mounted display; A function of generating a map for estimating the position of the user in the play area based on a plurality of camera images taken from a plurality of directions of the space around the user captured by the camera of the head-mounted display; is realized on a computer, In the look-around screen, a predetermined special image is superimposed on the image showing the play area, and an area in the special image that matches the line-of-sight direction of the user changes to a different display mode, The function of generating the look around screen sets the special image in a space surrounding the head
  • the technology of the present disclosure can be applied to, for example, information processing devices and information processing systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

画像生成装置200は、ヘッドマウントディスプレイ100を装着したユーザにプレイエリアを見回させるための見回し画面を生成する。画像生成装置200は、ヘッドマウントディスプレイ100のカメラにより撮像された、ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、ユーザの位置を推定するためのマップを生成する。見回し画面では、プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、特殊画像の中でユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化する。特殊画像は、ヘッドマウントディスプレイ100の周囲の空間であって、プレイエリアの最大範囲より狭い範囲の空間に設定される。

Description

情報処理装置および情報処理方法
 本発明は、データ処理技術に関し、特に情報処理装置および情報処理方法に関する。
 ヘッドマウントディスプレイを装着したユーザが対象空間を自由な視点から鑑賞できる画像表示システムが普及している。例えば仮想3次元空間を表示対象とし、ユーザの視線方向に応じた画像がヘッドマウントディスプレイに表示されるようにすることで仮想現実(Virtual Reality:VR)を実現する電子コンテンツが知られている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲーム等のアプリケーションの操作性を向上させたりすることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで、映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。
 ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なエリア(以下「プレイエリア」とも呼ぶ。)におけるユーザの位置を精度よく推定するためには、詳細なマップデータが必要である。そして、詳細なマップデータを得るためには、カメラを備えるヘッドマウントディスプレイを装着したユーザに、自分の周囲を見回してもらう必要がある。また、周囲を見回したくなるユーザ体験(UX:User eXperience)の提供は、省メモリで実現できることが望ましい。
 本発明はこうした課題に鑑みてなされたものであり、1つの目的は、ヘッドマウントディスプレイを装着したユーザに対する、自分の周囲を見回したくなるUXの提供を少ないメモリ量で実現する技術を提供することにある。
 上記課題を解決するために、本発明のある態様の情報処理装置は、ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、プレイエリアをユーザに見回させるための画面である見回し画面を生成する見回し画面生成部と、見回し画面をヘッドマウントディスプレイに表示させる表示制御部と、ヘッドマウントディスプレイのカメラにより撮像された、ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、プレイエリアにおけるユーザの位置を推定するためのマップを生成するマップ生成部と、を備える。見回し画面では、プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、特殊画像の中でユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、見回し画面生成部は、ヘッドマウントディスプレイの周囲の空間であって、プレイエリアの最大範囲より狭い範囲の空間に特殊画像を設定する。
 本発明の別の態様は、情報処理方法である。この方法は、ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、プレイエリアをユーザに見回させるための画面である見回し画面を生成するステップと、見回し画面をヘッドマウントディスプレイに表示させるステップと、ヘッドマウントディスプレイのカメラにより撮像された、ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、プレイエリアにおけるユーザの位置を推定するためのマップを生成するステップと、をコンピュータが実行し、見回し画面では、プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、特殊画像の中でユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、見回し画面を生成するステップは、ヘッドマウントディスプレイの周囲の空間であって、プレイエリアの最大範囲より狭い範囲の空間に特殊画像を設定する。
 なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、ヘッドマウントディスプレイを装着したユーザに対する、自分の周囲を見回したくなるUXの提供を少ないメモリ量で実現することができる。
実施例のヘッドマウントディスプレイの外観例を示す図である。 実施例の画像表示システムの構成例を示す図である。 画像生成装置がヘッドマウントディスプレイに表示させる画像世界の例を説明するための図である。 画像生成装置の内部回路構成を示す図である。 ヘッドマウントディスプレイの内部回路構成を示す図である。 画像生成装置の機能ブロックを示すブロック図である。 見回し画面の例を示す図である。 視認済領域の単位形状を示す図である。 見回し画面の例を示す図である。 記憶対象となる視認領域の範囲を示す図である。 記憶対象となる視認領域の範囲を示す図である。 画像生成装置の動作を示すフローチャートである。 初期設定時のユーザの行動を模式的に示す図である。 カメラ画像の例を示す図である。 キーフレームの例を示す図である。 複数のビンを示す図である。 画像生成装置の動作を示すフローチャートである。
 本実施例は、ユーザの頭部に装着されたヘッドマウントディスプレイにアプリケーションの画像を表示する画像表示システムに関する。図1は、実施例のヘッドマウントディスプレイ100の外観例を示す。ヘッドマウントディスプレイ100は、出力機構部102と装着機構部104を備える。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。
 出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。実施例のヘッドマウントディスプレイ100の表示パネルは、透過性がないものとする。すなわち、実施例のヘッドマウントディスプレイ100は、光不透過型のヘッドマウントディスプレイである。
 筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する接眼レンズを備えてよい。ヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。また、ヘッドマウントディスプレイ100は、モーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出する。
 また、ヘッドマウントディスプレイ100は、筐体108の前面にステレオカメラ110を備える。ステレオカメラ110は、ユーザの視線に対応する視野で周囲の実空間を動画撮影する。撮影した画像を即時に表示させれば、ユーザが向いた方向の実空間の様子がそのまま見える、いわゆるビデオシースルーを実現できる。さらに撮影画像に写っている実物体の像上に仮想オブジェクトを描画すれば拡張現実(Augmented Reality:AR)を実現できる。なお、画像表示システム10が備えるカメラの台数に制限はなく、ヘッドマウントディスプレイ100は、1台のカメラを備えてもよく、3台以上のカメラを備えてもよい。
 図2は、実施例の画像表示システム10の構成例を示す。画像表示システム10は、ヘッドマウントディスプレイ100、画像生成装置200、コントローラ140を備える。ヘッドマウントディスプレイ100は、無線通信により画像生成装置200に接続される。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションのデータを画像生成装置200に提供してもよい。
 画像生成装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき視点の位置や視線の方向を特定し、それに応じた視野となるように表示画像を生成してヘッドマウントディスプレイ100に出力する情報処理装置である。例えば、画像生成装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界の表示画像を生成し、表示させてもよいし、仮想世界か実世界かに関わらず観賞や情報提供のための動画像を生成し、表示させてもよい。また、ユーザの視点を中心に広い画角のパノラマ画像をヘッドマウントディスプレイ100に表示させることによって、表示世界への深い没入感をユーザに与えることができる。画像生成装置200は、据置型ゲーム機、PCまたはタブレット端末であってもよい。
 コントローラ140は、ユーザの手に把持され、ユーザの操作が入力される入力装置(例えばゲームコントローラ)である。ユーザの操作は、画像生成装置200における画像生成を制御する操作や、ヘッドマウントディスプレイ100における画像表示を制御する操作を含む。コントローラ140は、無線通信により画像生成装置200に接続される。変形例として、ヘッドマウントディスプレイ100とコントローラ140の一方または両方は、信号ケーブル等を介した有線通信で画像生成装置200に接続されてもよい。
 図3は、画像生成装置200がヘッドマウントディスプレイ100に表示させる画像世界の例を説明するための図である。この例では、ユーザ12が仮想空間である部屋にいる状態を作り出している。図示するように、仮想空間を定義するワールド座標系には、壁、床、窓、テーブル、テーブル上の物などのオブジェクトを配置している。画像生成装置200は、当該ワールド座標系に、ユーザ12の視点の位置や視線の方向に応じてビュースクリーン14を定義し、そこにオブジェクトの像を表すことで表示画像を描画する。
 画像生成装置200は、ユーザ12の視点の位置や視線の方向(以後、これらを包括的に「視点」と呼ぶ場合がある)を所定のレートでヘッドマウントディスプレイ100から取得し、これに応じてビュースクリーン14の位置や方向を変化させる。これにより、ユーザの視点に対応する視野で画像をヘッドマウントディスプレイ100に表示させることができる。また、画像生成装置200は、視差を有するステレオ画像を生成し、ヘッドマウントディスプレイ100の表示パネルの左右の領域にステレオ画像を表示させれば、仮想空間をユーザ12に立体視させることもできる。これにより、ユーザ12は、あたかも表示世界の部屋の中にいるような仮想現実を体験することができる。
 図4は、画像生成装置200の内部回路構成を示す。画像生成装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続される。バス230にはさらに入出力インターフェース228が接続される。入出力インターフェース228には、通信部232、記憶部234、出力部236、入力部238、記録媒体駆動部240が接続される。
 通信部232は、USBやIEEE1394などの周辺機器インターフェースや、有線LANまたは無線LAN等のネットワークインターフェースを含む。記憶部234は、ハードディスクドライブや不揮発性メモリ等を含む。出力部236は、ヘッドマウントディスプレイ100へのデータを出力する。入力部238は、ヘッドマウントディスプレイ100からのデータ入力を受け付け、また、コントローラ140からのデータ入力を受け付ける。記録媒体駆動部240は、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する。
 CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより画像生成装置200の全体を制御する。また、CPU222は、記憶部234またはリムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラム(例えばVRゲームアプリケーション等)を実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令にしたがって描画処理を行い、描画結果を出力部236に出力する。CPU222とGPU224の一方または両方をプロセッサと呼ぶこともできる。メインメモリ226は、RAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
 図5は、ヘッドマウントディスプレイ100の内部回路構成を示す。ヘッドマウントディスプレイ100は、CPU120、メインメモリ122、表示部124、音声出力部126を含む。これらの各部はバス128を介して相互に接続されている。バス128にはさらに入出力インターフェース130が接続されている。入出力インターフェース130には、無線通信のインターフェースを含む通信部132、モーションセンサ134、およびステレオカメラ110が接続される。
 CPU120は、バス128を介してヘッドマウントディスプレイ100の各部から取得した情報を処理するとともに、画像生成装置200から取得した表示画像や音声のデータを表示部124や音声出力部126に供給する。メインメモリ122は、CPU120における処理に必要なプログラムやデータを格納する。
 表示部124は、液晶パネルや有機ELパネルなどの表示パネルを含み、ヘッドマウントディスプレイ100を装着したユーザの眼前に画像を表示する。表示部124は、左右の目に対応する領域に一対のステレオ画像を表示することにより立体視を実現してもよい。表示部124はさらに、ヘッドマウントディスプレイ100装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する一対のレンズを含んでもよい。
 音声出力部126は、ヘッドマウントディスプレイ100の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンで構成され、ユーザに音声を聞かせる。通信部132は、画像生成装置200との間でデータを送受するためのインターフェースであり、Bluetooth(登録商標)などの既知の無線通信技術により通信を実現する。モーションセンサ134はジャイロセンサおよび加速度センサを含み、ヘッドマウントディスプレイ100の角速度や加速度を取得する。
 ステレオカメラ110は、図1で示したとおり、ユーザの視点に対応する視野で周囲の実空間を左右の視点から撮影するビデオカメラの対である。ステレオカメラ110により撮像されたユーザの周囲空間を写した画像を以下「カメラ画像」とも呼ぶ。カメラ画像は、ユーザの視線方向(典型的にはユーザの正面)の実空間を写した画像と言え、ユーザの視線方向に存在する物体が写る画像とも言える。モーションセンサ134による計測値や、ステレオカメラ110による撮影画像(カメラ画像)のデータは、必要に応じて、通信部132を介して画像生成装置200へ送信される。
 実施例の画像表示システム10では、ヘッドマウントディスプレイ100を装着したユーザがアプリケーションのプレイ中に移動可能な実世界の範囲を規定したプレイエリアが設定される。プレイエリアは、ユーザの周囲空間(ユーザの周囲に広がる実世界の空間)うち、ユーザが仮想現実画像(以下「VR画像」とも呼ぶ。)を視聴中に動き回ることが許可されたエリアまたは範囲と言える。アプリケーションのプレイ中にユーザがプレイエリアを逸脱しようとする場合や逸脱した場合、画像表示システム10は、注意を促す内容またはプレイエリアへの復帰を促す内容の警告をユーザに提供する。
 上記のアプリケーションは、VR画像をヘッドマウントディスプレイ100に表示させるゲームアプリケーションであることとし、以下「VRゲーム」とも呼ぶ。VRゲームは、例えば、仮想世界のテニスコートを示すVR画像を表示させ、実世界でのユーザの移動(歩行等)に伴って、仮想世界のテニスコートにおけるキャラクタの位置を変化させるテニスゲームであってもよい。
 実施例の画像表示システム10の特徴を説明する。画像表示システム10は、ヘッドマウントディスプレイ100を装着したユーザがVRゲームのプレイ中に移動可能なプレイエリアにおけるユーザの位置を推定するトラッキング処理を実行し、ユーザの位置に応じたVR画像をヘッドマウントディスプレイ100に表示させる。トラッキング処理においてユーザの位置を精度よくかつ安定的に得るには、プレイエリアに関する詳細なマップデータが必要である。そして、詳細なマップデータを得るには、ヘッドマウントディスプレイ100を装着したユーザに、自分の周囲を見回してもらう必要がある。また、自分の周囲を見回したくなるUXの提供は、省メモリで実現できることが望ましい。
 そこで、実施例の画像表示システム10では、システムの初期設定において、周囲を見回したくなるARコンテンツを含むユーザインタフェース(UI)である見回し画面を提供する。また、実施例の画像表示システム10では、ユーザが見た場所の記憶量を抑制する工夫を設けたことにより、自分の周囲を見回したくなるUXの提供を省メモリで実現する。
 図6は、画像生成装置の機能ブロックを示すブロック図である。画像生成装置200は、VRゲームの進行やサーバとの通信等、様々な情報処理を実行するが、図6では特にプレイエリアおよびマップデータの設定に関する機能ブロックを詳細に示している。
 図6に示す複数の機能ブロックは、ハードウェア的には、図4に示したCPU222、GPU224、メインメモリ226、記憶部234等の構成で実現でき、ソフトウェア的には、複数の機能ブロックの機能を実装したコンピュータプログラムにより実現できる。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 画像生成装置200は、データ処理部250とデータ記憶部252を備える。データ処理部250は、各種のデータ処理を実行する。データ処理部250は、図4に示した通信部232、出力部236、入力部238を介して、ヘッドマウントディスプレイ100およびコントローラ140とデータを送受信する。
 データ記憶部252は、データ処理部250により参照または更新されるデータを記憶する。データ記憶部252は、App記憶部254、プレイエリア記憶部255、マップ記憶部256、視認領域記憶部257を備える。App記憶部254は、VR画像を生成するアプリケーション(実施例ではVRゲーム)のデータを記憶する。
 プレイエリア記憶部255は、プレイエリアに関するデータを記憶する。プレイエリアに関するデータは、プレイエリアの境界を構成する点群の位置を示すデータ(例えばワールド座標系における各点の座標値)を含んでもよい。
 マップ記憶部256は、ヘッドマウントディスプレイ100の位置(すなわちヘッドマウントディスプレイ100を装着したユーザの位置)を推定するためのマップデータを記憶する。実施例のマップデータは、ユーザがVRゲームをプレイする部屋(実空間)を写した画像(当該画像に映る特徴点)であり、位置関係(位置および方向)が判明している画像(当該画像に映る特徴点)の集合を含む。具体的には、マップデータは、ヘッドマウントディスプレイ100の位置、視線方向、およびキーフレームを対応付けた組を複数組含んでもよい。また、マップデータは、いわゆる自己位置推定に必要な他の項目を含んでもよい。
 或る組のキーフレームは、同じ組の位置および視線方向で見える像の特徴を示すデータである。実施例のキーフレームは、ヘッドマウントディスプレイ100のステレオカメラ110により撮像されたカメラ画像をもとに生成された画像であり、かつ、所定個数以上の特徴点を含む画像である。キーフレームに含まれるべき特徴点の個数は24個以上であってもよい。特徴点は、公知のコーナー検出法により検出されたコーナーを含んでもよく、また、輝度の勾配に基づいて検出されてもよい。キーフレームは、カメラ画像から切り出された部分画像(特徴点の画像)の集合とも言える。
 視認領域記憶部257は、ヘッドマウントディスプレイ100(言い換えればユーザ)の周囲の空間のうちユーザが視認した領域(言い換えればユーザの視線方向と一致したことがある領域であり、以下「視認領域」とも呼ぶ。)を示すデータを記憶する。
 データ処理部250は、システム部260、App実行部290、表示制御部292を備える。これら複数の機能ブロックの機能は、コンピュータプログラムに実装されてもよい。画像生成装置200のプロセッサ(例えばCPU222とGPU224)は、上記コンピュータプログラムを記憶部234や記録媒体からメインメモリ226に読み出して実行することにより上記複数の機能ブロックの機能を発揮してもよい。
 App実行部290は、ユーザにより選択されたアプリケーション(実施例ではVRゲーム)に関するデータをApp記憶部254から読み出し、ユーザにより選択されたアプリケーションを実行する。App実行部290は、システム部260(後述の位置推定部272)により推定されたヘッドマウントディスプレイ100の位置(言い換えればユーザの位置)に応じたアプリケーションの実行結果を生成する。
 表示制御部292は、システム部260およびApp実行部290により生成された様々な画像(例えばVRゲームの実行結果を示すVR画像やAR画像)や様々な画面(後述の見回し画面を含む)のデータをヘッドマウントディスプレイ100へ送信する。表示制御部292は、それらの画像や画面をヘッドマウントディスプレイ100の表示部124に表示させる。
 システム部260は、ヘッドマウントディスプレイ100に関するシステムの処理を実行する。システム部260は、ヘッドマウントディスプレイ100用の複数のアプリケーション(例えばVRゲーム)に対して共通のサービスを提供する。共通のサービスは、プレイエリアの設定、マップデータの生成および設定、ユーザの位置推定を含む。システム部260は、カメラ画像取得部262、プレイエリア設定部264、視線方向検出部266、見回し画面生成部268、マップ生成部270、位置推定部272、警告処理部274を含む。
 カメラ画像取得部262は、ヘッドマウントディスプレイ100から送信された、ヘッドマウントディスプレイ100のステレオカメラ110により撮像されたカメラ画像のデータを取得する。
 プレイエリア設定部264は、プレイエリアの設定を支援するための各種処理を実行する、プレイエリア設定部264は、カメラ画像取得部262により取得されたカメラ画像と、コントローラ140を介して入力されたユーザの操作とに基づいて、プレイエリアを検出して設定する。プレイエリア設定部264は、検出および設定したプレイエリアに関するデータをプレイエリア記憶部255に格納する。
 プレイエリア設定部264は、カメラ画像取得部262により取得されたカメラ画像に基づいて、ヘッドマウントディスプレイ100を装着したユーザの周囲空間からプレイエリアを自動検出するプレイエリア検出機能を含む。なお、プレイエリア設定部264は、自動検出されたプレイエリアを編集するユーザの操作を受け付け、その操作に応じてプレイエリアの形状を変更するプレイエリア編集機能を含んでもよい。
 視線方向検出部266は、ヘッドマウントディスプレイ100のモーションセンサ134により検知されたヘッドマウントディスプレイ100の角速度や加速度、および、ステレオカメラ110により撮影されたヘッドマウントディスプレイ100の周囲の画像に基づいて、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢を検出する。視線方向検出部266はさらに、ユーザの頭部の位置や姿勢に基づいて、ユーザの視点の位置や視線方向を検出する。ユーザの頭部の位置や姿勢、ユーザの視点の位置や視線方向の検出には公知技術が用いられてよい。
 見回し画面生成部268は、プレイエリアをユーザに見回させるための画面である見回し画面のデータを生成する。見回し画面では、プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、特殊画像の中でユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化する。見回し画面生成部268は、ヘッドマウントディスプレイ100の周囲の空間であって、プレイエリアの最大範囲より狭い範囲の空間に特殊画像を設定する。
 マップ生成部270は、プレイエリア設定部264がプレイエリアを検出することと並行して、カメラ画像取得部262により取得された、ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、プレイエリアにおけるユーザの位置を推定するためのマップデータを生成する。マップ生成部270は、生成したマップデータをマップ記憶部256に格納する。マップ生成部270は、ユーザの周囲空間を複数の方向から写した複数枚のカメラ画像であって、予め定められた枚数以上のカメラ画像が入力された場合、マップの生成を終了する。
 位置推定部272は、マップ記憶部256に記憶されたマップデータと、カメラ画像取得部262により取得されたカメラ画像とに基づいて、実世界におけるヘッドマウントディスプレイ100(言い換えればユーザ)の位置を推定するトラッキング処理を実行する。すなわち、位置推定部272は、プレイエリアにおけるヘッドマウントディスプレイ100(言い換えればユーザ)の位置を推定する。例えば、位置推定部272は、マップデータに含まれる複数のキーフレームとカメラ画像とを照合し、その照合結果と、各キーフレームに対応付けられたヘッドマウントディスプレイ100の位置および視線方向とに基づいて、ヘッドマウントディスプレイ100の位置を推定してもよい。また、位置推定部272は、SLAM(Simultaneous Localization and Mapping)等、公知の自己位置推定技術を用いてユーザの位置を推定してもよい。
 警告処理部274は、プレイエリアの境界と、ユーザの位置との関係に応じて、ユーザに対する警告処理を実行する。
 図7は、見回し画面の例を示す。図7の見回し画面300は、左目用画像301と右目用画像302を示している。左目用画像301と右目用画像302のそれぞれは、ビデオシースルーによるAR画像を含み、具体的には、プレイエリア画像303に特殊画像304を重畳させたものである。プレイエリア画像303は、ユーザの周囲のプレイエリアを示す画像であり、実施例では、ヘッドマウントディスプレイ100のステレオカメラ110により撮像された、ユーザの周囲の実空間の様子を写した画像である。
 特殊画像304は、ユーザの視線方向と一致したことがない領域(以下「未確認領域305」とも呼ぶ。)を所定の色彩で塗りつぶすことにより、未確認領域305を強調して示す画像である。特殊画像304は、ユーザの視線方向と一致したことがある領域(以下「視認済領域306」とも呼ぶ。)と、未確認領域305とを異なる態様で示す。具体的には、見回し画面生成部268は、特殊画像304の中で未確認領域305に第1の透過度(例えば透過率50%)を設定し、特殊画像304の中で視認済領域306に第1の透過度より高い第2の透過度(例えば透過率100%)を設定する。変形例として、見回し画面生成部268は、視認済領域306の特殊画像304を非表示に変更してもよく、また、視認済領域306の特殊画像304を消去してもよい。
 特殊画像304の中でユーザの視線方向に一致した場合に表示態様(実施例では透過度)が変化する領域であり、言い換えれば、透過度が一時に変化する視認済領域306の単位形状は円である。また、単位形状である円のサイズ(すなわち視認済領域306の単位サイズ)は、仮想空間内の見かけのサイズで直径40cmである。
 図8は、視認済領域306の単位形状を示す。ヘッドマウントディスプレイ100の視野角311は120度である。後述するが、特殊画像304は、ユーザの視点310から50cm離れた位置に設けられる。視認済領域306の単位形状である円の直径40cmは、その円の両端とユーザの視点310とのなす角度312が略40度になるように決定されたものである。角度312の値は、開発者の知見および実験により導出された、ユーザが実施すべき頭部の回動量を適切な範囲に収める値であり、例えば、40度~44度の値であってもよい。
 見回し画面生成部268は、初期状態の見回し画面300として、プレイエリア画像303の全体を第1の透過度(例えば透過率50%)の特殊画像304が覆った見回し画面300を生成する。図9に示すように、見回し画面生成部268は、ユーザが周囲を見回すにつれて、第2の透過度(例えば透過率100%)の特殊画像304の領域(すなわち視認済領域306)が徐々に拡大した見回し画面300を生成する。変形例として、見回し画面生成部268は、視認済領域306の特殊画像304を非表示に変更する場合、ユーザが周囲を見回すにつれて、特殊画像304の表示領域を徐々に狭めてもよい。
 このように、実施例の画像表示システム10では、自分の周囲を見回すことにより、半透明のペンキで覆われた視界が徐々にクリアになっていくUIを提供でき、自分の周囲を見回したくなるUXを提供できる。その結果、詳細なマップデータの作成と、精度のよいトラッキングを実現できる。
 見回し画面生成部268は、特殊画像304の中の未確認領域305と視認済領域306との境界において透過度を漸次変化させる。具体的には、見回し画面生成部268は、特殊画像304の未確認領域305から視認済領域306に亘って、第1の透過度(例えば透過率50%)から第2の透過度(例えば透過率100%)へ徐々に透過度を高めるようグラデーションを設定する。これにより、ユーザのデプスコンフリクトを抑制でき、ユーザの3D酔いを抑制できる。
 図10は、記憶対象となる視認領域の範囲を示す。視認領域は、ユーザが見た領域であり、言い換えれば、ユーザの視線方向と一致したことがある領域である。実施例の画像表示システム10では、プレイエリア320の最大範囲が縦5m×横5mに規定される。そのため、正確には、縦5m×横5mの空間(キューブ)を記憶対象領域322としてユーザがどこを見たかを視認領域記憶部257に記憶する必要がある。この場合、視認領域記憶部257には広大なメモリが必要になる。
 図11も、記憶対象となる視認領域の範囲を示す。図11に示すように、実施例では、プレイエリア320の最大範囲より狭い範囲の空間である特定空間324を記憶対象領域322としてユーザがどこを見たかを視認領域記憶部257に記憶する。実施例の記憶対象領域322(すなわち特定空間324)は、縦1m×横1mの6つの正方形により構成されるキューブとして構成される。見回し画面生成部268は、特定空間324のキューブの各面に特殊画像304を描画する。したがって、ユーザの視点から50cm先に特殊画像304が描画される。見回し画面生成部268は、公知のキューブマップ(「テクスチャキューブ」とも呼ばれる。)の技術を適用して、特定空間324のキューブの各面に特殊画像304を描画してもよい。
 特殊画像304の描画位置は、プレイエリアの境界よりも手前であることが好ましい。プレイエリアの境界(例えば部屋の壁)より奥に特殊画像304が描かれると、ユーザにデプスコンフリクトを生じさせやすくなり、3D酔いを感じさせ易くなるからである。そのため、特殊画像の描画位置をユーザの視点から50cm先とすることは好適である。また、ヘッドマウントディスプレイ100においてピントが最も合う位置(映し出される映像の焦点距離)は視点から2m先である。特殊画像の描画位置は、ヘッドマウントディスプレイ100の焦点距離より手前に設定される。
 見回し画面生成部268は、特定空間324(キューブの各面)において視線方向検出部266により検出されたユーザの視線方向に一致する領域(視認領域)を特定し、特定空間324における視認領域の位置を示すデータを視認領域記憶部257に格納する。視認領域の位置を示すデータは、ユーザの視点を原点とする座標系における座標値であってもよく、特定空間324を構成するキューブの各面におけるユーザの支援方向に一致した領域の座標値であってもよい。見回し画面生成部268は、特殊画像304の描画時、視認領域記憶部257に記憶された視認領域の透過度を、未確認領域の透過度より高く設定する。
 また、図11に示すように、見回し画面生成部268は、特定空間324(キューブの各面)の位置をヘッドマウントディスプレイ100(ユーザの頭部)の位置の変化に追従して変更する。例えば、見回し画面生成部268は、ヘッドマウントディスプレイ100の位置が変化した場合、その変化量だけ特定空間324を平行移動させる。
 一方、見回し画面生成部268は、ヘッドマウントディスプレイ100(ユーザの頭部)が回動しても、特定空間324(キューブ)を回動させない。言い換えれば、見回し画面生成部268は、ヘッドマウントディスプレイ100の姿勢が変化しても、特定空間324の角度を変化させない。このように、実施例では、ヘッドマウントディスプレイ100の周囲の空間だけ視認領域を記録するため、視認領域記憶部257のメモリ使用量を大幅に低減できる。
 以上の構成による画像表示システム10の動作を説明する。
 図12は、画像生成装置200の動作を示すフローチャートである。画像生成装置200のシステム部260は、画像表示システム10の設定メニューをヘッドマウントディスプレイ100に表示させる。設定メニューの中の初期設定がユーザにより選択された場合、ヘッドマウントディスプレイ100は、ユーザの視線方向の実空間を写したカメラ画像および各種センサデータを画像生成装置200へ送信することを開始する。センサデータは、モーションセンサ134による計測値を含み、例えば、ヘッドマウントディスプレイ100の角速度や加速度を含む。画像生成装置200のカメラ画像取得部262は、ヘッドマウントディスプレイ100から送信されたカメラ画像を取得する(S10)。
 図13は、初期設定時のユーザの行動を模式的に示す。部屋30の中で、ユーザは、ヘッドマウントディスプレイ100を頭部に装着して周囲を見回しつつ移動する。図13のユーザ32は、このときのユーザの位置を示している。矢印34は、ユーザの視線方向を示している。プレイエリア36は、設定されるプレイエリアの一例を示している。画像生成装置200の視線方向検出部266は、カメラ画像取得部262により取得されたカメラ画像や、ヘッドマウントディスプレイ100のセンサで検知されたヘッドマウントディスプレイ100の角速度や加速度等に基づいて、ヘッドマウントディスプレイ100(ユーザの頭部)の位置と視線方向とを検出する(S11)。
 画像生成装置200の見回し画面生成部268は、プレイエリア320の最大サイズ(縦5m×横5m)より狭い予め定められた特定空間324においてユーザの視線方向と一致した領域(例えば特定空間324を構成するキューブの各面における点群等)を視認領域として識別する。マップ生成部270は、特定空間324における視認領域を示すデータを視認領域記憶部257に格納する。
 見回し画面生成部268は、カメラ画像取得部262により取得されたカメラ画像(言い換えればプレイエリア画像303)を含む見回し画面のデータを生成する。すなわち、見回し画面生成部268は、ユーザが向いた方向の実空間の様子をそのままユーザに見せるビデオシースルーを行う。これによりユーザの安全性を高める。
 また、見回し画面生成部268は、特定空間324(キューブの各面)に半透明の特殊画像304を設定する。具体的には、見回し画面生成部268は、特定空間324(キューブの各面)における、視認領域記憶部257に記憶された視認領域を除いた領域(未確認領域)に半透明の特殊画像304を設定する。そして見回し画面生成部268は、プレイエリア画像303の上に特殊画像304を重畳したAR画像を含む見回し画面のデータを生成する。表示制御部292は、ヘッドマウントディスプレイ100の表示部124に見回し画面を表示させる(S12)。ユーザは、見回し画面を見ながら、自分の周囲を見回す。
 画像生成装置200のプレイエリア設定部264は、S10で取得されたカメラ画像およびセンサデータに基づいて、ユーザの周囲空間におけるプレイエリアを自動検出する(S13)。例えば、プレイエリア設定部264は、カメラ画像と、そのカメラ画像に対応するセンサデータとに基づいて、公知の手法によりユーザの部屋の3D形状を推定してもよい。プレイエリア設定部264は、推定した部屋の3D形状をもとに、センサデータが示す重力方向に対して垂直な平面(典型的には床面)を検出し、検出した同じ高さの複数の平面を合成した結果をプレイエリアとして検出してもよい。プレイエリア設定部264は、プレイエリアの境界を構成する点群の座標値を含むプレイエリアデータをプレイエリア記憶部255に格納する。
 画像生成装置200のマップ生成部270は、S13の処理と並行して、S10で取得されたカメラ画像およびセンサデータに基づいて、ユーザの位置を推定するためのマップデータを生成する(S14)。図14は、カメラ画像の例を示し、図15は、キーフレームの例を示す。マップ生成部270は、コーナー検出法等の公知の手法を用いてカメラ画像40に含まれる複数の特徴点44を抽出し、抽出した複数の特徴点44を示すキーフレーム42を生成する。マップ生成部270は、1枚のカメラ画像40から24個以上の特徴点44を抽出した場合、抽出した24個以上の特徴点44を含むキーフレーム42を、センサデータにより特定されるユーザの位置および視線方向と対応付けたマップデータをマップ記憶部256に格納する(S15)。
 マップ生成部270は、ユーザの周囲空間のうち入力されたカメラ画像(実施例ではカメラ画像から生成されたキーフレーム)によりカバーされる割合に関するスコアを導出するための複数の基準(以下「ビン」と呼ぶ。)を記憶する。複数のビンは、ユーザの周囲空間を異なる態様で分割した複数の基準である。
 図16は、複数のビンを示す。ビン50、ビン52、ビン54のそれぞれは、中心をユーザの位置とし、ユーザの周囲空間を重力方向を軸として分割したものである。ビン50は、プレイエリア設定開始時のユーザの視線方向と、視線方向に垂直な方向とに基づいて、ユーザの周囲空間を中心角90度で4分割した基準である。ビン52は、ビン50に対して位相を45度ずらしたものである。ビン54は、ユーザの周囲空間を中心角22.5度で16分割した基準である。以下、ビン50、ビン52、ビン54のそれぞれで規定された、ユーザの周囲空間における分割されたエリアを「分割エリア」と呼ぶ。
 マップ生成部270は、ビン50、ビン52、ビン54に基づいて、ユーザの周囲空間のうち入力された複数枚のカメラ画像(実施例ではカメラ画像から生成されたキーフレーム)によりカバーされる割合に関するスコアを導出する。マップ生成部270は、そのスコアが予め定められた閾値以上になった場合、マップの生成処理を終了する。
 具体的には、マップ生成部270は、カメラ画像からキーフレームを生成した場合、ビン50、ビン52、ビン54のそれぞれについて、当該キーフレームが得られた視線方向に合致する分割エリアが埋まったこととし、各ビンにおいて分割エリアが埋まった個数の合計をスコアとしてカウントする。マップ生成部270は、新たなキーフレームを生成すると、同様のアルゴリズムにより、各ビンにおいて新たに分割エリアが埋まった個数をスコアに加算する。
 図12に戻り、実施例では、スコアが閾値「10」未満であれば(S16のN)、S10に戻り、見回し画面の更新処理、プレイエリア検出処理、マップ生成処理を繰り返す。スコアが閾値「10」以上になった場合(S16のY)、プレイエリア設定部264は、プレイエリアの検出処理を終了し、マップ生成部270は、マップの生成処理を終了する。スコアの閾値「10」は、ヘッドマウントディスプレイ100を装着したユーザが自身の周囲180度をぐるりと見渡せばクリアできる値であるが、ユーザが周囲を見渡さない場合にはクリアできない値として定められたものである。
 図17も、画像生成装置200の動作を示すフローチャートである。同図は、VRゲーム実行時の動作を示している。ユーザが画像生成装置200においてVRゲームが起動されると(S20のY)、画像生成装置200のApp実行部290は、プレイエリア記憶部255に記憶されたプレイエリアのデータ、例えば、プレイエリアの形状およびサイズを示すデータを読み込む(S21)。
 App実行部290は、App記憶部254からVRゲームのプログラムデータを読み出し、VRゲームを開始する(S22)。例えば、App実行部290は、ゲーム世界を描いた仮想空間の中でプレイエリアの範囲内にゲームアイテムを配置することによりユーザにそのアイテムを取得させてもよい。表示制御部292は、App実行部290により生成されたゲーム画像(例えばVR画像)をヘッドマウントディスプレイ100の表示部124に表示させる。
 画像生成装置200のカメラ画像取得部262は、ヘッドマウントディスプレイ100から逐次送信されたカメラ画像を逐次取得し、画像生成装置200の位置推定部272は、実世界におけるユーザの位置および視線方向を逐次推定する(S23)。App実行部290は、位置推定部272により推定されたユーザの位置および視線方向に基づいて、VRゲームを進行させる(S24)。例えば、App実行部290は、実世界(言い換えればプレイエリア内)におけるユーザの位置の変化に応じて、VRゲーム内のユーザキャラクタを移動させてもよい。
 画像生成装置200の警告処理部274は、実世界におけるユーザの位置がプレイエリアの境界近傍に至った場合、例えば、ユーザに装着されたヘッドマウントディスプレイ100からプレイエリアの境界までの距離が所定の閾値(例えば30センチ)以下になった場合(S25のY)、そのことを検出する。警告処理部274は、ユーザに対する所定の警告処理を実行する(S26)。
 例えば、警告処理部274は、ユーザの位置がプレイエリアの境界近傍に至った場合、プレイエリアの境界を示す画像を表示制御部292に渡してもよい。表示制御部292は、App実行部290により生成されたゲーム画像に、プレイエリアの境界を示す画像を重畳したものを表示画像としてヘッドマウントディスプレイ100の表示部124に表示させてもよい。また、警告処理部274は、実世界におけるユーザの位置がプレイエリアの境界近傍に至った場合やプレイエリアの境界を超えてしまった場合、表示制御部292を介してヘッドマウントディスプレイ100の表示部124にビデオシースルー画像を表示させてもよい。一方、実世界におけるユーザの位置がプレイエリアの境界近傍でなければ(S25のN)、S26をスキップする。
 ユーザによりVRゲームの実行が停止された場合等、所定の終了条件を満たした場合(S27のY)、本図のフローを終了する。終了条件が満たされなければ(S27のN)、S23に戻り、VRゲームを続行する。VRゲームが起動されなければ(S20のN)、S21以降の処理をスキップする。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 変形例を説明する。上記実施例では、見まわし画面300において特殊画像304の背後に設定するプレイエリア画像303は、ユーザの周囲の実空間を写した画像とした。変形例として、見回し画面300のプレイエリア画像303は、仮想世界のプレイエリアを示すVR画像であってもよい。
 別の変形例を説明する。上記実施例で画像生成装置200に実装された複数の機能のうち少なくとも一部の機能は、ヘッドマウントディスプレイ100に実装されてもよく、ネットワークを介して画像生成装置200に接続されたサーバに実装されてもよい。例えば、ヘッドマウントディスプレイ100は、カメラ画像やセンサ計測値に基づいて、各種画面や画像のデータを生成する機能を備えてもよい。また、サーバは、カメラ画像やセンサ計測値に基づいて、各種画面や画像のデータを生成する機能を備えてもよく、ヘッドマウントディスプレイ100は、サーバにより生成された画面や画像を表示してもよい。
 上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
 実施例および変形例の記載に基づく技術思想は、以下の各項目に示す態様で表現することができる。
[項目1]
 ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成する見回し画面生成部と、
 前記見回し画面を前記ヘッドマウントディスプレイに表示させる表示制御部と、
 前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成するマップ生成部と、
 を備え、
 前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
 前記見回し画面生成部は、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
 情報処理装置。
 この情報処理装置によると、ヘッドマウントディスプレイを装着したユーザに対する、自分の周囲を見回したくなるUXの提供を少ないメモリ量で実現できる。
[項目2]
 前記見回し画面生成部は、前記特殊画像を設定する空間である特定空間の位置を、前記ヘッドマウントディスプレイの位置の変化に追従して変更する、
 項目1に記載の情報処理装置。
 この情報処理装置によると、ユーザの位置が変化しても自分の周囲を見回したくなるUXを継続して提供できる。
[項目3]
 前記見回し画面生成部は、前記ヘッドマウントディスプレイが回動しても前記特定空間を回動させない、
 項目2に記載の情報処理装置。
 この情報処理装置によると、特定空間に特殊画像を表示するための処理負荷およびメモリ量を低減できる。
[項目4]
 前記見回し画面では、前記特殊画像の中で前記ユーザの視線方向に一致したことがない領域に第1の透過度が設定され、前記特殊画像の中で前記ユーザの視線方向に一致したことがある領域に前記第1の透過度より高い第2の透過度が設定される、
 項目1から3のいずれかに記載の情報処理装置。
 この情報処理装置によると、ユーザが見た領域のプレイエリアがそれまでよりクリアに表示されるため、自分の首位を見回したくなるUXを提供できる。
[項目5]
 前記見回し画面生成部は、前記特殊画像の中で前記ユーザの視線方向に一致したことがない領域と、前記特殊画像の中で前記ユーザの視線方向に一致したことがある領域との境界において透過度を漸次変化させる、
 項目4に記載の情報処理装置。
 この情報処理装置によると、デプスコンフリクトを抑制し、3D酔いを抑制できる。
[項目6]
 前記特殊画像の中で前記ユーザの視線方向に一致した場合に表示態様が変化する領域のサイズは、当該領域の両端とユーザの視点とのなす角が略40度になるよう定められている、
 項目1から5のいずれかに記載の情報処理装置。
 この情報処理装置によると、ユーザが実施すべき頭部の回動量を適切な範囲に収めることができる。
[項目7]
 ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成するステップと、
 前記見回し画面を前記ヘッドマウントディスプレイに表示させるステップと、
 前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成するステップと、
 をコンピュータが実行し、
 前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
 前記見回し画面を生成するステップは、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
 情報処理方法。
 この情報処理方法によると、ヘッドマウントディスプレイを装着したユーザに対する、自分の周囲を見回したくなるUXの提供を少ないメモリ量で実現できる。
[項目8]
 ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成する機能と、
 前記見回し画面を前記ヘッドマウントディスプレイに表示させる機能と、
 前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成する機能と、
 をコンピュータに実現させ、
 前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
 前記見回し画面を生成する機能は、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
 コンピュータプログラム。
 このコンピュータプログラムによると、コンピュータに、ヘッドマウントディスプレイを装着したユーザに対する、自分の周囲を見回したくなるUXの提供を少ないメモリ量で実現させることができる。
 本開示の技術は、例えば、情報処理装置や情報処理システムに適用できる。
 10 画像表示システム、 100 ヘッドマウントディスプレイ、 200 画像生成装置、 262 カメラ画像取得部、 268 見回し画面生成部、 270 マップ生成部、 292 表示制御部、 300 見回し画面。

Claims (8)

  1.  ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成する見回し画面生成部と、
     前記見回し画面を前記ヘッドマウントディスプレイに表示させる表示制御部と、
     前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成するマップ生成部と、
     を備え、
     前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
     前記見回し画面生成部は、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
     情報処理装置。
  2.  前記見回し画面生成部は、前記特殊画像を設定する空間である特定空間の位置を、前記ヘッドマウントディスプレイの位置の変化に追従して変更する、
     請求項1に記載の情報処理装置。
  3.  前記見回し画面生成部は、前記ヘッドマウントディスプレイが回動しても前記特定空間を回動させない、
     請求項2に記載の情報処理装置。
  4.  前記見回し画面では、前記特殊画像の中で前記ユーザの視線方向に一致したことがない領域に第1の透過度が設定され、前記特殊画像の中で前記ユーザの視線方向に一致したことがある領域に前記第1の透過度より高い第2の透過度が設定される、
     請求項1から3のいずれかに記載の情報処理装置。
  5.  前記見回し画面生成部は、前記特殊画像の中で前記ユーザの視線方向に一致したことがない領域と、前記特殊画像の中で前記ユーザの視線方向に一致したことがある領域との境界において透過度を漸次変化させる、
     請求項4に記載の情報処理装置。
  6.  前記特殊画像の中で前記ユーザの視線方向に一致した場合に表示態様が変化する領域のサイズは、当該領域の両端とユーザの視点とのなす角が略40度になるよう定められている、
     請求項1から5のいずれかに記載の情報処理装置。
  7.  ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成するステップと、
     前記見回し画面を前記ヘッドマウントディスプレイに表示させるステップと、
     前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成するステップと、
     をコンピュータが実行し、
     前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
     前記見回し画面を生成するステップは、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
     情報処理方法。
  8.  ヘッドマウントディスプレイを装着したユーザがアプリケーションのプレイ中に移動可能なプレイエリアについて、前記プレイエリアを前記ユーザに見回させるための画面である見回し画面を生成する機能と、
     前記見回し画面を前記ヘッドマウントディスプレイに表示させる機能と、
     前記ヘッドマウントディスプレイのカメラにより撮像された、前記ユーザの周囲の空間を複数の方向から写した複数枚のカメラ画像に基づいて、前記プレイエリアにおける前記ユーザの位置を推定するためのマップを生成する機能と、
     をコンピュータに実現させ、
     前記見回し画面では、前記プレイエリアを示す画像に所定の特殊画像が重畳され、かつ、前記特殊画像の中で前記ユーザの視線方向に一致した領域がそれまでとは異なる表示態様に変化し、
     前記見回し画面を生成する機能は、前記ヘッドマウントディスプレイの周囲の空間であって、前記プレイエリアの最大範囲より狭い範囲の空間に前記特殊画像を設定する、
     コンピュータプログラム。
PCT/JP2022/046713 2022-01-18 2022-12-19 情報処理装置および情報処理方法 WO2023140004A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022005706A JP2023104609A (ja) 2022-01-18 2022-01-18 情報処理装置および情報処理方法
JP2022-005706 2022-01-18

Publications (1)

Publication Number Publication Date
WO2023140004A1 true WO2023140004A1 (ja) 2023-07-27

Family

ID=87348186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/046713 WO2023140004A1 (ja) 2022-01-18 2022-12-19 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP2023104609A (ja)
WO (1) WO2023140004A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090772A (ja) * 2014-11-04 2016-05-23 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイおよび情報処理方法
JP2017096725A (ja) * 2015-11-20 2017-06-01 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090772A (ja) * 2014-11-04 2016-05-23 株式会社ソニー・コンピュータエンタテインメント ヘッドマウントディスプレイおよび情報処理方法
JP2017096725A (ja) * 2015-11-20 2017-06-01 キヤノン株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
JP2023104609A (ja) 2023-07-28

Similar Documents

Publication Publication Date Title
JP7181316B2 (ja) Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡
JP7164630B2 (ja) 予測サッカード着地点に基づく動的グラフィックスレンダリング
US9098112B2 (en) Eye tracking enabling 3D viewing on conventional 2D display
EP3524328B1 (en) Image rendering responsive to user actions in head mounted display
JP2022530012A (ja) パススルー画像処理によるヘッドマウントディスプレイ
US20110306413A1 (en) Entertainment device and entertainment methods
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
WO2016201015A1 (en) Display for stereoscopic augmented reality
WO2020218131A1 (ja) 画像生成装置および情報提示方法
JP6915165B2 (ja) ビュー画像を生成するための装置および方法
JP2022051978A (ja) 画像処理装置、画像処理方法、及び、プログラム
US11187895B2 (en) Content generation apparatus and method
WO2023140004A1 (ja) 情報処理装置および情報処理方法
US20240078767A1 (en) Information processing apparatus and information processing method
JP2020174329A (ja) 情報処理装置、表示方法およびコンピュータプログラム
WO2023002793A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2023162668A1 (ja) 情報処理装置および床面高さ調整方法
WO2023149125A1 (ja) 情報処理装置および情報処理方法
WO2023149126A1 (ja) 情報処理装置および情報処理方法
WO2023157471A1 (ja) 情報処理装置および情報処理方法
WO2023002652A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20240073400A1 (en) Information processing apparatus and information processing method
CN117677981A (zh) 信息处理设备、信息处理方法和计算机程序
CN106125940A (zh) 虚拟现实交互界面管理方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22922154

Country of ref document: EP

Kind code of ref document: A1