WO2017110632A1 - 情報処理装置および操作受付方法 - Google Patents

情報処理装置および操作受付方法 Download PDF

Info

Publication number
WO2017110632A1
WO2017110632A1 PCT/JP2016/087278 JP2016087278W WO2017110632A1 WO 2017110632 A1 WO2017110632 A1 WO 2017110632A1 JP 2016087278 W JP2016087278 W JP 2016087278W WO 2017110632 A1 WO2017110632 A1 WO 2017110632A1
Authority
WO
WIPO (PCT)
Prior art keywords
icon
user
icons
virtual space
menu screen
Prior art date
Application number
PCT/JP2016/087278
Other languages
English (en)
French (fr)
Inventor
河村 大輔
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to EP16878523.6A priority Critical patent/EP3396511B1/en
Priority to US15/773,008 priority patent/US20180321798A1/en
Publication of WO2017110632A1 publication Critical patent/WO2017110632A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Definitions

  • the present invention relates to an information processing apparatus that performs information processing by interaction with a user and an operation reception method that is performed by the information processing apparatus.
  • a game in which a user's body and marker are photographed with a camera, the area of the image is replaced with another image, and displayed on a display.
  • the technology for analyzing the measured values by attaching and gripping various sensors to the user and reflecting them in information processing such as games depends on the scale, from small game machines to leisure facilities. It is used in a wide range of fields.
  • a system has been developed in which a panoramic image is displayed on a head-mounted display, and a panoramic image corresponding to the line-of-sight direction is displayed when a user wearing the head-mounted display rotates his head.
  • a head-mounted display By using a head-mounted display, it is possible to enhance the sense of immersion in video and improve the operability of applications such as games.
  • a walk-through system has been developed in which a user wearing a head-mounted display can physically walk around in a space displayed as an image by physically moving.
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of achieving both the world view expressed by the virtual space and the operability in the display of the operation reception screen.
  • an aspect of the present invention relates to an information processing apparatus.
  • This information processing apparatus is an information processing apparatus that generates a menu screen including a plurality of icons and receives a selection operation from a user, and includes an icon arrangement unit that arranges the plurality of icons in a virtual space, and a posture of the user's head
  • a display device that obtains information and determines a visual field plane for the virtual space based on the information, and generates a menu screen on which a projected image of the virtual space on the visual field is drawn and a cursor representing the user's viewpoint is superimposed and displayed.
  • An image generation unit that outputs to the menu screen, and an operation determination unit that identifies the operation content based on the positional relationship between the image of the icon drawn on the menu screen and the cursor. Place multiple icons in a spherical background object centered on the part so that the orientation and distance from the user are different from each other. And butterflies.
  • This operation reception method is an operation reception method by an information processing apparatus that generates a menu screen including a plurality of icons and receives a selection operation from a user, the step of arranging a plurality of icons in a virtual space, and a user's head
  • the step of outputting to the device, and the step of specifying the operation content based on the positional relationship between the image of the icon drawn on the menu screen and the cursor, and the step of arranging the icon comprises: Multiple icons in the center spherical background object so that their orientation and distance from the user are different from each other. Characterized by arranging the.
  • a screen for accepting a selection operation such as a menu screen is displayed while changing the visual field according to the movement of the user's line of sight.
  • the type of device that displays an image is not particularly limited, and any of a wearable display, a flat panel display, a projector, and the like may be used.
  • a head-mounted display will be described as an example of a wearable display.
  • the user's line of sight can be estimated approximately by a built-in motion sensor.
  • the user can detect the line of sight by wearing a motion sensor on the head or by detecting infrared reflection using a gaze point detection device.
  • the user's head may be attached with a marker, and the line of sight may be estimated by analyzing an image of the appearance, or any of those techniques may be combined.
  • FIG. 1 is an external view of the head mounted display 100.
  • the head mounted display 100 includes a main body portion 110, a forehead contact portion 120, and a temporal contact portion 130.
  • the head mounted display 100 is a display device that is worn on the user's head and enjoys still images and moving images displayed on the display, and listens to sound and music output from the headphones.
  • Posture information such as the rotation angle and inclination of the head of the user wearing the head mounted display 100 can be measured by a motion sensor built in or externally attached to the head mounted display 100.
  • the head mounted display 100 is an example of a “wearable display device”.
  • the wearable display device is not limited to the head-mounted display 100 in a narrow sense, but includes glasses, glasses-type displays, glasses-type cameras, headphones, headsets (headphones with microphones), earphones, earrings, ear-mounted cameras, hats, hats with cameras, Any wearable display device such as a hair band is included.
  • FIG. 2 is a functional configuration diagram of the head mounted display 100.
  • the control unit 10 is a main processor that processes and outputs signals such as image signals and sensor signals, commands and data.
  • the input interface 20 receives operation signals and setting signals from the user and supplies them to the control unit 10.
  • the output interface 30 receives the image signal from the control unit 10 and displays it on the display.
  • the backlight 32 supplies a backlight to the liquid crystal display.
  • the communication control unit 40 transmits data input from the control unit 10 to the outside by wired or wireless communication via the network adapter 42 or the antenna 44.
  • the communication control unit 40 also receives data from the outside via wired or wireless communication via the network adapter 42 or the antenna 44 and outputs the data to the control unit 10.
  • the storage unit 50 temporarily stores data, parameters, operation signals, and the like processed by the control unit 10.
  • the motion sensor 64 detects posture information such as the rotation angle and tilt of the main body 110 of the head mounted display 100.
  • the motion sensor 64 is realized by appropriately combining a gyro sensor, an acceleration sensor, an angular acceleration sensor, and the like.
  • the external input / output terminal interface 70 is an interface for connecting peripheral devices such as a USB (Universal Serial Bus) controller.
  • the external memory 72 is an external memory such as a flash memory.
  • the clock unit 80 sets time information according to a setting signal from the control unit 10 and supplies time data to the control unit 10.
  • the control unit 10 can supply the image and text data to the output interface 30 to be displayed on the display, or can supply the image and text data to the communication control unit 40 to be transmitted to the outside.
  • FIG. 3 is a configuration diagram of the information processing system according to the present embodiment.
  • the head mounted display 100 is connected to the information processing apparatus 200 through an interface 300 for connecting peripheral devices such as wireless communication or USB.
  • the information processing apparatus 200 may be further connected to a server via a network.
  • the server may provide the information processing apparatus 200 with an online application such as a game that allows a plurality of users to participate via a network.
  • the head mounted display 100 may be connected to a computer or a mobile terminal instead of the information processing apparatus 200.
  • the image displayed on the head-mounted display 100 may be a 360-degree panoramic still image or a panoramic video imaged in advance, or an artificial panoramic image such as a game space. Further, it may be a live video of a remote place distributed via a network.
  • the present embodiment is not intended to be limited to panoramic images, and whether or not to make a panoramic image may be appropriately determined depending on the type of display device.
  • FIG. 4 shows the internal circuit configuration of the information processing apparatus 200.
  • the information processing apparatus 200 includes a CPU (Central Processing Unit) 222, a GPU (Graphics Processing Unit) 224, and a main memory 226. These units are connected to each other via a bus 230. An input / output interface 228 is further connected to the bus 230.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the input / output interface 228 includes a peripheral device interface such as USB or IEEE1394, a communication unit 232 including a wired or wireless LAN network interface, a storage unit 234 such as a hard disk drive or a nonvolatile memory, and a display device such as the head mounted display 100.
  • An output unit 236 that outputs data to the head, an input unit 238 that inputs data from the head mounted display 100, and a recording medium driving unit 240 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.
  • the CPU 222 controls the entire information processing apparatus 200 by executing an operating system stored in the storage unit 234.
  • the CPU 222 also executes various programs read from the removable recording medium and loaded into the main memory 226 or downloaded via the communication unit 232.
  • the GPU 224 has a function of a geometry engine and a function of a rendering processor, performs a drawing process according to a drawing command from the CPU 222, and stores a display image in a frame buffer (not shown). Then, the display image stored in the frame buffer is converted into a video signal and output to the output unit 236.
  • the main memory 226 includes a RAM (Random Access Memory) and stores programs and data necessary for processing.
  • FIG. 5 shows functional blocks of the information processing apparatus 200 in the present embodiment.
  • the information processing apparatus 200 changes the field of view by the movement of the line of sight, and receives a screen for receiving an input for selecting one of a plurality of options by the line of sight (hereinafter referred to as “menu screen”). Call). Then, a selection input for the screen is accepted, and processing corresponding to the input is executed.
  • the processing performed according to the selection is not particularly limited, but here, as an example, processing of electronic content such as a game or a moving image is assumed. An icon representing each electronic content is displayed on the menu screen.
  • At least a part of the functions of the information processing apparatus 200 shown in FIG. 5 may be mounted on the control unit 10 of the head mounted display 100.
  • at least a part of the functions of the information processing apparatus 200 may be mounted on a server connected to the information processing apparatus 200 via a network.
  • a function for generating a menu screen and accepting a selection input may be provided as a menu screen control device separately from a device for processing electronic content.
  • This figure is a block diagram mainly focusing on the function related to the control of the menu screen among the functions of the information processing apparatus 200.
  • These functional blocks can be realized in terms of hardware by the configuration of the CPU, GPU, and various memories shown in FIG. 4, and in terms of software, the data input function and data retention loaded from the recording medium to the memory. It is realized by a program that exhibits various functions such as a function, an image processing function, and a communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the information processing apparatus 200 stores a position / posture acquisition unit 712 that acquires the position and posture of the head-mounted display 100, a visual field control unit 714 that controls the visual field of a display image based on the user's line of sight, and information related to icons to be displayed.
  • An icon information storage unit 720 an icon arrangement unit 722 that determines the arrangement of icons in the virtual space, an operation determination unit 718 that determines that an operation has been performed due to a change in line of sight, and a content processing unit 728 that processes the selected electronic content.
  • An image generation unit 716 that generates display image data
  • a content information storage unit 724 that stores information related to the content to be selected
  • an output unit 726 that outputs the generated data.
  • the position / posture acquisition unit 712 acquires the position and posture of the user's head wearing the head mounted display 100 at a predetermined rate based on the detection value of the motion sensor 64 of the head mounted display 100.
  • the position / orientation acquisition unit 712 further acquires the position and orientation of the head based on an image captured by an imaging apparatus (not shown) connected to the information processing apparatus 200, and integrates the result with information from the motion sensor. Also good.
  • the visual field control unit 714 sets a visual field surface (screen) for the three-dimensional space to be drawn based on the position and posture of the head acquired by the position / posture acquisition unit 712.
  • a plurality of icons to be displayed are expressed as if they are floating in the hollow of the virtual space. Therefore, the visual field control unit 714 holds information on a virtual three-dimensional space for arranging the icon.
  • an omnidirectional background object having a size that encompasses the icon floating in the air and the user's head is defined in a global coordinate system similar to general computer graphics. This creates a sense of depth in the space and makes it more impressive that the icon is floating in the air.
  • the visual field control unit 714 sets screen coordinates with respect to the global coordinate system at a predetermined rate based on the attitude of the head mounted display 100.
  • the orientation of the user's face is determined by the posture of the head mounted display 100, that is, the Euler angle of the user's head.
  • the visual field control unit 714 sets the screen coordinates corresponding to at least the direction in which the face faces, so that the virtual space is drawn on the screen plane with the visual field according to the direction in which the user faces.
  • the normal vector of the user's face is estimated as the direction of the line of sight.
  • line-of-sight information can be obtained by using a device that detects a gazing point by infrared reflection or the like.
  • the direction in which the user is looking which is estimated or detected regardless of the derivation method, is generally referred to as the “line of sight” direction.
  • the visual field control unit 714 may prevent the image from being unintentionally blurred by ignoring the detected change in the angle until the change in the posture of the user's head exceeds a predetermined value.
  • the sensitivity of the head angle detection may be adjusted based on the zoom magnification.
  • the icon arrangement unit 722 determines the arrangement of icons representing each electronic content. As described above, the icons are represented as floating in the virtual space. More specifically, in the virtual space, the distance and direction from the user are distributed around the user. This makes it possible to select an icon in the direction in which the face is facing (the point of view).
  • the icon is an object such as a disk representing a thumbnail image of each electronic content.
  • the icon information storage unit 720 stores information related to the shape of the icon and the electronic content on which the icon is to be displayed. Based on the information stored in the icon information storage unit 720, the icon arrangement unit 722 identifies information such as the number of icons to be displayed, the category to which the icons belong, and the priority, and optimizes the arrangement accordingly. For example, the balance of the overall distribution is adjusted according to the increase or decrease of the icons. In addition, icons belonging to the same category are brought close together. Furthermore, the higher the priority, the closer the distance from the user. As a result, even a large number of icons can be efficiently selected while maintaining an appropriate interval.
  • the icon is moved to the user side or returned to the original according to the movement of the line of sight of the user looking at such an icon. Specifically, the apparent size is increased by moving an icon with the user's line of sight to the vicinity of the user in the virtual space, indicating that the icon has been selected. When the line of sight moves to another icon, the selection state of the original icon is canceled and the position is restored.
  • the icon arrangement unit 722 associates the content identification information with the arrangement information of the icon representing the content, and supplies the information to the image generation unit 716.
  • the operation determination unit 718 determines whether any operation other than a change in the visual field of the menu screen has been performed based on the movement of the user's line of sight.
  • the operations determined here include selection of an icon, playback of electronic content corresponding to the selected icon, processing start, download, information display, transition to display on the corresponding website, display of help information, and the like. . For example, as described above, when a line of sight reaches a certain icon, it is determined that the icon is selected.
  • an operation button for selecting a specific operation content to the corresponding content is additionally displayed, and when the line of sight is moved to that, it is determined that the operation has been performed.
  • the operation determination unit 718 holds determination information for performing such processing and setting information related to processing to be performed in accordance therewith. If it is determined that an operation has been performed and that is an icon selection, the operation determination unit 718 notifies the icon arrangement unit 722 to that effect, thereby moving the icon to the vicinity of the user. Accordingly, when an additional object such as an operation button is displayed, the operation determination unit 718 notifies the image generation unit 716 of a request to that effect.
  • the operation determination unit 718 notifies the image generation unit 716 of a processing request to that effect.
  • an operation for switching the display from the virtual space for the menu screen such as playback / processing start of electronic content or transition to display on a website
  • the operation determination unit 718 notifies the content processing unit 728 of a request to that effect. To do.
  • the image generation unit 716 draws an image to be displayed as a menu screen at a predetermined rate by projecting a virtual space including a plurality of icons determined by the icon arrangement unit 722 onto the screen determined by the visual field control unit 714. To do.
  • the image generation unit 716 further switches the texture image of the spherical object arranged as the background so that the thumbnail image of the icon in the selected state, that is, the line of sight is displayed on the entire background. Further, the background object is rotated at a predetermined minute speed around the user, thereby producing a sense of distance in the depth direction.
  • the image generation unit 716 may generate an image of the menu screen so that the head mounted display 100 can be viewed stereoscopically. That is, parallax images for the left eye and right eye for displaying the screen of the head-mounted display 100 in respective regions divided into right and left may be generated.
  • the image generation unit 716 further changes the image in response to a request from the operation determination unit 718. For example, as described above, an operation button for receiving a specific operation is displayed in the vicinity of the selected icon.
  • the content information storage unit 724 also stores panoramic image data created corresponding to each electronic content or created for a menu screen in order to perform texture mapping to a celestial background object.
  • a panoramic image is an example of an image of a surrounding space centered on a fixed point.
  • the surrounding space panoramic space
  • the background image may be a moving image or still image content created in advance, or may be rendered computer graphics.
  • the content processing unit 728 processes electronic content corresponding to the selected icon in response to a request from the operation determination unit 718. That is, a moving image or a still image is played or a game is started. Data and programs for that purpose are stored in the content information storage unit 724 in association with content identification information.
  • the image generation unit 716 also generates an image for content display such as a moving image or a game screen in accordance with a request from the content processing unit 728. Since a general technique can be applied to specific processing of content, description thereof is omitted here.
  • the output unit 726 sends the image data generated by the image generation unit 716 to the head mounted display 100 at a predetermined rate.
  • the output unit 726 may also output audio data such as audio for menu screen music and various contents.
  • FIG. 6 illustrates a menu screen displayed on the head mounted display 100.
  • the menu screen 500 represents an object in the visual field corresponding to the user's line of sight in the virtual space constructed around the user. Therefore, among the plurality of icons arranged by the icon arrangement unit 722, some icons 502a to 502g within the field of view are displayed. Above each of the icons 502a to 502g, the title of the content represented by the icon is displayed as character information. The user can move his / her line of sight and thus the field of view by freely swinging his / her head vertically and horizontally and looking back, and can also view other icons.
  • An object representing the background is also drawn behind the icons 502a to 502g.
  • the texture image pasted on the object is expressed with a sense of depth.
  • the icons 502a to 502g can be produced as if they are floating in various places in the space included by the background object.
  • the icons 502a to 502g are disk-like objects obtained by texture mapping thumbnail images of the respective electronic contents. However, this is not intended to limit the shape of the icon.
  • the menu screen 500 further displays a cursor 504 representing the point where the image plane and the user's line of sight intersect, that is, the user's viewpoint on the menu screen.
  • the visual field of the menu screen 500 changes according to the movement of the line of sight.
  • the cursor 504 representing the viewpoint is placed at the approximate center of the menu screen 500 regardless of the movement of the line of sight. That is, when the direction of the user's line of sight changes, the field of view also changes, so that the cursor 504 is at a fixed position on the screen, and the virtual world including the icon array and the background object is displaced in the opposite direction.
  • the cursor 504 informs the user of the position that the information processing apparatus 200 recognizes as the viewpoint, and the user intuitively adjusts the swing width of the neck using this as a clue, so that a desired icon or operation button can be accurately displayed. It will be possible to operate. As long as that is the case, the cursor 504 may not exactly match the user's viewpoint. Further, it may be off the center of the screen depending on the speed of movement of the line of sight.
  • the menu screen 500 may further display other objects (not shown). For example, an operation button for displaying help information may be arranged below the virtual space, and the operation may be accepted by entering the screen by turning the line of sight downward.
  • FIG. 7 schematically shows an example of a virtual space constructed when generating a menu image.
  • a spherical background object 510 having a predetermined radius Zb and having the head of the user 516 as the center is set in the virtual space.
  • the first layer 512a, the second layer 512b, the third layer 512c, and the fourth layer 512d which are concentric spheres included in the background object 510 and have different sizes, are set. That is, the radii Z1, Z2, Z3, and Z4 of the first layer 512a, the second layer 512b, the third layer 512c, and the fourth layer 512d are set so that Z1 ⁇ Z2 ⁇ Z3 ⁇ Z4 ⁇ Zb.
  • the layer is information for defining the position and is not displayed as an entity. Icons (for example, icons 514a, 514b, and 514c) are distributed and arranged on each layer surface set in this way. Then, the direction of the user's face (face normal vector 517) is specified as a line of sight, and a screen 518 is set on a vertical plane centered on the line of sight to project an object in the virtual space. Thereby, the menu screen 500 as shown in FIG. 6 is drawn.
  • Icons for example, icons 514a, 514b, and 514c
  • the icons are basically randomly distributed throughout the space surrounding the user 516.
  • “irregular” refers to a state in which the position coordinates of the icon are not represented by any function, for example, are determined by random numbers, such as icons arranged in a straight line or a plane.
  • icons By expressing icons as floating in various positions at different azimuths and distances as viewed from the user, high design and entertainment can be provided even on a menu screen.
  • the size of the icon placed there may be reduced as the layer is farther from the user. By doing so, it seems that there is an icon further behind the radius actually given to the layer under the limitation that it is inside the background object, and the expansion of the space can be produced. Further, when moving the selected icon to the vicinity of the user, more dynamic movement can be expressed. In the example of FIG. 7, four layers are shown, but the number of layers is not limited to this.
  • the background object 510 on which the panoramic image is texture-mapped as a background is rotated at a predetermined speed around a vertical axis passing through the user's head as indicated by an arrow A.
  • the example shown is clockwise rotation, but it may be in the reverse direction.
  • the rotation speed is preferably a minute value that is not noticeable unless the background is watched. If the background is moving at such a speed as to be noticed even when looking at the icon, the user feels as if he / she is moving, and in some cases, he / she experiences sickness such as sickness.
  • By moving the image at such a speed as to be recognized at a lower level of consciousness it is possible to bring about a visual effect such that the background is deeper without such problems.
  • FIG. 8 exemplifies the transition of the menu screen according to the movement of the line of sight.
  • a On the upper screen (a), a plurality of icons 520 displayed as described above and a cursor 522 representing the user's viewpoint are displayed.
  • the icons 520 are arranged in a distributed manner on a plurality of concentric sphere layers centered on the user, and as a result, the apparent sizes and orientations vary.
  • FIG. 6 only icons are shown on the menu screen.
  • a character string such as a title is also displayed above each icon in a size and shape according to the distance and angle from the user. .
  • the cursor 522 does not overlap the icon 520.
  • the field of view of the screen moves to the right accordingly.
  • the position of the cursor 522 in the screen does not change, but the entire icon moves relatively to the left.
  • the moving direction of the line of sight is not limited, and in any case, the entire icon moves in the opposite direction according to the movement of the line of sight. If the cursor 522 overlaps with a certain icon 524 due to such a movement, the icon 524 is moved to the user side in the virtual space to indicate that it is in a selected state.
  • the icon 524 in the selected state moves in front of the user's eyes, the apparent size increases.
  • a moving image is displayed in which the icons are approaching during the transition from (a) to (b).
  • the icon 524 is displayed at the same distance and the same size from the user when selected. Accordingly, it is possible to express a state in which icons at various positions are attracted to the user by matching the line of sight and stopped at the same position.
  • an operation button is additionally displayed below the icon 524.
  • the operation buttons may vary depending on the type of content represented by the icon, but in the figure, assuming the moving image content, the information display button 526a, the reproduction start button 526b, the corresponding website display button 526c (hereinafter collectively referred to as “operation button 526”). 3) is displayed. In this state, as shown on the right side of the lower stage (c), when the user moves his / her line of sight downward, the screen field of view moves downward accordingly.
  • the position of the cursor 522 in the screen does not change as in the screen of (c), but the entire icon moves relatively upward.
  • an operation corresponding to the operation button is accepted.
  • a playback start operation of the moving image content represented by the icon 524 in the selected state is accepted, and playback processing is started.
  • the content processing unit 728 performs the control.
  • the display is switched to character information that outlines a moving image in the same virtual space as the menu screen.
  • the display is switched to the website display by connecting to the server that provides the website.
  • a button for downloading the electronic content represented by the selected icon may be displayed.
  • Some conditions may be set in order to validate the operation on the operation button and start the corresponding processing.
  • the operation may be determined to be valid on the condition that a predetermined time has elapsed after the cursor 522 overlaps the operation button.
  • an indicator indicating the remaining time until the operation is validated may be separately displayed.
  • FIG. 9 is a diagram for explaining a change given to the selected icon.
  • the screen 518 is set according to the line of sight of the user 516.
  • a cursor 522 representing the user's viewpoint is displayed at the center of the screen as shown in FIG.
  • the first layer 512a, the second layer 512b, and the third layer 512c which are concentric spheres, are set around the user 516.
  • the first layer 512a, the second layer 512b, and the third layer 512c which are concentric spheres, are set around the user 516.
  • the icon 524a is linearly displayed on the user side as indicated by an arrow B. Move to. And it stops at the position of predetermined distance (DELTA) Z from the screen 518 (icon 524b).
  • DELTA predetermined distance
  • the icon that overlaps the cursor 522 moves in the virtual space on the Z axis, which is the direction of the line of sight. Therefore, the initial arrangement is preferably determined so that no other icon exists on the axis. That is, in the virtual space, one layer is selected and arranged so that two or more icons are not arranged on one line in a plurality of radiations defining the orientation from the head of the user 516. The angle formed between the radiations is set in accordance with the number of icons within a range that does not contact the icon on the adjacent radiation until the icon moves to the position of ⁇ Z.
  • the icon arrangement unit 722 updates the arrangement so that there is no unnatural bias each time. As a case where the number of icons increases or decreases, there are cases where the user downloads new electronic content or deletes the original electronic content.
  • the distance from the user may be determined based on the priority given to the icon. For example, the frequency selected in the past is recorded for each icon, and the icons with higher frequency are arranged in a layer closer to the user.
  • a recommended electronic content icon may be obtained from a server or the like according to the selection history, and placed in a layer close to the user.
  • the selection history is stored in the icon information storage unit 720, and the icon placement unit 722 determines a layer to be placed by referring to it, or obtains data by inquiring the server for recommendations. .
  • the distance between icons may be adjusted according to the type of electronic content represented by the icon. For example, by arranging icons of contents belonging to the same category close to each other in the virtual space, a cluster is formed as viewed from the user. In this way, when the information represented by the icon is classified into categories, such as when the information has a hierarchical structure, when the cursor is over the icon representing the upper layer information, the lower layer belonging to that position is located near the position of the cursor An icon representing the information may be born.
  • FIG. 10 is a flowchart illustrating a processing procedure in which the information processing apparatus 200 generates a menu screen and receives a selection operation. This flowchart is started when the user wears the head mounted display 100 and turns on the information processing apparatus 200, for example.
  • the icon arrangement unit 722 of the information processing device 200 specifies the number, priority, category, and the like of the content on which the icon is to be displayed based on the icon information stored in the icon information storage unit 720, and accordingly, in the virtual space.
  • the arrangement of the icons is determined (S10).
  • the visual field control unit 714 defines a virtual space including a background object and determines a visual field plane (screen) for the virtual space based on the position and orientation of the user's head.
  • the image generation unit 716 draws a menu screen by projecting a virtual space including the icon arrangement on the screen (S12).
  • a general computer graphics technique can be applied to the drawing process itself.
  • the image generation unit 716 superimposes and displays a cursor representing the user's viewpoint on the menu screen.
  • the visual field control unit 714 changes the screen according to the change in the posture of the head, and the image generation unit 716 repeats the process of drawing an image on the screen at a predetermined rate.
  • the background object to which the background image is mapped is continuously rotated around the user in the horizontal direction at a predetermined minute speed.
  • the output unit 726 sequentially outputs the generated image data to the head mounted display 100, so that the menu screen is dynamically expressed according to the movement of the line of sight.
  • the icon information storage unit 720 selects the state by moving the icon in the virtual space toward the user. (S16). At this time, the image generation unit 716 updates the image of the background object to that corresponding to the icon in the selected state. This background image is displayed until another icon is selected next time. In addition, a predetermined operation button is displayed below the selected icon (S18).
  • the operation determination unit 718 selects the operation target. Processing is requested to the image generation unit 716 or the content processing unit 728 depending on the type of button. Thereby, a corresponding process is performed (S24).
  • the processing of S16 and S18 is performed as a set for the icon.
  • the image generation unit 716 draws the virtual space only in accordance with the visual field change (N in S14, S12).
  • the image generation unit 716 restarts the drawing process of the menu screen (Y in S26, S12). If the operation for returning to the menu screen is not performed, the image generation unit 716 or the content processing unit 728 continues the processing so far (N in S26, N in S28, and S24). However, in the process, if it is necessary to end the process by a user operation or the like, the information processing apparatus 200 ends the entire process (Y in S28).
  • the menu screen that accepts selection inputs from a plurality of icons is expressed as a virtual space whose field of view changes according to the change in the face direction and line of sight of the user.
  • an all-spherical background object is arranged in the virtual space, and icons are distributed and arranged therein.
  • the icon whose line of sight has arrived by swinging or the like is moved so as to be drawn in front of the user's eyes, and an operation button for receiving a detailed operation on the icon is displayed below the icon.
  • icons can be arranged at various distances in the virtual space, many icons can be displayed at once, and contents can be selected while enjoying the world view of the virtual space.
  • the selection operation can be performed with a reasonable movement.
  • a sense of depth can be further produced and a unique world view can be expressed.
  • control unit 20 input interface, 30 output interface, 32 backlight, 40 communication control unit, 42 network adapter, 44 antenna, 50 storage unit, 64 motion sensor, 70 external input / output terminal interface, 72 external memory, 80 clock unit , 100 head mounted display, 200 information processing device, 222 CPU, 224 GPU, 226 main memory, 712 position / attitude acquisition unit, 714 visual field control unit, 716 image generation unit, 718 operation determination unit, 720 icon information storage unit, 722 Icon placement unit, 724 content information storage unit, 726 output unit, 728 content processing unit.
  • the present invention can be used for game machines, information processing apparatuses, image display apparatuses, and systems including any of them.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想空間において、ユーザ516の頭部を略中心とする、所定半径Zbの球形の背景オブジェクト510を設定し、それに包含される同心球であり、サイズが互いに異なる第1レイヤ512a、第2レイヤ512b、第3レイヤ512c、第4レイヤ512dの面に、アイコン514a、514b、514cを分散させて配置する。頭部の姿勢情報に基づき、ユーザの顔面の法線ベクトル517を視線として特定し、それを中心とする垂直面にスクリーン518を設定して仮想空間のオブジェクトを投影することによりメニュー画面を描画する。メニュー画面において視線が到達したアイコンは、仮想空間でユーザ側に移動させる。

Description

情報処理装置および操作受付方法
 この発明は、ユーザとのインタラクションにより情報処理を実施する情報処理装置およびそれが実施する操作受付方法に関する。
 ユーザの体やマーカーをカメラで撮影し、その像の領域を別の画像で置換してディスプレイに表示するゲームが知られている。撮影画像のみならず、各種センサをユーザに装着させたり把持させたりしてその計測値を解析し、ゲームなどの情報処理に反映させる技術は、小型のゲーム機からレジャー施設まで、その規模によらず幅広い分野で利用されている。
 その一例として、ヘッドマウントディスプレイにパノラマ映像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じたパノラマ画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させたりすることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。
 ユーザがヘッドマウントディスプレイなどのウェアラブルディスプレイを装着した状態では特に、コントローラやキーボードなどの入力デバイスを用いてシステムに対し操作入力を行うことは難しい。また表示装置の種類によらず、動画やゲームなどの電子コンテンツ表示時に、パノラマ画像や立体視により仮想空間への没入感を与えるような高度な画像表現を実現しても、当該電子コンテンツを選択するメニュー画面や設定画面で上記のような入力デバイスを必要としたり簡素な画面構成としたりすれば、ユーザの興味がそがれてしまう。したがってそのような操作受付画面の表示においても、仮想空間が表現する世界観を維持しつつ、操作性も損なわない技術が求められている。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、操作受付画面の表示において、仮想空間が表現する世界観と操作性とを両立できる技術を提供することにある。
 上記課題を解決するために、本発明のある態様は情報処理装置に関する。この情報処理装置は、複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける情報処理装置であって、仮想空間に複数のアイコンを配置するアイコン配置部と、ユーザの頭部の姿勢情報を取得し、それに基づき仮想空間に対する視野面を決定する視野制御部と、視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する画像生成部と、メニュー画面に描画されるアイコンの像とカーソルの位置関係に基づき、操作内容を特定する操作判定部と、を備え、アイコン配置部は、仮想空間において、ユーザの頭部を中心とする球形の背景オブジェクト内に、ユーザからの方位および距離が互いに異なるように複数のアイコンを配置することを特徴とする。
 本発明の別の態様は、操作受付方法に関する。この操作受付方法は、複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける、情報処理装置による操作受付方法であって、仮想空間に複数のアイコンを配置するステップと、ユーザの頭部の姿勢情報を取得し、それに基づき仮想空間に対する視野面を決定するステップと、視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力するステップと、メニュー画面に描画されるアイコンの像とカーソルの位置関係に基づき、操作内容を特定するステップとを含み、アイコンを配置するステップは、仮想空間において、ユーザの頭部を中心とする球形の背景オブジェクト内に、ユーザからの方位および距離が互いに異なるように複数のアイコンを配置することを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、仮想空間が表現する世界観と操作性とを両立した操作受付画面を提供できる。
本実施の形態のヘッドマウントディスプレイの外観図である。 本実施の形態のヘッドマウントディスプレイの機能構成図である。 本実施の形態の情報処理システムの構成図である。 本実施の形態の情報処理装置の内部回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックを示す図である。 本実施の形態で表示されるメニュー画面を例示する図である。 本実施の形態においてメニュー画像を生成する際に構築される仮想空間の例を模式的に示す図である。 本実施の形態における、視線の動きに応じたメニュー画面の変遷を例示する図である。 本実施の形態において選択状態となったアイコンに与える変化を説明するための図である。 本実施の形態において情報処理装置がメニュー画面を生成し選択操作を受け付ける処理手順を示すフローチャートである。
 本実施の形態では、メニュー画面など選択操作を受け付ける画面を、ユーザの視線の動きに応じて視野を変化させつつ表示する。その限りにおいて、画像を表示させる装置の種類は特に限定されず、ウェアラブルディスプレイ、平板型のディスプレイ、プロジェクタなどのいずれでもよいが、ここではウェアラブルディスプレイのうちヘッドマウントディスプレイを例に説明する。
 ウェアラブルディスプレイの場合、ユーザの視線は内蔵するモーションセンサによりおよそ推定できる。その他の表示装置の場合、ユーザがモーションセンサを頭部に装着したり、注視点検出装置を用いて赤外線の反射を検出したりすることで視線を検出できる。あるいはユーザの頭部にマーカーを装着させ、その姿を撮影した画像を解析することにより視線を推定してもよいし、それらの技術のいずれかを組み合わせてもよい。
 図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサにより、ヘッドマウントディスプレイ100を装着したユーザの頭部の回転角や傾きといった姿勢情報を計測することができる。
 ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ装置」の一例である。ウェアラブルディスプレイ装置には、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドホン、ヘッドセット(マイクつきヘッドホン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなど任意の装着可能なディスプレイ装置が含まれる。
 図2は、ヘッドマウントディスプレイ100の機能構成図である。制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
 通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
 モーションセンサ64は、ヘッドマウントディスプレイ100の本体部110の回転角や傾きなどの姿勢情報を検出する。モーションセンサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
 時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させたりすることができる。
 図3は、本実施の形態に係る情報処理システムの構成図である。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインタフェース300で情報処理装置200に接続される。情報処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを情報処理装置200に提供してもよい。ヘッドマウントディスプレイ100は、情報処理装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
 ヘッドマウントディスプレイ100に表示される画像は、あらかじめ撮影された360度のパノラマ静止画またはパノラマ動画の他、ゲーム空間のような人工的なパノラマ画像であってもよい。また、ネットワーク経由で配信される遠隔地のライブ映像であってもよい。ただし本実施の形態をパノラマ画像に限定する主旨ではなく、表示装置の種類によって、パノラマ画像とするか否かを適宜決定してよい。
 図4は情報処理装置200の内部回路構成を示している。情報処理装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インタフェース228が接続されている。
 入出力インタフェース228には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100などの表示装置へデータを出力する出力部236、ヘッドマウントディスプレイ100からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
 CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより情報処理装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
 図5は、本実施の形態における情報処理装置200の機能ブロックを示している。本実施の形態における情報処理装置200は、上述のとおり視線の動きにより視野が変化するとともに、当該視線によって複数の選択肢から1つを選択する入力を受け付けるための画面(以後、「メニュー画面」と呼ぶ)を生成する。そして当該画面に対する選択入力を受け付け、それに対応する処理を実行する。選択に応じてなされる処理は特に限定されないが、ここでは一例として、ゲームや動画などの電子コンテンツの処理を想定する。そして各電子コンテンツを表象するアイコンをメニュー画面に表す。
 なお図5で示した情報処理装置200の機能のうち少なくとも一部を、ヘッドマウントディスプレイ100の制御部10に実装してもよい。あるいは、情報処理装置200の少なくとも一部の機能を、ネットワークを介して情報処理装置200に接続されたサーバに実装してもよい。またメニュー画面を生成し選択入力を受け付ける機能をメニュー画面制御装置として、電子コンテンツを処理する装置と別に設けてもよい。
 同図は情報処理装置200が有する機能のうち、主にメニュー画面の制御に係る機能に着目したブロック図を描いている。これらの機能ブロックは、ハードウェア的には、図4に示したCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 情報処理装置200は、ヘッドマウントディスプレイ100の位置や姿勢を取得する位置・姿勢取得部712、ユーザの視線に基づき表示画像の視野を制御する視野制御部714、表示対象のアイコンに係る情報を記憶するアイコン情報記憶部720、仮想空間におけるアイコンの配置を決定するアイコン配置部722、視線の変化により操作がなされたことを判定する操作判定部718、選択された電子コンテンツを処理するコンテンツ処理部728、表示画像のデータを生成する画像生成部716、選択対象のコンテンツに係る情報を記憶するコンテンツ情報記憶部724、および、生成されたデータを出力する出力部726を備える。
 位置・姿勢取得部712は、ヘッドマウントディスプレイ100のモーションセンサ64の検出値に基づいて、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢を所定のレートで取得する。位置・姿勢取得部712はさらに、情報処理装置200に接続した図示しない撮像装置による撮影画像に基づき、頭部の位置や姿勢を取得したり、その結果をモーションセンサによる情報と統合したりしてもよい。
 視野制御部714は、位置・姿勢取得部712により取得された頭部の位置や姿勢に基づいて、描画対象の3次元空間に対する視野面(スクリーン)を設定する。本実施の形態のメニュー画面では、表示対象の複数のアイコンを、仮想空間の中空に浮かんでいるように表現する。したがって視野制御部714は、当該アイコンを配置するための仮想的な3次元空間の情報を保持している。
 当該仮想空間には、空中に浮かぶアイコンとユーザの頭部を包含するような大きさの全天球状の背景オブジェクトを、一般的なコンピュータグラフィクスと同様のグローバル座標系に定義する。これにより空間に奥行き感が生じ、アイコンが空中に浮いている状態をより印象づけられる。そして視野制御部714は、当該グローバル座標系に対するスクリーン座標を、ヘッドマウントディスプレイ100の姿勢に基づいて所定のレートで設定する。
 ヘッドマウントディスプレイ100の姿勢、すなわちユーザ頭部のオイラー角によってユーザの顔面の向く方向が判明する。視野制御部714は少なくとも、当該顔面の向く方向に対応させてスクリーン座標を設定することにより、ユーザが向く方向に応じた視野で仮想空間がスクリーン平面に描画されるようにする。この場合、ユーザの顔面の法線ベクトルをおよそ視線の方向と推定していることになる。
 なお赤外線の反射などにより注視点を検出する装置を用いればさらに詳細な視線情報を得ることができる。以後の説明では、導出手法によらず推定あるいは検出された、ユーザが見ている方向を総じて「視線」の方向と称する。視野制御部714は、ユーザ頭部の姿勢の変化が所定の値を超えるまでは検出された角度の変化を無視するようにして、意図せず画像がぶれるのを防いでもよい。また表示画像のズーム操作を受け付けるような場合は、ズーム倍率に基づいて頭部の角度検出の感度を調整してもよい。
 アイコン配置部722は、各電子コンテンツを表象するアイコンの配置を決定する。上述のとおりアイコンは仮想空間に浮いているように表す。より具体的には仮想空間において、ユーザの周囲に、ユーザからの距離および方位を分散させて配置する。これにより、顔が向いた方向(視線の先)にあるアイコンを選択できるようにする。アイコンは各電子コンテンツのサムネイル画像を表す円板などのオブジェクトとする。
 アイコン情報記憶部720には、アイコンの形状や、アイコンを表示すべき電子コンテンツに係る情報が格納されている。アイコン配置部722は、アイコン情報記憶部720に格納された情報に基づき、表示すべきアイコンの数、アイコンが属するカテゴリ、優先度などの情報を特定し、それに応じて配置を最適化する。例えばアイコンの増減に応じて全体的な分散のバランスを調整する。また同じカテゴリに属するアイコン群を近接させる。さらに、優先度の高いアイコンほどユーザからの距離を近くする。これらのことにより、多くのアイコンであっても適切な間隔を保ちつつ効率的な選択ができるようにする。
 さらに、そのようなアイコンを見ているユーザの視線の動きに応じて、アイコンをユーザ側に移動させたり元に戻したりする。具体的には、ユーザが視線を合わせたアイコンを仮想空間においてユーザの近傍に移動させることにより見かけ上のサイズを大きくし、当該アイコンが選択状態となったことを表す。そして別のアイコンに視線が移ったら、元のアイコンの選択状態を解除して位置を元に戻す。アイコン配置部722は、コンテンツの識別情報と、当該コンテンツを表すアイコンの配置情報を対応づけて、画像生成部716に供給する。
 操作判定部718は、ユーザの視線の動きにより、メニュー画面の視野変化以外の何らかの操作がなされたか否かを判定する。ここで判定される操作とは、アイコンの選択、選択されたアイコンに対応する電子コンテンツの再生、処理開始、ダウンロード、情報表示、対応するウェブサイトへの表示の移行、ヘルプ情報の表示などである。例えば上述のとおり、あるアイコンに視線が到達したとき、当該アイコンが選択されたと判定する。
 これに応じて、対応するコンテンツへの具体的な操作内容を選択するための操作ボタンを追加で表示させ、それに視線が移されたら当該操作がなされたと判定する。操作判定部718は、そのような処理を実施するための判定基準とそれに応じてなすべき処理に係る設定情報を保持している。操作がなされたと判定され、それがアイコンの選択である場合は、操作判定部718はその旨をアイコン配置部722に通知することによりアイコンをユーザの近傍に移動させる。これに伴い操作ボタン等、追加のオブジェクトを表示させる場合は、操作判定部718はその旨の要求を画像生成部716に通知する。
 メニュー画面用の仮想空間内で処理が完結するその他の場合、例えば選択状態のコンテンツに係る概説を表示する操作がなされた場合や、メニュー画面に対するヘルプ情報を表示する操作がなされた場合なども、操作判定部718はその旨の処理要求を画像生成部716に通知する。電子コンテンツの再生・処理開始や、ウェブサイトへの表示の移行など、メニュー画面用の仮想空間から表示を切り替える操作がなされた場合、操作判定部718はその旨の要求をコンテンツ処理部728に通知する。
 画像生成部716は、アイコン配置部722が配置を決定した複数のアイコンを含む仮想空間を、視野制御部714が決定したスクリーンに投影することにより、メニュー画面として表示させる画像を所定のレートで描画する。画像生成部716はさらに、選択状態にある、すなわち視線が向いているアイコンのサムネイル画像が背景全体に表されるように、背景として配置されている全天球状のオブジェクトのテクスチャ画像を切り替える。さらにこの背景オブジェクトを、ユーザを中心に所定の微小速度で回転させることにより、奥行き方向の距離感をより与えられるように演出する。
 画像生成部716は、ヘッドマウントディスプレイ100において立体視できるようにメニュー画面の画像を生成してもよい。すなわちヘッドマウントディスプレイ100の画面を左右に分割してなる領域にそれぞれ表示するための、左眼用、右眼用の視差画像を生成してもよい。画像生成部716はさらに、操作判定部718からの要求に応じて画像に変化を与える。例えば上述のとおり、選択状態のアイコンの近傍に、具体的な操作を受け付けるための操作ボタンを表示する。
 あるいはコンテンツを概説する文字情報やメニュー画面に対するヘルプ情報などを表示する。各コンテンツについての文字情報や、アイコンや背景の描画に用いるサムネイル画像などのデータは、コンテンツの識別情報に対応づけてコンテンツ情報記憶部724に格納しておく。あるいはネットワークを介して接続されたサーバから直接取得してもよい。コンテンツ情報記憶部724には、全天球の背景オブジェクトにテクスチャマッピングするため、各電子コンテンツに対応して作成された、あるいはメニュー画面用に作成された、パノラマ画像のデータも格納しておく。
 パノラマ画像は、定点を中心とする周囲の空間の画像の一例であり、全天球のパノラマ画像の場合、周囲の空間(パノラマ空間)は球で表される。なお背景の画像は、事前に作成された動画または静止画コンテンツであってもよく、レンダリングされたコンピュータグラフィックスであってもよい。
 コンテンツ処理部728は、操作判定部718からの要求に応じて、選択されたアイコンに対応する電子コンテンツを処理する。すなわち動画や静止画を再生したり、ゲームを開始させたりする。そのためのデータやプログラムは、コンテンツの識別情報に対応づけてコンテンツ情報記憶部724に格納しておく。画像生成部716は、コンテンツ処理部728からの要求に従い、動画像やゲーム画面などコンテンツ表示のための画像も生成する。コンテンツの具体的な処理については一般的な技術を適用できるため、ここでは説明を省略する。
 出力部726は、画像生成部716が生成した画像のデータを、ヘッドマウントディスプレイ100に所定のレートで送出する。出力部726はさらに、メニュー画面用の音楽や各種コンテンツに含まれる音声などの音響データも出力してよい。
 図6は、ヘッドマウントディスプレイ100に表示されるメニュー画面を例示している。メニュー画面500は、ユーザの周囲に構築された仮想空間のうち、ユーザの視線に対応する視野内にある物を表現している。したがって、アイコン配置部722が配置した複数のアイコンのうち、当該視野内にある一部のアイコン502a~502gが表示されている。各アイコン502a~502gの上方には、アイコンが表すコンテンツのタイトル等を文字情報として表示する。ユーザは首を縦横斜めと自由に振ったり後ろを振り返ったりすることにより、視線、ひいては視野を移動させ、そのほかのアイコンも閲覧することができる。
 アイコン502a~502gの背後には、背景を表すオブジェクトも描画される。上述のように全天空を表す背景オブジェクトとしたり、当該オブジェクトを、ユーザを中心に微小速度で回転させたりすることにより、それに貼り付けられたテクスチャ画像が奥行き感を伴い表現される。これによりアイコン502a~502gが、背景オブジェクトで包含された空間の様々な場所に浮いているように演出できる。図示する例では、アイコン502a~502gは、各電子コンテンツのサムネイル画像をテクスチャマッピングした円板状のオブジェクトである。ただしアイコンの形状をこれに限定する主旨ではない。
 メニュー画面500にはさらに、画像平面とユーザの視線が交差する点、すなわちメニュー画面におけるユーザの視点を表すカーソル504を表示する。上述のようにメニュー画面500の視野は、視線の動きに応じて変化する。結果として視点を表すカーソル504は、視線の動きによらず、メニュー画面500の略中央に据え置かれることになる。すなわちユーザの視線の方向が変化すると視野も同様に変化するため、画面上ではカーソル504は定位置にあり、相対的にアイコン配列および背景オブジェクトを含む仮想世界が逆方向に変位することになる。
 カーソル504は、情報処理装置200が視点と認識している位置をユーザ自身に知らしめ、ユーザがそれを手がかりに首の振り幅を直感的に調整することにより、所望のアイコンや操作ボタンを正確に操作できるようにするものである。その限りにおいては、カーソル504は厳密にユーザの視点と一致していなくてもよい。また視線の動きの速さなどによって、画面の中心から外れることがあってもよい。なおメニュー画面500にはさらに、図示しないその他のオブジェクトを表示させてもよい。例えばヘルプ情報を表示させるための操作ボタンを仮想空間における下方に配置し、視線を下に向けることにより画面内に入るようにしてその操作を受け付けるようにしてもよい。
 図7は、メニュー画像を生成する際に構築される仮想空間の例を模式的に示している。上述のとおり仮想空間には、ユーザ516の頭部を略中心とする、所定半径Zbの球形の背景オブジェクト510を設定する。そして当該背景オブジェクト510に包含される同心球であり、サイズが互いに異なる第1レイヤ512a、第2レイヤ512b、第3レイヤ512c、第4レイヤ512dを設定する。つまり第1レイヤ512a、第2レイヤ512b、第3レイヤ512c、第4レイヤ512dの半径Z1、Z2、Z3、Z4を、Z1<Z2<Z3<Z4<Zbとなるように設定する。
 なおレイヤは位置を規定するための情報であり実体として表示されるものではない。このように設定した各レイヤ面に、アイコン(例えばアイコン514a、514b、514c)を分散させて配置する。そしてユーザの顔面の向く方向(顔面の法線ベクトル517)を視線として特定し、それを中心とする垂直面にスクリーン518を設定して仮想空間のオブジェクトを投影する。これにより、図6で示したようなメニュー画面500が描画される。
 アイコンは基本的に、ユーザ516を囲む空間全体に不規則に分散させて配置する。ここで「不規則」とはアイコンが直線上や平面上に並んでいるなど、アイコンの位置座標が何らかの関数によって表されることがなく、例えば乱数によって決定されるような状態を指す。ユーザから見て異なる方位および距離の様々な位置に星のようにアイコンが浮かんでいるように表現することで、メニュー画面であっても高いデザイン性や娯楽性を与えることができる。ただし天頂および天底を含む所定範囲をアイコンの配置禁止領域とすることにより、無理なく顔を向けられる方向に限定してアイコンを配置することが望ましい。一般的に下方より頭上の方が顔を向けにくいことを考慮すると、配置禁止領域とする範囲を規定する天頂角θu、天底角θbを、θu>θbとすることが望ましい。
 また、ユーザから離れたレイヤほど、そこに配置するアイコンのサイズを小さくしてもよい。このようにすることで、背景オブジェクトの内側、という限定のもとで実際にレイヤに与えた半径よりさらに奥にアイコンがあるように見え、空間の広がりを演出できる。また、選択状態になったアイコンをユーザの近傍に移動させる際、よりダイナミックな動きを表現できる。なお図7の例では4つのレイヤを示しているが、レイヤの数をこれに限定する主旨ではない。
 背景としてパノラマ画像がテクスチャマッピングされた背景オブジェクト510は、矢印Aのように、ユーザの頭部を通る縦方向の軸を中心に所定速度で回転させる。図示する例は時計回りの回転であるが、逆方向でもよい。これにより、図6で示したようなメニュー画面500では、背景が右または左に移動していくことになる。回転の速度は好適には、背景を注視していなければ気づかれない程度の微小な値とする。アイコンを見ていても気づく程度の速さで背景が動いていると、ユーザは自分自身が動いているような感覚になり場合によっては酔いなどの体調不良を生じさせる。意識下レベルで関知する程度の速度で画像を動かすことにより、そのような不具合なく、背景がより奥にあるような視覚効果をもたらすことができる。
 図8は、視線の動きに応じたメニュー画面の変遷を例示している。まず上段の(a)の画面では、これまで述べたようにして表示される複数のアイコン520と、ユーザの視点を表すカーソル522が表示されている。図7を参照して説明したように、アイコン520は仮想空間において、ユーザを中心とする同心球の複数のレイヤ上に分散して配置され、結果として見かけ上の大きさや向きが様々となる。同図では、メニュー画面のうちアイコンのみを示しているが、図6に示すように各アイコンの上方にはタイトルなどの文字列も、ユーザからの距離や角度に応じた大きさや形状で示される。
 (a)の状態では、カーソル522がアイコン520と重なっていない。ここでユーザが、例えば首を微少量、右方に振る、すなわち右方に視線を移動させると、それに応じて画面の視野が右方に移動する。結果として中段の(b)に示すように、画面内でのカーソル522の位置は変化しないが、アイコン全体が相対的に左方へ移動する。当然、視線の移動方向は限定されず、いずれにしろ視線の移動に応じて逆方向にアイコン全体が移動する。このような動きにより、あるアイコン524にカーソル522が重なったら、当該アイコン524を仮想空間でユーザ側へ移動させることにより選択状態であることを表す。
 すなわち図示するように、選択状態のアイコン524がユーザの眼前に移動することにより、見かけ上のサイズが大きくなる。なお(a)から(b)への遷移途上には当然、アイコンが近づいてくる様子が動画表示される。アイコン524がどの位置にあったとしても、また距離に応じてアイコンのサイズを小さくしていても、選択状態となったらユーザから同じ距離かつ同じサイズで表示する。これにより、様々な位置にあるアイコンが、視線を合わせることによりユーザに引き寄せられ、同じ位置で止まるような状態を表現できる。
 アイコンが選択状態となったら、当該アイコン524の下方に操作ボタンを追加で表示する。操作ボタンはアイコンが表すコンテンツの種類によって様々でよいが、同図では動画コンテンツを想定し、情報表示ボタン526a、再生開始ボタン526b、対応ウェブサイト表示ボタン526c(以後、「操作ボタン526」と総称する場合がある)の3つを表示している。この状態で下段(c)の右側に示すように、ユーザがうなずくようにして視線を下方に動かすと、それに応じて画面の視野が下方に移動する。
 結果として(c)の画面のように、画面内でのカーソル522の位置は変化しないが、アイコン全体が相対的に上方へ移動する。これによりカーソル522が操作ボタン526のいずれかと重なったら、当該操作ボタンに対応する操作を受け付ける。図示する例では再生開始ボタン526bと重なっているため、選択状態のアイコン524が表す動画コンテンツの再生開始操作を受け付け、再生処理を開始する。この場合、表示中のメニュー画面から動画へ表示が切り替わるため、その制御はコンテンツ処理部728が行う。
 なおカーソル522が情報表示ボタン526aと重なった場合は、メニュー画面と同じ仮想空間内で動画を概説する文字情報へ表示を切り替える。カーソル522が対応ウェブサイト表示ボタン526cと重なった場合は、当該ウェブサイトを提供するサーバへ接続することによりウェブサイトの表示へ切り替える。操作ボタンとしてはこのほか、選択状態のアイコンが表す電子コンテンツをダウンロードするボタンなどを表示させてもよい。
 図示するように操作ボタン526を選択状態のアイコン524の下方近傍に出現させることにより、より少ない労力で、かつアイコン選択との連続性を保ちながら各種操作が可能になる。結果として操作ボタン526が、選択状態にない他のアイコンと重なる可能性が生じるが、操作ボタンを表示している期間は他のアイコンの選択を無効とすることにより、操作ボタンに対する操作を優先させる。
 操作ボタンに対する操作を有効とし、それに対応する処理を開始するために、何らかの条件を設定してもよい。例えばカーソル522が操作ボタンに重なってから所定時間が経過したことを条件に、操作を有効と判定してもよい。この場合、カーソル522が操作ボタンに重なった時点で、操作が有効とされるまでの残り時間を表すインジケータを別途、表示してもよい。このようにすることで、首の微妙な動きで偶然、操作ボタンにカーソルがかかってしまい、意図しない処理が頻繁に開始されてしまうといった不具合を解消できる。また意図してカーソル522を操作ボタンに移動させたとしても、処理が開始されるまでにキャンセルの余地を与えることができる。
 図9は、選択状態となったアイコンに与える変化を説明するための図である。図7で説明したように、ユーザ516の視線に応じてスクリーン518が設定される。当該スクリーンの中心には、図8で示したようにユーザの視点を表すカーソル522が表示される。一方、ユーザ516の周囲には同心球の第1レイヤ512a、第2レイヤ512b、第3レイヤ512cが設定されるが、同図ではその一部のみを示している。
 それらのレイヤ上に配置されたアイコンのうち、第3レイヤ512c上に配置されたアイコン524aに視線が到達し、カーソル522と重なったら、矢印Bで示すように当該アイコン524aをユーザ側に直線的に移動させる。そしてスクリーン518から所定距離ΔZの位置で停止させる(アイコン524b)。上述のように初期の配置において奥に位置するレイヤほどアイコンのサイズを小さくし奥行き感を演出している場合は、ユーザからの距離の短縮とともに徐々に拡大していくことにより、元々他と同じサイズであったアイコンがより遠くから移動してきたように見せることができる。
 カーソル522と重なったアイコンは仮想空間において、視線の方向であるZ軸上を移動する。そのため好適には当該軸上に他のアイコンが存在しないように初期の配置を決定する。すなわち仮想空間において、ユーザ516の頭部からの方位を規定する複数の放射線において、1つの線上には2つ以上のアイコンが配置されないように、レイヤを1つ選んで配置する。当該放射線同士のなす角度は、アイコンがΔZの位置に移動するまでに隣の放射線上のアイコンと接しない範囲で、アイコンの数に応じて設定する。
 このように配置することで、選択状態となったアイコンが他のアイコンを透過して移動するなどの不自然さをなくすことができる。このような拘束条件のもと、各放射線上のどのレイヤにアイコンを配置させるか、すなわち複数のアイコンをどのように分散させて配置するか、については様々なアプローチが考えられる。例えば、表示すべきアイコンの数に増減があったら、アイコン配置部722はその都度、不自然な偏りがないように配置を更新する。アイコンが増減するケースとしては、ユーザが新たな電子コンテンツをダウンロードしたり、元からあった電子コンテンツを削除したりした場合が考えられる。
 またアイコンに与えられた優先度に基づきユーザからの距離を決定してもよい。例えば過去に選択された頻度をアイコンごとに記録していき、頻度が高いアイコンほどユーザに近いレイヤに配置する。選択履歴に応じてサーバなどからお勧めの電子コンテンツのアイコンを取得し、それをユーザから近いレイヤに配置してもよい。この場合、アイコン情報記憶部720には選択履歴を格納しておき、アイコン配置部722がそれを参照することにより配置するレイヤを決定したり、サーバにお勧めを問い合わせてデータを取得したりする。
 さらに、アイコンが表す電子コンテンツの種類に応じて、アイコン同士の距離を調整してもよい。例えば同じカテゴリに属するコンテンツのアイコンを仮想空間において近接させまとめて配置することにより、ユーザから見てクラスタが形成されるようにする。このようにアイコンが表象するコンテンツがカテゴリに分類されている場合など、情報が階層構造を有する場合は、上層の情報を表すアイコンにカーソルが重なったときに、その位置の近傍に、それに属する下層の情報を表すアイコンが生まれるようにしてもよい。
 次に、以上の構成により実現できる、メニュー画像生成装置の動作について説明する。図10は、情報処理装置200がメニュー画面を生成し選択操作を受け付ける処理手順を示すフローチャートである。このフローチャートは、例えばユーザがヘッドマウントディスプレイ100を装着し、情報処理装置200の電源を投入したときなどに開始される。まず情報処理装置200のアイコン配置部722は、アイコン情報記憶部720に格納されるアイコン情報に基づき、アイコンを表示すべきコンテンツの個数、優先度、カテゴリなどを特定し、それに応じて仮想空間におけるアイコンの配置を決定する(S10)。
 一方、視野制御部714は、背景オブジェクトなどを含む仮想空間を定義したうえ、ユーザの頭部の位置や姿勢に基づき仮想空間に対する視野面(スクリーン)を決定する。画像生成部716は、当該スクリーンに、アイコン配列を含む仮想空間を投影することにより、メニュー画面を描画する(S12)。描画処理自体には、一般的なコンピュータグラフィックス技術を適用できる。画像生成部716はさらに、ユーザの視点を表すカーソルをメニュー画面上に重畳表示する。
 以後、視野制御部714が頭部の姿勢の変化に応じてスクリーンを変化させ、画像生成部716が当該スクリーンに対し画像を描画する処理を所定のレートで繰り返すことを基本とする。このとき同時に、背景画像がマッピングされた背景オブジェクトを、ユーザを中心として水平方向に所定の微小速度で回転させ続ける。出力部726が、生成された画像のデータをヘッドマウントディスプレイ100に順次出力することにより、メニュー画面が視線の動きに応じて動的に表現される。
 このような状態において、カーソルがアイコンに重なったことを操作判定部718が判定したら(S14のY)、アイコン情報記憶部720は、当該アイコンを仮想空間でユーザの方向に移動させることにより選択状態とする(S16)。このとき画像生成部716は、背景オブジェクトの画像を、選択状態にあるアイコンに対応するものに更新する。この背景画像は、次に別のアイコンが選択状態となるまで表示させる。また選択状態となったアイコンの下方に所定の操作ボタンを表示する(S18)。
 その状態でユーザがうなずくことによりカーソルが操作ボタンに移動し(S20のY)、そのまま所定時間が経過するなど当該操作を有効と判定したら(S22のY)、操作判定部718は、操作対象のボタンの種類に応じて画像生成部716あるいはコンテンツ処理部728に処理を要求する。これにより対応する処理が実施される(S24)。
 操作ボタンが表示されてもカーソルがそこに移動しなかった場合や(S18、S20のN)、カーソルが操作ボタン上に移動したものの有効とされずに外れた場合は(S20のY、S22のN)、S12の描画処理のみを継続する。この際、カーソルが操作ボタンやS14で重なっていたアイコンから外れても、別のアイコンにカーソルが重なるまでは、S16でユーザ近傍に移動させたアイコンはその位置に据え置き、操作ボタンも表示させたままとする。結果として当該アイコンは、選択状態のまま視野から外れていく場合もある。
 カーソルがアイコンに重なる都度、当該アイコンに対しS16、S18の処理がセットでなされる。結果として、視線を自由に動かしていくと、その先にあるアイコンが手前に移動しては元に戻る、あるいはそのまま視野外に出るような変化が表される。カーソルがアイコンに重なっていない期間、画像生成部716は仮想空間を視野変化のみに応じて描画する(S14のN、S12)。
 一方、S24で操作ボタンに対応する処理を実施したあと、メニュー画面へ戻る操作がなされた場合は、画像生成部716はメニュー画面の描画処理を再開する(S26のY、S12)。メニュー画面へ戻る操作がなされなければ、画像生成部716あるいはコンテンツ処理部728がそれまでの処理を継続する(S26のN、S28のN、S24)。ただしその過程で、ユーザ操作などにより処理を終了させる必要が生じた場合は、情報処理装置200は全体の処理を終了する(S28のY)。
 以上述べた本実施の形態によれば、複数のアイコンからの選択入力を受け付けるメニュー画面を、ユーザの顔の向きや視線の変化に応じて視野が変化する仮想空間として表現する。このとき仮想空間に全天球状の背景オブジェクトを配置し、その内部にアイコンを分散させて配置する。そして首振りなどにより視線が到達したアイコンを、ユーザの眼前に引き寄せるように移動させ、当該アイコンに対する詳細な操作を受け付けるための操作ボタンを、当該アイコンの下方に表示する。
 遠くに配置されたアイコンであっても眼前に移動させることにより、その上方に表示させたタイトルやアイコン自体の画像を十分、視認できるようになる。その結果、仮想空間で様々な距離にアイコンを配置することができ、一度に多くのアイコンを表示できるとともに、仮想空間の世界観を楽しみながらコンテンツを選択できる。また、天頂や天底を含む所定範囲を配置禁止領域とすることで、無理のない動きで選択操作が可能となる。さらに、背景オブジェクトをユーザが気づかない程度の速度で回転させたり、遠くのアイコンほどオブジェクトのサイズを小さくしたりすることにより、奥行き感をより演出することができ、独特の世界観を表現できる。
 背景の画像を選択状態のアイコンに対応するものにしたり、アイコンが表象するコンテンツの属性などに応じて配置を調整したりすることで、アイコン選択の効率性と娯楽性を両立できる。以上のように、仮想空間に対する視線の動きで高度な選択操作が可能となるため、ヘッドマウンドディスプレイのように入力装置の操作がしづらい場合は特に有効である。また、そのようにして選択したコンテンツが没入感を伴うものである場合は、当該コンテンツの世界観に適合した表現で選択操作が可能となる。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 64 モーションセンサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 100 ヘッドマウントディスプレイ、 200 情報処理装置、 222 CPU、 224 GPU、 226 メインメモリ、 712 位置・姿勢取得部、 714 視野制御部、 716 画像生成部、 718 操作判定部、 720 アイコン情報記憶部、 722 アイコン配置部、 724 コンテンツ情報記憶部、 726 出力部、 728 コンテンツ処理部。
 以上のように本発明は、ゲーム機、情報処理装置、画像表示装置や、それらのいずれかを含むシステムなどに利用可能である。

Claims (11)

  1.  複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける情報処理装置であって、
     仮想空間に複数のアイコンを配置するアイコン配置部と、
     ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定する視野制御部と、
     前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する画像生成部と、
     前記メニュー画面に描画されるアイコンの像と前記カーソルの位置関係に基づき、操作内容を特定する操作判定部と、
     を備え、
     前記アイコン配置部は、仮想空間において、ユーザの頭部を中心とする球形の背景オブジェクト内に、ユーザからの方位および距離が互いに異なるように複数のアイコンを配置することを特徴とする情報処理装置。
  2.  前記アイコン配置部は、前記カーソルが前記複数のアイコンの1つに重なったとき、当該アイコンを仮想空間においてユーザからの距離が小さくなる方向に移動させ、前記カーソルが別のアイコンに重なったとき、移動させていたアイコンの位置を元に戻すことを特徴とする請求項1に記載の情報処理装置。
  3.  前記画像生成部は、移動されたアイコンの下方に、当該アイコンが表象するコンテンツに対する操作を受け付けるための操作ボタンを追加で表示することを特徴とする請求項2に記載の情報処理装置。
  4.  前記アイコン配置部は、ユーザからの距離が遠いアイコンほど、当該アイコンのオブジェクトモデルのサイズを小さく設定し、ユーザからの距離が小さくなる方向に移動させる際、徐々に拡大していくことを特徴とする請求項2または3に記載の情報処理装置。
  5.  前記画像生成部は、前記カーソルが前記複数のアイコンの1つに重なったとき、当該アイコンに対応する画像を前記背景オブジェクトの内部にテクスチャマッピングするとともに、当該背景オブジェクトをユーザの頭部を中心に所定速度で回転させることを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6.  前記アイコン配置部は、各アイコンが表象する対象が属するカテゴリごとに、前記仮想空間において間隔が近接するアイコン群を形成するように、前記複数のアイコンを配置することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7.  前記アイコン配置部は、表示すべきアイコンの増減に応じて前記複数のアイコンの配置を更新することを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8.  前記アイコン配置部は、階層構造を有する情報のうち上層の情報を表すアイコンに前記カーソルが重なったとき、それに属する下層の情報を表すアイコンを新たに配置することを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9.  前記アイコン配置部は、仮想空間においてユーザの頭部に対する天頂および天底を含む所定範囲を、アイコン配置禁止領域とすることを特徴とする請求項1から8のいずれかに記載の情報処理装置。
  10.  複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける、情報処理装置による操作受付方法であって、
     仮想空間に複数のアイコンを配置するステップと、
     ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定するステップと、
     前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力するステップと、
     前記メニュー画面に描画されるアイコンの像と前記カーソルの位置関係に基づき、操作内容を特定するステップと、
     を含み、
     前記アイコンを配置するステップは、仮想空間において、ユーザの頭部を中心とする球形の背景オブジェクト内に、ユーザからの方位および距離が互いに異なるように複数のアイコンを配置することを特徴とする操作受付方法。
  11.  複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付けるコンピュータに、
     仮想空間に複数のアイコンを配置する機能と、
     ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定する機能と、
     前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する機能と、
     前記メニュー画面に描画されるアイコンの像と前記カーソルの位置関係に基づき、操作内容を特定する機能と、を実現させ、
     前記アイコンを配置する機能は、仮想空間において、ユーザの頭部を中心とする球形の背景オブジェクト内に、ユーザからの方位および距離が互いに異なるように複数のアイコンを配置することを特徴とするコンピュータプログラム。
PCT/JP2016/087278 2015-12-21 2016-12-14 情報処理装置および操作受付方法 WO2017110632A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16878523.6A EP3396511B1 (en) 2015-12-21 2016-12-14 Information processing device and operation reception method
US15/773,008 US20180321798A1 (en) 2015-12-21 2016-12-14 Information processing apparatus and operation reception method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015248883A JP6518582B2 (ja) 2015-12-21 2015-12-21 情報処理装置および操作受付方法
JP2015-248883 2015-12-21

Publications (1)

Publication Number Publication Date
WO2017110632A1 true WO2017110632A1 (ja) 2017-06-29

Family

ID=59090139

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/087278 WO2017110632A1 (ja) 2015-12-21 2016-12-14 情報処理装置および操作受付方法

Country Status (4)

Country Link
US (1) US20180321798A1 (ja)
EP (1) EP3396511B1 (ja)
JP (1) JP6518582B2 (ja)
WO (1) WO2017110632A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139672A (ja) * 2018-02-15 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、画像生成方法およびコンピュータプログラム
WO2020008284A1 (en) * 2018-07-03 2020-01-09 Sony Corporation Virtual reality media content generation in multi-layer structure based on depth of field
JP2020030853A (ja) * 2019-11-07 2020-02-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
JPWO2019038885A1 (ja) * 2017-08-24 2020-05-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像出力方法
JP2020174329A (ja) * 2019-04-12 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示方法およびコンピュータプログラム
EP3739897A4 (en) * 2018-02-21 2020-12-02 Samsung Electronics Co., Ltd. INFORMATION DISPLAY PROCEDURE AND RELATED ELECTRONIC DEVICE
US11206452B2 (en) 2019-03-08 2021-12-21 Sony Interactive Entertainment Inc. Video display system, information processing apparatus, and video display method
US11551645B2 (en) 2018-06-07 2023-01-10 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program
US11831854B2 (en) 2018-12-17 2023-11-28 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program
US11861060B2 (en) 2018-03-23 2024-01-02 Konami Digital Entertainment Co., Ltd. Recording medium for selecting objects using head mounted display, information processing system, and information processing method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
US20180164952A1 (en) * 2016-12-12 2018-06-14 Lenovo (Beijing) Co., Ltd. Virtual interface display method, electronic device, and apparatus
CN108139814A (zh) * 2017-01-10 2018-06-08 深圳市柔宇科技有限公司 显示内容的调整方法、系统及头戴式显示设备
CN107329566B (zh) * 2017-06-23 2020-03-24 联想(北京)有限公司 虚拟对象处理方法及其系统、虚拟现实设备
JP6340464B1 (ja) * 2017-09-27 2018-06-06 株式会社Cygames プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11567627B2 (en) * 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
WO2019236344A1 (en) 2018-06-07 2019-12-12 Magic Leap, Inc. Augmented reality scrollbar
KR102056985B1 (ko) * 2018-07-23 2019-12-17 세종대학교산학협력단 가상 현실 인터랙션 방법 및 그 장치
EP3599538B1 (en) * 2018-07-24 2023-07-19 Nokia Technologies Oy Method and apparatus for adding interactive objects to a virtual reality environment
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
CN109271083B (zh) * 2018-08-22 2021-06-29 创新先进技术有限公司 数据处理方法和装置、计算设备及存储介质
EP3666594B1 (en) * 2018-12-12 2022-08-10 Ningbo Geely Automobile Research & Development Co. Ltd. System and method for warning a driver of a vehicle of an object in a proximity of the vehicle
GB202009876D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
GB202009874D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
JP2022022871A (ja) 2020-07-09 2022-02-07 株式会社ソニー・インタラクティブエンタテインメント 処理装置および没入度導出方法
JP2022118501A (ja) * 2021-02-02 2022-08-15 キヤノン株式会社 表示システム、表示装置とその制御方法及びプログラム
US11914646B1 (en) * 2021-09-24 2024-02-27 Apple Inc. Generating textual content based on an expected viewing angle
WO2024044556A1 (en) * 2022-08-23 2024-02-29 Apple Inc. Head-mounted electronic device with magnification tool

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2006217627A (ja) * 1998-08-24 2006-08-17 Hitachi Ltd マルチメディア情報の処理装置
JP2008033891A (ja) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd 表示装置及びその制御方法
JP2014071663A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
WO2014129204A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5703604A (en) * 1995-05-22 1997-12-30 Dodeca Llc Immersive dodecaherdral video viewing system
DE69706611T2 (de) * 1996-06-27 2002-07-04 Toshiba Kawasaki Kk Stereoskopisches Display-System und -Verfahren
US6157747A (en) * 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
AU5066399A (en) * 1998-08-24 2000-03-14 Hitachi Limited Method for displaying multimedia information processing method, processing device, and processing system
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US20040080527A1 (en) * 2002-10-29 2004-04-29 Elliott Stephen J. System and method for designing storage area networks
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
US7360175B2 (en) * 2003-10-03 2008-04-15 Lexisnexis, A Division Of Reed Elsevier Inc. Hierarchical, multilevel, expand and collapse navigation aid for hierarchical structures
WO2005043218A1 (ja) * 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha 画像表示装置
US7719563B2 (en) * 2003-12-11 2010-05-18 Angus Richards VTV system
US7940259B2 (en) * 2004-11-30 2011-05-10 Oculus Info Inc. System and method for interactive 3D air regions
CA2500573A1 (en) * 2005-03-14 2006-09-14 Oculus Info Inc. Advances in nspace - system and method for information analysis
JP5086540B2 (ja) * 2005-12-28 2012-11-28 株式会社アイ・オー・データ機器 ファイル管理方法、ファイル管理プログラムおよびファイル管理装置
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
KR101257849B1 (ko) * 2006-09-29 2013-04-30 삼성전자주식회사 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치
US8670001B2 (en) * 2006-11-30 2014-03-11 The Mathworks, Inc. System and method for converting a fish-eye image into a rectilinear image
US8316015B2 (en) * 2007-12-21 2012-11-20 Lemi Technology, Llc Tunersphere
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
EP2279472A4 (en) * 2008-04-05 2013-11-20 Social Communications Co APPARATUS AND METHODS BASED ON A SHARED VIRTUAL SPACE COMMUNICATION ENVIRONMENT
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
CA2646117A1 (en) * 2008-12-02 2010-06-02 Oculus Info Inc. System and method for visualizing connected temporal and spatial information as an integrated visual representation on a user interface
US10281893B2 (en) * 2009-06-25 2019-05-07 Universal Electronics Inc. System and method for configuration of macro commands in a controlling device
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
KR20130013248A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 3d 영상 재생 기기 및 그 3d 영상 제어 방법
US20130104087A1 (en) * 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
US20130139082A1 (en) * 2011-11-30 2013-05-30 Google Inc. Graphical Interface Having Adjustable Borders
KR101872859B1 (ko) * 2012-01-20 2018-06-29 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US9035878B1 (en) * 2012-02-29 2015-05-19 Google Inc. Input system
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
GB201310376D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
KR102219464B1 (ko) * 2014-05-23 2021-02-25 삼성전자주식회사 보안 운용 방법 및 이를 지원하는 전자 장치
US9959677B2 (en) * 2015-05-26 2018-05-01 Google Llc Multidimensional graphical method for entering and exiting applications and activities in immersive media
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
EP3371973B1 (en) * 2015-11-06 2023-08-09 Facebook Technologies, LLC Eye tracking using a diffraction pattern of coherent light on the surface of the eye

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JP2006217627A (ja) * 1998-08-24 2006-08-17 Hitachi Ltd マルチメディア情報の処理装置
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2008033891A (ja) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd 表示装置及びその制御方法
JP2014071663A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
WO2014129204A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019038885A1 (ja) * 2017-08-24 2020-05-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像出力方法
JP2019139672A (ja) * 2018-02-15 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、画像生成方法およびコンピュータプログラム
JP7042644B2 (ja) 2018-02-15 2022-03-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、画像生成方法およびコンピュータプログラム
EP3739897A4 (en) * 2018-02-21 2020-12-02 Samsung Electronics Co., Ltd. INFORMATION DISPLAY PROCEDURE AND RELATED ELECTRONIC DEVICE
US11861060B2 (en) 2018-03-23 2024-01-02 Konami Digital Entertainment Co., Ltd. Recording medium for selecting objects using head mounted display, information processing system, and information processing method
US11551645B2 (en) 2018-06-07 2023-01-10 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program
CN112385241A (zh) * 2018-07-03 2021-02-19 索尼公司 以基于景深的多层结构的虚拟现实媒体内容生成
WO2020008284A1 (en) * 2018-07-03 2020-01-09 Sony Corporation Virtual reality media content generation in multi-layer structure based on depth of field
US11831854B2 (en) 2018-12-17 2023-11-28 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program
US11206452B2 (en) 2019-03-08 2021-12-21 Sony Interactive Entertainment Inc. Video display system, information processing apparatus, and video display method
JP2020174329A (ja) * 2019-04-12 2020-10-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示方法およびコンピュータプログラム
JP7365132B2 (ja) 2019-04-12 2023-10-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、表示方法およびコンピュータプログラム
JP2020030853A (ja) * 2019-11-07 2020-02-27 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム

Also Published As

Publication number Publication date
US20180321798A1 (en) 2018-11-08
EP3396511B1 (en) 2021-03-03
JP2017117008A (ja) 2017-06-29
JP6518582B2 (ja) 2019-05-22
EP3396511A1 (en) 2018-10-31
EP3396511A4 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
WO2017110632A1 (ja) 情報処理装置および操作受付方法
JP6560974B2 (ja) 情報処理装置および操作受付方法
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
US9618747B2 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
JP7042644B2 (ja) 情報処理装置、画像生成方法およびコンピュータプログラム
TWI571130B (zh) 體積式視訊呈現
WO2017086263A1 (ja) 情報処理装置および画像生成方法
WO2016129549A1 (ja) ヘッドマウント・ディスプレイを用いたコンテンツ視聴のための装置およびシステム
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2018523326A (ja) 全球状取込方法
CN111630478B (zh) 高速交错双眼跟踪系统
US11317072B2 (en) Display apparatus and server, and control methods thereof
JP6228640B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US10369468B2 (en) Information processing apparatus, image generating method, and program
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP6266823B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置
CN115191006B (zh) 用于所显示的2d元素的3d模型
JP7030075B2 (ja) プログラム、情報処理装置、及び情報処理方法
EP3623908A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
US20240104862A1 (en) Spatially aware playback for extended reality content
US20210349310A1 (en) Highly interactive display environment for gaming
CN117478931A (zh) 信息显示方法、装置、电子设备及存储介质
JP2018163642A (ja) 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置
JP2018028682A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16878523

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15773008

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE