WO2020241189A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2020241189A1
WO2020241189A1 PCT/JP2020/018497 JP2020018497W WO2020241189A1 WO 2020241189 A1 WO2020241189 A1 WO 2020241189A1 JP 2020018497 W JP2020018497 W JP 2020018497W WO 2020241189 A1 WO2020241189 A1 WO 2020241189A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
gesture
information
information processing
virtual image
Prior art date
Application number
PCT/JP2020/018497
Other languages
English (en)
French (fr)
Inventor
茜 近藤
智也 成田
遼 深澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/595,607 priority Critical patent/US11835727B2/en
Priority to EP20813600.2A priority patent/EP3979234A4/en
Publication of WO2020241189A1 publication Critical patent/WO2020241189A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • This technology relates to information processing devices, information processing methods, and programs that support gesture operations.
  • a technique for detecting the operation of each part of the user is known.
  • a device such as an HMD (Head Mounted Display) worn by a user
  • an operation of the user is detected and image display control or the like is performed using the detection result.
  • HMD Head Mounted Display
  • Patent Document 1 describes an HMD that synthesizes and displays electronic information with an external world image observed in the user's field of view.
  • the display / non-display of the image display element that displays electronic information is controlled by detecting the movement of the user's head. For example, when the angular velocity or the moving velocity of the user's head is larger than a predetermined threshold value, the image display element is switched to non-display.
  • the image display element is switched to non-display.
  • the purpose of this technique is to provide an information processing device, an information processing method, and a program capable of improving the operability of gesture operation.
  • the information processing device includes a physical information acquisition unit, a gesture information acquisition unit, a determination condition setting unit, and a control unit.
  • the physical information acquisition unit acquires physical information of a user who wears a head-mounted housing.
  • the gesture information acquisition unit acquires gesture information related to the user's gesture.
  • the determination condition setting unit sets a determination condition for determining a trigger gesture that triggers an operation input by the user's gesture based on the physical information.
  • the control unit determines whether or not the trigger gesture has been performed based on the gesture information and the determination condition, and controls the output corresponding to the trigger gesture based on the determination result.
  • the judgment condition of the trigger gesture that triggers the operation input by the gesture is set based on the physical information of the user wearing the head-mounted housing. Whether or not a trigger gesture has been performed is determined based on this determination condition and gesture information, and the output corresponding to the trigger gesture is controlled based on the determination result. As a result, the trigger gesture performed by the user is determined according to the physical information of the user, so that the operability of the gesture operation can be improved.
  • the determination condition setting unit may set the determination condition based on the physical characteristic information of the user according to the physical information. As a result, for example, it is possible to set a determination condition suitable for the physical characteristics of the user, and for example, it is possible to sufficiently reduce the physical load when performing a trigger gesture.
  • the physical characteristic information may include information regarding at least one of the visual field characteristics or motion characteristics of the user.
  • the determination conditions are set according to the visual field range, the operation range, and the like in the physical state of the user, and the user can easily perform an operation that becomes a trigger gesture.
  • the determination condition may include a determination threshold value for determining the trigger gesture. This makes it possible to easily distinguish between the trigger gesture and other gestures.
  • the physical information acquisition unit may acquire the posture of the user as the physical information.
  • the determination condition setting unit may set the determination condition according to the posture of the user. As a result, for example, a determination condition suitable for the posture of the user is set, an operation that becomes a trigger gesture can be easily performed, and operability can be sufficiently improved.
  • the determination condition setting unit may set the determination condition according to at least one of the visual field characteristic or the operation characteristic in the posture of the user. As a result, for example, determination conditions suitable for the visual field range and the operating range at each timing are set. As a result, the physical load when performing a movement that serves as a trigger gesture is significantly reduced, and excellent operability can be exhibited.
  • the trigger gesture may be a head gesture in which the user turns his head upwards.
  • the determination condition may include a threshold angle with respect to the posture angle of the user's head, which changes depending on the head gesture.
  • the physical information acquisition unit may detect a standing state or a sitting state as the posture of the user.
  • the determination condition setting unit may set the threshold angle to a value smaller than that when the standing state is detected when the sitting state is detected. For example, in the sitting state, the line of sight tends to be lower than in the standing state.
  • the head-mounted housing may be a housing of a head-mounted display that displays a virtual image.
  • the control unit may control the display position of the virtual image based on the physical information.
  • the display position of the virtual image is adjusted according to the physical information, so that a user-friendly display or the like is realized. Thereby, it is possible to sufficiently improve the operability.
  • the physical information acquisition unit may acquire the posture of the user as the physical information.
  • the control unit may control the display position of the virtual image according to the posture of the user. This makes it possible, for example, to display a virtual image at a position easily visible to the user regardless of the posture of the user.
  • the virtual image may be an upper image displayed diagonally upward when viewed from the user.
  • the physical information acquisition unit may detect a standing state or a sitting state as the posture of the user.
  • the control unit may set the display position of the upper image to a position lower than that when the standing state is detected when the sitting state is detected.
  • the upper image can be displayed at a position that is easy for the user to see regardless of the standing state or the sitting state, and the physical load can be sufficiently reduced.
  • the physical information acquisition unit may acquire the height of the user as the physical information.
  • the virtual image may be a lower image displayed diagonally downward when viewed from the user.
  • the control unit may set the display position of the lower image according to the height of the user. As a result, the lower image can be displayed at an appropriate position regardless of the height of the user, and the physical load can be sufficiently reduced.
  • the information processing device may further include an environmental information acquisition unit that acquires environmental information regarding the user's surrounding environment. This makes it possible to reflect, for example, changes in the physical characteristics of the user due to changes in the surrounding environment in each control.
  • the determination condition setting unit may set the determination condition based on the environmental information. As a result, the determination conditions can be adjusted according to the physical characteristics of the user according to the surrounding environment of the user, and the operability can be sufficiently improved.
  • the trigger gesture may be a head gesture in which the user turns his head upwards.
  • the determination condition may be a threshold angle with respect to the posture angle of the user's head, which changes depending on the head gesture.
  • the environmental information acquisition unit may detect the presence or absence of a ceiling in the surrounding environment.
  • the determination condition setting unit may set the threshold angle to a value lower than the case where the ceiling is not detected when the ceiling is detected. For example, in an environment with a ceiling, the line of sight tends to be lower than in an environment without a ceiling.
  • the head-mounted housing may be a housing of a head-mounted display that displays a virtual image.
  • the control unit may control the display position of the virtual image based on the environmental information. As a result, the display position of the virtual image is adjusted according to the surrounding environment, so that a user-friendly display or the like is realized. Thereby, it is possible to sufficiently improve the operability.
  • the environmental information acquisition unit may determine whether or not the surrounding environment includes a vanishing point. In this case, when the vanishing point is included in the surrounding environment, the control unit may set the display position of the virtual image with reference to the vanishing point. As a result, for example, the virtual image can be arranged in a range where the user's line of sight is concentrated, and the accessibility to the virtual image can be improved.
  • the environmental information acquisition unit may detect the position of the floor surface as the environmental information.
  • the control unit may set the display position of the virtual image according to the position of the floor surface.
  • the virtual image can be displayed at a position where it is easy to see regardless of the height of the floor surface, and the accessibility to the virtual image can be improved.
  • the head-mounted housing may be a housing of a head-mounted display that displays a virtual image.
  • the trigger gesture may function as a trigger for a display operation for displaying the virtual image, a trigger for a non-display operation for hiding the virtual image, or a trigger for a selection operation for selecting the virtual image. .. This makes it possible to improve operability when displaying / hiding a virtual image, selecting a virtual image, and the like.
  • the information processing method is an information processing method executed by a computer system, and includes acquiring physical information of a user wearing a head-mounted housing. Gesture information about the user's gesture is acquired. Based on the physical information, a determination condition for determining a trigger gesture that triggers an operation input by the user's gesture is set. Whether or not the trigger gesture has been performed is determined based on the gesture information and the determination condition, and the output corresponding to the trigger gesture is controlled based on the determination result.
  • a program causes a computer system to perform the following steps.
  • FIG. 1 is a schematic diagram illustrating an outline of an HMD according to an embodiment of the present technology.
  • the HMD100 Head Mounted Display
  • the HMD100 is a glasses-type device provided with a transmissive display, and is used by being worn on the head of the user 1.
  • the user 1 who wears the HMD 100 can visually recognize the actual scenery and at the same time visually recognize the image displayed on the transmissive display. That is, by using the HMD 100, it is possible to superimpose and display a virtual image on the real space (real space) around the user 1. As a result, the user 1 can experience Augmented Reality (AR) and the like.
  • the HMD 100 has a head-mounted housing 5.
  • the head-mounted housing 5 is an exterior housing of the HMD 100, and is configured to be mounted on a human head.
  • a controller or the like (see FIG. 2), which will be described later, is mounted on the housing 5, and the HMD 100 is configured. That is, the entire device including the head-mounted housing 5 and the controller is the HMD 100.
  • the form of the head-mounted housing 5 (HMD100) is not limited, and for example, instead of the glasses-type housing 5, an immersive housing arranged so as to cover the head of the user 1 or the like is used. You may. Further, a head-mounted housing or the like configured to support a portable display device (smartphone, game machine, etc.) in front of the user 1 may be used.
  • the user 1 who uses the HMD100 can perform various operation inputs (gesture operations) via gestures.
  • the gesture of the user 1 means the operation of the user 1.
  • the action of the user 1 tilting the head up and down (extension / flexion), the action of tilting the head left and right (lateral bending), the action of rotating the head (neck) (rotation), and the like are performed by the user using the head.
  • the user 1 also moves his arms, legs, etc., moves his entire body such as crouching, sitting, and standing, moves his eyes, opens and closes his eyelids, blinks, and so on.
  • a gesture that combines these actions may be performed.
  • the operation process corresponding to the gesture is executed. For example, a process of switching the display / non-display of a predetermined virtual image is executed in response to the gesture in which the user 1 tilts the head up and down. Alternatively, a process of selecting a target from a plurality of virtual images is executed in response to the gesture in which the user 1 rotates the head left and right.
  • the types of gestures and operation processes are not limited. As described above, in the HMD 100, various operation processes can be performed by the operation of the user 1 himself, and a virtual experience with a high degree of freedom can be realized.
  • FIG. 2 is a block diagram showing a configuration example of the HMD 100 shown in FIG.
  • the HMD 100 includes a display unit 10, a speaker 11, a communication unit 12, an operation input unit 13, a sensor unit 14, a storage unit 15, and a controller 20.
  • the display unit 10 is a transmissive display that displays a virtual image, and is arranged so as to cover at least a part of the field of view of the user 1.
  • transmissive displays for the left eye and the transmissive display for the right eye are arranged in front of the left and right eyes of the user 1, respectively.
  • the configuration is not limited to displaying the virtual image in both eyes of the user 1.
  • the display unit 10 may be configured to display the virtual image only in one eye of the user 1.
  • a transmissive organic EL display, a liquid crystal display, or the like is used.
  • the specific configuration of the display unit 10 is not limited, and a transmissive display of any method such as a method of projecting an image on a transparent screen or a method of displaying an image using a prism or the like is used. Good.
  • the speaker 11 is arranged near the ear of the user 1, for example, and reproduces an audio signal according to the content executed by the HMD 100 or the like.
  • the communication unit 12 is a communication module for transmitting / receiving data to / from another device by wire / wireless.
  • the communication unit 12 can be connected to the HMD100 by, for example, a wired LAN (Local Area Network), a wireless LAN, Wi-Fi (Wireless Fidelity, registered trademark), infrared communication, Bluetooth (registered trademark), short-range / non-contact communication, or the like. Communicate with external devices.
  • the operation input unit 13 includes a physical operation mechanism such as a switch, a button, or a lever. For example, when the user 1 operates the operation input unit 13, various operations are accepted.
  • the sensor unit 14 acquires various upper parts related to the user 1 or the user's surrounding environment.
  • the sensor unit 14 includes an outward-facing camera 16, a 9-axis sensor 17, a position sensor 18, and a biosensor 19.
  • the outward-facing camera 16 is schematically shown in FIG.
  • the 9-axis sensor 17, the position sensor 18, and the biosensor 19 are appropriately arranged at predetermined positions in the housing constituting the HMD 100, for example.
  • the type and number of sensors provided in the sensor unit 14 are not limited, and for example, a barometric pressure sensor, a temperature sensor, or the like may be provided.
  • the outward-facing camera 16 is arranged toward the front of the HMD 100 and captures an image of the real space included in the field of view of the user 1.
  • a digital camera including an image sensor such as a CMOS sensor or a CCD sensor is used.
  • a stereo camera capable of detecting depth data (Depth data) in real space, a camera provided with a TOF (Time of Flight) sensor, or the like may be used as the outward camera 16.
  • the image data and depth data detected by the outward-facing camera 16 are used for various recognition processes such as object recognition in real space and hand recognition by the user 1.
  • SLAM Simultaneous Localization and Mapping
  • the specific configuration of the outward-facing camera 16 is not limited, and for example, any camera sensor capable of sensing the real space with a desired accuracy may be used as the outward-facing camera 16.
  • the 9-axis sensor 17 includes a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis compass sensor.
  • the 3-axis acceleration sensor detects the acceleration of the HMD 100 in the 3-axis direction.
  • the 3-axis gyro sensor detects the angular velocity (rotational speed) around the 3-axis of the HMD100.
  • the 3-axis compass sensor detects the geomagnetism (direction) in the 3-axis direction.
  • Each data detected by the 9-axis sensor 17 is used in a process of detecting the posture and motion of the head of the user 1 wearing the HMD 100, and a process of recognizing the user 1's behavior such as standing motion and sitting motion. Further, these data are used for detecting the posture, orientation, etc. of the user 1 in the spatial map constructed by using SLAM or the like.
  • the position sensor 18 detects the current position of the HMD 100 (user 1) based on an externally acquired signal.
  • the position sensor 18 is configured as a GPS (Global Positioning System) positioning unit, receives radio waves from GPS satellites, and detects the position where the HMD 100 exists.
  • the position sensor 18 is configured to detect the position by transmission / reception with, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), mobile phone, PHS, smartphone, or short-range communication. May be done.
  • the position of the HMD 100 may be detected by detecting a marker or the like arranged around the user 1.
  • the position sensor 18 can be realized by using the outward-facing camera 16 or the like described above.
  • the specific configuration of the position sensor 18 is not limited.
  • the biosensor 19 detects biometric data.
  • an inward camera that captures the eyeball of the user 1 is used as the biosensor 19.
  • the image of the eyeball is used, for example, in a process of detecting the line-of-sight direction, gaze time, and the like of the user 1.
  • a biological sensor 19 for detecting the body movement, body position, etc. of the user 1 may be mounted, and the detection result may be used for a process of detecting the posture, etc. of the user 1.
  • the type of biosensor 19 is not limited, and for example, heart rate, body temperature, sweating, blood pressure, sweating, pulse, breathing, blinking, eye movement, pupil diameter size, blood pressure, brain wave, skin temperature, skin electricity.
  • a sensor capable of detecting resistance, MV (microvibration), myoelectric potential, SPO2 (blood oxygen saturation), or the like may be used as appropriate.
  • the storage unit 15 is a non-volatile storage device, and for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like is used.
  • Map data and a control program are stored in the storage unit 15.
  • the map data is data that functions as map data related to the real space, and for example, a spatial map (three-dimensional model of the surrounding environment) generated by using SLAM or the like is used.
  • the control program is a program for controlling the operation of the entire HMD 100. The method of installing the map data and the control program in the HMD 100 is not limited.
  • the controller 20 controls the operation of each block of the HMD 100.
  • the controller 20 has a hardware configuration necessary for a computer such as a CPU and a memory (RAM, ROM). When the CPU loads the control program stored in the storage unit 15 into the RAM and executes it, various processes are executed.
  • the specific configuration of the controller 20 is not limited, and for example, a device such as a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array) or another device such as an ASIC (Application Specific Integrated Circuit) may be used as the controller 20.
  • the controller 20 corresponds to the information processing device according to the present embodiment.
  • the HMD 100 is a device in which the controller 20 is mounted on the head-mounted housing 5. Therefore, in this embodiment, it can be said that the HMD 100 itself functions as an information processing device.
  • the CPU of the controller 20 executes the program (control program) according to the present embodiment to set the physical information acquisition unit 21, the gesture information acquisition unit 22, the environment information acquisition unit 23, and the determination condition as functional blocks.
  • a unit 24, a gesture detection unit 25, a layout calculation unit 26, a layout determination unit 27, and an output control unit 28 are realized. Then, the information processing method according to the present embodiment is executed by these functional blocks.
  • dedicated hardware such as an IC (integrated circuit) may be appropriately used.
  • the physical information acquisition unit 21 acquires the physical information of the user 1 who wears the HMD 100.
  • the physical information is information about the body of the user 1.
  • the physical information includes information that changes with time, such as the posture and movement of the user 1, and information unique to the user 1, such as the age and gender of the user 1. With these physical information, it is possible to represent the physical condition of the user 1 who wears the HMD 100. That is, it can be said that the physical information is information representing the physical condition of the user 1.
  • the physical information acquisition unit 21 acquires the posture of the user 1 as physical information. Specifically, the posture detection process for detecting the posture of the user 1 is executed based on the output results of each sensor and the like included in the sensor unit 14 described above. In the present embodiment, the physical information acquisition unit 21 detects a standing state or a sitting state as the posture of the user 1.
  • the acceleration when the user 1 stands up or sits is detected, and the current posture (standing or sitting position) of the user 1 is detected.
  • a standing state or a sitting state may be detected by using a change in heartbeat / blood pressure measured by a biological sensor 19, a change in atmospheric pressure, or the like. It is also possible to integrate these sensor outputs to detect the posture of the user 1.
  • a process of determining whether the user 1 is standing or sitting may be executed by using machine learning or the like.
  • a state in which the user 1 is sleeping (a lying state), a state in which the user 1 is crouching, and the like may be detected.
  • the method of detecting the posture of the user 1 is not limited.
  • the physical information acquisition unit 21 acquires the height of the user 1 as physical information.
  • the height of the user 1 is stored in advance in the above-mentioned storage unit 15 or the like, and the height of the user 1 is appropriately read by the physical information acquisition unit 21.
  • the height of the user 1 may be estimated by monitoring the height position of the HMD 100 from the floor surface based on the detection result of the outward camera 16 or the like. The method of obtaining the height of the user 1 is not limited.
  • the operating state of user 1 such as walking state or running state may be acquired as physical information.
  • the operating state of the user 1 can be detected based on the outputs of the 9-axis sensor 17, the position sensor 18, and the biosensor 19. Further, as physical information, the age, gender, etc. of the user 1 may be acquired.
  • Such information unique to the user 1 is stored in advance as user information in, for example, the storage unit 15, and is appropriately read by the physical information acquisition unit 21.
  • Each physical information acquired by the physical information acquisition unit 21 is output to the determination condition setting unit 24, the layout calculation unit 26, and the like, which will be described later.
  • Gesture information acquisition unit 22 acquires gesture information related to the user's gesture.
  • Gesture information is information for detecting the gesture of user 1.
  • the acceleration, angular velocity, direction, etc. output from the 9-axis sensor 17 serve as gesture information for detecting, for example, the gesture of the user 1 using the head, the gesture of moving the entire body, and the like.
  • the image of the user 1's hand or foot taken by the outward camera 16 becomes gesture information for detecting a gesture using the hand, a gesture using the foot, or the like.
  • the image obtained by capturing the eyeball of the user 1 becomes gesture information for detecting the gesture of the eye of the user 1.
  • the type of gesture information is not limited.
  • the image of the user 1 captured by the external camera becomes gesture information.
  • Each gesture information acquired by the gesture information acquisition unit 22 is output to the gesture detection unit 25 described later.
  • the environmental information acquisition unit 23 acquires environmental information related to the surrounding environment of user 1.
  • the environmental information includes, for example, image data and depth data of the surrounding environment taken by the outward camera 16. Further, the environment information acquisition unit 23 performs processing such as SLAM based on image data, depth data, and the like to generate a spatial map and the like of the surrounding environment of the user 1.
  • This spatial map serves as environmental information representing the position of a real object in the surrounding environment of the user 1. Further, when the spatial map or the like is stored in advance, the spatial map may be read based on the output (position information or the like) of the position sensor 18. Further, detailed environmental information may be generated based on a spatial map or the like.
  • environmental information information such as whether the current position of the user 1 is indoors or outdoors, the height of the ceiling / floor surface, and the like are detected.
  • the space map is not limited to the case, and it may be detected whether the user 1 is indoors or outdoors from the position information of the user 1, the image data of the outward camera, and the like.
  • the type of environmental information is not limited, and for example, the brightness and temperature of the surrounding environment may be acquired as environmental information.
  • Each environmental information acquired by the environmental information acquisition unit 23 is output to the determination condition setting unit 24, the layout calculation unit 26, and the like, which will be described later.
  • the judgment condition setting unit 24 sets the judgment condition for judging the trigger gesture that triggers the operation input by the gesture of the user 1 based on the physical information.
  • the operation input by the gesture the user 1 performs a predetermined gesture, and the operation process corresponding to the gesture is executed.
  • the operation process is started by detecting a predetermined gesture using the sensor unit 14 or the like. Therefore, in the gesture operation, the gesture of the user 1 itself functions as a trigger.
  • Judgment conditions for determining a gesture (trigger gesture) that functions as this trigger are set based on physical information such as the posture and height of the user 1.
  • the determination condition setting unit sets the determination conditions based on the physical characteristic information of the user according to the physical information.
  • the physical characteristic information is information on the physical characteristics of the user 1 in the physical state represented by the physical information, for example.
  • human physical characteristics include characteristics that change depending on the physical condition (posture, height, age, gender, etc.). Therefore, it is conceivable that the range visible to the user 1 and the tendency of gestures may change due to changes in the posture of the user 1 who uses the HMD 100, individual differences of the user 1, and the like.
  • the physical characteristic information includes information on the visual field characteristics of the user in the physical condition. For example, when the user 1 is sitting (sitting state), the visual field (line of sight) tends to be lower than when the user 1 is standing (standing state) (see FIG. 6).
  • the information representing the visual field range in each posture is the physical characteristic information.
  • the physical characteristic information includes information on the motion characteristics of the user 1 in the physical state. For example, the range in which the head, torso, etc. can be moved differs between the sitting state and the standing state (see FIG. 11). In this case, the information representing the movable range in each posture becomes the physical characteristic information.
  • the determination condition setting unit 24 the determination condition of the trigger gesture is set according to the physical characteristic information in the physical state such as the posture and the height acquired as the physical information.
  • the determination condition setting unit 24 sets the determination condition based on the environmental information. For example, there is a difference in the range of movements and the line of sight that the user 1 unconsciously performs between indoors and outdoors. That is, when the user 1 performs a certain gesture, the amount of motion (magnitude of motion) when performing the gesture may differ depending on the surrounding environment. In addition to this, the operation (gesture) of the user 1 may change depending on the surrounding environment.
  • the determination condition setting unit 24 sets the determination condition of the trigger gesture according to the physiological and physical characteristics of a human being caused by such an external environmental factor.
  • the determination condition includes a determination threshold value for determining the trigger gesture. That is, in order to distinguish between the trigger gesture and the other gestures, the threshold value processing using the determination threshold value is executed.
  • the determination threshold is, for example, a threshold for a parameter that changes by performing a trigger gesture. For example, when the trigger gesture is a gesture that changes the posture of the head, the threshold angle for the posture angle of the head (HMD100) becomes the determination threshold.
  • the determination threshold value corresponding to the target trigger gesture is used for the determination of the trigger gesture.
  • a plurality of determination threshold values may be used to determine one trigger gesture. The process of setting the determination threshold value by the determination condition setting unit 24 will be described in detail later.
  • the gesture detection unit 25 detects the gesture of the user 1 based on the gesture information acquired by the gesture information acquisition unit 22. For example, a gesture (head gesture) in which the user 1 changes the posture or position of the head is detected based on the acceleration of the HMD 100 detected by the sensor unit 14. Further, for example, a gesture (hand gesture) performed by the user 1 by moving his / her hand is detected from the image data taken by the outward-facing camera 16.
  • the method of gesture detection is not limited, and for example, a motion recognition technique using the 9-axis sensor 17, an image recognition technique, or the like may be used. In addition, gesture detection using machine learning or the like may be performed.
  • the gesture detection unit 25 determines whether or not the user 1 has performed a trigger gesture. That is, it is determined whether or not the gesture (action of the user 1) of the user 1 represented by the gesture information is a trigger gesture.
  • the judgment condition (judgment threshold value) set by the judgment condition setting unit 24 is used for the judgment of the trigger gesture. For example, suppose that a gesture with the head facing upward is set as a trigger gesture. In this case, it is determined whether or not the trigger gesture has been performed by determining whether or not the tilt angle of the head of the user 1 exceeds the corresponding determination threshold value (threshold angle). In this way, the gesture detection unit 25 determines whether or not the trigger gesture has been performed based on the gesture information and the determination condition. By using the determination condition, it is possible to detect the conscious gesture of the user 1 and the other actions separately.
  • the layout calculation unit 26 acquires the data of the virtual image displayed on the display unit 10 (transparent display) and calculates the layout of the virtual image. For example, when a trigger gesture by the user 1 is detected, the data of the virtual image corresponding to the trigger gesture is read, and the layout of the virtual image is calculated. That is, the layout calculation unit 26 controls the output of the virtual image corresponding to the trigger gesture based on the determination result of the trigger gesture. Further, the layout calculation unit 26 reads the virtual image data and calculates the layout according to the progress of the content executed by the HMD 100.
  • the virtual image data is stored in the storage unit 15 as content information, for example.
  • the content information may be read via the communication unit 12, or the virtual image data may be generated / edited by the layout calculation unit 26.
  • the number of virtual images displayed on the display unit 10 is not limited. For example, a single virtual image may be displayed, or a plurality of virtual images may be displayed at the same time. Data is acquired respectively.
  • layout parameters such as the display position, size, and posture (tilt) of the virtual image are calculated.
  • the virtual image includes an image displayed using a coordinate system (body coordinate system) based on user 1 and a coordinate system (spatial coordinate system) based on the surrounding space (spatial map, etc.). Images and the like displayed using are included.
  • the layout calculation unit 26 calculates the display position and size of the virtual image in each coordinate system according to, for example, the posture and position of the HMD 100 (user 1).
  • the layout calculation unit 26 controls the display position of the virtual image based on the physical information of the user 1. For example, for a virtual image, after calculating the display position according to the posture and position of the HMD100 (user 1), the display position (coordinate position) of the virtual image is further adjusted according to the posture and height of the user 1. Will be done. Further, in the present embodiment, the layout calculation unit 26 controls the display position of the virtual image based on the environmental information. For example, the display position set based on the physical information is adjusted according to the presence or absence of a ceiling in the surrounding environment.
  • the method of controlling the display position of the virtual image by the layout calculation unit 26 is not limited.
  • the display position may be adjusted using only one of the physical information and the environmental information, or the display position may be adjusted by using both the physical information and the environmental information as described above.
  • other layout parameters such as the size and orientation of the virtual image are adjusted so that the virtual image is displayed properly.
  • Another method of displaying a virtual image is to determine the collision between the spatial map and the virtual image (display object) and move the content, GUI, etc. to the margin of the real space.
  • this method it is possible to display a real object existing in the real space and a virtual image so as not to overlap unnaturally. This makes it possible to display a virtual image as if it were floating in real space.
  • the layout calculation unit 26 performs display control using the above-mentioned physical information and environmental information. This makes it possible to realize a highly entertaining and user-friendly virtual experience.
  • the specific types of virtual images and the display position control process will be described in detail later.
  • the layout determination unit 27 determines the layout of the virtual image displayed on the display unit 10 according to the priority of the virtual image.
  • the virtual image to be displayed may be an emergency display such as an error message or a caution message, that is, a display having a high priority.
  • the layout determination unit 27 generates a command to display the target virtual image with a high priority and outputs the command to the layout calculation unit 26. This makes it possible to reliably display an emergency virtual image or the like.
  • the output control unit 28 generates an output image including a virtual image displayed on the display unit 10. For example, an output image including a single or a plurality of virtual images is generated based on the layout parameters calculated by the layout calculation unit 26. At this time, the brightness, contrast, and the like may be adjusted. The generated output image is output to the display unit 10 and displayed in front of the user 1. As a result, the user 1 wearing the HMD 100 can visually recognize the virtual image superimposed on the real space.
  • the gesture detection unit 25, the layout calculation unit 26, the layout determination unit 27, and the output control unit 28 realize the gesture operation of the user 1 and the display control of the virtual image according to the progress of the content. ..
  • the trigger gesture is a gesture operation trigger that controls voice output, vibration output, or the like
  • the output corresponding to the trigger gesture is controlled.
  • the gesture detection unit 25, the layout calculation unit 26, the layout determination unit 27, and the output control unit 28 work together to realize the control unit.
  • FIG. 3 is a schematic diagram for explaining an example of a virtual image.
  • the user 1 and the building are real objects existing in the real space.
  • the virtual images 30a to 30g are examples of virtual objects that are visually displayed to the user 1 wearing the HMD 100.
  • These virtual objects function as a GUI (Graphical User Interface) that presents various information to the user 1, for example.
  • GUI Graphic User Interface
  • the display position of the virtual image 30 is set according to either one or both of the body coordinate system based on the user 1 (HMD100) and the spatial coordinate system based on the real space (surrounding environment) in which the user 1 exists.
  • the body coordinate system and the spatial coordinate system are schematically illustrated by using solid and dotted arrows, respectively.
  • the body coordinate system is, for example, a coordinate system that follows the position / posture of the HMD 100, that is, the position / posture of the head of the user 1.
  • the spatial coordinate system is a coordinate system (world coordinate system) that is set according to a spatial map or the like regardless of the position, orientation, or the like of the HMD 100. Therefore, when the user 1 wearing the HMD 100 moves, the origin of the body coordinate system seen from the space coordinate system changes, and when the user 1 moves the head, the direction of the body coordinate system seen from the space coordinate system changes.
  • the virtual image 30a is, for example, an image arranged with reference to the body coordinate system and displayed so as to fit within the field of view of the user 1 regardless of the posture of the head of the user 1. For example, even if the user 1 moves his / her head, the user 1 can always visually recognize the virtual image 30a.
  • the virtual image 30a is used, for example, for displaying main contents, error messages, and the like.
  • the virtual image 30b is an image that is arranged with reference to, for example, the body coordinate system and the vertical direction (vertical direction in the real space) and is displayed diagonally above the user 1.
  • the virtual image 30b is arranged along the orbit on the ring set above the user 1 with reference to the current position of the user 1.
  • the virtual image 30b is displayed on the display unit 10.
  • the virtual image 30b is out of the field of view (angle of view) of the user 1 and is not displayed.
  • the virtual image 30b is used, for example, for displaying status information such as the current time, the remaining battery level of the HMD 100, and the communication status, and displaying a message or the like.
  • the virtual image 30b corresponds to an upper image displayed diagonally upward when viewed from the user.
  • the virtual image 30c is, for example, an image arranged based on the body coordinate system and displayed around the body of the user 1 (around the waist), that is, in a work space where the user 1 can reach out. For example, a plurality of virtual images 30c are displayed centering on the abdomen of the user 1 in response to the user 1's selection operation (operation via a gesture or an operation input unit).
  • the virtual image 30c is used, for example, to display an operation selection screen (launcher) or main content.
  • the virtual image 30d is, for example, an image arranged based on the body coordinate system and the vertical direction and displayed at the feet of the user 1.
  • the virtual image 30d is displayed along the floor surface (ground) where the user 1 is located.
  • the virtual image 30d is displayed so as to move with the movement of the user 1. Therefore, the virtual image 30d is arranged based on the position of the user 1 (body coordinate system) and the floor surface (spatial coordinate system).
  • the virtual image 30d is used for displaying a launcher, a navigation map, and the like.
  • the virtual image 30d corresponds to a lower image displayed diagonally downward when viewed from the user.
  • the virtual image 30e is arranged based on, for example, the position of the user 1 and the spatial coordinate system, and is localized and displayed in the real space so as to maintain the relative position with the user 1. For example, when the user 1 moves, the position of the virtual image 30e in the spatial coordinate system also changes, but the position of the virtual image 30e does not change even if the user 1 changes its orientation.
  • the virtual image 30e is used for displaying, for example, a navigation object (arrow, agent character, etc.).
  • the virtual image 30f is, for example, an image arranged based on the spatial coordinate system and always displayed in the same size (viewing angle) regardless of the distance to the user 1.
  • the virtual image 30f is localized and displayed at a predetermined position in the spatial coordinate system, for example.
  • the user 1 visually recognizes the virtual image 30f displayed in the same size regardless of whether the display position of the virtual image 30f is near or far.
  • the virtual image 30f is used, for example, to display an icon, a message, or the like that displays information set on a real object (item, store, place, etc.).
  • the virtual image 30g is an image that is arranged based on, for example, the spatial coordinate system and is displayed as if it exists in the real space. For example, as the distance between the display position of the virtual image 30g and the user 1 becomes closer, the virtual image 30g is displayed larger. That is, the virtual image 30g is an image displaying a superposed object (virtual object) fixed in the spatial coordinate system.
  • the virtual images 30a to 30g described above are merely examples, and for example, any virtual image 30 according to the content may be used.
  • the type and use of the virtual image 30 are not limited.
  • the present technology can be applied to any virtual image 30 having the above-mentioned characteristics.
  • the display processing of the virtual image 30 according to the trigger gesture will be described.
  • a predetermined trigger gesture is detected in the HMD 100
  • the display process of the virtual image 30 corresponding to the detected trigger gesture is started. That is, the trigger gesture functions as a trigger for a display operation for displaying the virtual image 30.
  • the user 1 can display the desired virtual image 30 simply by performing a predetermined trigger gesture.
  • the trigger gesture is a head gesture in which the user 1 turns his head upward. Not all gestures in which the user 1 turns his head upward are trigger gestures, and when the posture angle of the head of the user 1 exceeds the determination threshold value, the head gesture is detected as a trigger gesture. To.
  • the trigger gesture is a head gesture in which the user 1 turns his head downward. It is also possible to perform a process of displaying the virtual image 30c instead of the virtual image 30d, or a process of determining the posture angle of the head and displaying the virtual images 30c and 30d, respectively.
  • the type of gesture that triggers the display operation is not limited, and the display operation may be performed according to the gesture of rotating the head left and right, the gesture of moving the limbs, and the like.
  • the trigger gesture may be a trigger for a non-display operation that hides the virtual image 30.
  • the above-mentioned head gesture in which the user 1 turns his head upward enables a gesture operation in which the virtual image 30 (for example, the virtual image 30a shown in FIG. 4) displayed in front of the user 1 is hidden. It may be. Further, the head gesture in which the user 1 turns the head downward may function as a trigger for the non-display operation. Even when the trigger of the non-display operation is used in this way, the present technology can be applied.
  • FIG. 4 is a flowchart showing an example of the basic operation of the HMD 100.
  • the flowchart shown in FIG. 4 is, for example, a process that is repeatedly executed during the startup of the HMD 100.
  • the basic operation of the HMD 100 will be described by taking as an example a case where the user 1 performs a gesture operation (display operation) for operating the display / non-display of the virtual image 30.
  • the physical information acquisition unit 21 acquires the physical information of the user 1 (step 101). For example, based on the output of the 9-axis sensor 17 or the like, the body posture (standing state, sitting state, etc.) of the user 1, the head posture, the state of the limbs, and the like are detected. Further, for example, the user information (height, gender, age, etc.) stored in the storage unit 15 is read.
  • the environment information acquisition unit 23 acquires the environment information of the surrounding environment of the user 1 (step 102). For example, surrounding Depth information (depth data), environment shape, spatial map, etc. are read. Further, the object recognition process for the real object existing in the surrounding environment is executed, and for example, information such as the presence / absence of the ceiling at the current position of the user 1 and the height of the ceiling / floor surface is acquired. Further, for example, the presence or absence of a moving object is detected as environmental information based on the processing result of the object recognition process. In this way, the environmental information can be said to be information representing the recognition result of the external environment.
  • surrounding Depth information depth data
  • environment shape environment shape
  • spatial map etc.
  • the object recognition process for the real object existing in the surrounding environment is executed, and for example, information such as the presence / absence of the ceiling at the current position of the user 1 and the height of the ceiling / floor surface is acquired. Further, for example, the presence or absence of a moving object is detected as environmental information based on the processing result of the object
  • Judgment condition setting unit 24 sets a judgment condition (judgment threshold value) for judging a trigger gesture (step 103).
  • the setting of the determination condition is executed based on the physical information acquired in the above step. For example, a determination condition is set according to the physical characteristic information in the posture state (sitting state or standing state) of the user 1. Further, the threshold value setting may be executed based on the environmental information. For example, the judgment conditions are changed according to the presence or absence of a ceiling. This point will be described in detail later.
  • the determination conditions corresponding to each trigger gesture are set based on the physical information or the environmental information.
  • the trigger gesture is detected using the determination condition set in step 103 (step 104).
  • the gesture information acquisition unit 22 acquires gesture information (for example, acceleration, angular velocity, direction, etc. of the HMD 100).
  • the gesture detection unit 25 determines whether or not the gesture represented by the gesture information is a trigger gesture using the determination condition.
  • a threshold angle with respect to the posture angle (pitch angle, etc. described later) of the head is used as a determination condition for a trigger gesture to move the head.
  • the gesture detection unit 25 determines whether or not the posture angle of the head is larger than the threshold angle. When the posture angle is larger than the threshold angle, it is determined that the trigger gesture has been performed, and when the posture angle is smaller than the threshold angle, it is determined that the trigger gesture has not been performed.
  • This determination result (that is, the detection result of the trigger gesture) is output to the layout calculation unit 26.
  • the layout calculation unit 26 acquires content information for displaying the virtual image 30 (step 105). Specifically, as the content information, the image data of the virtual image 30 arranged in the content executed by the HMD 100 is read. Further, as the content information, layout parameters such as the position and size of each virtual image 30 are calculated.
  • step 104 when a trigger gesture of a display operation for displaying the virtual image 30 is detected, the content information (data of the virtual image 30) corresponding to the trigger gesture is read. If the trigger gesture is not detected, the processing related to the display operation (reading of content information, etc.) is not executed. If other content or the like is being executed, content information related to that content is appropriately acquired.
  • the posture and position of the head (HMD100) of the user 1 are detected, and the layout parameters of the virtual image 30 are calculated according to the detection result. For example, the display position and size of characters, messages, etc. included in the user 1's field of view are appropriately calculated.
  • layout parameters that do not reflect the physical characteristics of user 1 are calculated. This layout parameter may be adjusted based on physical information or environmental information, as will be described later.
  • the layout determination unit 27 determines whether or not the virtual image 30 is a display object (high priority display object) set to a high priority (step 106).
  • the priority of each virtual image 30 (content information) acquired in step 105 is determined.
  • a high priority is set for the virtual image 30 that presents emergency information such as an error message or a caution message.
  • a low priority is set for the normal virtual image 30 that displays the status, the menu screen, and the like.
  • the priority may be set only for the emergency virtual image 30, and the priority may not be set for the normal virtual image 30.
  • the display with the initial value is selected (step 107). For example, a command signal is generated to display the virtual image 30 having a high priority with preset layout parameters. As a result, it is possible to always display the virtual image 30 having a high priority in the center of the field of view of the user 1, and it is possible to reliably present a message or the like requiring urgency to the user 1.
  • the display according to the physical information or the environmental information is selected (step 108). For example, a command signal is generated to display the virtual image 30 having a low priority with layout parameters adjusted according to physical information and environmental information. That is, for the virtual image 30 having a low priority, a process of controlling the display position is selected according to the posture of the user 1 and the presence / absence of the ceiling in the space where the user 1 is located. As a result, for example, the virtual image 30 can be displayed at a position that is easy for the user 1 to see, and a user-friendly GUI can be realized.
  • the determination process in step 106 it is possible to separately process the virtual image 30 whose display position should be adjusted and the virtual image 30 which should be displayed without changing the position. This makes it possible to realize an HMD100 that is easy to use and highly reliable.
  • the output process of the virtual image 30 is executed according to the display method selected in steps 107 and 108 (step 109).
  • the layout calculation unit 26 adjusts the layout parameters for each virtual image 30.
  • the display position of the low-priority virtual image 30 is adjusted according to the physical information and the environmental information, and the default display position is set for the high-priority virtual image 30.
  • the output control unit 28 generates an output image based on the layout parameters of the virtual image 30, and outputs the output image to the display unit 10.
  • the virtual image 30 such as the GUI is displayed based on the determination conditions and the display position set according to the physical information and the environmental information.
  • the setting process of the judgment condition (judgment threshold value) and the display control of the virtual image 30 will be concretely described by taking as an example a gesture operation by a head gesture (hereinafter, referred to as an upward gesture) in which the user 1 turns the head upward.
  • the upward gesture functions as a trigger gesture for a display operation for displaying a predetermined virtual image 30 (virtual image 30b).
  • the posture angle of the head is represented by, for example, a pitch angle, a roll angle, and a yaw angle. These posture angles are, for example, angles with reference to a horizontal plane or a vertical direction.
  • the pitch angle is an angle with the left-right direction of the head as the rotation axis, and represents, for example, the tilt angle (bending angle and extension angle) of the head when the neck is tilted back and forth.
  • the roll angle is an angle with the front-back direction of the head as the rotation axis, and represents, for example, the tilt angle (lateral bending angle) of the head when the neck is tilted left and right.
  • the yaw angle is an angle with the vertical direction of the head as the rotation axis, and represents, for example, the rotation angle (rotation angle) of the head when the neck is rotated left and right.
  • the posture angle of the head of the user 1 is represented by the posture angle (pitch angle, roll angle, yaw angle, etc.) of the HMD 100.
  • the attitude angle of the HMD 100 is detected based on, for example, the output of a 3-axis gyro sensor.
  • the posture angle of the head may be directly estimated by performing skeleton estimation or the like based on the image taken by the user 1.
  • the method of calculating the posture angle of the head is not limited. In the following, it is assumed that each posture angle is 0 ° in a state where the head of the user 1 is facing the front (reference posture). Further, the posture angle of the HMD 100 may be described as the posture angle of the head.
  • the pitch angle of the head changes upward when the user 1 turns the head upward.
  • the threshold angle (upper threshold angle) with respect to the pitch angle changing upward is set as a determination condition for determining the upward gesture as a trigger gesture. That is, the determination condition of the upward gesture includes the upper threshold angle with respect to the pitch angle of the head of the user 1 that changes due to the upward gesture.
  • the pitch angle when the user 1 turns his head upward, if the pitch angle does not exceed the upper threshold angle, it is determined that the trigger gesture has not been performed.
  • the operation of the user 1 upward gesture
  • the virtual image 30 is displayed diagonally above the user 1.
  • FIG. 5 is a schematic diagram showing an example of a virtual image 30 displayed by an upward gesture.
  • FIG. 5 schematically shows an example of a virtual image 30 (upper image 31) displayed diagonally upward of the user 1 when the user 1 makes an upward gesture.
  • the upper image 31 is a specific display example of the virtual image 30b described with reference to FIG.
  • the upper image 31 includes, for example, a status icon 32, a time display 33, a date display 34, and a message notification 35.
  • the status icon 32 includes an icon indicating the communication status of the HMD 100 (connection status with a network such as WiFi, etc.), an icon indicating the remaining battery level of the HMD 100, and the like.
  • the time display 33 and the date display 34 display the current time and date.
  • the message notification 35 is a text notification for notifying new mails, notifications, and the like.
  • the specific display content of the upper image 31 is not limited.
  • the upper image 31 as shown in FIG. 5 is not displayed, so that a wide field of view is secured.
  • the display process of the upper image 31 is started and the status or the like is presented by turning the head upward by a certain angle (upper threshold angle).
  • the upper image 31 is localized and arranged above the user 1, it is hidden when the user 1 returns his / her line of sight to the front.
  • the upper image 31 is held as active content for a certain period of time. Therefore, if the user 1 turns his / her head upward while the upper image 31 is active, the upper image 31 is displayed regardless of the determination of the upward gesture or the like.
  • FIG. 6 is a schematic diagram showing an example of characteristics relating to a human vertical visual field.
  • FIG. 6 shows angles (angle ranges) showing each characteristic of the vertical visual field based on the case where the human head is facing the front.
  • Each characteristic shown in FIG. 6 is represented by an angle with reference to the line-of-sight direction (reference line-of-sight 40) when the human looks in the horizontal direction with the human head facing the front.
  • the vertical movement limit of the human eyeball that is, the maximum vertical movement range of the eyeball is about 30 ° on the upper side and about 35 ° on the lower side. Further, the range in which a human can easily move the eyeball is a range of about 30 ° below the reference line of sight 40.
  • the maximum movement range of the eyeball is the range in which the line-of-sight direction can be changed without changing the direction of the head, and the comfortable movement range of the eyeball is the range in which the line-of-sight direction can be easily changed.
  • the visual field is about 50 ° on the upper side and about 70 ° on the lower side.
  • the range in which humans can discriminate colors is about 35 ° on the upper side and about 40 ° on the lower side.
  • the visual field range and the color discrimination limit change according to the line-of-sight direction (direction of the eyeball).
  • FIG. 6 shows a standard human line-of-sight direction (standard line-of-sight 41).
  • the standard line of sight 41 changes according to the posture of a human being. For example, in the sitting position where a human is sitting, the standard line of sight 41 is in the direction of about 15 ° below the reference line of sight 40. Further, in the standing state in which a human is standing, the standard line of sight 41 is in a direction of about 10 ° below the reference line of sight 40. Therefore, in the sitting state, the direction normally viewed by a human (standard line of sight 41) is about 5 ° lower than that in the standing state.
  • the standard line of sight 41 of the user 1 (human), that is, the range that the user 1 normally sees changes according to the posture of the user 1.
  • the determination condition upper threshold angle of the upward gesture is set according to the visual field characteristic in the posture of the user 1.
  • FIG. 7 is a schematic diagram for explaining the setting of the determination condition according to the posture of the user 1.
  • the determination condition setting unit 24 sets the determination condition according to the posture of the user 1. For example, in step 101 of FIG. 4, posture information indicating whether the user 1 is in the sitting state or the standing state is acquired. Then, in step 103, the upper threshold angle, which is a determination condition for the upward gesture, is set using the posture information.
  • FIGS. 7A and 7B the standing user 1 and the sitting user 1 are schematically shown.
  • the upper limit threshold angle ⁇ for determining the upward gesture is set according to the posture of the user 1, for example, with reference to a preset reference threshold angle ⁇ 0 .
  • the reference threshold angle ⁇ 0 is a threshold angle set with reference to, for example, a state in which the user 1 is looking in the horizontal direction (state of the reference line of sight 40).
  • the method of setting the reference threshold angle ⁇ 0 is not limited, and the reference threshold angle ⁇ 0 may be set according to, for example, a color discrimination limit, a visual field limit, or the like.
  • the upper threshold angle ⁇ ⁇ 0 -10 ° is set.
  • ⁇ 0 30 °
  • the determination condition setting unit 24 sets the threshold angle to a value smaller than that when the standing state is detected when the sitting state is detected.
  • the average line of sight (standard line of sight) of the user 1 is directed closer (downward) than when the user 1 is standing. For this reason, when the user 1 performs a display operation using an upward gesture, the pitch angle when the head is turned upward is higher in the sitting state than in the standing state, even if the user 1 intends to perform the same gesture. It is possible that it becomes smaller unknowingly.
  • the upper threshold angle ⁇ in the sitting state by setting the upper threshold angle ⁇ in the sitting state to be lower than that in the standing state, it is possible to display the upper image 31 by a natural operation regardless of the posture of the user 1. Become. Further, in the standing state, the upper threshold angle ⁇ is set larger than that in the sitting state, so that it is possible to suppress erroneous determination or the like due to a relatively large pitch angle when performing an upward gesture. This makes it possible to sufficiently improve the operability of the virtual experience using gesture operations and the like.
  • the determination condition of the head gesture (hereinafter, referred to as a downward gesture) in which the user 1 turns the head downward may be set by utilizing the difference in the standard line of sight 41 according to the posture of the user 1.
  • the downward gesture functions as a trigger gesture for displaying the virtual image 30d (lower image) shown in FIG.
  • a lower threshold angle ⁇ with respect to a pitch angle that changes downward is set.
  • the determination condition setting unit 24 sets the lower threshold angle ⁇ , for example, by subtracting the angle of the standard line of sight in the sitting state and the standing state from the reference threshold angle ⁇ 0 .
  • the reference threshold angle ⁇ 0 is set to, for example, a maximum value of 35 ° below the movement limit of the eyeball.
  • the determination condition may be set in this way.
  • the layout calculation unit 26 controls the display position of the virtual image 30 according to the posture of the user 1.
  • the vertical display position of the upper image 31 displayed according to the upward gesture is adjusted according to the posture (standing state and sitting state) of the user 1.
  • FIGS. 7A and 7B the upper image 31 displayed when the user 1 is in the standing state and the sitting state is schematically illustrated by the shaded area.
  • the upper image 31 is arranged so as to be within the field of view of the user 1, for example, when the pitch angle of the head of the user 1 reaches the upper threshold angle ⁇ .
  • the display position of the upper image 31 is adjusted so that the upper image 31 is displayed in a predetermined region (for example, the upper half region of the visual field) in the field of view inclined at the upper threshold angle ⁇ .
  • the upper image 31 is displayed at a fixed position in the field of view of the user 1. If the posture of the user 1 is different, the display position of the upper image 31 (height position as seen from the head, etc.) is different.
  • the upper image 31 is arranged at a relatively high position when viewed from the head of the user 1 according to the upper threshold angle ⁇ set to a value larger than that in the sitting state.
  • the upper threshold angle ⁇ is set to a value smaller than that in the standing state, so that the upper image 31 is a position lower than the standing state when viewed from the head of the user 1. Is placed in. In this way, the layout calculation unit 26 sets the display position of the upper image 31 to a position lower than that when the standing state is detected when the sitting state is detected.
  • the user 1 can smoothly visually recognize the upper image 31 as an extension of the upward gesture regardless of his / her posture.
  • the gesture performed by a standing user may have a larger amount of movement than, for example, when sitting. Even in such a case, the upper image 31 can be displayed at an appropriate position according to the operation amount of the user 1.
  • the sitting user 1 can display the upper image 31 with an upward gesture with a small amount of movement, and can easily visually recognize the upper image 31 displayed at a relatively low position.
  • the method of setting the display position of the upper image 31 is not limited. For example, a position that is easy for the user 1 to see is set as a default position in advance depending on whether the user 1 is standing or sitting, and the upper image 31 is arranged at the default position for each posture of the user 1. You may. In addition to the display position, other layout parameters such as the size and posture of the upper image 31 may be adjusted according to the posture.
  • the determination condition setting unit 24 sets the determination condition based on the environmental information. As a result, for example, in addition to the physical characteristic information in the posture state of the user 1, it is possible to set the determination condition according to the physical characteristic information in the surrounding environment.
  • the standard line of sight 41 (average line of sight) described with reference to FIG. 6 may change depending on the surrounding environment of human beings. For example, when a person is outdoors, the standard line of sight 41 tends to be closer to the horizontal direction than when the person is indoors. Even indoors, the higher the ceiling, the closer the standard line of sight 41 tends to be in the horizontal direction.
  • the change angle of the standard line-of-sight 41 that changes according to the environment is referred to as an environment angle ⁇ .
  • the environmental angle ⁇ is, for example, an angle of 10 ° or less, and changes according to the height of the ceiling and the like.
  • the standard line of sight 41 is 10 ° when the user 1 is indoors in a standing state.
  • the standard line of sight 41 tends to be high (for example, 5 °).
  • the indoor environment angle ⁇ is 0 °
  • the outdoor environment angle ⁇ is 5 °.
  • the environmental angle ⁇ may be a negative value.
  • the environment angle ⁇ is set based on the standard line-of-sight 41 and the like actually measured indoors and outdoors.
  • the environment angle ⁇ may be set by learning the operation tendency of the user 1.
  • the upper threshold angle for determining the upward gesture is adjusted according to the difference in the characteristics of the vertical visual field of a human being (change in the environment angle ⁇ ) due to such a difference in the surrounding environment.
  • the upper threshold angle set according to the surrounding environment will be described as the upper threshold angle ⁇ '.
  • the environment information acquisition unit 23 detects the presence or absence of a ceiling in the surrounding environment.
  • the presence or absence of a ceiling is detected based on a spatial map generated using, for example, SLAM, or an image taken by an outward-facing camera 16.
  • the detection result of the presence or absence of the ceiling is output to the determination condition setting unit 24, and the upper threshold angle ⁇ 'according to the surrounding environment is calculated depending on whether the ceiling is present or not.
  • the determination condition setting unit 24 for example, by adding the environment angle ⁇ to the upper threshold angle ⁇ according to the posture (standing state or sitting state) of the user 1 described with reference to FIG. 7, the surrounding environment is added.
  • the upper threshold angle ⁇ ' when the ceiling is detected, assuming that the user 1 exists indoors, the upper threshold angle ⁇ 'according to the surrounding environment sets the indoor environment angle ⁇ (for example, 0 °) to the upper threshold angle ⁇ according to the posture. It is set to the added value.
  • the upper threshold angle ⁇ ' when the ceiling is not detected, it is assumed that the user 1 exists outdoors, and the upper threshold angle ⁇ 'is set to a value obtained by adding the outdoor environment angle ⁇ (for example, 5 °) to the upper threshold angle ⁇ . ..
  • the determination condition setting unit 24 sets the upper threshold angle ⁇ 'to a value lower than when the ceiling is not detected when the ceiling is detected.
  • the user 1 can easily display the upper image 31 by naturally performing an upward gesture regardless of whether the current position is indoors or outdoors.
  • the upper threshold angle ⁇ ' is not limited to the case where the upper threshold angle ⁇ 'is set according to the presence or absence of the ceiling, and for example, the upper threshold angle ⁇ 'may be set according to the height of the ceiling.
  • the higher the ceiling height the closer the human standard line of sight 41 tends to be in the horizontal direction.
  • the higher the ceiling height the larger the upper threshold angle ⁇ 'is set.
  • FIG. 8 is a schematic view showing a display example of the upper image 31 according to the environmental information.
  • 8A and 8B schematically show an upper image 31 superimposed on the field of view of the user 1 indoors with a ceiling and outdoors without a ceiling.
  • the visual field of the user 1 shown in FIGS. 8A and 8B is a visual field in a state where the posture of the user 1, the height of the head from the floor surface, and the pitch angle are the same.
  • the layout calculation unit 26 adjusts the display position of the upper image 31 according to the presence or absence of the ceiling. For example, when the user 1 is indoors (FIG. 8A), the upper image 31 is displayed at a lower position than when the user 1 is outdoors (FIG. 8B). These display positions can be set with reference to, for example, the upper threshold angle ⁇ 'indoors and outdoors. As a result, the user 1 can smoothly visually recognize the upper image 31 as an extension of the upward gesture regardless of whether it is indoors or outdoors.
  • the focus of user 1 is often the space between the floor and the ceiling. Therefore, even when the display position of the upper image 31 is slightly lower as shown in FIG. 8A, it is possible to sufficiently avoid the situation where the upper image 31 overlaps the area that the user 1 wants to pay attention to. Further, since the status of the upper image 31 and the like can be confirmed without unnecessarily tilting the head, it is possible to reduce the physical load on the user 1.
  • FIG. 9 is a schematic diagram showing an example of characteristics relating to a human horizontal visual field.
  • FIG. 9 schematically shows a human being viewed from the top of the head, and an angle (angle range) showing each characteristic of the horizontal visual field based on the case where the human head is facing the front is described. There is.
  • the lower side in the figure is the front surface of the user 1, and the upper side is the back surface of the user 1.
  • the horizontal movement limit of the human eyeball that is, the maximum horizontal movement range of the eyeball is about 15 ° to the left and right.
  • the visual field of the left eye is about 94 ° on the left side and about 62 ° on the right side.
  • the color discrimination limit at which a human can discriminate colors is about 30 ° to 60 ° to the left and right.
  • the user 1 can easily recognize the virtual image 30 by displaying the virtual image 30 so as to be included in the maximum horizontal operating range of the eyeball.
  • the display position of the virtual image 30 displayed according to the progress of the content and the user's operation (gesture operation, etc.) including the above-mentioned upper image 31 can be generally arbitrarily set. That is, the displayed virtual image 30 is not always displayed at a position that is easy for the user 1 to see. For this reason, for example, a situation may occur in which the virtual image 30 is lost or the virtual image 30 is not noticed.
  • FIG. 10 is a schematic diagram showing a display example of the virtual image 30 according to the environmental information.
  • FIG. 10 schematically shows a field image 50 of the user 1 taken by the outward-facing camera 16.
  • the visual field image 50 is an image of an indoor passage, and includes a single vanishing point 51 near the center of the image. That is, the composition of the visual field image 50 can be regarded as one-point perspective. In this way, when the visual field of the user 1 can be regarded as a one-point perspective, the line-of-sight direction of the user 1 tends to be concentrated in the vicinity of the vanishing point 51 in the visual field of the user 1. In other words, the area near the vanishing point 51 is an area that is easy for the user 1 to see.
  • the display position is controlled so that the virtual image 30 is displayed near the vanishing point 51.
  • the environment information acquisition unit 23 determines whether or not the surrounding environment includes the vanishing point 51. Then, when the vanishing point 51 is included in the surrounding environment, the layout calculation unit 26 sets the display position of the virtual image 30 with the vanishing point 51 as a reference.
  • the environmental information acquisition unit 23 determines the presence or absence of the vanishing point 51 by detecting a feature amount such as a straight line from the visual field image 50 taken by the outward camera 16, for example. Further, even if the vanishing point 51 is detected using three-dimensional data such as a spatial map. Alternatively, when an inward-facing camera or the like for photographing the eyeball of the user 1 is provided, the movement of the eyeball of the user 1 may be detected. In this case, if the average movement of the eyeballs is small (for example, the movement of the line of sight of the user 1 is sufficiently smaller than the movement limit in the horizontal direction), it is regarded as one-point fluoroscopy and a determination that a vanishing point 51 exists is executed. May be good. In addition, the method for determining the presence or absence of the vanishing point 51 is not limited.
  • the layout calculation unit 26 sets, for example, a display candidate area 52 (diagonal square in FIG. 10) with reference to the vanishing point 51.
  • the display candidate area 52 is set to have a width of, for example, about 10 ° in a horizontal field of view.
  • the virtual image 30 is arranged so as to fit in the set display candidate area 52.
  • the virtual image 30 can be displayed at a position where the user 1 naturally turns his / her line of sight, so that the accessibility to the virtual image 30 can be sufficiently improved.
  • the layout calculation unit 26 determines whether or not to fit the virtual image 30 in the display candidate area 52. Specifically, it is determined whether or not to fit in the display candidate area 52 according to the distance between the line of sight of the user 1 and the intersection (collision point) between the space-mapped surrounding environment. For example, when there is an intersection within a short distance (about 3 m) where the virtual image 30 can be viewed stereoscopically, a process of displaying the virtual image 30 as it is without storing it in the display candidate area 52 is executed. Will be done. That is, when the line of sight of the user 1 is directed to a short distance, the normal display process is performed, so that the user 1 can easily recognize the virtual image 30.
  • FIG. 11 is a schematic diagram showing an example of characteristics relating to the range of motion of human joints.
  • FIG. 11 shows the range of motion of the neck joint when the head is tilted forward and the range of motion of the neck joint when the head is tilted backward, with the state in which the human is facing the front as a reference posture.
  • An example is schematically illustrated.
  • the easy bending angle at which bending and extension can be easily performed is about 30 °.
  • the maximum bending angle at which bending and extension can be performed is about 60 °.
  • the determination condition is set according to the range of motion of the user 1 in the posture of the user 1. For example, in the standing position in which the user 1 is standing, the easy bending angle and the maximum bending angle of the neck are larger than in the sitting state in which the user 1 is sitting. Further, in the standing position, the tilt angle of the head that the user 1 can tilt by bending his / her waist is larger than that in the sitting state.
  • the determination conditions (upper threshold angle ⁇ and lower threshold angle ⁇ ) for the upward gesture and the downward gesture described with reference to FIG. 7 and the like are set according to such a difference in the motion characteristics of the neck and the waist.
  • the determination condition setting unit 24 sets, for example, the reference threshold angles ⁇ 0 and ⁇ 0, which are the reference for setting the upper threshold angle ⁇ and the lower threshold angle ⁇ , according to the posture of the user 1. For example, when the user 1 is in the sitting position, the reference threshold angles ⁇ 0 and ⁇ 0 are set to the upper limit value and the lower limit value of the eye movement limit shown in FIG. When the user 1 is in the standing state, the reference threshold angles ⁇ 0 and ⁇ 0 are set to be larger than the values in the sitting state. That is, in the standing state, the range of the threshold angle for determining the upward gesture and the downward gesture is adjusted to be wider than that in the sitting state.
  • the amount of increase in the reference threshold angles ⁇ 0 and ⁇ 0 in the standing state is set according to the amount of increase in the range of motion (easy bending angle, maximum bending angle, etc.) in the standing state when compared with the sitting state, for example. Will be done. That is, the reference threshold angles ⁇ 0 and ⁇ 0 are set according to the operable range expanded by the user 1 standing. It can be said that the upper and lower threshold angles ⁇ and ⁇ are scaled according to the range of motion of the joint. This makes it possible, for example, to set each threshold angle ⁇ and ⁇ large within a range in which the user 1 can operate comfortably. As a result, it is possible to suppress erroneous detection of upward and downward gestures without increasing the physical load of the user 1.
  • the method of setting the threshold angle according to the range of motion of the joint is not limited.
  • the reference threshold angles ⁇ 0 and ⁇ 0 in the sitting position may be set according to the range of motion of the joint.
  • the shift amount according to the range of motion of the joint may be set for each posture.
  • the final threshold angle may be set by adding this shift amount to the threshold angles ( ⁇ and ⁇ ) set according to the posture information and the environmental information of the user 1. Further, since there are individual differences in the characteristics of the range of motion of each posture, for example, the range of motion of the user 1 may be learned and the threshold angle may be set based on the learning result.
  • FIG. 12 is a schematic view showing an example of the display position of the virtual image 30 displayed obliquely downward when viewed from the user 1.
  • Examples of the virtual image 30 displayed diagonally downward include the virtual image 30c and the virtual image 30d (lower image 36) described with reference to FIG.
  • a method of setting the display position of the lower image 36 will be described with reference to FIG.
  • the range of depression angle ⁇ is the range that humans can easily see.
  • the depression angle ⁇ is an angle that looks down diagonally downward from the horizontal direction.
  • a region that fits in the depression angle and has a constant height will be referred to as a downward display region 54.
  • the horizontal plane including the head (HMD100) of the user 1 is described as the reference horizontal plane 55.
  • three types of downward display regions 54a to 54c having different relative distances H from the reference horizontal plane 55 are schematically illustrated by shaded regions.
  • the lower display area 54 is an area in which the horizontal distance from the user 1 is H / tan (10 °) to H / tan (30 °). As shown in FIG. 12, the position on the front side of the lower display area 54 as seen from the user 1 is separated from the user 1 as the relative distance H from the reference horizontal plane 55 (the height position of the head of the user 1) is larger. Further, the size (depth) of the lower display area 54 increases as the relative distance H increases. In this way, if the relative distance H is different, the position and size of the lower display area 54 will change.
  • the layout calculation unit 26 sets the display position of the lower image 36 so that the lower image 36 fits in the lower display area 54. Specifically, the relative distance H (height position of the virtual image 30) from the reference horizontal plane 55 for displaying the virtual image 30 is calculated based on the height of the user 1, and the virtual image is calculated based on the relative distance H. A depth position of 30 is set. As described above, in the present embodiment, the display position of the lower image 36 is set according to the height of the user 1.
  • FIG. 13 is a schematic view showing an example of the lower image 36.
  • FIG. 13A is an example of the lower image 36 displayed around the body (around the waist) of the user 1, and is a display example of the virtual image 30c shown in FIG.
  • the virtual image 30c is a selection screen including a plurality of selection windows 37.
  • the user 1 can perform a gesture operation such as selecting a desired window 37 from these windows 37 by rotating the head left and right.
  • a virtual image 30c is displayed at the height of the abdomen of the user 1.
  • the virtual image 30c is arranged in the lower display area 54a set at the same height as the abdomen of the user 1 shown in FIG.
  • a method for setting a relative distance H a for displaying the virtual image 30c is not limited.
  • the virtual image 30c is an image displayed as if it is floating in the air, and is arranged at an angle so that the user 1 can easily see it, for example. As a result, the user 1 can easily visually recognize the virtual image 30c displayed around his / her body.
  • FIG. 13B is an example of the lower image 36 displayed on the floor surface around the user 1, and is a display example of the virtual image 30d shown in FIG.
  • the virtual image 30d is a screen for displaying, for example, a navigation map 38 or the like.
  • an operation window 39 for performing a navigation operation is displayed, and the user 1 can perform various operations by performing a predetermined selection operation. For example, such a virtual image 30d is displayed on the floor surface.
  • the virtual image 30d is arranged in the lower display area 54b set at the same height as the floor surface on which the user 1 shown in FIG. 12 stands.
  • the relative distance H b may be set to a value obtained by subtracting the amount of deviation of the mounting position of the HMD 100 from the height h 1 of the user 1.
  • the method of setting the relative distance H b for displaying the virtual image 30d is not limited.
  • the relative distance H b When the relative distance H b is set, the horizontal position of the lower display area 54b is calculated, and the display position of the virtual image 30d is set so as to fit in the lower display area 54b.
  • the virtual image 30d is, for example, an image displayed along the floor surface. Therefore, the user 1 visually recognizes a navigation map or the like displayed with the surrounding floor surface as a screen. Further, since the virtual image 30d is displayed at a position easily visible to the user 1, the user 1 does not need to bend his / her neck unnecessarily, and the physical load of the user 1 can be sufficiently reduced. ..
  • the lower display area 54c shown in FIG. 12 is an area set when a step or the like is provided on the floor surface around the user 1.
  • the height of the user 1 body information
  • the height position of the floor surface environment information
  • the relative distance H c against the reference horizontal surface 55 of the lower display area 54c is set.
  • a tall user 1 and a short user 1 have different areas to be visually recognized even when looking down at the same depression angle ⁇ . Therefore, the area that the user 1 can easily look down on differs depending on the height of the user 1. Further, when the display is performed along the floor surface, the area where the display can be easily visually recognized changes depending on the difference in the height of the floor surface.
  • the display position of the lower image 36 is controlled according to the height of the user 1 and the position of the floor surface. As a result, it is possible to realize a display that is easy for the user 1 to see regardless of the height and the height of the floor surface, and it is possible to demonstrate excellent usability.
  • the lower image 36 is displayed, for example, when the user 1 makes a downward gesture with the head facing downward.
  • a determination condition (lower threshold angle ⁇ , etc.) for determining this downward gesture may be set according to the height of the user 1. For example, when the user 1 performs an action of looking down on the floor surface or the like, it is conceivable that the higher the height, the larger the action (pitch angle of the head). In accordance with such characteristics, for example, the taller the person, the larger the lower threshold angle ⁇ can be set. This makes it possible to display the lower image 36 and the like in a natural motion regardless of the height of the user 1.
  • the processing using the visual field characteristics and the motion characteristics according to the posture and height of the user 1 has been mainly described. These characteristics may differ depending on, for example, the age and gender of user 1.
  • the visual field range and range of motion of humans change with age.
  • determination conditions may be set, the display position of the virtual image 30 may be controlled, and the like.
  • there are individual differences in these characteristics For example, a tendency such as a motion range by a gesture may be learned for each user 1, and physical characteristic information of the individual user 1 may be calculated from the learning result. By setting the determination conditions according to the physical characteristic information, it is possible to sufficiently improve the operability in the virtual experience.
  • the determination condition of the trigger gesture that triggers the operation input by the gesture is set based on the physical information of the user 1 who wears the HMD 100. Using this determination condition, it is determined whether or not the trigger gesture has been performed based on the gesture information, and the output corresponding to the trigger gesture is controlled based on the determination result. As a result, the trigger gesture performed by the user 1 is determined according to the physical information of the user 1, so that the operability of the gesture operation can be improved.
  • the determination condition suitable for the state of the user 1 is set by using the physical information such as the posture and the height of the user 1.
  • judgment conditions are set according to the surrounding environment such as the presence or absence of a ceiling.
  • the display position of the virtual image 30 is controlled according to the physical information and the environmental information. As a result, it is possible to display the virtual image 30 in an easy-to-see manner and to display the virtual image 30 in an easy-to-find manner, so that high visibility can be ensured. In addition, it is possible to consistently display a display that is easy for the user 1 to see, and it is possible to realize high accessibility and usability.
  • the trigger gesture of the display operation for displaying the virtual image or the non-display operation for hiding the virtual image has been described.
  • determination conditions for determining the trigger gesture of other operation processing may be set based on the physical information of the user or the like.
  • a trigger gesture that triggers a selection operation for selecting a virtual image may be used.
  • the determination condition of the trigger gesture of the selection operation is set based on the physical information of the user 1.
  • a threshold angle with respect to a posture angle (yaw angle) that changes due to the movement of turning the head to the left or right is set according to the physical information of the user 1.
  • the threshold angle with respect to the yaw angle is set larger than in the sitting state.
  • the judgment condition is not limited to the gesture using the head, and the judgment condition for the trigger gesture performed by the user using the limbs may be set.
  • the virtual image 30c shown in FIG. 13A is displayed around the user's torso.
  • the selection operation may be performed by reaching out to the selection window 37 displayed as the virtual image 30c.
  • the gesture that the user reaches out beyond the predetermined area becomes the trigger gesture of the selection operation, and the range of the predetermined area becomes the judgment condition (judgment threshold value).
  • the judgment threshold value For example, in the standing position, the movement range (hand movement characteristics) in which the user can move the hand is wider than in the sitting state. Therefore, in the standing state, a region serving as a determination threshold value is set wider than in the sitting state. As a result, the user can perform the selection operation within the range in which the hand can be easily moved regardless of the posture.
  • the selection operation may be performed by the user moving his / her foot.
  • the virtual image 30d shown in FIG. 13B is displayed at the user's feet.
  • the selection operation may be performed by the user stepping on the operation window 39 included in the virtual image 30d.
  • the gesture in which the user extends his / her foot beyond the predetermined area becomes the trigger gesture of the selection operation, and the range of the predetermined area becomes the determination threshold value.
  • a region serving as a determination threshold value is set wider than in the sitting state. This makes it possible to easily perform the selection operation with the feet regardless of whether the person is sitting or standing. For example, such processing is possible.
  • a determination threshold value for determining a trigger gesture may be appropriately set according to the physical characteristic information of the user for a part (neck, hand, foot, waist, etc.) that operates when performing a trigger gesture.
  • the determination threshold value is adjusted according to the change. As a result, it is possible to realize a gesture operation with high operability according to the user's state and the surrounding situation.
  • the threshold value processing mainly using the judgment threshold value has been described.
  • the method of determining the trigger gesture is not limited.
  • the classifier can determine whether or not a trigger gesture has been performed by learning various parameters and the like according to a machine learning algorithm, for example, by training using a predetermined data set. In this way, the parameters learned by the discriminator can be regarded as the determination conditions for determining the trigger gesture. By inputting the user's gesture information or the like into this classifier, it is determined whether or not the gesture is a trigger gesture, and the gesture determination result is output.
  • the algorithm for constructing the discriminator is not limited, and any algorithm that can detect the type of gesture, the amount of motion, and the like may be used.
  • a data set in which a gesture input (gesture information) and a gesture judgment result for the gesture input are associated with each other is used.
  • a plurality of classifiers corresponding to each state are constructed by using a plurality of data sets according to states such as posture and height, and are stored in a storage unit or the like.
  • the gesture detection unit selects and uses a classifier that matches the user's state, that is, the user's physical characteristics, based on the user's physical information. For example, when the user is in the sitting state, the classifier for the sitting state is used, and when the user is in the standing state, the classifier for the standing state is used.
  • a trigger gesture determination process according to the user's posture, height, and the like, and it is possible to improve the operability of the gesture operation.
  • a discriminator trained using physical characteristic information such as a visual field range and a motion range may be used.
  • the classifier inputs the gesture information and the physical characteristic information and outputs the gesture determination result. This makes it possible to determine the trigger gesture according to the physical characteristic information of the user.
  • the classifier may learn parameters according to the physical characteristics of each user based on the physical characteristic information of each user. As a result, the operability of the gesture operation can be significantly improved.
  • an HMD (AR glass) provided with a transmissive display provided a virtual experience using augmented reality (AR).
  • AR augmented reality
  • the present technology is not limited to this, and the present technology can be applied to an immersive HMD or the like that realizes AR display by displaying an image in real space taken by using an outward camera or the like.
  • the present technology can also be applied when a virtual experience using virtual reality (VR) is provided by using an immersive HMD or the like.
  • the determination condition (determination threshold value, etc.) for determining the trigger gesture is set by detecting the posture of the user during the VR experience.
  • the output corresponding to the trigger gesture is not limited to the image output, and the audio output and the tactile output may be controlled in response to the trigger gesture.
  • a tactile presentation device such as a vibration actuator
  • the type and intensity of the tactile sensation may be adjusted by a gesture operation. In this way, even when the voice output or the tactile output is controlled, high operability can be exhibited by appropriately setting the determination condition of the trigger gesture based on the physical information of the user.
  • Headphones, earphones, or the like may be used as a device using a head-mounted housing (head-mounted device).
  • head-mounted device For example, by mounting a 9-axis sensor on wireless headphones, wired headphones, or the like, it is possible to detect the movement of the user's head.
  • a gesture operation triggered by a trigger gesture operations such as volume adjustment and song selection are performed.
  • the tactile output may be controlled by a gesture operation.
  • this technology is applicable to any wearable device that can detect the user's gesture, not limited to the type of device worn on the head.
  • a user's gesture can be detected by using a device worn on a finger, a wrist, a torso, a waist, an ankle, or the like.
  • the amount of movement of the user's gesture and the like changes according to the physical characteristics and environment of the user. For example, by changing the determination condition of the trigger gesture that can be detected by each device according to the physical information and the environmental information, it is possible to properly perform the trigger detection of the gesture operation.
  • the determination condition of the trigger gesture is set according to the change of the gesture according to the posture. This makes it possible to improve the accuracy of gesture detection.
  • determination conditions for determining gestures that can be detected by each device may be set as appropriate.
  • a head-mounted device such as an HMD or headphones
  • the information processing device according to the present technology may be realized by an arbitrary computer that is configured separately from the head-mounted device and is connected to the head-mounted device via wire or wirelessly.
  • an external device that controls a head-mounted device such as a PC or game machine connected to the HMD or a smartphone connected to the headphones may be used as the information processing device according to the present technology.
  • the information processing method according to the present technology may be executed by a cloud server.
  • the information processing method according to the present technology may be executed in conjunction with the HMD or the like and another computer.
  • the information processing method and program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.
  • the information processing method and program execution related to this technology by the computer system are, for example, acquisition of physical information, acquisition of gesture information, setting of judgment conditions for trigger gestures, and output based on the judgment results of trigger gestures using the judgment conditions.
  • the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result.
  • the information processing method and program related to this technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and processed jointly.
  • this technology can also adopt the following configurations.
  • a physical information acquisition unit that acquires physical information of a user wearing a head-mounted housing, and Gesture information acquisition unit that acquires gesture information about the user's gesture, A determination condition setting unit that sets a determination condition for determining a trigger gesture that triggers an operation input by the user's gesture based on the physical information.
  • An information processing device including a control unit that determines whether or not the trigger gesture has been performed based on the gesture information and the determination condition, and controls the output corresponding to the trigger gesture based on the determination result. ..
  • the determination condition setting unit is an information processing device that sets the determination condition based on the physical characteristic information of the user according to the physical information.
  • the information processing device is an information processing device that includes information on at least one of the visual field characteristics or motion characteristics of the user.
  • the determination condition is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device including a determination threshold value for determining the trigger gesture.
  • the information processing device is an information processing device
  • the information processing device is a head gesture in which the user turns his / her head upward.
  • the determination condition includes a threshold angle with respect to the posture angle of the user's head, which changes depending on the head gesture.
  • the physical information acquisition unit detects a standing state or a sitting state as the posture of the user.
  • the determination condition setting unit is an information processing device that sets the threshold angle to a value smaller than that when the standing state is detected when the sitting state is detected.
  • the information processing device according to any one of (1) to (7).
  • the head-mounted housing is a housing for a head-mounted display that displays a virtual image.
  • the control unit is an information processing device that controls a display position of the virtual image based on the physical information.
  • the information processing apparatus (9) The information processing apparatus according to (8).
  • the physical information acquisition unit acquires the posture of the user as the physical information, and obtains the posture of the user.
  • the control unit is an information processing device that controls a display position of the virtual image according to the posture of the user.
  • the virtual image is an upper image displayed diagonally upward when viewed from the user.
  • the physical information acquisition unit detects a standing state or a sitting state as the posture of the user.
  • the control unit is an information processing device that sets the display position of the upper image to a position lower than that when the standing state is detected when the sitting state is detected.
  • (11) The information processing apparatus according to any one of (8) to (10).
  • the physical information acquisition unit acquires the height of the user as the physical information, and obtains the height of the user.
  • the virtual image is a lower image displayed diagonally downward when viewed from the user.
  • the control unit is an information processing device that sets a display position of the lower image according to the height of the user.
  • the information processing device according to any one of (1) to (11), and further.
  • An information processing device including an environment information acquisition unit that acquires environmental information related to the user's surrounding environment.
  • the determination condition setting unit is an information processing device that sets the determination condition based on the environmental information.
  • the trigger gesture is a head gesture in which the user turns his / her head upward.
  • the determination condition includes a threshold angle with respect to the posture angle of the user's head, which changes depending on the head gesture.
  • the environmental information acquisition unit detects the presence or absence of a ceiling in the surrounding environment and detects it.
  • the determination condition setting unit is an information processing device that sets the threshold angle to a lower value when the ceiling is detected than when the ceiling is not detected.
  • the information processing apparatus according to any one of (12) to (14).
  • the head-mounted housing is a housing for a head-mounted display that displays a virtual image.
  • the control unit is an information processing device that controls a display position of the virtual image based on the environmental information.
  • the information processing apparatus determines whether or not the surrounding environment includes a vanishing point.
  • the control unit is an information processing device that sets a display position of the virtual image with reference to the vanishing point when the surrounding environment includes the vanishing point.
  • the environmental information acquisition unit detects the position of the floor surface as the environmental information, and then
  • the control unit is an information processing device that sets a display position of the virtual image according to the position of the floor surface.
  • the head-mounted housing is a housing for a head-mounted display that displays a virtual image.
  • the trigger gesture is an information processing device that functions as a trigger for a display operation for displaying the virtual image, a trigger for a non-display operation for hiding the virtual image, or a trigger for a selection operation for selecting the virtual image. (19) Acquire the physical information of the user wearing the head-mounted housing, Acquires gesture information about the user's gesture and Based on the physical information, a determination condition for determining a trigger gesture that triggers an operation input by the user's gesture is set. Information processing executed by the computer system to determine whether or not the trigger gesture has been performed based on the gesture information and the determination condition, and to control the output corresponding to the trigger gesture based on the determination result. Method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術の一形態に係る情報処理装置は、身体情報取得部と、ジェスチャ情報取得部と、判定条件設定部と、制御部とを具備する。前記身体情報取得部は、頭部搭載型の筐体を装着したユーザの身体情報を取得する。前記ジェスチャ情報取得部は、前記ユーザのジェスチャに関するジェスチャ情報を取得する。前記判定条件設定部は、前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定する。前記制御部は、前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、ジェスチャ操作に対応した情報処理装置、情報処理方法、及びプログラムに関する。
 従来、ユーザの各部の動作を検出する技術が知られている。例えばユーザが装着するHMD(Head Mounted Display)等の装置では、ユーザの動作を検出して、検出結果を用いた画像の表示制御等が行われる。
 例えば、特許文献1には、ユーザの視野内で観察される外界像に電子情報を合成して表示するHMDが記載されている。このHMDでは、ユーザの頭部の動きを検出することで、電子情報を表示する画像表示素子の表示/非表示が制御される。例えば、ユーザの頭部の角速度や移動速度が所定のしきい値よりも大きい場合には、画像表示素子が非表示に切り替えられる。これにより、ユーザが歩行等を開始すると、眼前に表示された電子情報が非表示となり、ユーザの視野を確保することが可能となっている(特許文献1の明細書段落[0027][0035][0038]図1、5等)。
特開平11-161190号公報
 近年では、ユーザの頭部や手足等の動作を検出することでジェスチャによる操作入力等を可能にする技術が開発されている。ジェスチャ操作は、様々なシーンでの応用が期待されており、ジェスチャ操作の操作性を向上することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、ジェスチャ操作の操作性を向上することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、身体情報取得部と、ジェスチャ情報取得部と、判定条件設定部と、制御部とを具備する。
 前記身体情報取得部は、頭部搭載型の筐体を装着したユーザの身体情報を取得する。
 前記ジェスチャ情報取得部は、前記ユーザのジェスチャに関するジェスチャ情報を取得する。
 前記判定条件設定部は、前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定する。
 前記制御部は、前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する。
 この情報処理装置では、頭部搭載型の筐体を装着したユーザの身体情報に基づいて、ジェスチャによる操作入力のトリガとなるトリガジェスチャの判定条件が設定される。この判定条件及びジェスチャ情報をもとにトリガジェスチャが行われたか否かが判定され、判定結果に基づいてトリガジェスチャに対応した出力が制御される。これにより、ユーザが行うトリガジェスチャはユーザの身体情報に合わせて判定されるため、ジェスチャ操作の操作性を向上することが可能となる。
 前記判定条件設定部は、前記身体情報に応じた前記ユーザの身体特性情報に基づいて前記判定条件を設定してもよい。
 これにより、例えばユーザの身体特性に合った判定条件を設定することが可能となり、例えばトリガジェスチャを行う際の身体負荷を十分に軽減することが可能となる。
 前記身体特性情報は、前記ユーザの視野特性又は動作特性の少なくとも1方に関する情報を含んでもよい。
 これにより、例えばユーザの身体状態における視野範囲や動作範囲等に応じて判定条件が設定され、ユーザはトリガジェスチャとなる動作を容易に行うことが可能となる。
 前記判定条件は、前記トリガジェスチャを判定するための判定閾値を含んでもよい。
 これにより、トリガジェスチャとそれ以外のジェスチャとを容易に識別することが可能となる。
 前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得してもよい。この場合、前記判定条件設定部は、前記ユーザの姿勢に応じて、前記判定条件を設定してもよい。
 これにより、例えばユーザの姿勢に合った判定条件が設定され、トリガジェスチャとなる動作を容易に行うことが可能となり、操作性を十分に向上することが可能となる。
 前記判定条件設定部は、前記ユーザの姿勢における視野特性又は動作特性の少なくとも1方に応じて、前記判定条件を設定してもよい。
 これにより、例えば各タイミングでの視野範囲や動作範囲に合った判定条件が設定される。この結果、トリガジェスチャとなる動作を行う際の身体負荷が大幅に軽減され、優れた操作性を発揮することが可能となる。
 前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであってもよい。この場合、前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度を含んでもよい。また、前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出してもよい。また、前記判定条件設定部は、前記座位状態が検出された場合に、前記閾値角度を前記立位状態が検出された場合よりも小さい値に設定してもよい。
 例えば座位状態では立位状態に比べ視線が下がる傾向がある。このように閾値角度を設定することで、ジェスチャを行うユーザの身体負荷が抑制され、またユーザが意図しない動作がトリガとして判定されるといった誤動作等を低減することが可能となる。
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であってもよい。この場合、前記制御部は、前記身体情報に基づいて、前記仮想画像の表示位置を制御してもよい。
 これにより、仮想画像の表示位置が身体情報に合わせて調整されるため、ユーザにとって見やすい表示等が実現される。これにより、操作性を十分に向上することが可能である。
 前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得してもよい。この場合、前記制御部は、前記ユーザの姿勢に応じて、前記仮想画像の表示位置を制御してもよい。
 これにより、例えばユーザの姿勢に係らずユーザが容易に視認可能な位置に仮想画像を表示するといったことが可能となる。
 前記仮想画像は、前記ユーザから見て斜め上方に表示される上方画像であってもよい。この場合、前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出してもよい。また前記制御部は、前記座位状態が検出された場合に、前記上方画像の表示位置を前記立位状態が検出された場合よりも低い位置に設定してもよい。
 これにより、立位状態及び座位状態に係らずユーザから見やすい位置に上方画像を表示することが可能となり、身体負荷を十分に軽減することが可能となる。
 前記身体情報取得部は、前記身体情報として前記ユーザの身長を取得してもよい。この場合、前記仮想画像は、前記ユーザから見て斜め下方に表示される下方画像であってもよい。また前記制御部は、前記ユーザの身長に応じて前記下方画像の表示位置を設定してもよい。
 これにより、ユーザの身長に係らず適正な位置に下方画像を表示することが可能となり、身体負荷を十分に軽減することが可能となる。
 前記情報処理装置は、さらに、前記ユーザの周辺環境に関する環境情報を取得する環境情報取得部を具備してもよい。
 これにより、例えば周辺環境の変化に伴うユーザの身体特性の変化等を各制御に反映させることが可能となる。
 前記判定条件設定部は、前記環境情報に基づいて、前記判定条件を設定してもよい。
 これにより、ユーザの周辺環境に応じたユーザの身体特性等に合わせて判定条件を調整することが可能となり、操作性を十分に向上することが可能となる。
 前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであってもよい。この場合、前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度であってもよい。また、前記環境情報取得部は、前記周辺環境における天井の有無を検出してもよい。また、前記判定条件設定部は、前記天井が検出された場合に、前記閾値角度を前記天井が検出されない場合よりも低い値に設定してもよい。
 例えば天井が有る環境では天井が無い環境に比べ視線が下がる傾向がある。このように閾値角度を設定することで、ジェスチャを行うユーザの身体負荷が抑制され、またユーザが意図しない動作がトリガとして判定されるといった誤動作等を低減することが可能となる。
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であってもよい。この場合、前記制御部は、前記環境情報に基づいて、前記仮想画像の表示位置を制御してもよい。
 これにより、仮想画像の表示位置が周辺環境に合わせて調整されるため、ユーザにとって見やすい表示等が実現される。これにより、操作性を十分に向上することが可能である。
 前記環境情報取得部は、前記周辺環境に消失点が含まれるか否かを判定してもよい。この場合、前記制御部は、前記周辺環境に前記消失点が含まれる場合、前記消失点を基準として前記仮想画像の表示位置を設定してもよい。
 これにより、例えばユーザの視線が集中する範囲に仮想画像を配置することが可能となり、仮想画像に対するアクセシビリティーを向上することが可能となる。
 前記環境情報取得部は、前記環境情報として床面の位置を検出してもよい。この場合、前記制御部は、前記床面の位置に応じて前記仮想画像の表示位置を設定してもよい。
 これにより、例えば床面の高さに係らず仮想画像を視認しやすい位置に表示することが可能となり、仮想画像に対するアクセシビリティーを向上することが可能となる。
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であってもよい。この場合、前記トリガジェスチャは、前記仮想画像を表示させる表示操作のトリガ、前記仮想画像を非表示にする非表示操作のトリガ、又は前記仮想画像を選択する選択操作のトリガとして機能してもよい。
 これにより、仮想画像の表示/非表示や、仮想画像の選択等を行う際の操作性を向上することが可能となる。
 本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、頭部搭載型の筐体を装着したユーザの身体情報を取得することを含む。
 前記ユーザのジェスチャに関するジェスチャ情報が取得される。
 前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件が設定される。
 前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かが判定され、当該判定結果に基づいて、前記トリガジェスチャに対応した出力が制御される。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 頭部搭載型の筐体を装着したユーザの身体情報を取得するステップ。
 前記ユーザのジェスチャに関するジェスチャ情報を取得するステップ。
 前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定するステップ。
 前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御するステップ。
本技術の一実施形態に係るHMDの概要を説明する模式図である。 図1に示すHMDの構成例を示すブロック図である。 仮想画像の一例を説明するための模式図である。 HMDの基本的な動作の一例を示すフローチャートである。 上向きジェスチャにより表示される仮想画像の一例を示す模式図である。 人間の垂直視野に関する特性の一例を示す模式図である。 ユーザの姿勢に応じた判定閾値の設定について説明するための模式図である。 環境情報に応じた上方画像の表示例を示す模式図である。 人間の水平視野に関する特性の一例を示す模式図である。 環境情報に応じた仮想画像の表示例を示す模式図である。 人間の関節可動域に関する特性の一例を示す模式図である。 ユーザから見て斜め下方に表示される仮想画像の表示位置の一例を示す模式図である。 下方画像の一例を示す模式図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [HMDの構成]
 図1は、本技術の一実施形態に係るHMDの概要を説明する模式図である。HMD100(Head Mounted Display)は、透過型ディスプレイを備えたメガネ型の装置であり、ユーザ1の頭部に装着されて使用される。HMD100を装着するユーザ1は、現実の景色を視認すると同時に、透過型ディスプレイに表示される画像を視認することが可能となる。すなわち、HMD100を用いることで、ユーザ1の周囲の現実の空間(実空間)に仮想画像を重畳して表示させることが可能となる。これにより、ユーザ1は拡張現実(AR:Augmented Reality)等を体験することが可能となる。HMD100は、頭部搭載型の筐体5を有する。頭部搭載型の筐体5は、HMD100の外装筐体であり、人間の頭部に装着可能に構成される。この筐体5に、後述するコントローラ等(図2参照)が搭載され、HMD100が構成される。すなわち、頭部搭載型の筐体5及びコントローラ等を含む装置全体が、HMD100となる。頭部搭載型の筐体5(HMD100)の形態は限定されず、例えばメガネ型の筐体5に代えて、ユーザ1の頭部を覆うように配置される没入型の筐体等が用いられてもよい。また、携帯型の表示装置(スマートフォンやゲーム機等)をユーザ1の眼前に支持するように構成された頭部搭載型の筐体等が用いられてもよい。
 HMD100を使用するユーザ1は、ジェスチャを介して各種の操作入力(ジェスチャ操作)を行うことが可能である。ここでユーザ1のジェスチャとは、ユーザ1の動作を意味する。例えばユーザ1が頭部を上下に傾ける動作(伸展・屈曲)、頭部を左右に傾ける動作(側屈)、頭部(首)を回転させる動作(回旋)等は、頭部を用いたユーザ1のジェスチャに含まれる。また、ユーザ1が腕や足等を動かす動作や、しゃがむ、座る、立つ等の身体全体を動かす動作、あるいは視線を移動する動作や、瞼を開閉する動作、瞬きをする動作等もユーザ1のジェスチャに含まれる。またこれらの動作を組み合わせたジェスチャが行われる場合もある。
 HMD100を装着したユーザ1が所定のジェスチャを行うと、そのジェスチャに対応する操作処理が実行される。例えばユーザ1が頭部を上下に傾けるジェスチャに対応して、所定の仮想画像の表示/非表示を切り替える処理等が実行される。あるいは、ユーザ1が頭部を左右に回転するジェスチャに対応して、複数の仮想画像から対象を選択する処理等が実行される。この他、ジェスチャ及び操作処理の種類等は限定されない。このようにHMD100では、ユーザ1自身の動作により様々な操作処理が可能となり、自由度の高い仮想体験を実現することが可能となる。
 図2は、図1に示すHMD100の構成例を示すブロック図である。HMD100は、表示部10と、スピーカー11と、通信部12と、操作入力部13と、センサ部14、記憶部15と、コントローラ20とを有する。
 表示部10は、仮想画像を表示する透過型ディスプレイであり、ユーザ1の視界の少なくとも一部を覆うように配置される。図1に示すHMD100では、ユーザ1の左右の眼の前方に左眼用及び右眼用の透過型ディスプレイがそれぞれ配置される。なお、ユーザ1の両眼に仮想画像を表示する構成に限定されず、例えばユーザ1の片眼にのみ仮想画像を表示するように表示部10が構成されてもよい。表示部10としては、例えば透過型の有機ELディスプレイや液晶ディスプレイ等が用いられる。この他、表示部10の具体的な構成は限定されず、透明なスクリーンに画像を投影する方式や、プリズム等を用いて画像を表示する方式等の任意の方式の透過型ディスプレイが用いられてよい。
 スピーカー11は、例えばユーザ1の耳の近傍に配置され、HMD100で実行されるコンテンツ等に従って音声信号を再生する。通信部12は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部12は、例えば有線LAN(Local Area Network)、無線LAN、Wi-Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式により、HMD100と外部機器等との通信を行う。操作入力部13は、スイッチ、ボタン、又はレバー等の物理的な操作機構を含む。例えばユーザ1が操作入力部13を操作することで、各種の操作が受け付けられる。
 センサ部14は、ユーザ1またはユーザの周辺環境に関する各種の上方を取得する。センサ部14は、外向きカメラ16と、9軸センサ17と、位置センサ18と、生体センサ19とを有する。図1にセンサ部14の一例として、外向きカメラ16が模式的に図示されている。また、9軸センサ17、位置センサ18、及び生体センサ19は、例えばHMD100を構成する筐体内の所定の位置に適宜配置される。なお、センサ部14に設けられるセンサの種類や数等は限定されず、例えば気圧センサや温度センサ等が設けられてもよい。
 外向きカメラ16は、HMD100の前方に向けて配置され、ユーザ1の視野に含まれる実空間の画像を撮影する。外向きカメラ16としては、例えばCMOSセンサやCCDセンサ等のイメージセンサを備えるデジタルカメラが用いられる。また例えば、実空間の奥行データ(Depthデータ)等を検出可能なステレオカメラやTOF(Time of Flight)センサ等を備えたカメラが、外向きカメラ16として用いられてもよい。外向きカメラ16により検出された画像データや奥行データは、実空間での物体認識や、ユーザ1の手認識等の各種の認識処理に用いられる。またこれらのデータは、ユーザ1の自己位置推定や周辺の空間マップ等の作成を行うSLAM(Simultaneous Localization and Mapping)等の処理に用いられる。外向きカメラ16の具体的な構成は限定されず、例えば所望の精度で実空間をセンシング可能な任意のカメラセンサが、外向きカメラ16として用いられてよい。
 9軸センサ17は、3軸加速度センサ、3軸ジャイロセンサ、及び3軸コンパスセンサを含む。3軸加速度センサは、HMD100の3軸方向の加速度を検出する。3軸ジャイロセンサは、HMD100の3軸まわりの角速度(回転速度)を検出する。3軸コンパスセンサは、3軸方向における地磁気(方位)を検出する。9軸センサ17により検出された各データは、HMD100を装着したユーザ1の頭部の姿勢や動作等を検出する処理や、立つ動作や座る動作といったユーザ1の行動を認識する処理に用いられる。またこれらのデータは、SLAM等を用いて構成された空間マップにおけるユーザ1の姿勢や向き等の検出に用いられる。
 位置センサ18は、外部からの取得信号に基づいてHMD100(ユーザ1)の現在位置を検出する。例えば位置センサ18は、GPS(Global Positioning System)測位部として構成され、GPS衛星からの電波を受信して、HMD100が存在している位置を検出する。また、位置センサ18は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検出するように構成されてもよい。また例えば、ユーザ1の周辺に配置されたマーカ等を検出してHMD100の位置が検出されてもよい。この場合、位置センサ18は、上記した外向きカメラ16等を用いて実現可能である。この他、位置センサ18の具体的な構成は限定されない。
 生体センサ19は、生体データを検出する。例えば生体センサ19として、ユーザ1の眼球を撮影する内向きカメラが用いられる。眼球の画像は、例えばユーザ1の視線方向や凝視時間等を検出する処理に用いられる。また例えば、ユーザ1の体動や体位等を検出する生体センサ19が搭載され、その検出結果がユーザ1の姿勢等を検出する処理に用いられてもよい。この他、生体センサ19の種類等は限定されず、例えば心拍、体温、発汗、血圧、発汗、脈拍、呼吸、瞬目、眼球運動、瞳孔径の大きさ、血圧、脳波、皮膚温度、皮膚電気抵抗、MV(マイクロバイブレーション)、筋電位、またはSPO2(血中酸素飽和度)等を検出可能なセンサ適宜が用いられてよい。
 記憶部15は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等が用いられる。記憶部15には、マップデータ及び制御プログラムが記憶される。マップデータは、実空間に関する地図データとして機能するデータであり、例えばSLAM等を用いて生成された空間マップ(周辺環境の3次元モデル)等が用いられる。制御プログラムは、HMD100全体の動作を制御するためのプログラムである。マップデータ及び制御プログラムをHMD100にインストロールする方法は限定されない。
 コントローラ20は、HMD100が有する各ブロックの動作を制御する。コントローラ20は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部15に記憶されている制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。コントローラ20の具体的な構成は限定されず、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスがコントローラ20として用いられてもよい。コントローラ20は、本実施形態に係る情報処理装置に相当する。また、HMD100は、頭部搭載型の筐体5にコントローラ20を搭載した装置である。従って、本実施形態ではHMD100自身が情報処理装置として機能するとも言える。
 本実施形態では、コントローラ20のCPUが本実施形態に係るプログラム(制御プログラム)を実行することで、機能ブロックとして身体情報取得部21、ジェスチャ情報取得部22、環境情報取得部23、判定条件設定部24、ジェスチャ検出部25、レイアウト算出部26、レイアウト判断部27、及び出力制御部28が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 身体情報取得部21は、HMD100を装着したユーザ1の身体情報を取得する。身体情報は、ユーザ1の身体に関する情報である。身体情報には、例えばユーザ1の姿勢や動作といった時間とともに変化する情報や、ユーザ1の年齢や性別といったユーザ1固有の情報が含まれる。これらの身体情報により、HMD100を装着したユーザ1の身体状態を表すことが可能である。すなわち身体情報は、ユーザ1の身体状態を表す情報であるとも言える。
 身体情報取得部21は、身体情報としてユーザ1の姿勢を取得する。具体的には、上記したセンサ部14に含まれる各センサ等の出力結果に基づいて、ユーザ1の姿勢を検出する姿勢検出処理を実行する。本実施形態では、身体情報取得部21は、ユーザ1の姿勢として立位状態又は座位状態を検出する。
 例えば、9軸センサ17から出力された加速度をモニタリングすることで、ユーザ1が立ち上がる時や座る時の加速度等が検出され、現在のユーザ1の姿勢(立位又は座位)が検出される。また例えば、生体センサ19で測定された心拍・血圧の変化や、気圧の変化等を用いて、立位状態又は座位状態が検出されてもよい。またこれらのセンサ出力を統合して、ユーザ1の姿勢を検出することも可能である。この他、機械学習等を用いて、ユーザ1が立っているか座っているかを判定する処理が実行されてもよい。なお、立位状態及び座位状態の他に、ユーザ1が寝ている状態(臥位状態)や、ユーザ1がしゃがんでいる状態等が検出されてもよい。ユーザ1の姿勢を検出する方法は限定されない。
 また身体情報取得部21は、身体情報としてユーザ1の身長を取得する。典型的には、上記した記憶部15等にユーザ1の身長が予め記憶され、身体情報取得部21によりユーザ1の身長が適宜読み込まれる。あるいは、外向きカメラ16等の検出結果に基づいて、HMD100の床面からの高さ位置をモニタリングすることで、ユーザ1の身長が推定されてもよい。ユーザ1の身長を取得する方法は限定されない。
 この他、身体情報として、歩いている状態や走っている状態といったユーザ1の動作状態が取得されてもよい。ユーザ1の動作状態は、9軸センサ17、位置センサ18、及び生体センサ19の出力に基づいて検出可能である。また身体情報として、ユーザ1の年齢や性別等が取得されてもよい。このようなユーザ1に固有の情報は、例えば記憶部15にユーザ情報として予め記憶され、身体情報取得部21により適宜読み込まれる。身体情報取得部21により取得された各身体情報は、後述する判定条件設定部24及びレイアウト算出部26等に出力される。
 ジェスチャ情報取得部22は、ユーザのジェスチャに関するジェスチャ情報を取得する。ジェスチャ情報は、ユーザ1のジェスチャを検出するための情報である。9軸センサ17から出力される加速度・角速度・方位等は、例えば頭部を用いたユーザ1のジェスチャや、身体全体を動かすジェスチャ等を検出するためのジェスチャ情報となる。また外向きカメラ16により撮影されたユーザ1の手や足の画像等は、手を用いたジェスチャや足を用いたジェスチャ等を検出するためのジェスチャ情報となる。またユーザ1の眼球を撮影した画像はユーザ1の眼のジェスチャを検出するためのジェスチャ情報となる。この他、ジェスチャ情報の種類等は限定されない。例えば、HMD100とは別にユーザ1を撮影する外部カメラ等(図示省略)が設けられる場合には、外部カメラにより撮影されたユーザ1の画像が、ジェスチャ情報となる。ジェスチャ情報取得部22により取得された各ジェスチャ情報は、後述するジェスチャ検出部25に出力される。
 環境情報取得部23は、ユーザ1の周辺環境に関する環境情報を取得する。環境情報には、例えば外向きカメラ16により撮影された周辺環境の画像データや奥行データ等が含まれる。また環境情報取得部23は、画像データ・奥行データ等に基づいてSLAM等の処理を行い、ユーザ1の周辺環境の空間マップ等を生成する。この空間マップは、ユーザ1の周辺環境における実オブジェクトの位置等を表す環境情報となる。また予め空間マップ等が記憶されている場合等には、位置センサ18の出力(位置情報等)に基づいて、空間マップが読み込まれてもよい。また空間マップ等に基づいて、詳細な環境情報が生成されてもよい。例えば、環境情報として、ユーザ1の現在位置が屋内であるか屋外であるかといった情報や、天井・床面の高さ等が検出される。なお、空間マップを用いる場合に限定されず、ユーザ1の位置情報や外向きカメラの画像データ等から、ユーザ1が屋内にいるか又は屋外にいるかが検出されてもよい。この他、環境情報の種類等は限定されず、例えば周辺環境の明るさや温度等が環境情報として取得されてもよい。環境情報取得部23により取得された各環境情報は、後述する判定条件設定部24及びレイアウト算出部26等に出力される。
 判定条件設定部24は、身体情報に基づいて、ユーザ1のジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定する。ジェスチャによる操作入力(ジェスチャ操作)では、ユーザ1が所定のジェスチャを行うことで、そのジェスチャに対応する操作処理が実行される。操作処理は、センサ部14等を用いて所定のジェスチャを検出することで開始される。従って、ジェスチャ操作では、ユーザ1自身のジェスチャがトリガとして機能する。このトリガとして機能するジェスチャ(トリガジェスチャ)を判定するための判定条件が、ユーザ1の姿勢や身長等の身体情報をもとに設定される。
 身体特性=身体特性情報
 本実施形態では、判定条件設定部は、身体情報に応じたユーザの身体特性情報に基づいて判定条件を設定する。身体特性情報とは、例えば身体情報により表される身体状態におけるユーザ1の身体特性に関する情報である。例えば人間の身体特性(人間特性)には、身体状態(姿勢、身長、年齢、性別等)によって変化する特性が含まれる。このため、HMD100を使用するユーザ1の姿勢の変化や、ユーザ1の個人差等により、ユーザ1が視認可能な範囲やジェスチャの傾向等が変化することが考えられる。
 身体特性情報には、身体状態におけるユーザの視野特性に関する情報が含まれる。例えばユーザ1が座っている場合(座位状態)では、ユーザ1が立っている場合(立位状態)と比べて、視野(視線)が下がる傾向がある(図6参照)。この場合、各姿勢での視野範囲を表す情報が身体特性情報となる。また身体特性情報には、身体状態におけるユーザ1の動作特性に関する情報が含まれる。例えば座位状態と立位状態では、頭部や胴体等を動かすことが可能な範囲が異なる(図11参照)。この場合、各姿勢での可動範囲を表す情報が身体特性情報となる。他にも、身長、年齢、性別等の状態が違えば、視野範囲や可動範囲等の身体特性が異なってくる。判定条件設定部24では、身体情報として取得された姿勢や身長等の身体状態における身体特性情報に合わせてトリガジェスチャの判定条件が設定される。
 また、本実施形態では、判定条件設定部24は、環境情報に基づいて、判定条件を設定する。例えば、屋内と屋外とでは、ユーザ1が無意識に行う動作の範囲や視線等に違いが表れる。すなわち、ユーザ1があるジェスチャを行う場合、周辺環境によっては、そのジェスチャを行う際の動作量(動作の大きさ)が異なる可能性がある。この他にも、ユーザ1の動作(ジェスチャ)は、周辺環境によって変化することが考えられる。判定条件設定部24は、このような外的環境要因によって起こる人間の生理的・身体的な特性に合わせてトリガジェスチャの判定条件を設定する。
 本実施形態では、判定条件は、トリガジェスチャを判定するための判定閾値を含む。すなわち、トリガジェスチャとそれ以外のジェスチャとを識別するために、判定閾値を用いた閾値処理が実行される。判定閾値は、例えばトリガジェスチャを行うことで変化するパラメータに対する閾値である。例えばトリガジェスチャが、頭部の姿勢を変化させるジェスチャである場合には、頭部(HMD100)の姿勢角度についての閾値角度が判定閾値となる。このように、トリガジェスチャの判定には、対象となるトリガジェスチャに応じた判定閾値が用いられる。また1つのトリガジェスチャを判定するために、複数の判定閾値が用いられる場合もある。判定条件設定部24による判定閾値の設定処理については、後に詳しく説明する。
 ジェスチャ検出部25は、ジェスチャ情報取得部22により取得されたジェスチャ情報に基づいて、ユーザ1のジェスチャを検出する。例えば、センサ部14により検出されたHMD100の加速度等に基づいて、ユーザ1が頭部の姿勢や位置を変化させるジェスチャ(頭部ジェスチャ)等が検出される。また例えば、外向きカメラ16により撮影された画像データから、ユーザ1が手を動かして行うジェスチャ(ハンドジェスチャ)等が検出される。ジェスチャ検出の方法は限定されず、例えば9軸センサ17を用いた動作認識技術や、画像認識技術等が用いられてよい。また機械学習等を用いたジェスチャ検出が行われてもよい。
 またジェスチャ検出部25は、ユーザ1がトリガジェスチャを行ったか否かを判定する。すなわち、ジェスチャ情報により表されるユーザ1のジェスチャ(ユーザ1の動作)が、トリガジェスチャであるか否かを判定する。
 トリガジェスチャの判定には、判定条件設定部24により設定された判定条件(判定閾値)が用いられる。例えばトリガジェスチャとして頭部を上方に向けるジェスチャが設定されているとする。この場合、ユーザ1の頭部の傾斜角度が対応する判定閾値(閾値角度)を超えているか否かを判定することで、トリガジェスチャが行われたか否かが判定される。このように、ジェスチャ検出部25は、ジェスチャ情報及び判定条件に基づいて、トリガジェスチャが行われたか否かを判定する。判定条件を用いることで、ユーザ1の意識的なジェスチャと、それ以外の動作とを分けて検出することが可能となる。
 レイアウト算出部26は、表示部10(透過型ディスプレイ)に表示される仮想画像のデータを取得し、仮想画像のレイアウトを算出する。例えばユーザ1によるトリガジェスチャが検出された場合には、そのトリガジェスチャに対応する仮想画像のデータが読み込まれ、仮想画像のレイアウトが算出される。すなわち、レイアウト算出部26は、トリガジェスチャの判定結果に基づいて、トリガジェスチャに対応した仮想画像の出力を制御する。またレイアウト算出部26は、HMD100で実行されているコンテンツの進行に合わせて、仮想画像のデータを読み込み、そのレイアウトを算出する。
 仮想画像のデータは、例えばコンテンツ情報として記憶部15に記憶される。あるいは、通信部12を介してコンテンツ情報が読み込まれてもよいし、レイアウト算出部26により仮想画像のデータが生成・編集されてもよい。なお、表示部10に表示される仮想画像の数等は限定されない、例えば単一の仮想画像が表示される場合や、複数の仮想画像が同時に表示される場合等があり、必要となる仮想画像のデータがそれぞれ取得される。
 仮想画像のレイアウトとしては、例えば仮想画像の表示位置、サイズ、姿勢(傾き)等のレイアウトパラメータが計算される。後述するように、仮想画像には、ユーザ1を基準とする座標系(身体座標系)を用いて表示される画像や、周辺空間(空間マップ等)を基準とする座標系(空間座標系)を用いて表示される画像等が含まれる。レイアウト算出部26は、例えばHMD100(ユーザ1)の姿勢や位置等に応じて、各座標系における仮想画像の表示位置やサイズ等をそれぞれ計算する。
 本実施形態では、レイアウト算出部26は、ユーザ1の身体情報に基づいて、仮想画像の表示位置を制御する。例えば、ある仮想画像について、HMD100(ユーザ1)の姿勢や位置に応じた表示位置を算出した上で、さらにユーザ1の姿勢や身長等に応じて、仮想画像の表示位置(座標位置)が調整される。また本実施形態では、レイアウト算出部26は、環境情報に基づいて仮想画像の表示位置を制御する。例えば、身体情報に基づいて設定された表示位置が、周辺環境における天井の有無等に応じて調整される。
 レイアウト算出部26による仮想画像の表示位置の制御方法は限定されない。例えば身体情報又は環境情報の一方のみを用いて表示位置が調整されてもよいし、上記したように身体情報及び環境情報の両方を用いて表示位置が調整されてもよい。なお仮想画像の表示位置の調整にともない、仮想画像が適正に表示されるように、仮想画像のサイズや姿勢等の他のレイアウトパラメータが調整される。
 また仮想画像を表示する方法として、空間マップと仮想画像(表示オブジェクト)との衝突判定を行い、実空間の余白にコンテンツやGUI等を移動するという方法が挙げられる。この方法では、実空間に存在する実物体と、仮想画像とが不自然に重ならないように表示することが可能である。これにより実空間に仮想画像が浮遊しているかのうような表示が可能となる。レイアウト算出部26は、例えばこのような表示制御に加え、上記した身体情報や環境情報を用いた表示制御を行う。これにより、エンタテイメント性が高くユーザフレンドリーな仮想体験を実現することが可能となる。仮想画像の具体的な種類や、表示位置の制御処理については、後に詳しく説明する。
 レイアウト判断部27は、仮想画像の優先度に応じて、表示部10に表示される仮想画像のレイアウトを判断する。例えば、表示対象となる仮想画像がエラーメッセージやコーションメッセージ等の緊急用の表示、すなわち優先度の高い表示である場合がある。このような場合、レイアウト判断部27は、対象となる仮想画像を高い優先度で表示する旨の指令を生成し、レイアウト算出部26に出力する。これにより、緊急用の仮想画像等を確実に表示することが可能となる。
 出力制御部28は、表示部10に表示される仮想画像を含む出力用画像を生成する。例えば、レイアウト算出部26により算出されたレイアウトパラメータに基づいて、単一又は複数の仮想画像を含む出力用画像が生成される。この時、明るさやコントラスト等が調整されてもよい。生成された出力用画像は、表示部10に出力されてユーザ1の眼前に表示される。この結果、HMD100を装着したユーザ1は、実空間に重畳された仮想画像を視認することが可能となる。
 このように、HMD100では、ジェスチャ検出部25、レイアウト算出部26、レイアウト判断部27、及び出力制御部28により、ユーザ1のジェスチャ操作やコンテンツの進行に応じた仮想画像の表示制御が実現される。なおトリガジェスチャが、音声出力や振動出力等を制御するジェスチャ操作のトリガである場合には、そのトリガジェスチャに対応した出力が制御される。本実施形態では、ジェスチャ検出部25、レイアウト算出部26、レイアウト判断部27、及び出力制御部28が共動することにより、制御部が実現される。
 [仮想画像]
 図3は、仮想画像の一例を説明するための模式図である。図3に示す例では、ユーザ1及び建物が実空間に存在する実オブジェクトとなる。また仮想画像30a~30gは、HMD100を装着したユーザ1に対して視認可能に表示される仮想オブジェクトの一例である。これらの仮想オブジェクト(仮想画像30)は、例えばユーザ1に各種の情報を提示するGUI(Graphical User Interface)として機能する。以下では、図3を参照して、HMD100(表示部10)に表示される仮想画像について具体的に説明する。
 仮想画像30の表示位置は、ユーザ1(HMD100)を基準とする身体座標系及びユーザ1が存在する実空間(周辺環境)を基準とする空間座標系のどちらか一方又は両方に合わせて設定される。図3では、身体座標系及び空間座標系が実線及び点線の矢印を用いてそれぞれ模式的に図示されている。
 身体座標系は、例えばHMD100の位置・姿勢、すなわちユーザ1の頭部の位置・姿勢に追従する座標系である。空間座標系は、HMD100の位置・姿勢等に係らず空間マップ等に合わせて設定される座標系(世界座標系)である。従って、HMD100を装着したユーザ1が移動すると空間座標系から見た身体座標系の原点が変化し、またユーザ1が頭部を動かすと空間座標系から見た身体座標系の向きが変化する。
 仮想画像30aは、例えば身体座標系を基準に配置され、ユーザ1の頭部の姿勢等に係らずユーザ1の視野内に収まるように表示される画像である。例えば、ユーザ1が頭部を動かしても、ユーザ1は常に仮想画像30aを視認することが可能である。仮想画像30aは、例えば主要なコンテンツやエラーメッセージ等の表示に用いられる。
 仮想画像30bは、例えば身体座標系及び鉛直方向(実空間における上下方向)を基準に配置され、ユーザ1の斜め上方に表示される画像である。例えば、ユーザ1の現在位置を基準として、ユーザ1の上方に設定された円環上の軌道に沿って仮想画像30bが配置される。図3に示すように直立姿勢のユーザ1が頭部を上方に向けると、仮想画像30bが表示部10に表示される。またユーザ1が正面に視線を戻すと仮想画像30bはユーザ1の視野(画角)から外れ表示されなくなる。仮想画像30bは、例えば、現在時刻、HMD100のバッテリー残量、及び通信状態等のステータス情報や、メッセージ等の表示に用いられる。本実施形態では、仮想画像30bは、ユーザから見て斜め上方に表示される上方画像に相当する。
 仮想画像30cは、例えば身体座標系を基準に配置され、ユーザ1の胴体周り(腰周り)、すなわちユーザ1が手を伸ばすことが可能な作業スペースに表示される画像である。例えばユーザ1の選択操作(ジェスチャや操作入力部を介した操作)に応じて、ユーザ1の腹部を中心として複数の仮想画像30cが表示される。仮想画像30cは、例えば操作の選択画面(ランチャー)やメインコンテンツの表示に用いられる。
 仮想画像30dは、例えば身体座標系及び鉛直方向を基準に配置され、ユーザ1の足元に表示される画像である。ここでは、仮想画像30dは、ユーザ1が位置している場所の床面(地面)に沿うように仮想画像30dが表示される。例えば仮想画像30dはユーザ1の移動とともに移動するように表示される。従って仮想画像30dは、ユーザ1の位置(身体座標系)と床面(空間座標系)とを基準に配置されていることになる。仮想画像30dは、ランチャーやナビゲーションマップ等の表示に用いられる。本実施形態では、仮想画像30dは、ユーザから見て斜め下方に表示される下方画像に相当する。
 仮想画像30eは、例えばユーザ1の位置及び空間座標系を基準に配置され、ユーザ1との相対的な位置を維持するように実空間に定位して表示される。例えばユーザ1が移動すると仮想画像30eの空間座標系における位置も変化するが、ユーザ1が向きを変えても仮想画像30eの位置は変化しない。仮想画像30eは、例えばナビゲーションオブジェクト(矢印やエージェントキャラクタ等)等の表示に用いられる。
 仮想画像30fは、例えば空間座標系を基準に配置され、ユーザ1との距離に係らず常時同じサイズ(視野角)に表示される画像である。仮想画像30fは、例えば空間座標系の所定の位置に定位して表示される。ユーザ1は、仮想画像30fの表示位置が近い場合であっても遠い場合であっても、同様の大きさで表示された仮想画像30fを視認することになる。仮想画像30fは、例えば実物体(アイテム、店舗、場所等)に設定された情報を表示するアイコンやメッセージ等の表示に用いられる。
 仮想画像30gは、例えば空間座標系を基準に配置され、実空間上に存在するかのように表示される画像である。例えば仮想画像30gの表示位置とユーザ1との距離が近づくにつれて、仮想画像30gは大きく表示される。すなわち、仮想画像30gは、空間座標系に固定された重畳物(仮想オブジェクト)を表示する画像となる。
 なお、上記した仮想画像30a~30gはあくまで一例であり、例えばコンテンツに応じた任意の仮想画像30が用いられてよい。この他、仮想画像30の種類や用途等は限定されない。また上記のような特徴を持った任意の仮想画像30において、本技術は適用可能である。
 ここで、トリガジェスチャに応じた仮想画像30の表示処理の一例について説明する。HMD100では、所定のトリガジェスチャが検出されると、検出されたトリガジェスチャに対応する仮想画像30の表示処理が開始される。すなわち、トリガジェスチャは、仮想画像30を表示させる表示操作のトリガとして機能する。これにより、ユーザ1は所定のトリガジェスチャを行うだけで、所望の仮想画像30を表示させることが可能となる。
 本実施形態では、ユーザ1が頭部を上方に向けることで、ユーザ1から見て斜め上方に仮想画像30b(ステータス等)が表示される。この場合、トリガジェスチャは、ユーザ1が頭部を上方に向ける頭部ジェスチャである。なお、ユーザ1が頭部を上方に向けるジェスチャの全てがトリガジェスチャとなるわけではなく、ユーザ1の頭部の姿勢角度等が判定閾値を超えた場合に、頭部ジェスチャがトリガジェスチャとして検出される。
 また、ユーザ1が頭部を下方に向けることで、ユーザから見て斜め下方に仮想画像30d(ナビゲーションマップ等)が表示される。この場合、トリガジェスチャは、ユーザ1が頭部を下方に向ける頭部ジェスチャである。なお、仮想画像30dに代えて仮想画像30cを表示するといった処理や、頭部の姿勢角度を判定して仮想画像30c及び30dをそれぞれ表示するといった処理も可能である。この他、表示操作のトリガとなるジェスチャの種類等は限定されず、頭部を左右に回転するジェスチャや手足を動かすジェスチャ等に応じて表示操作が行われてもよい。
 またトリガジェスチャは、仮想画像30を非表示にする非表示操作のトリガであってもよい。例えば、上記したユーザ1が頭部を上方に向ける頭部ジェスチャにより、ユーザ1の眼前に表示された仮想画像30(例えば図4に示す仮想画像30a)が非表示となるようなジェスチャ操作が可能であってもよい。またユーザ1が頭部を下方に向ける頭部ジェスチャが、非表示操作のトリガとして機能してもよい。このように非表示操作のトリガが用いられる場合であっても、本技術は適用可能である。
 [HMDの基本動作]
 図4は、HMD100の基本的な動作の一例を示すフローチャートである。図4に示すフローチャートは、例えばHMD100の起動中に繰り返し実行される処理である。以下では、ユーザ1が仮想画像30の表示/非表示を操作するジェスチャ操作(表示操作)を行う場合を例に、HMD100の基本的な動作について説明する。
 まず、身体情報取得部21により、ユーザ1の身体情報が取得される(ステップ101)。例えば、9軸センサ17等の出力に基づいて、ユーザ1の身体姿勢(立位状態や座位状態等)頭部姿勢、四肢の状態等が検出される。また例えば、記憶部15に記憶されたユーザ情報(身長・性別・年齢等)が読み込まれる。
 環境情報取得部23により、ユーザ1の周辺環境の環境情報が取得される(ステップ102)。例えば周囲のDepth情報(奥行データ)、環境形状、空間マップ等が読み込まれる。また周辺環境に存在する実物体についての物体認識処理が実行され、例えば、ユーザ1の現在位置における天井の有無や、天井・床面の高さ等の情報が取得される。また例えば、物体認識処理の処理結果に基づいて、移動物体の有無等が環境情報として検出される。このように環境情報は、外部環境の認識結果を表す情報であるとも言える。
 判定条件設定部24により、トリガジェスチャを判定するための判定条件(判定閾値)が設定される(ステップ103)。判定条件の設定は、上記のステップで取得された身体情報に基づいて実行される。例えばユーザ1の姿勢の状態(座位状態又は立位状態)における身体特性情報に応じた判定条件が設定される。また環境情報に基づいて閾値設定が実行されてもよい。例えば天井の有無等に応じて、判定条件が変更される。この点については、後に具体的に説明する。なお複数のトリガジェスチャが設定されている場合には、各トリガジェスチャに対応する判定条件が、身体情報又は環境情報に基づいてそれぞれ設定される。
 ステップ103で設定された判定条件を用いて、トリガジェスチャが検出される(ステップ104)。まずジェスチャ情報取得部22により、ジェスチャ情報(例えばHMD100の加速度・角速度・方位等)が取得される。そしてジェスチャ検出部25により、判定条件を使ってジェスチャ情報により表されるジェスチャがトリガジェスチャであるか否かが判定される。
 例えば、頭部を動かすトリガジェスチャの判定条件として、頭部(HMD100)の姿勢角度(後述するピッチ角度等)に対する閾値角度が用いられる。この場合、ジェスチャ検出部25により、頭部の姿勢角度が閾値角度よりも大きいか否かが判定される。姿勢角度が閾値角度よりも大きい場合にはトリガジェスチャが行われたと判定され、姿勢角度が閾値角度よりも小さい場合にはトリガジェスチャが行われていないと判定される。この判定結果(すなわちトリガジェスチャの検出結果)は、レイアウト算出部26に出力される。
 レイアウト算出部26により、仮想画像30を表示するためのコンテンツ情報が取得される(ステップ105)。具体的には、コンテンツ情報として、HMD100で実行されているコンテンツにおいて配置される仮想画像30の画像データが読み込まれる。またコンテンツ情報として、各仮想画像30の位置・サイズ等のレイアウトパラメータが算出される。
 例えば、ステップ104において、仮想画像30を表示させる表示操作のトリガジェスチャが検出された場合、そのトリガジェスチャに対応するコンテンツ情報(仮想画像30のデータ)が読み込まれる。なお、トリガジェスチャが検出されていない場合には、表示操作についての処理(コンテンツ情報の読み込み等)は実行されない。また他のコンテンツ等が実行されている場合には、そのコンテンツに関するコンテンツ情報が適宜取得される。
 またユーザ1の頭部(HMD100)の姿勢や位置が検出され、その検出結果に応じて、仮想画像30のレイアウトパラメータが算出される。例えばユーザ1の視野に含まれるキャラクターやメッセージ等の表示位置やサイズ等が適宜算出される。なお、ステップ105では、例えばユーザ1の身体特性等が反映されていないレイアウトパラメータが算出される。このレイアウトパラメータは、後述するように、身体情報や環境情報に基づいて調整される場合がある。
 レイアウト判断部27により、仮想画像30が高い優先度に設定された表示物(高優先度表示物)であるか否かが判定される(ステップ106)。ここでは、例えばステップ105で取得された各仮想画像30(コンテンツ情報)の優先度がそれぞれ判定される。例えばエラーメッセージやコーションメッセージ等の緊急情報を提示する仮想画像30には、高い優先度が設定される。これに対し、ステータスやメニュー画面等を表示する通常の仮想画像30には、低い優先度が設定される。あるいは緊急用の仮想画像30にのみ優先度を設定し、通常の仮想画像30には優先度が設定されなくてもよい。
 仮想画像30の優先度が高いと判定された場合(ステップ106のYES)、初期値での表示が選択される(ステップ107)。例えば、優先度の高い仮想画像30を予め設定されたレイアウトパラメータで表示する旨の指令信号が生成される。これにより、優先度の高い仮想画像30を常にユーザ1の視野の中央等に表示するといったことが可能となり、ユーザ1に対して緊急性を要するメッセージ等を確実に提示することが可能となる。
 仮想画像30の優先度が低いと判定された場合(ステップ106のNO)、身体情報又は環境情報に応じた表示が選択される(ステップ108)。例えば、優先度の低い仮想画像30を身体情報や環境情報に応じて調整されたレイアウトパラメータで表示する旨の指令信号が生成される。すなわち、優先度の低い仮想画像30については、ユーザ1の姿勢やユーザ1がいる空間での天井の有無等に応じて表示位置を制御する処理が選択される。これにより、例えばユーザ1が視認しやすい位置に仮想画像30を表示するといったことが可能となり、ユーザフレンドリーなGUIを実現することが可能となる。
 このように、ユーザ1に提示される仮想画像30(GUI等)の優先度に応じて、身体特性を加味した表示を行うかどうかが決定される。例えば、上記したエラーメッセージ等のように優先度が高い仮想画像30は、その表示位置等を調整することが好ましくない場合があり得る。本実施形態ではステップ106の判定処理を行うことで、表示位置を調整すべき仮想画像30と、位置を変えずに表示するべき仮想画像30とを分けて処理することが可能となる。これにより、使い易く信頼性の高いHMD100を実現することが可能となる。
 ステップ107及び108で選択された表示方法に従って、仮想画像30の出力処理が実行される(ステップ109)。まず、レイアウト算出部26により、仮想画像30ごとのレイアウトパラメータが調整される。低優先度の仮想画像30については、身体情報や環境情報に応じて表示位置が調整され、高優先度の仮想画像30については、デフォルトの表示位置が設定される。そして出力制御部28により、仮想画像30のレイアウトパラメータに基づいて、出力用画像が生成され、表示部10に出力される。このように、HMD100では、身体情報や環境情報に応じて設定された判定条件や表示位置に基づいてGUI等の仮想画像30が表示される。
 [閾値設定及び表示制御]
 以下では、ユーザ1が頭部を上方に向ける頭部ジェスチャ(以下、上向きジェスチャと記載する)によるジェスチャ操作を例として、判定条件(判定閾値)の設定処理及び仮想画像30の表示制御ついて具体的に説明する。なお、図3を参照して説明したように、上向きジェスチャは、所定の仮想画像30(仮想画像30b)を表示させる表示操作のトリガジェスチャとして機能する。
 まず、頭部の姿勢角度について説明する。頭部の姿勢角度は、例えばピッチ角度、ロール角度、及びヨー角度により表される。これらの姿勢角度は、例えば水平面や鉛直方向を基準とした角度である。
 ピッチ角度は、頭部の左右方向を回転軸とする角度であり、例えば首を前後に傾けた場合の頭部の傾斜角度(屈曲角度及び伸展角度)を表す。ロール角度は、頭部の前後方向を回転軸とする角度であり、例えば首を左右に傾けた場合の頭部の傾斜角度(側屈角度)を表す。ヨー角度は、頭部の上下方向を回転軸とする角度であり、例えば首を左右に回転した場合の頭部の回転角度(回旋角度)を表す。なお、首を動かす場合の他、例えばユーザ1が上体を前後、左右に曲げることでピッチ角度及びロール角度が変化し、ユーザ1が上体を回転することでヨー角度が変化する。
 本実施形態では、ユーザ1の頭部の姿勢角度が、HMD100の姿勢角度(ピッチ角度、ロール角度、ヨー角度等)により表される。HMD100の姿勢角度は、例えば3軸ジャイロセンサの出力等に基づいて検出される。なお、外部カメラ等が設けられる場合には、ユーザ1を撮影した画像に基づいて骨格推定等を行うことで、頭部の姿勢角度が直接推定されてもよい。この他、頭部の姿勢角度を算出する方法等は限定されない。以下では、ユーザ1の頭部が正面を向いている状態(基準姿勢)で、各姿勢角度が0°となるものとする。また、HMD100の姿勢角度のことを、頭部の姿勢角度と記載する場合がある。
 上向きジェスチャが行われる場合には、ユーザ1が頭部を上方に向けることで、頭部(HMD100)のピッチ角度が上側に変化する。この上側に変化するピッチ角度に対する閾値角度(上側閾値角度)が、上向きジェスチャをトリガジェスチャとして判定するための判定条件として設定される。すなわち、上向きジェスチャの判定条件は、上向きジェスチャにより変化するユーザ1の頭部のピッチ角度に対する上側閾値角度を含む。なお、上側閾値角度は、例えばピッチ角度=0°を基準とした角度として設定される。
 例えば、ユーザ1が頭部を上方に向ける動作において、ピッチ角度が上側閾値角度を超えていなければ、トリガジェスチャは行われていないものと判定される。またピッチ角度が上側閾値角度を超える動作が行われた場合、ユーザ1の動作(上向きジェスチャ)が、トリガジェスチャとして判定される。そして、トリガジェスチャが行われたと判定されると、ユーザ1の斜め上方に仮想画像30が表示される。
 図5は、上向きジェスチャにより表示される仮想画像30の一例を示す模式図である。図5には、ユーザ1が上向きジェスチャを行うことで、ユーザ1の斜め上方に表示される仮想画像30(上方画像31)の一例が模式的に図示されている。なお上方画像31は、図3を参照して説明した仮想画像30bの具体的な表示例である。
 図5に示すように、上方画像31には、例えばステータスアイコン32と、時刻表示33と、日付表示34と、メッセージ通知35とが含まれる。ステータスアイコン32には、HMD100の通信状態(WiFi等のネットワークとの接続状態等)を示すアイコンや、HMD100のバッテリー残量を示すアイコン等が含まれる。時刻表示33及び日付表示34は、現在の時刻及び日付を表示する。メッセージ通知35は、新着メールやお知らせ等を知らせるテキスト通知である。この他、上方画像31の具体的な表示内容は限定されない。
 HMD100を使用するユーザ1が正面を見ている場合には、図5に示すような上方画像31は表示されていないため、広い視界が確保される。例えばユーザ1がステータス等を確認しようとした場合、ある程度の角度(上側閾値角度)だけ頭部を上方に向けることで、上方画像31の表示処理が開始されステータス等が提示される。また上方画像31は、ユーザ1の上方に定位して配置されるため、ユーザ1が視線を正面に戻すと非表示となる。なお、上方画像31はアクティブなコンテンツとして一定時間保持される。従って、上方画像31がアクティブである間に、ユーザ1が上方に頭部を向けると、上向きジェスチャの判定等に係らず上方画像31が表示される。
 [垂直視野の特性]
 図6は、人間の垂直視野に関する特性の一例を示す模式図である。図6には、人間の頭部が正面を向いている場合を基準とした垂直視野の各特性を示す角度(角度範囲)が記載されている。図6に示す各特性は、人間の頭部が正面を向いた状態で人間が水平方向を見た場合の視線方向(基準視線40)を基準とした角度により表されている。
 人間の眼球の垂直方向の動作限界、すなわち眼球の垂直方向の最大動作範囲は、上側に約30°であり、下側に約35°である。また人間が楽に眼球を動作させることが可能な範囲は、基準視線40の下側に約30°の範囲である。眼球の最大動作範囲は、人間が頭部の向き等を変えずに行う視線方向の変更可能範囲であり、眼球の楽な動作範囲は、視線方向の楽な変更可能範囲である。
 人間の視線が基準視線40である場合(水平方向を見ている場合)の視野は、上側に約50°であり、下側に約70°である。この視野内において、人間が色を識別することが可能な範囲(色識別限界)は、上側に約35°であり、下側に約40°である。なお、視野範囲や色識別限界は、視線方向(眼球の向き)に応じて変化する。
 また図6には、人間の標準的な視線方向(標準視線41)が図示されている。一般に、標準視線41は、人間の姿勢に応じて変化する。例えば人間が座っている座位状態では、標準視線41は、基準視線40の下側に約15°の方向となる。また人間が立っている立位状態では、標準視線41は、基準視線40の下側に約10°の方向となる。従って、座位状態では、人間が標準的に見ている方向(標準視線41)は立位状態に対して5°程度低くなる。
 このように、ユーザ1(人間)の標準視線41、すなわちユーザ1が標準的に視認している範囲は、ユーザ1の姿勢に応じて変化する。本実施形態では、このようなユーザ1の姿勢における視野特性に応じて、判定条件(上向きジェスチャの上側閾値角度)が設定される。
 [姿勢に応じた閾値設定]
 図7は、ユーザ1の姿勢に応じた判定条件の設定について説明するための模式図である。本実施形態では、判定条件設定部24により、ユーザ1の姿勢に応じて、判定条件が設定される。例えば、図4のステップ101でユーザ1が座位状態であるか立位状態であるかを示す姿勢情報が取得される。そしてステップ103で姿勢情報を使って上向きジェスチャの判定条件となる上側閾値角度が設定される。図7A及び図7Bには、立位状態及び座位状態のユーザ1がそれぞれ模式的に図示されている。
 上向きジェスチャを判定するための上限閾値角度αは、例えば予め設定された基準閾値角度α0を基準として、ユーザ1の姿勢に応じて設定される。この基準閾値角度α0は、例えばユーザ1が水平方向を見ている状態(基準視線40の状態)を基準として設定された閾値角度である。
 例えば、基準閾値角度α0は、図6に示す眼球の動作限界の上側の最大値30°に設定される(α0=30°)。これは、基準姿勢のユーザ1が頭部を動かすことなく眼球を動かすことで注目できる垂直方向の上限の角度に相当する。すなわち、ユーザ1が眼球を動かしても注目できないような表示物を正面にとらえるために動かす最小のピッチ角度が、基準閾値角度α0に設定されるとも言える。基準閾値角度α0を設定する方法は限定されず、例えば色識別限界や視野の限界等に合わせて基準閾値角度α0が設定されてもよい。
 本実施形態では、ユーザ1の姿勢における標準視線41の角度θを、基準閾値角度α0から差し引くことで、上側閾値角度が設定される。すなわち、上側閾値角度αは、α=α0-θに設定される。例えば、図7Aに示すように、ユーザ1が立位状態である場合には、上側閾値角度α=α0-10°に設定される。また図7Bに示すように、ユーザ1が座位状態である場合には、上側閾値角度α=α0-15°に設定される。例えばα0=30°の場合には、立位状態ではα=20°に設定され、座位状態ではα=15°に設定される。このように、判定条件設定部24は、座位状態が検出された場合に、閾値角度を立位状態が検出された場合よりも小さい値に設定する。
 例えばユーザ1が座っている状態では、ユーザ1の平均的な視線(標準視線)が立っている状態に比べより近く(下方)に向けられる。このため、ユーザ1が上向きジェスチャによる表示操作を行った場合、同様のジェスチャを行ったつもりでも、頭部を上方に向ける際のピッチ角度は、立っている状態よりも座っている状態の方が無意識のうちに小さくなることが考えられる。
 これに対し、本実施形態では、座位状態における上側閾値角度αを立位状態よりも低く設定することで、ユーザ1の姿勢に係らず、自然な動作により上方画像31を表示させることが可能となる。また立位状態では、座位状態よりも上側閾値角度αが大きく設定されるため、上向きジェスチャを行う際のピッチ角度が比較的大きくなることによる誤判定等を抑制することが可能である。これにより、ジェスチャ操作等を用いた仮想体験の操作性を十分に向上することが可能となる。
 なお、ユーザ1の姿勢に応じた標準視線41の違いを利用して、ユーザ1が頭部を下方に向ける頭部ジェスチャ(以下、下向きジェスチャと記載する)の判定条件が設定されてもよい。例えば下向きジェスチャは、図3に示す仮想画像30d(下方画像)を表示するためのトリガジェスチャとして機能する。この下向きジェスチャの判定条件として、下側に変化するピッチ角度に対する下側閾値角度βが設定される。
 判定条件設定部24は、例えば基準閾値角度β0から、座位状態及び立位状態における標準視線の角度を差し引くことで、下側閾値角度βを設定する。基準閾値角度β0は、例えば眼球の動作限界の下側の最大値35°等に設定される。これにより、ユーザ1は自身の姿勢に係らず、自然な動作により下方画像を表示することが可能となる。例えばこのように判定条件が設定されてもよい。
 [姿勢に応じた表示制御]
 また本実施形態では、レイアウト算出部26により、ユーザ1の姿勢に応じて、仮想画像30の表示位置が制御される。例えば、上向きジェスチャに応じて表示される上方画像31の垂直方向の表示位置が、ユーザ1の姿勢(立位状態及び座位状態)に応じて調整される。図7A及び図7Bには、ユーザ1が立位状態及び座位状態である場合に表示される上方画像31が斜線の領域により模式的に図示されている。
 上方画像31は、例えばユーザ1の頭部のピッチ角度が上側閾値角度αに達した状態で、ユーザ1の視野内に収まるように配置される。例えば上側閾値角度αで傾斜した視野内の所定の領域(例えば視野の上半分の領域等)に上方画像31が表示されるように、上方画像31の表示位置が調整される。この場合、ユーザ1の姿勢が変わらず、ピッチ角度が同じであれば、ユーザ1の視野内の一定の位置に上方画像31が表示される。なお、ユーザ1の姿勢が違えば、上方画像31の表示位置(頭部から見た高さ位置等)が異なる。
 例えば図7Aに示すように、立位状態では、座位状態よりも大きい値に設定された上側閾値角度αに応じて、ユーザ1の頭部から見て比較的高い位置に上方画像31が配置される。また図7Bに示すように、座位状態では、上側閾値角度αが立位状態よりも小さい値に設定されるため、上方画像31は、ユーザ1の頭部から見て立位状態よりも低い位置に配置される。このように、レイアウト算出部26は、座位状態が検出された場合に、上方画像31の表示位置を立位状態が検出された場合よりも低い位置に設定する。
 これにより、ユーザ1は、自身の姿勢に係らず、上向きジェスチャの延長としてスムーズに上方画像31を視認することが可能となる。また立っているユーザが行うジェスチャは、例えば座っている場合等と比べ動作量が大きくなる場合がある。このような場合であっても、ユーザ1の動作量に応じた適切な位置に上方画像31を表示することが可能となる。また座っているユーザ1は、動作量の少ない上向きジェスチャで上方画像31を表示させるともに、比較的低い位置に表示された上方画像31を容易に視認することが可能となる。
 なお、上方画像31の表示位置を設定する方法は限定されない。例えば、ユーザ1が立っている場合と座っている場合とで、ユーザ1が視認しやすい位置が予めデフォルトの位置として設定され、ユーザ1の姿勢ごとにデフォルトの位置に上方画像31がそれぞれ配置されてもよい。また表示位置の他に、上方画像31のサイズや姿勢等の他のレイアウトパラメータが、姿勢に応じて調整されてもよい。
 [環境情報に応じた閾値設定]
 上記では、ユーザ1の姿勢に応じた判定条件の設定等について説明した。HMD100では、判定条件設定部24により、環境情報に基づいて、判定条件が設定される。これにより、例えばユーザ1の姿勢状態における身体特性情報に加え、周辺環境における身体特性情報に合わせた判定条件を設定することが可能となる。
 図6を参照して説明した標準視線41(平均的な視線)は、人間の周辺環境によって変化する場合がある。例えば人間が屋外にいる場合、標準視線41は、屋内にいる場合と比べ水平方向に近くなる傾向がある。また屋内であっても天井が高いほど、標準視線41は水平方向に近くなる傾向がある。以下では、環境に応じて変化する標準視線41の変化角度を環境角度φと記載する。環境角度φは、例えば10°以下の角度であり、天井の高さ等に応じて変化する。
 例えばユーザ1が立位状態で屋内にいる場合の標準視線41が10°であるとする。このユーザ1が立位状態で奥外にいる場合には、標準視線41が高くなる(例えば5°等)傾向がある。この場合、図6に示す標準視線41の特性を基準値とすると、屋内での環境角度φは0°であり、屋外での環境角度φは5°となる。なお、標準視線41が基準値よりも下がる場合等には、環境角度φは負の値となる場合もあり得る。実際には、屋内及び屋外で実測した標準視線41等をもとに、環境角度φが設定される。あるいは、ユーザ1の動作傾向を学習することで、環境角度φが設定されてもよい。
 HMD100では、このような周辺環境の違いによる、人間の垂直視野の特性の違い(環境角度φの変化)に合わせて、上向きジェスチャを判定するための上側閾値角度が調整される。以下では、周辺環境に応じて設定される上側閾値角度を、上側閾値角度α'と記載する。
 まず、ユーザ1の周辺環境に関する環境情報が取得される(図4のステップ102)。本実施形態では、環境情報取得部23により、周辺環境における天井の有無が検出される。天井の有無は、例えばSLAM等を用いて生成された空間マップや、外向きカメラ16により撮影された画像に基づいて検出される。天井の有無の検出結果は、判定条件設定部24に出力され、天井が有る場合と、天井が無い場合とで、それぞれ周辺環境に応じた上側閾値角度α'が算出される。
 判定条件設定部24では、例えば、図7を参照して説明した、ユーザ1の姿勢(立位状態又は座位状態)に応じた上側閾値角度αに、環境角度φを加えることで、周辺環境に応じた上側閾値角度α'が算出される(α'=α+φ)。これは、例えば上記した基準閾値角度α0から、屋内又は屋外における各姿勢での標準視線41の角度を差し引くことに相当する。
 例えば天井が検出された場合、ユーザ1は屋内に存在するとして、周辺環境に応じた上側閾値角度α'は、姿勢に応じた上側閾値角度αに屋内での環境角度φ(例えば0°)を加えた値に設定される。一方で天井が検出されなかった場合、ユーザ1は屋外に存在するとして、上側閾値角度α'は、上側閾値角度αに屋外での環境角度φ(例えば5°)を加えた値に設定される。
 このように、判定条件設定部24は、天井が検出された場合に、上側閾値角度α'を天井が検出されない場合よりも低い値に設定する。これにより、現在位置が屋内又は屋外のいずれであっても、ユーザ1は自然に上向きジェスチャを行うことで、上方画像31を容易に表示させることが可能となる。この結果、様々なフィールドで優れた操作性を発揮するHMD100を実現することが可能となる。
 なお、上記したように、天井の有無に応じて上側閾値角度α'を設定する場合に限定されず、例えば天井の高さに応じて上側閾値角度α'が設定されてもよい。例えば、天井の高さが高いほど、人間の標準視線41が水平方向に近くなる傾向がある。このような特性に合わせて、例えば、天井の高さが高いほど、上側閾値角度α'が大きくなるように設定される。これにより、天井の高さの違いによって変化する視野特性に応じたジェスチャ判定が可能となり、操作性を向上することが可能となる。
 [環境情報に応じた表示制御]
 図8は、環境情報に応じた上方画像31の表示例を示す模式図である。図8A及び図8Bは、天井の有る屋内及び天井のない屋外において、ユーザ1の視野に重畳された上方画像31が模式的に図示されている。なお、図8A及び図8Bに示すユーザ1の視野は、ユーザ1の姿勢、頭部の床面からの高さ、及びピッチ角度が同じ状態での視野である。
 本実施形態では、レイアウト算出部26により、天井の有無に応じて、上方画像31の表示位置が調整される。例えばユーザ1が屋内にいる場合(図8A)には、ユーザ1が屋外にいる場合(図8B)と比べて、上方画像31が低い位置に表示される。これらの表示位置は、例えば屋内及び屋外での上側閾値角度α'を基準として設定することが可能である。これにより、ユーザ1は、屋内・屋外に係らず、上向きジェスチャの延長としてスムーズに上方画像31を視認することが可能となる。
 屋内では、ユーザ1の注目対象は、床面と天井との間の空間にある場合が多い。従って、図8Aに示すように上方画像31の表示位置が多少低い場合であっても、上方画像31がユーザ1が注目したい領域に重なってしまうといった事態を十分に回避することが可能である。また、不必要に頭部を傾けなくても上方画像31のステータス等を確認することが可能であるため、ユーザ1の身体負荷を軽減することが可能である。
 また、屋外では、ユーザ1がより遠い位置に視線を向ける場合があり得る。このため、図8Bに示すように、上方画像31の表示位置を高く設定することで、ユーザ1の視野を広く確保することが可能となり、実空間についての視認性を高めることが可能である。また屋外にいるユーザ1は、比較的大きな動作であっても自然に行うことが可能である。このため、上方画像31の表示位置が多少高い場合であっても、自然な動作により上方画像31を容易に視認することが可能である。
 [水平視野の特性]
 図9は、人間の水平視野に関する特性の一例を示す模式図である。図9には、頭頂から見た人間が模式的に図示されており、人間の頭部が正面を向いている場合を基準とした水平視野の各特性を示す角度(角度範囲)が記載されている。図中の下側がユーザ1の正面であり、上側がユーザ1の背面である。
 人間の眼球の水平方向の動作限界、すなわち眼球の水平方向の最大動作範囲は、左右に約15°である。人間の視線が正面を向いている場合(基準視線40)の左眼の視野は、左側に約94°であり、右側に約62°である。この視野内において、人間が色を識別することが可能な色識別限界は、左右に約30°~60°である。
 例えば、眼球の水平方向の最大動作範囲に含まれるように、仮想画像30を表示することで、ユーザ1は、仮想画像30を容易に認識することが可能である。一方で、上記した上方画像31も含め、コンテンツの進行やユーザの操作(ジェスチャ操作等)に応じて表示される仮想画像30の表示位置は、一般に任意に設定することが可能である。すなわち、表示される仮想画像30は、必ずしもユーザ1が視認しやすい位置に表示されるとは限らない。このため、例えば仮想画像30を見失うことや、仮想画像30が表示されたことに気が付かないといった事態が発生する可能性がある。
 ところで、ユーザ1の周辺環境によっては、ユーザ1が視認しやすい領域(方向)等を推定することが可能な場合がある。このような場合、仮想画像30の表示位置を、ユーザ1が視認しやすい領域に設定することで、仮想画像30をロストするといった事態を回避することが可能である。以下では、周辺環境に応じた表示制御について具体的に説明する。
 図10は、環境情報に応じた仮想画像30の表示例を示す模式図である。図10には、外向きカメラ16により撮影されたユーザ1の視野画像50が模式的に図示されている。視野画像50は、屋内の通路の画像であり、画像の中央付近には単一の消失点51が含まれる。すなわち、視野画像50の構図は、一点透視と見做すことが可能である。このように、ユーザ1の視野が一点透視と見做せる場合、ユーザ1の視線方向は、ユーザ1の視野における消失点51の付近に集中しやすくなる。言い換えれば、消失点51の近くは、ユーザ1にとって視認しやすい領域となる。
 本実施形態では、消失点51の近くに仮想画像30が表示されるように、その表示位置が制御される。具体的には、環境情報取得部23により、周辺環境に消失点51が含まれるか否かが判定される。そして、レイアウト算出部26により、周辺環境に消失点51が含まれる場合、消失点51を基準として仮想画像30の表示位置が設定される。
 環境情報取得部23は、例えば外向きカメラ16により撮影された視野画像50から直線等の特徴量を検出することで消失点51の有無を判定する。また例えば空間マップ等の3次元的なデータを用いて消失点51が検出されてもより。あるいは、ユーザ1の眼球を撮影する内向きカメラ等が設けられている場合には、ユーザ1の眼球の動作が検出されてもよい。この場合眼球の動作の平均が少ない場合(例えばユーザ1の視線の動きが、水平方向の動作限界よりも十分に小さい場合等)、一点透視とみなし消失点51が存在するといった判定が実行されてもよい。この他、消失点51の有無を判定する方法は限定されない。
 周辺環境に消失点51が含まれると判定された場合、レイアウト算出部26により、例えば消失点51を基準とする表示候補領域52(図10の斜線の四角)が設定される。表示候補領域52は、水平視野において例えば10°程度の横幅となるように設定される。仮想画像30は、設定された表示候補領域52に収まるように配置される。これにより、例えばユーザ1が通路のような消失点51を含む周辺環境にいる場合には、消失点51の近傍に仮想画像30が表示される。これにより、ユーザ1が自然に視線を向ける位置に仮想画像30を表示することが可能となるため、仮想画像30に対するアクセシビリティーを十分に向上することが可能となる。
 また本実施形態では、レイアウト算出部26により、仮想画像30を表示候補領域52に収めるか否かが判定される。具体的には、ユーザ1の視線と空間マップ化された周辺環境との交点(衝突点)の距離に応じて、表示候補領域52に収めるか否かが判定される。例えば、仮想画像30を立体視することが可能な近距離(約3m)までの範囲に交点がある場合には、仮想画像30を表示候補領域52に収めずに、そのまま表示するといった処理が実行される。すなわち、ユーザ1の視線が近距離に向けられている場合には、通常の表示処理が行われるため、ユーザ1は容易に仮想画像30を認識することが可能となる。
 [関節可動域の特性]
 図11は、人間の関節可動域に関する特性の一例を示す模式図である。図11には、人間が正面を向いている状態を基準姿勢として、頭部を前方に傾ける屈曲時の首の関節可動域と、頭部を後方に傾ける伸展時の首の関節可動域との一例が模式的に図示されている。屈曲及び伸展を容易に行うことが可能な容易曲げ角度は、いずれも約30°である。また屈曲及び伸展を行うことが可能な最大曲げ角度は、いずれも約60°である。首の関節可動域に関するこれらの特性は、本実施形態に係る動作特性に含まれる。
 本実施形態では、ユーザ1の姿勢におけるユーザ1の関節可動域に応じて、判定条件が設定される。例えば、ユーザ1が立っている立位状態では、ユーザ1が座っている座位状態に比べ、首の容易曲げ角度や最大曲げ角度が大きくなる。また立位状態では、座位状態に比べ、ユーザ1が腰を曲げることで傾けることが可能な頭部の傾斜角度も大きくなる。このような首や腰の動作特性の違いに応じて、図7等を参照して説明した、上向きジェスチャや下向きジェスチャの判定条件(上側閾値角度αや下側閾値角度β)が設定される。
 判定条件設定部24は、例えば上側閾値角度α及び下側閾値角度βを設定するための基準となる基準閾値角度α0及びβ0を、ユーザ1の姿勢に応じて設定する。例えばユーザ1が座位状態である場合には、基準閾値角度α0及びβ0が図4に示す眼球の動作限界の上限値及び下限値に設定される。またユーザ1が立位状態である場合には、基準閾値角度α0及びβ0が座位状態での値よりも大きくなるように設定される。すなわち立位状態では、上向きジェスチャ及び下向きジェスチャを判定するための閾値角度の範囲が、座位状態に比べ広くなるように調整される。
 立位状態の基準閾値角度α0及びβ0の増加量は、例えば座位状態と比べた場合の立位状態での関節可動域(容易曲げ角度や最大曲げ角度等)の増加量に応じて設定される。すなわち、ユーザ1が立つことで拡大した動作可能範囲に合わせて、基準閾値角度α0及びβ0が設定される。これは、上側及び下側の閾値角度α及びβの範囲を、関節可動域に応じてスケーリングしているとも言える。これにより、例えばユーザ1が無理なく動作できる範囲で各閾値角度α及びβを大きく設定するといったことが可能となる。この結果、ユーザ1の身体負荷を増大させることなく、上向き及び下向きジェスチャの誤検出等を抑制することが可能となる。
 なお、関節可動域に応じて閾値角度を設定する方法等は限定されない。例えば、座位状態での基準閾値角度α0及びβ0が関節可動域に応じて設定されてもよい。また基準閾値角度α0及びβ0を設定する代わりに、関節可動域に応じたシフト量が姿勢ごとに設定されてもよい。このシフト量を、ユーザ1の姿勢情報や環境情報に応じて設定された閾値角度(α及びβ)に加えることで、最終的な閾値角度が設定されてもよい。また姿勢ごとの関節可動域の特性には、個人差があるため、例えばユーザ1の関節可動域を学習し、その学習結果に基づいて、閾値角度を設定するように構成されてもよい。
 [身長に応じた視野特性]
 図12は、ユーザ1から見て斜め下方に表示される仮想画像30の表示位置の一例を示す模式図である。斜め下方に表示される仮想画像30としては、例えば図3を参照して説明した仮想画像30cや仮想画像30d(下方画像36)が挙げられる。以下では、図12を参照視して、下方画像36の表示位置を設定する方法について説明する。
 一般に、人間が斜め下方を見下ろす場合、俯角γが約10°~30°の範囲が、人間が容易に視覚することが可能な範囲となる。ここで俯角γは、水平方向から斜め下方に見下ろす角度である。以下では、上記した俯角に収まり一定の高さとなる領域を下方表示領域54と記載する。またユーザ1の頭部(HMD100)を含む水平面を基準水平面55と記載する。図12には、基準水平面55からの相対距離Hが異なる3種類の下方表示領域54a~54cが、斜線の領域により模式的に図示されている。
 下方表示領域54は、ユーザ1からの水平距離が、H/tan(10°)~H/tan(30°)となる領域である。図12に示すように、ユーザ1から見た下方表示領域54の手前側の位置は、基準水平面55(ユーザ1の頭部の高さ位置)からの相対距離Hが大きいほどユーザ1から離れる。また下方表示領域54のサイズ(奥行)は、相対距離Hが大きいほど大きくなる。このように、相対距離Hが異なれば、下方表示領域54の位置及びサイズが変化する。
 本実施形態では、レイアウト算出部26により、下方表示領域54に下方画像36が収まるように、下方画像36の表示位置が設定される。具体的には、ユーザ1の身長をもとに、仮想画像30を表示する基準水平面55からの相対距離H(仮想画像30の高さ位置)が算出され、相対距離Hに基づいて、仮想画像30の奥行位置が設定される。このように、本実施形態では、ユーザ1の身長に応じて下方画像36の表示位置が設定される。
 図13は、下方画像36の一例を示す模式図である。図13Aは、ユーザ1の胴体周り(腰周り)に表示される下方画像36の一例であり、図3に示す仮想画像30cの表示例である。仮想画像30cは、複数の選択ウィンドウ37を含む選択画面である。例えばユーザ1は、頭部を左右に回転することで、これらのウィンドウ37から所望のウィンドウ37を選択するといったジェスチャ操作が可能である。例えばこのような仮想画像30cがユーザ1の腹部の高さに表示される。
 仮想画像30cは、図12に示すユーザ1の腹部と同程度の高さに設定された下方表示領域54aに配置される。下方表示領域54aの基準水平面55からの相対距離Haは、例えばユーザ1の身長h1の半分に設定される(Ha=h1/2)。また例えば、ユーザ1の腰の高さh2が読み込まれている場合等には、身長h1から腰の高さh2を引いた値が相対距離Haに設定される(Ha=h1-h2)。この他、仮想画像30cを表示するための相対距離Haを設定する方法は限定されない。
 相対距離Haが設定されると、下方表示領域54aの水平方向の位置が算出され、下方表示領域54aに収まるように、仮想画像30cの表示位置が設定される。なお、仮想画像30cは、空中に浮遊しているように表示される画像であり、例えばユーザ1から見やすいように、傾斜して配置される。これにより、ユーザ1は自身の胴体周りに表示された仮想画像30cを容易に視認することが可能となる。
 図13Bは、ユーザ1の周辺の床面に表示される下方画像36の一例であり、図3に示す仮想画像30dの表示例である。仮想画像30dは、例えばナビゲーションマップ38等を表示する画面である。また図13Bに示す例では、ナビゲーション操作を行うための操作ウィンドウ39が表示されており、ユーザ1は所定の選択操作を行うことで各種の操作を行うことが可能である。例えばこのような仮想画像30dが床面に表示される。
 仮想画像30dは、図12に示すユーザ1が立っている床面と同じ高さに設定された下方表示領域54bに配置される。この場合、下方表示領域54bの基準水平面55からの相対距離Hbは、例えばユーザ1の身長h1に設定される(Hb=h1)。また例えば、ユーザ1の身長h1からHMD100の装着位置のずれ量を引いた値が相対距離Hbに設定されてもよい。この他、仮想画像30dを表示するための相対距離Hbを設定する方法は限定されない。
 相対距離Hbが設定されると、下方表示領域54bの水平方向の位置が算出され、下方表示領域54bに収まるように、仮想画像30dの表示位置が設定される。仮想画像30dは、例えば床面に沿って表示される画像である。従ってユーザ1は、周辺の床面をスクリーンとして表示されたナビゲーションマップ等を視認することになる。また仮想画像30dは、ユーザ1が容易に視認可能な位置に表示されるため、ユーザ1は不必要に首を曲げる必要等がなくなり、ユーザ1の身体負荷を十分に軽減することが可能となる。
 図12に示す、下方表示領域54cは、ユーザ1の周辺の床面に段差等が設けられている場合に設定される領域である。この場合、ユーザ1の身長(身体情報)と、床面の高さ位置(環境情報)とを用いて、下方表示領域54cの基準水平面55に対する相対距離Hcが設定される。
 まず、環境情報取得部23により、環境情報として床面の位置が検出される。例えばユーザ1が立っている位置よりも低い段差等がある場合には、奥行データや空間マップ等に基づいてその段差の高さh3が検出される。そしてレイアウト算出部26により、ユーザ1の身長h1及び段差の高さh3から、低い床面と同じ高さの下方表示領域54cの相対距離Hcが設定される(Hc=h1+h3)。これにより、床面に段差等がある場合であっても、仮想画像30dのような床面に沿って表示される画像を、ユーザ1にとって見やすい範囲に表示させることが可能である。このように、本実施形態では、床面の位置に応じて、仮想画像30dの表示位置が設定される。
 例えば、身長の高いユーザ1と、身長の低いユーザ1とでは、同じ俯角γで見下した場合でも視認する領域が異なる。このため、ユーザ1が楽に見下ろすことが可能な領域は、ユーザ1の身長ごとに異なってくる。また、床面に沿った表示を行う場合等には、床面の高さの違いによっても、容易に表示を視認できる領域が変化する。本実施形態では、ユーザ1の身長や床面の位置に応じて、下方画像36の表示位置が制御される。これにより、身長や床面の高さに係らず、ユーザ1にとって見やすい表示を実現することが可能となり、優れたユーザビリティを発揮することが可能となる。
 なお下方画像36は、例えばユーザ1が頭部を下方に向ける下向きジェスチャを行うことで表示される。この下向きジェスチャを判定するための判定条件(下側閾値角度β等)がユーザ1の身長に応じて設定されてもよい。例えば、ユーザ1が床面等を見下す動作を行う場合、身長が高いほど動作(頭部のピッチ角度)大きくなるといったことが考えられる。このような特性に合わせて、例えば身長が高いほど、下側閾値角度βを大きく設定するといった調整が可能である。これにより、ユーザ1の身長に係らず自然な動作で下方画像36等を表示することが可能となる。
 上記では、主にユーザ1の姿勢や身長に応じた視野特性及び動作特性を用いた処理について説明した。これらの特性は、例えばユーザ1の年齢や性別によっても異なる場合がある。例えば、人間の視野範囲や関節可動域は年齢によって変化する。このような年齢ごとの特性の違いを加味して、判定条件の設定や仮想画像30の表示位置の制御等が行われてもよい。またこれらの特性には、個人差が存在する。例えばユーザ1ごとにジェスチャによる動作範囲等の傾向を学習し、その学習結果からユーザ1個人の身体特性情報が算出されてもよい。この身体特性情報に応じて、判定条件の設定等を行うことで、仮想体験における操作性を十分に向上することが可能である。
 以上、本実施形態に係るコントローラ20では、HMD100を装着したユーザ1の身体情報に基づいて、ジェスチャによる操作入力のトリガとなるトリガジェスチャの判定条件が設定される。この判定条件を用いて、ジェスチャ情報をもとにトリガジェスチャが行われたか否かが判定され、判定結果に基づいてトリガジェスチャに対応した出力が制御される。これにより、ユーザ1が行うトリガジェスチャはユーザ1の身体情報に合わせて判定されるため、ジェスチャ操作の操作性を向上することが可能となる。
 本実施形態では、ユーザ1の姿勢や身長等の身体情報を用いてユーザ1の状態にあった判定条件が設定される。また天井の有無等の周辺環境に合わせて判定条件が設定される。このように判定条件を設定することで、ユーザ1が自然に動作可能な範囲、あるいはユーザ1が楽に動作可能な範囲で、ユーザ1のトリガジェスチャを判定することが可能となる。これにより、ユーザ1は自身の状態によらず、ジェスチャ操作を容易に行うことが可能となり、身体負荷の低いユーザインタフェースを実現することが可能となる。
 また身体情報や環境情報に応じて、仮想画像30の表示位置が制御される。これにより、仮想画像30を見やすく表示することや、仮想画像30を見つけやすく表示するといったことが可能となり、高い視認性を確保することが可能となる。また、ユーザ1にとって視認しやすい表示を一貫して行うことが可能であり、高いアクセシビリティ・ユーザビリティを実現することが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記では、仮想画像を表示させる表示操作又は仮想画像を非表示にする非表示操作のトリガジェスチャについて説明した。これに限定されず、他の操作処理のトリガジェスチャを判定するための判定条件が、ユーザの身体情報等に基づいて設定されてもよい。
 例えば仮想画像を選択する選択操作のトリガとなるトリガジェスチャが用いられてもよい。この場合、選択操作のトリガジェスチャの判定条件が、ユーザ1の身体情報等に基づいて設定される。例えば、図13Aに示す仮想画像30cでは、複数のウィンドウが表示され、ユーザ1が頭部を左右に向ける動作により、所望のウィンドウが選択される。この頭部を左右に向ける動作により変化する姿勢角度(ヨー角度)に対する閾値角度が、ユーザ1の身体情報等に応じて設定される。例えば立位状態では座位状態よりも腰が回転しやすいやめ、頭部のヨー角度を大きく動かすことが可能である。このような特性に従って、例えば立位状態では座位状態に比べヨー角度に対する閾値角度が大きく設定される。これにより、楽な動作で選択操作が可能となるとともに、閾値角度が小さいために生じる誤検出等を回避可能である。
 また頭部を用いたジェスチャに限定されず、ユーザが手足を用いて行うトリガジェスチャについての判定条件が設定されてもよい。例えば、図13Aに示す仮想画像30cは、ユーザの胴体周りに表示される。この仮想画像30cとして表示された選択ウィンドウ37にユーザ手を伸ばすことで選択操作が行われてもよい。この場合、ユーザが所定の領域を超えて手を伸ばすジェスチャが選択操作のトリガジェスチャとなり、所定の領域の範囲が判定条件(判定閾値)となる。例えば立位状態では、座位状態に比べユーザが手を動かすことが可能な動作範囲(手の動作特性)が広い。従って立位状態では、座位状態よりも判定閾値となる領域が広く設定される。これにより、ユーザは姿勢に係らず容易に手を動かすことが可能な範囲で選択操作を行うことが可能である。
 またユーザが足を動かすことで選択操作が行われてもよい。例えば、図13Bに示す仮想画像30dが、ユーザの足元に表示される。この仮想画像30dに含まれる操作ウィンドウ39をユーザが踏むことで選択操作が行われてもよい。この場合、ユーザが所定の領域を超えて足を延ばすジェスチャが選択操作のトリガジェスチャとなり、所定の領域の範囲が判定閾値となる。例えば立位状態では、座位状態に比べ判定閾値となる領域が広く設定される。これにより座っている場合あるいは立っている場合に係らず、足による選択操作を容易に行うことが可能となる。例えばこのような処理が可能である。
 この他、トリガジェスチャや判定閾値の種類は限定されない。例えばトリガジェスチャを行う際に動作する部位(首、手、足、腰等)についての、ユーザの身体特性情報に応じて、トリガジェスチャを判定するための判定閾値が適宜設定されてよい。また環境が変化することで、各部位の動作範囲等が変化する場合には、その変化に合わせて判定閾値が調整される。これにより、ユーザの状態や周辺の状況に合わせて操作性の高いジェスチャ操作を実現することが可能である。
 上記では、トリガジェスチャを判定する方法として、主に判定閾値を用いた閾値処理について説明した。トリガジェスチャを判定する方法は限定されない。例えば閾値処理に代えて、深層学習(ディープラーニング)等の機械学習を用いて構築された識別器(学習済みモデル)を用いてトリガジェスチャを判定することも可能である。
 識別器は、例えば所定のデータセットを用いたトレーニングにより、機械学習のアルゴリズムに応じた各種のパラメータ等を学習することで、トリガジェスチャが行われたか否かを判定することが可能となる。このように、識別器が学習するパラメータは、トリガジェスチャを判定するための判定条件と見做すことが可能である。この識別器に、ユーザのジェスチャ情報等を入力することで、そのジェスチャがトリガジェスチャであるか否かが判定され、ジェスチャ判定結果が出力される。識別器を構築するためのアルゴリズムは限定されず、ジェスチャの種類や動作量等を検出可能な任意のアルゴリズムが用いられてよい。
 識別器のトレーニングには、例えばジェスチャ入力(ジェスチャ情報)と、そのジェスチャ入力についてのジェスチャ判定結果とが対応付けられたデータセットが用いられる。この場合、姿勢や身長等の状態に応じた複数のデータセットを用いて、各状態に対応した複数の識別器が構築され記憶部等に記憶される。トリガジェスチャを判定する際には、ジェスチャ検出部(制御部)により、ユーザの身体情報に基づいてユーザの状態、すなわちユーザの身体特性に合った識別器が選択されて使用される。例えばユーザが座位状態である場合には、座位状態用の識別器が使用され、立位状態である場合には、立位状態用の識別器が使用される。これにより、ユーザの姿勢や身長等に応じたトリガジェスチャの判定処理が可能となり、ジェスチャ操作の操作性を向上することが可能となる。
 また例えば、視野範囲や動作範囲等の身体特性情報を用いてトレーニングされた識別器が用いられてもよい。この場合、識別器は、ジェスチャ情報及び身体特性情報を入力とし、ジェスチャ判定結果を出力する。これにより、ユーザの身体特性情報に応じたトリガジェスチャの判定処理が可能となる。またユーザの身体特性には個人差がある。識別器は、個々のユーザの身体特性情報に基づいて各ユーザの身体特性に応じたパラメータを学習してもよい。これにより、ジェスチャ操作の操作性を大幅に向上することが可能となる。
 上記の実施形態では、透過型ディスプレイを備えるHMD(ARグラス)により拡張現実(AR)を用いた仮想体験が提供された。これに限定されず、例えば外向きカメラ等を用いて撮影された実空間の画像を表示することでAR表示を実現する没入型のHMD等に対しても本技術は適用可能である。また没入型のHMD等を用いて仮想現実(VR:Virtual Reality)を用いた仮想体験が提供される場合にも本技術は適用可能である。この場合、VR体験中のユーザの姿勢等を検出することで、トリガジェスチャを判定するための判定条件(判定閾値等)が設定される。
 上記では、トリガジェスチャに対応した画像出力の制御について説明した。トリガジェスチャに対応する出力は、画像出力に限定されず、トリガジェスチャに対応して音声出力や触覚出力が制御されてもよい。例えばジェスチャ操作によりHMDに搭載されたスピーカーから出力される音声等の音量を調節する操作が可能であってもよい。また例えば、振動アクチュエータ等の触覚提示デバイスが搭載されている場合には、ジェスチャ操作により触覚の種類や強度等が調整可能であってもよい。このように、音声出力や触覚出力が制御される場合であっても、ユーザの身体情報に基づいてトリガジェスチャの判定条件を適宜設定することで、高い操作性を発揮することが可能となる。
 頭部搭載型の筐体を用いた装置(頭部搭載型装置)として、ヘッドホンやイヤホン等が用いられてもよい。例えばワイヤレスヘッドホンや有線ヘッドホン等に、9軸センサを搭載することで、ユーザの頭部の動作等を検出することが可能である。この場合、トリガジェスチャをトリガとするジェスチャ操作として、音量の調節や選曲等の操作が行われる。また、ヘッドホンに触覚提示デバイスが搭載されている場合には、ジェスチャ操作により触覚出力の制御が可能であってもよい。
 この他、頭部に装着するタイプの装置に限定されず、ユーザのジェスチャを検出可能な任意のウェアラブルデバイスに対して、本技術は適用可能である。例えば指、手首、胴体、腰、足首等に装着されるデバイスを用いて、ユーザのジェスチャを検出可能である。上記したようにユーザのジェスチャの動作量等は、ユーザの身体特性や環境に応じて変化する。例えば身体情報や環境情報に応じて各デバイスが検出可能なトリガジェスチャの判定条件を変更することで、ジェスチャ操作のトリガ検出を適正に行うことが可能となる。
 一例として手首や指に装着されるデバイスを用いて、手を用いたハンドジェスチャが検出されるとする。この場合、座位状態及び立位状態では、ハンドジェスチャの動作量(腕を動かす範囲等)が変化する場合が考えられる。各デバイスでは、このような姿勢に応じたジェスチャの変化に合わせてトリガジェスチャの判定条件が設定される。これにより、ジェスチャの検出精度を高めることが可能となる。この他、各デバイスにより検出可能なジェスチャを判定するための判定条件が適宜設定されてよい。
 上記では、本技術に係る情報処理装置の一実施形態として、HMDやヘッドホン等の頭部搭載型装置を例に挙げた。しかしながら、頭部搭載型装置とは別に構成され、有線又は無線を介して頭部搭載型装置に接続される任意のコンピュータにより、本技術に係る情報処理装置が実現されてもよい。例えば、HMDに接続するPCやゲーム機、あるいはヘッドホンに接続するスマートフォンといった頭部搭載型装置を制御する外部装置が、本技術に係る情報処理装置として用いられてもよい。また例えばクラウドサーバにより、本技術に係る情報処理方法が実行されてもよい。あるいはHMD等と他のコンピュータとが連動して、本技術に係る情報処理方法が実行されてもよい。
 すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば身体情報の取得、ジェスチャ情報の取得、トリガジェスチャの判定条件の設定、及び判定条件を用いたトリガジェスチャの判定結果に基づく出力制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 なお、本技術は以下のような構成も採ることができる。
(1)頭部搭載型の筐体を装着したユーザの身体情報を取得する身体情報取得部と、
 前記ユーザのジェスチャに関するジェスチャ情報を取得するジェスチャ情報取得部と、
 前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定する判定条件設定部と、
 前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する制御部と
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記判定条件設定部は、前記身体情報に応じた前記ユーザの身体特性情報に基づいて前記判定条件を設定する
 情報処理装置。
(3)(2)に記載の情報処理装置であって、
 前記身体特性情報は、前記ユーザの視野特性又は動作特性の少なくとも1方に関する情報を含む
 情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
 前記判定条件は、前記トリガジェスチャを判定するための判定閾値を含む
 情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
 前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得し、
 前記判定条件設定部は、前記ユーザの姿勢に応じて、前記判定条件を設定する
 情報処理装置。
(6)(5)に記載の情報処理装置であって、
 前記判定条件設定部は、前記ユーザの姿勢における視野特性又は動作特性の少なくとも1方に応じて、前記判定条件を設定する
 情報処理装置。
(7)(5)又は(6)に記載の情報処理装置であって、
 前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであり、
 前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度を含み、
 前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出し、
 前記判定条件設定部は、前記座位状態が検出された場合に、前記閾値角度を前記立位状態が検出された場合よりも小さい値に設定する
 情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
 前記制御部は、前記身体情報に基づいて、前記仮想画像の表示位置を制御する
 情報処理装置。
(9)(8)に記載の情報処理装置であって、
 前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得し、
 前記制御部は、前記ユーザの姿勢に応じて、前記仮想画像の表示位置を制御する
 情報処理装置。
(10)(9)に記載の情報処理装置であって、
 前記仮想画像は、前記ユーザから見て斜め上方に表示される上方画像であり、
 前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出し、
 前記制御部は、前記座位状態が検出された場合に、前記上方画像の表示位置を前記立位状態が検出された場合よりも低い位置に設定する
 情報処理装置。
(11)(8)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記身体情報取得部は、前記身体情報として前記ユーザの身長を取得し、
 前記仮想画像は、前記ユーザから見て斜め下方に表示される下方画像であり、
 前記制御部は、前記ユーザの身長に応じて前記下方画像の表示位置を設定する
 情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、さらに、
 前記ユーザの周辺環境に関する環境情報を取得する環境情報取得部を具備する
 情報処理装置。
(13)(12)に記載の情報処理装置であって、
 前記判定条件設定部は、前記環境情報に基づいて、前記判定条件を設定する
 情報処理装置。
(14)(13)に記載の情報処理装置であって、
 前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであり、
 前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度を含み、
 前記環境情報取得部は、前記周辺環境における天井の有無を検出し、
 前記判定条件設定部は、前記天井が検出された場合に、前記閾値角度を前記天井が検出されない場合よりも低い値に設定する
 情報処理装置。
(15)(12)から(14)のうちいずれか1つに記載の情報処理装置であって、
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
 前記制御部は、前記環境情報に基づいて、前記仮想画像の表示位置を制御する
 情報処理装置。
(16)(15)に記載の情報処理装置であって、
 前記環境情報取得部は、前記周辺環境に消失点が含まれるか否かを判定し、
 前記制御部は、前記周辺環境に前記消失点が含まれる場合、前記消失点を基準として前記仮想画像の表示位置を設定する
 情報処理装置。
(17)(15)又は(16)に記載の情報処理装置であって、
 前記環境情報取得部は、前記環境情報として床面の位置を検出し、
 前記制御部は、前記床面の位置に応じて前記仮想画像の表示位置を設定する
 情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
 前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
 前記トリガジェスチャは、前記仮想画像を表示させる表示操作のトリガ、前記仮想画像を非表示にする非表示操作のトリガ、又は前記仮想画像を選択する選択操作のトリガとして機能する
 情報処理装置。
(19)頭部搭載型の筐体を装着したユーザの身体情報を取得し、
 前記ユーザのジェスチャに関するジェスチャ情報を取得し、
 前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定し、
 前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する
 ことをコンピュータシステムが実行する情報処理方法。
(20)頭部搭載型の筐体を装着したユーザの身体情報を取得するステップと、
 前記ユーザのジェスチャに関するジェスチャ情報を取得するステップと、
 前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定するステップと、
 前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御するステップと
 をコンピュータシステムに実行させるプログラム。
 1…ユーザ
 5…頭部装着型の筐体
 10…表示部
 14…センサ部
 15…記憶部
 20…コントローラ
 21…身体情報取得部
 22…ジェスチャ情報取得部
 23…環境情報取得部
 24…判定条件設定部
 25…ジェスチャ検出部
 26…レイアウト算出部
 27…レイアウト判断部
 28…出力制御部
 30、30a~30g…仮想画像
 31…上方画像
 36…下方画像
 51…消失点
 100…HMD

Claims (20)

  1.  頭部搭載型の筐体を装着したユーザの身体情報を取得する身体情報取得部と、
     前記ユーザのジェスチャに関するジェスチャ情報を取得するジェスチャ情報取得部と、
     前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定する判定条件設定部と、
     前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する制御部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記判定条件設定部は、前記身体情報に応じた前記ユーザの身体特性情報に基づいて前記判定条件を設定する
     情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記身体特性情報は、前記ユーザの視野特性又は動作特性の少なくとも1方に関する情報を含む
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記判定条件は、前記トリガジェスチャを判定するための判定閾値を含む
     情報処理装置。
  5.  請求項1に記載の情報処理装置であって、
     前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得し、
     前記判定条件設定部は、前記ユーザの姿勢に応じて、前記判定条件を設定する
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記判定条件設定部は、前記ユーザの姿勢における視野特性又は動作特性の少なくとも1方に応じて、前記判定条件を設定する
     情報処理装置。
  7.  請求項5に記載の情報処理装置であって、
     前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであり、
     前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度を含み、
     前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出し、
     前記判定条件設定部は、前記座位状態が検出された場合に、前記閾値角度を前記立位状態が検出された場合よりも小さい値に設定する
     情報処理装置。
  8.  請求項1に記載の情報処理装置であって、
     前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
     前記制御部は、前記身体情報に基づいて、前記仮想画像の表示位置を制御する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記身体情報取得部は、前記身体情報として前記ユーザの姿勢を取得し、
     前記制御部は、前記ユーザの姿勢に応じて、前記仮想画像の表示位置を制御する
     情報処理装置。
  10.  請求項9に記載の情報処理装置であって、
     前記仮想画像は、前記ユーザから見て斜め上方に表示される上方画像であり、
     前記身体情報取得部は、前記ユーザの姿勢として立位状態又は座位状態を検出し、
     前記制御部は、前記座位状態が検出された場合に、前記上方画像の表示位置を前記立位状態が検出された場合よりも低い位置に設定する
     情報処理装置。
  11.  請求項8に記載の情報処理装置であって、
     前記身体情報取得部は、前記身体情報として前記ユーザの身長を取得し、
     前記仮想画像は、前記ユーザから見て斜め下方に表示される下方画像であり、
     前記制御部は、前記ユーザの身長に応じて前記下方画像の表示位置を設定する
     情報処理装置。
  12.  請求項1に記載の情報処理装置であって、さらに、
     前記ユーザの周辺環境に関する環境情報を取得する環境情報取得部を具備する
     情報処理装置。
  13.  請求項12に記載の情報処理装置であって、
     前記判定条件設定部は、前記環境情報に基づいて、前記判定条件を設定する
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記トリガジェスチャは、前記ユーザが頭部を上方に向ける頭部ジェスチャであり、
     前記判定条件は、前記頭部ジェスチャにより変化する前記ユーザの頭部の姿勢角度に対する閾値角度を含み、
     前記環境情報取得部は、前記周辺環境における天井の有無を検出し、
     前記判定条件設定部は、前記天井が検出された場合に、前記閾値角度を前記天井が検出されない場合よりも低い値に設定する
     情報処理装置。
  15.  請求項12に記載の情報処理装置であって、
     前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
     前記制御部は、前記環境情報に基づいて、前記仮想画像の表示位置を制御する
     情報処理装置。
  16.  請求項15に記載の情報処理装置であって、
     前記環境情報取得部は、前記周辺環境に消失点が含まれるか否かを判定し、
     前記制御部は、前記周辺環境に前記消失点が含まれる場合、前記消失点を基準として前記仮想画像の表示位置を設定する
     情報処理装置。
  17.  請求項15に記載の情報処理装置であって、
     前記環境情報取得部は、前記環境情報として床面の位置を検出し、
     前記制御部は、前記床面の位置に応じて前記仮想画像の表示位置を設定する
     情報処理装置。
  18.  請求項1に記載の情報処理装置であって、
     前記頭部搭載型の筐体は、仮想画像を表示するヘッドマウントディスプレイの筐体であり、
     前記トリガジェスチャは、前記仮想画像を表示させる表示操作のトリガ、前記仮想画像を非表示にする非表示操作のトリガ、又は前記仮想画像を選択する選択操作のトリガとして機能する
     情報処理装置。
  19.  頭部搭載型の筐体を装着したユーザの身体情報を取得し、
     前記ユーザのジェスチャに関するジェスチャ情報を取得し、
     前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定し、
     前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  頭部搭載型の筐体を装着したユーザの身体情報を取得するステップと、
     前記ユーザのジェスチャに関するジェスチャ情報を取得するステップと、
     前記身体情報に基づいて、前記ユーザのジェスチャによる操作入力のトリガとなるトリガジェスチャを判定するための判定条件を設定するステップと、
     前記ジェスチャ情報及び前記判定条件に基づいて、前記トリガジェスチャが行われたか否かを判定し、当該判定結果に基づいて、前記トリガジェスチャに対応した出力を制御するステップと
     をコンピュータシステムに実行させるプログラム。
PCT/JP2020/018497 2019-05-30 2020-05-07 情報処理装置、情報処理方法、及びプログラム WO2020241189A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/595,607 US11835727B2 (en) 2019-05-30 2020-05-07 Information processing apparatus and information processing method for controlling gesture operations based on postures of user
EP20813600.2A EP3979234A4 (en) 2019-05-30 2020-05-07 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-101104 2019-05-30
JP2019101104 2019-05-30

Publications (1)

Publication Number Publication Date
WO2020241189A1 true WO2020241189A1 (ja) 2020-12-03

Family

ID=73552544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018497 WO2020241189A1 (ja) 2019-05-30 2020-05-07 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11835727B2 (ja)
EP (1) EP3979234A4 (ja)
WO (1) WO2020241189A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7039672B1 (ja) 2020-10-29 2022-03-22 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
WO2022190774A1 (ja) * 2021-03-11 2022-09-15 株式会社Nttドコモ 情報処理装置
US11747628B2 (en) * 2021-12-13 2023-09-05 Toyota Jidosha Kabushiki Kaisha AR glasses
WO2023204159A1 (ja) * 2022-04-21 2023-10-26 株式会社Nttドコモ 表示制御装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152836A (ja) * 2020-03-25 2021-09-30 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US20230100857A1 (en) * 2021-09-25 2023-03-30 Kipling Martin Vehicle remote control system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136704A (ja) * 1997-10-29 1999-05-21 Seiko Epson Corp 頭部装着型表示装置
JPH11161190A (ja) 1997-11-25 1999-06-18 Seiko Epson Corp 頭部装着型表示装置
WO2015145544A1 (ja) * 2014-03-24 2015-10-01 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2018131251A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018198499A1 (ja) * 2017-04-27 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164588B1 (en) * 2013-02-05 2015-10-20 Google Inc. Wearable computing device with gesture recognition
US20150130688A1 (en) * 2013-11-12 2015-05-14 Google Inc. Utilizing External Devices to Offload Text Entry on a Head Mountable Device
US9442631B1 (en) * 2014-01-27 2016-09-13 Google Inc. Methods and systems for hands-free browsing in a wearable computing device
US9448687B1 (en) * 2014-02-05 2016-09-20 Google Inc. Zoomable/translatable browser interface for a head mounted device
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2016010857A1 (en) * 2014-07-18 2016-01-21 Apple Inc. Raise gesture detection in a device
JP2017021461A (ja) 2015-07-08 2017-01-26 株式会社ソニー・インタラクティブエンタテインメント 操作入力装置および操作入力方法
US20180275837A1 (en) * 2017-03-23 2018-09-27 RideOn Ltd. Graphical user interface (gui) controls

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136704A (ja) * 1997-10-29 1999-05-21 Seiko Epson Corp 頭部装着型表示装置
JPH11161190A (ja) 1997-11-25 1999-06-18 Seiko Epson Corp 頭部装着型表示装置
WO2015145544A1 (ja) * 2014-03-24 2015-10-01 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
WO2018131251A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018198499A1 (ja) * 2017-04-27 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3979234A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7039672B1 (ja) 2020-10-29 2022-03-22 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
JP2022072285A (ja) * 2020-10-29 2022-05-17 ソフトバンク株式会社 制御装置、プログラム、及び制御方法
WO2022190774A1 (ja) * 2021-03-11 2022-09-15 株式会社Nttドコモ 情報処理装置
US11747628B2 (en) * 2021-12-13 2023-09-05 Toyota Jidosha Kabushiki Kaisha AR glasses
WO2023204159A1 (ja) * 2022-04-21 2023-10-26 株式会社Nttドコモ 表示制御装置

Also Published As

Publication number Publication date
US20220317462A1 (en) 2022-10-06
EP3979234A1 (en) 2022-04-06
US11835727B2 (en) 2023-12-05
EP3979234A4 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
WO2020241189A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10311640B2 (en) Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method
US10809530B2 (en) Information processing apparatus and information processing method
JP6342038B1 (ja) 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法
JP6523233B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
CN105393192A (zh) 用于近眼显示器的网状分层菜单显示配置
US11609428B2 (en) Information processing apparatus and information processing method
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP6201028B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2021096490A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
WO2019142560A1 (ja) 視線を誘導する情報処理装置
US20220291744A1 (en) Display processing device, display processing method, and recording medium
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
CN113544765A (zh) 信息处理装置、信息处理方法和程序
JP2019211864A (ja) コンピュータプログラム、情報処理装置および情報処理方法
KR20180002588A (ko) 팬-구동형 힘 디바이스
US20200241633A1 (en) Display device and display device control method
JP2021192178A (ja) デバイス、制御方法及びプログラム
US20230367403A1 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP2019030638A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018092592A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20180356905A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20813600

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020813600

Country of ref document: EP

Effective date: 20220103

NENP Non-entry into the national phase

Ref country code: JP