WO2004020946A1 - ヘッドトラッキング方法及び装置 - Google Patents

ヘッドトラッキング方法及び装置 Download PDF

Info

Publication number
WO2004020946A1
WO2004020946A1 PCT/JP2003/010776 JP0310776W WO2004020946A1 WO 2004020946 A1 WO2004020946 A1 WO 2004020946A1 JP 0310776 W JP0310776 W JP 0310776W WO 2004020946 A1 WO2004020946 A1 WO 2004020946A1
Authority
WO
WIPO (PCT)
Prior art keywords
angle
head
sensor
output
head tracking
Prior art date
Application number
PCT/JP2003/010776
Other languages
English (en)
French (fr)
Inventor
Masatomo Kurata
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/525,925 priority Critical patent/US20050256675A1/en
Priority to EP03791296A priority patent/EP1541966A4/en
Publication of WO2004020946A1 publication Critical patent/WO2004020946A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Definitions

  • the present invention relates to a head tracking method and apparatus for detecting the direction in which a head is facing on a head mount display or the like.
  • sensors have been used to detect the three-dimensional direction in which the human head is facing, and an image of the detected direction is displayed on a head mounted display (HMD) mounted on the head.
  • HMD head mounted display
  • FIG. 11 is a diagram showing a configuration example of a conventional head mount display.
  • a sensor section 70 for detecting the movement of the head a head mount display section 80 mounted on the head, and a host section 90 for supplying a video signal to the video display section 80 are provided.
  • the sensor unit 70 is composed of three sensors 71, 72, and 73 that detect the movement of the human head three-dimensionally, and the outputs of the sensors 71, 72, and 73.
  • the central control unit 74 calculates the three-dimensional movement of the human head based on the data, and the host unit calculates the head-facing data calculated by the central control unit 74. It is composed of a control interface unit 75 that transmits the information to 90.
  • the three sensors 7 1, 7 2, and 7 3 are composed of, for example, angular velocity sensors that individually detect accelerations in three mutually orthogonal axial directions.
  • the central control unit 74 determines the three-axis acceleration. Judge the three-dimensional movement of the head.
  • the host unit 90 includes, for example, a memory 91 for storing video data all around a certain point, and a video data stored in the memory 91. From among the above, the video data in the direction detected by the sensor unit 70 is read out, and the central control unit 92 that supplies the video data to the 3D processing unit 93 and the supplied video data are used as video data for image display. And a video interface unit 94 for supplying the video data created by the 3D processing unit 93 to the head mount display unit 80.
  • the head mount display unit 80 includes a central control unit 81 for controlling display of video, a video interface unit 82 for receiving video data supplied from the host unit 90, and a video interface unit. And a video display unit 83 for displaying and processing the video data received by the face unit 82.
  • a liquid crystal display panel arranged near the left and right eyes is used as a display means.
  • the sensor section 70 and the head mount display section 80 are integrally formed.
  • the host unit 90 includes, for example, a personal computer device and a large-capacity storage means such as a hard disk and an optical disk.
  • a head mount display configured in this way, it is possible to display images linked to the movement of the wearer's head, and to display so-called virtual reality images. This will be possible.
  • the conventional head mount display requires three acceleration sensors that individually detect the acceleration of three orthogonal axes as a sensor part that detects the movement of the head, and the configuration is complicated. was there.
  • the head mount display is a device that is mounted on the user's head, it is preferable that the head mount display be configured to be small and lightweight, and it is not preferable that three sensors are required.
  • the present invention has been made in view of such a point, and an object of the present invention is to enable a simple sensor configuration to detect a direction in which a head is facing. And Disclosure of the invention
  • a three-dimensional direction in which the head is oriented is a yaw angle that is an angle that rotates around an upright axis that stands upright on a horizontal plane of the head, and is orthogonal to the upright axis.
  • the yaw angle is determined from an integrated value of an output of a ji mouth sensor, and a plane orthogonal to the upright axis direction is determined.
  • the pitch angle and the roll angle are calculated from the output of a tilt sensor that detects the tilt of the vehicle.
  • the cycle for judging the yaw angle from the output of the gyro sensor is different from the cycle for calculating the pitch angle and the roll angle from the output of the tilt sensor. In addition, the cycle is shorter.
  • the yaw angle can be accurately determined based on the short-period determination of the dynamic angular velocity output by the gyro sensor, and the pitch angle and the roll angle can be determined by gravity. Since it is calculated from a certain static acceleration, even if the detection cycle is long to some extent, accurate detection can always be performed, and 3-axis angles can be detected accurately with good calculation distribution.
  • a correction is made on the pitch angle and the roll angle determined from the output of the jay mouth sensor based on the determined pitch angle and roll angle. is there.
  • a yaw angle which is an angle rotating around an upright axis which stands upright on a horizontal plane of the head, and two axes which are orthogonal to the upright axis.
  • a head tracking device that detects three axes of a pitch angle and a roll angle, which are angles to be formed, a jar mouth sensor for detecting the yaw angle, and a tilt for detecting a tilt of a plane orthogonal to the direction of the upright axis.
  • a calculating means for determining the yaw angle from the integrated value of the output of the gyro sensor and calculating the pitch angle and the roll angle from the angular velocity output from the tilt sensor.
  • a fifth invention is the head tracking device according to the fourth invention, wherein the calculating means determines a yaw angle from an output of the gyro sensor, and calculates a pitch angle and a roll angle from an output of the tilt sensor. This is a period shorter than the period for calculating.
  • the yaw angle can be accurately determined based on the short-period determination of the dynamic angular velocity output by the gyro sensor, and the pitch angle and the roll angle are gravity. Since it is calculated from static acceleration, even if the detection cycle becomes long to some extent, accurate detection can always be performed, and the angle of the three axes can be detected accurately with good calculation distribution.
  • a sixth aspect of the present invention is the head tracking apparatus according to the fourth aspect of the present invention, wherein the calculating means is configured to correct the inclination angle determined based on the calculated pitch angle and roll angle from the output of the jerky mouth sensor. Is performed. By doing so, a more accurate yaw angle can be obtained. You will be able to judge.
  • FIG. 1 is a perspective view showing an example of mounting a head mounted display according to an embodiment of the present invention.
  • FIG. 2 is a perspective view showing an example of the shape of the head mount display according to one embodiment of the present invention.
  • FIG. 3 is a side view of the head mount display of the example of FIG.
  • FIG. 4 is a perspective view showing an example of a state in which a video display unit of the head mount display of FIG. 2 is raised.
  • FIG. 5 is an explanatory diagram showing a reference axis according to one embodiment of the present invention. .
  • FIG. 6 is an explanatory diagram showing a detection state by the sensor according to the embodiment of the present invention.
  • FIG. 7 is a block diagram illustrating a system configuration example according to an embodiment of the present invention.
  • FIG. 8 is a flowchart showing an example of head tracking processing according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an example of a two-axis sensor process according to an embodiment of the present invention.
  • FIG. 10 is a flowchart showing an example of gyro sensor processing according to an embodiment of the present invention.
  • FIG. 11 is a block diagram showing an example of a system configuration of a conventional head mount display. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a diagram showing an example of mounting the head mount display of this example.
  • the head mount display 100 of the present example is shaped like a headphone worn on the left and right auricles of the user's head h, and shaped like the headphone.
  • the video display is attached.
  • FIG. 1 shows a state in which the video display unit 110 is positioned in front of the user to view video and audio.
  • the head mount display 100 is connected to a video signal source (not shown) by a cable 148.
  • the video supplied from the video signal source is displayed on the video display unit 110, and the left and right are displayed.
  • the supplied audio is output from the driver cutout attached to the pinna of the user.
  • a sensor for detecting the direction in which the wearer is facing is built in the head mount display 100, and the direction in which the wearer is facing is detected based on the output of the sensor.
  • An image corresponding to the above is supplied from a video signal source to a head mount display 100 for display.
  • the sound may also be output as a stereo sound signal in a phase corresponding to the direction in which the sound was directed.
  • FIG. 2 is a diagram showing an example of the shape of the head mount display 100.
  • the head mount display 100 is composed of a left driver unit 140 and a right driver unit 150 connected by a band 130, and left and right driver units 140, 1 In the state supported by 50, a horizontally long image display unit 110 is mounted.
  • the band 130 is made of an elastic material, and the left dry unit 140 and the right dry unit 150 are placed on the auricle side of the wearer with relatively weak force. It is configured to be pressed and held on the head. Also, when not mounted on the head, the driver cutouts 140 and 150 on the left and right sides are in close contact with each other.
  • the band 130 has a wide portion 1331 formed in the center thereof, and the head mount display 100 can be stably held by the wearer's head.
  • U-shaped brackets 1332 and 1333 are formed at one end and the other end of the band 130, respectively, and are attached to the upper ends of the driver units 140 and 150.
  • the middle of the U-shaped brackets 144, 154 is held by the U-shaped bracket holders 132, 133.
  • the U-shaped bracket 1 4 4 1.5 4, holder 1 3 2, 1 3 3 By changing the position held by, can be adjusted in accordance with the size of the head portion of the 3 wearer.
  • Each of the driver units 140 and 150 has a circular driver (speaker unit) that outputs sound by supplying an audio signal.
  • a ring-shaped wire pad 14 2, 15 2 is attached around each of the driver placement sections 14 1, 15 1.
  • Cavities 144, 157 are provided between each of the driver placement sections 141, 151 of this example and each of the ear pads 144, 152, and the pinna of the wearer is provided.
  • the driver placement sections 14 1 and 15 1 are positioned so that they are slightly floating with respect to, so that it is a so-called full open air headphone.
  • an image display panel 100L for the left eye is arranged in front of the left eye of the wearer, and an image display panel 100R for the right eye is arranged in front of the right eye of the wearer. It is arranged. Since FIGS. 1 and 2 are diagrams viewed from the outside, the image display panels 100 L and 10 OR are invisible. Each of the video display panels 100 L and 100 R is, for example, a liquid crystal display panel.
  • Fig. 3 is a view of the wearing state viewed from the side, and it can be seen that the left and right image display panels 100L and 100R are positioned in front of the wearer.
  • the image display means such as a liquid crystal display panel is not necessarily located at a position close to the eyes, and the display panel is provided inside the image display unit 110. In some cases, it is arranged so that an image is displayed in front of the wearer via optical components. Also, when lighting means such as a pack light is required, it is incorporated in the image display unit 110.
  • the nose 100 On In the lower part between the left and right liquid crystal display panels 100 L and 100 R, there is a cutout for the nose 100 On, and when mounted as shown in FIG. 0 does not touch the nose of the wearer.
  • the connection units 1 1 1 and 1 1 2 As a mechanism for supporting the image display unit 110 with the left and right driver units 140 and 150, one end and the other end of the image display unit 110 are connected to the connection units 1 1 1 and 1 1 2 and are connected to the connecting members 113 and 114 so as to be rotatable on a horizontal plane, and the ends of the connecting members 113 and 114 are connected to the connecting portions 115 , 1 16 are attached to the rod-shaped connecting members 1 17, 1 18 so as to be rotatable on a horizontal plane.
  • the head mount display has two connecting portions 111, 112, 115, and 116, two at the left and right, as described above.
  • the structure is such that the part 110 can be satisfactorily held.
  • the rod-shaped connecting members 1 17 and 1 18 connected to the image display unit 110 are formed with through-holes 1 of shaft holding units 1 2 1 and 1 2 2 fixed to connecting members 1 2 3 and 1 2 4, respectively. 2 1 a, 1 2 2 a are passed through, and by adjusting the protruding length of the rod-shaped connecting members 1 17, 1 18 from the through holes 1 2 1 a, 1 2 2 a, The distance between the image display section 110 and the eyes of the wearer can be adjusted.
  • FIG. 4 is a diagram illustrating an example of a state in which the image display unit 110 is lifted up.
  • the image display section 110 is connected to the left and right driver units 140 through the cords 144 and 156 exposed to the outside from the rear ends of the rod-shaped connecting members 117 and 118.
  • a video signal obtained through a code 148 connected to a video signal source is supplied to a video display unit 110 and a video signal
  • the audio signal from the source is also supplied to the right driver unit 150 via the codes 146 and 156.
  • two sensors are incorporated in the dry panel 150 (or the video display section 110), and control data based on the sensor outputs is transmitted via the code 148. To be supplied to the video signal source side.
  • a reset switch is attached to a predetermined position (for example, one driver unit 140) of the head mount display 100 of this example, and other key switches are provided. Operation means such as a computer and a polygon are also arranged as necessary.
  • the axis that erects the head h in the upright state is defined as the Z axis
  • the X axis and the Y axis which are two axes orthogonal to the Z axis, are considered.
  • the X axis is the axis in the left-right direction of the head
  • the Y axis is the axis in the front-rear direction of the head.
  • the horizontal rotation of the head h is indicated by the yaw angle (Yaw angle) 0, which is the angle of rotation about the Z axis
  • the inclination of the head h in the forward and backward directions is represented by Y
  • the pitch angle which is the angle between the axis and the The inclination of the head h in the left-right direction is expressed as a roll angle (an angle in the caulking direction) between the head h and the X axis.
  • the yaw angle ⁇ ⁇ is detected by one gyro sensor, and the center of the sensor is shown in FIG. 5A for the roll angle and the pitch angle, as shown in FIG. 5A.
  • Judgment is made based on the output of a tilt sensor (two-axis tilt sensor) that detects the tilt in the X-axis direction and Y-axis direction with respect to the plane (XY plane) composed of the X-axis and Y-axis as the origin of the coordinate system. I'm going.
  • the inclination S 1 in the Y-axis direction is equivalent to the angle pitch angle in the X-axis rotation direction
  • the inclination S 2 in the X-axis direction is equivalent to the angle roll angle in the Y-axis rotation direction.
  • the tilt sensor is a sensor that measures gravity, which is a static acceleration, it can detect only ⁇ 90 degrees of judgment. Therefore, the rotational position of the human head can be detected. Furthermore, the pitch angle and the roll angle are output using the gravity, which is a static acceleration, as an absolute coordinate axis, so that the sensor does not cause a drift phenomenon. Since the accelerations S 1 and S 2 in the Z-axis direction are accelerations in the same direction, as shown in FIG. 6, the accelerations S 1 and S 2 are detected by one acceleration sensor 12 that detects the acceleration in the Z-axis direction. S2 is detected to determine the roll angle and pitch angle. The yaw angle 0 is determined from the acceleration output from the gyro sensor 11 that detects the acceleration in this direction.
  • these two sensors 11 and 12 may be arranged at any position of the head mount display 100 ⁇ Next, the head mount display 100 of this example is used.
  • the circuit configuration of This will be described with reference to the block diagram of FIG. FIG. 7 also shows a configuration of a video signal source 20 connected to the head mount display 100 via a code 148.
  • the gyro sensor 11 attached to the head mount display 100 supplies the acceleration signal output from the sensor 11 to the analog processing unit 13 for analog processing such as filtering and amplification using a low-pass filter. After processing, it is converted to digital data and supplied to the central control unit 14.
  • the tilt sensor 12 is a sensor that outputs an acceleration signal as a PWM signal that is a pulse width modulation signal.
  • the tilt sensor 12 detects a tilt state in the X-axis direction and a tilt state in the Y-axis rotation direction. It is individually supplied to the central control unit 14 as a PWM signal.
  • the roll angle and the pitch angle are calculated based on the supplied PWM signal.
  • the central control unit 14 uses the position when the reset switch 15 is operated as the reference position, and mounts from the reference position based on the output of the gyro sensor 11 and the acceleration sensor 12.
  • the yaw angle which is the direction in which the front of the head faces, is configured to detect the movement of the head of the user, and is calculated based on the output of the gyro sensor 11.
  • the yaw angle calculated based on the output of the gyro sensor 11 may be corrected using the roll angle and the pitch angle calculated based on the output of the tilt sensor 12.
  • the yaw angle may be corrected using the calculated roll angle and pitch angle.
  • the data of the calculated angles for each of the three axes (yaw angle, roll angle, and pitch angle) calculated by the central control unit 14 are used as head tracking angle data, and the control interface unit 18 Is sent to the video signal source 20 side.
  • the video signal source 20 is, for example, a memory 21 for storing video data all around a certain point, audio data accompanying the video data, and video data stored in the memory 21.
  • Central control unit that reads video data in the direction indicated by the head tracking angle data detected by the head mount display 100 from among the data and supplies it to the 3D processing unit 23.
  • 3D processing unit 23 that uses supplied video data as video data for image display, and video data created by 3D processing unit 23 is supplied to head mount display unit 100
  • a control interface unit 25 for receiving the head tracking angle data detected by the head mount display 100.
  • the video data supplied from the video signal source 20 to the head mount display 100 is received by the video interface unit 17 of the head mount display 100, and the video display unit 110 And performs a process of displaying on the left and right video display panels 100 L and 10 OR in the video display unit 110.
  • the video data is video data for displaying a stereoscopic video
  • the video data supplied to the left and right video display panels 100 L and 100 R to be displayed becomes individual data.
  • the reception by the video interface unit 17 and the video display by the video display unit 110 are also executed under the control of the central control unit 14.
  • the configuration for processing audio data is omitted.
  • audio data see Head Trakin
  • the direction in which the sound image is localized may be changed to the angle indicated by the head tracking angle data.
  • the video signal source 20 for example, means for executing arithmetic processing such as a personal computer device, a video game device, a PDA (Personal Digital Assistants), a mobile phone terminal, etc., and these devices are built-in (or mounted) It consists of large-capacity storage means such as hard disks, optical disks, and semiconductor memories.
  • step S11 When the power of the head mount display 100 is turned on (step S11), various initialization instructions are executed. Is performed (step S12), and thereafter, reset signal processing is executed (step S13).
  • step S13 In the reset signal processing, the head tracking data in the posture of the wearer at that time is stored and signaled by the operation of the reset switch 15 or the request of the reset signal from the video signal source 20. The head tracking data is set to 0 ° at that position.
  • the yaw angle can be detected at ⁇ 180 °, so there is no problem.
  • the reset for the two axes is performed.
  • a process is performed to limit the attitude angle for accepting to the vicinity of a plane orthogonal to the Z axis shown in Figs.
  • a three-axis angle detection process is performed (step S14).
  • a two-axis tilt sensor process and a gyro sensor process are performed.
  • FIG. 9 is a flowchart showing the two-axis tilt sensor processing.
  • 2-axis tilt sensor processing supplied from tilt sensor 12
  • the X-axis duty ratio and Y-axis duty ratio of the PWM signal to be detected are detected (steps S21 and S22).
  • a pitch angle and a roll angle are calculated from each duty ratio (step S23).
  • step S24 If the acceleration detection axis of the tilt sensor 12 is displaced in the yaw angle direction on the ⁇ plane with respect to the wearer's X axis and ⁇ axis, the calculated pitch angle The deviation of the corner is corrected (step S24), and the processing of the two-axis tilt sensor is completed (step S25).
  • FIG. 10 is a flowchart showing the jar mouth sensor process.
  • the jay mouth sensor processing first, data obtained by digitally converting the output from the jay mouth sensor is obtained (step S31). Next, digital conversion is performed by a plurality of central control units having different gains, and gain ranging processing is performed to increase the dynamic range (step S32). The DC offset of step 1 is cut (step S33). Then, a coring process for cutting the noise component is performed (step S34), and the yaw angle is calculated by integrating the angular velocity data (step S35), and the gyro sensor process is performed. The process ends (step S36). As described above, when calculating the yaw angle in step S35, the yaw angle calculated based on the pitch angle and the roll angle detected by the two-axis tilt sensor processing. May be corrected.
  • step S15 a process of transferring to the video signal source side is performed (step S15), and the process returns to the reset signal process of step S13.
  • the reset switch is not operated or the reset signal is not supplied in the reset signal processing, the process directly returns to the three-axis angle detection processing in step S14.
  • the two-axis tilt The gyro sensor process detects the dynamic acceleration component and integrates it, whereas the gyro sensor process detects the static acceleration that is gravity and calculates the inclination angle at the time of the detection. Since the yaw angle is obtained, the cycle at which each process is performed may be different.
  • the delay time of the head tracking detection becomes important, so the head tracking can be performed at most within the video update rate. It is necessary to complete the processing and transfer the data, and it is important to execute the two-axis tilt sensor processing of the flow chart in Fig. 9 and the gyro sensor processing in Fig.
  • a general-purpose microprocessor that performs calculations with 16 bits is used as the central control unit, 2-axis tilt sensor processing is performed at 125 Hz, and gyro sensor processing is performed.
  • the update rate described above can be satisfied by performing the cycle at 1.25 KHz.
  • the head mount display 100 configured as described above, it is possible to display an image linked to the movement of the wearer's head, and to display a so-called virtual reality image. It will be possible to do that. Also, it is possible to output headtracked audio.
  • a sensor for detecting the head tracking angle it is sufficient to prepare a gyro sensor and a two-axis tilt sensor.
  • a simple configuration using only two sensors provides a good three-dimensional head.
  • the tracking angle can be detected.
  • the detection range of the pitch angle and the roll angle is limited to ⁇ 90 °, but it is sufficient for detecting the posture angle within the range of normal human head movement. There is no practical problem.
  • the pitch angle and the corner angle are detected using the tilt sensor, the drift phenomenon does not occur, and a virtual stable image in the horizontal direction is obtained. 3D sky The time is simple and low cost.
  • the head mount display itself can be configured to be small, and the wearing feeling of the head mount display can be improved.
  • the video display section is attached to a so-called full open air type headphone to provide a head mount display.
  • the head mount display has the same function as a conventional fully open air headphone, so that the head mount display can be mounted. It will be good. Further, as shown in FIG. 4, when the video display unit 110 is flipped up, it can be used as a headphone, and the versatility of the device is high.
  • the external shape of the head mount display shown in FIGS. 1 to 4 is merely an example, and the present invention can be applied to a head mount display having another shape.
  • the head tracking processing of the present invention may be applied to a headphone device (that is, a device without a video display function) that performs the sound image localization position of the stereo sound by head tracking.
  • a reset switch is provided on the head mount display, a position where the reset switch is operated is set as a reference position, and the position from the position is set as a reference position.
  • the movement is detected, but the absolute direction is detected by some method (for example, a geomagnetic sensor), and the absolute angle head is used without providing a reset switch. Detracking processing may be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Gyroscopes (AREA)

Abstract

頭部の向いた3次元的な方向を、頭部の水平面に直立する直立軸の回りを回転する角であるヨウ角と、前記直立軸と直交する2軸となす角度であるピッチ角及びロール角の3軸で検出する場合に、ヨウ角を加速度の積分値から検出するジャイロセンサ11と、直立軸方向と直交する平面の傾斜を検出する傾斜センサ12と、傾斜センサの出力からピッチ角及びロール角を算出する演算手段14とを備えた構成として、ヘッドマウントディスプレイなどで、頭部が向いている方向の検出が2つのセンサによる簡単な検出構成で出来るようにする。

Description

明 細 書
へッ ド トラッキング方法及.ぴ装置 技術分野
本発明は、 ヘッ ドマウン トディスプレイなどで、 頭部が向いて いる方向を検出するへッ ドトラッキング方法及ぴ装置に関する。 背景技術
近年、 人間の頭部が向いている 3次元的な方向をセンサで検出 して、 その検出した方向の映像を、 頭部に装着したヘッ ドマウン トディスプレイ (H M D ) に表示させるよ う にしたものが、 バー チヤルリ ァリティ と称されて各種実用化されている。
図 1 1 は、 従来のヘッ ドマウン トディ スプレイの構成例を示す 図である。 この例では、 頭部の動きを検出するセンサ部 7 0 と、 頭部に装着されるヘッ ドマウン トディスプレイ部 8 0 と、 この映 像表示部 8 0に映像信号を供給するホス ト部 9 0 とで構成される センサ部 7 0は、 人間の頭部の動きを 3次元的に検出する 3つの センサ 7 1, 7 2, 7 3 と、 各センサ 7 1, 7 2, 7 3 の出力に 基づいて、 人間の頭部の 3次元的な動きを演算する中央制御ュニ ッ ト 7 4 と、 中央制御ユニッ ト 7 4で演算された頭部の正面が向 いた方向のデータをホス ト部 9 0に伝えるコン トロール用インタ 一フェース部 7 5 とで構成される。
3つのセンサ 7 1, 7 2 , 7 3は、 例えばそれぞれが直交する 3つの軸方向の加速度を個別に検出する角速度センサで構成され 中央制御ュニッ ト 7 4での 3軸の加速度の判断で、 頭部の 3次元 的な動きを判断する。
ホス ト部 9 0は、 例えばある地点の周囲の全周の映像データを 蓄積するメモリ 9 1 と、 そのメモリ 9 1 に蓄積された映像データ の中から、 センサ部 7 0で検出された方向の映像データを読出し て、 3 D処理部 9 3 に供給する中央制御ュニッ ト 9 2 と、 供給さ れる映像データを画像表示用の映像データ とする 3 D処理部 9 3 と、 3 D処理部 9 3で作成された映像データを、 へッ ドマウン ト ディスプレイ部 8 0に供給するビデオイ ンターフェース部 9 4 と で構成される。
へッ ドマウン トディ スプレイ部 8 0は、 映像の表示制御を行う 中央制御ュニ ッ ト 8 1 と、 ホス ト部 9 0から供給される映像デー タを受信するビデオインターフェース部 8 2 と、 ビデオインター フェース部 8 2が受信した映像データを表示処理する映像表示部 8 3 とで構成される。 映像表示部 8 3 は、 例えば左右の目の近傍 に配置される液晶表示パネルが表示手段と して使用される。 セン サ部 7 0 とへッ ドマウン トディスプレイ部 8 0は、 一体に構成さ れるのが一般的である。 ホス ト部 9 0 は、 例えば、 パーソナルコ ンピュータ装置とハー ドディスクや光ディスクなどの大容量記憶 手段で構成される。
このよ う に構成されるへッ ドマゥン トディスプレイを用意する ことで、 装着者の頭部の動きに連動した映像を表示させるこ とが 可能になり、 いわゆるバーチャルリ ア リ ティ の映像を表示させる こ とが可能になる。
ところが、 従来のヘッ ドマウン トディスプレイは、 頭部の動き を検出するセンサ部と して、 直交する 3軸の加速度を個別に検出 する 3つの加速度センサが必要であり、 構成が複雑である問題点 があった。 特に、 ヘッ ドマウン トディスプレイは、 ユーザの頭部 に装着される機器であるので、 小型, 軽量に構成させるこ とが好 ましく 、 3つのセンサを必要とするこ とは、 好ま しく なかった。 本発明はかかる点に鑑みてなされたものであり、 頭部が向いてい る方向の検出が簡単なセンサ構成でできるよ う にすることを目的 とする。 発明の開示
第 1 の発明は、 頭部の向いた 3次元的な方向を、 頭部の水平面 に直立する直立軸の回り を回転する角であるヨ ウ角と、 前記直立 軸と直交する. 2軸となす角度であるピッチ角及ぴロール角の 3軸 で検出するへッ ド トラッキング方法において、 前記ヨ ウ角をジャ ィ口センサの出力の積分値から判断し、 前記直立軸方向と直交す る平面の傾斜を検出する傾斜センサの出力から、 前記ピッチ角及 ぴ前記ロール角を算出するよ う にしたものである。
このよ う にしたこ と によって、 ジャイ ロセンサと傾斜センサの 2つのセンサの出力だけで、 頭部が向いている 3次元的な方向を 検出でき、 低コス トで簡易にへッ ド トラッキングを行うシステム を実現できるよ う になる。
第 2の発明は、第 1 の発明のへッ ド トラッキング方法において、 ジャイロセンサの出力からヨ ウ角を判断する周期は、 前記傾斜セ ンサの出力からピッチ角及ぴロール角を算出する周期よ り も短い 周期と したものである。
このよ う にしたこ とによって、 ジャイロセンサが出力する動的 な角速度の短周期での判断に基づいて、 ヨ ウ角の判断が正確に行 える と共に、 ピッチ角及びロール角については、 重力である静的 な加速度から算出されるので、ある程度検出周期が長く なつても、 常時正確に検出でき、 良好な演算配分で、 精度良く 3軸の角度を 検出できるよ う になる。
第 3の発明は、第 1 の発明のへッ ド トラッキング方法において、 判断されたピッチ角及びロール角から、 ジャィ口センサの出力か ら判断したョ ゥ角の補正を行う よ う にしたものである。
このよ う にしたこ とによって、 よ り正確なヨ ウ角が判断できる よ うになる。 , 第 4の発明は、 頭部の向いた 3次元的な方向を、 頭部の水平面 に直立する直立軸の回り を回転する角であるヨ ウ角と、 前記直立 軸と直交する 2軸となす角度であるピッチ角及ぴロール角の 3軸 で検出するヘッ ド トラッキング装置において、 前記ヨ ウ角を検出 するためのジャィ 口センサと、 前記直立軸方向と直交する平面の 傾斜を検出する傾斜センサと、 前記ジャイ ロセンサの出力の積分 値からヨ ウ角を判断する と共に、 前記傾斜センサが出力する角速 度から、 前記ピッチ角及び前記ロール角を算出する演算手段とを 備えたものである。
このよ う にしたこ と によって、 ジャィ 口センサと傾斜センサの 2つのセンサを設けるだけで、 頭部が向いている 3次元的な方向 を検出でき、 低コス トで簡易にへッ ド トラッキングを行うシステ ムを実現できるよ う になる。
第 5の発明は、第 4の発明のへッ ド トラッキング装置において、 前記演算手段は、 前記ジャイ ロセンサの出力からヨ ウ角を判断す る周期は、 前記傾斜センサの出力からピッチ角及びロール角を算 出する周期よ り も短い周期と したものである。
このよ う にしたことによって、 ジャイ ロセンサが出力する動的 な角速度の短周期での判断に基づいて、 ヨ ウ角の判断が正確に行 える と共に、 ピッチ角及びロール角については、 重力である静的 な加速度から算出されるので、ある程度検出周期が長く なっても、 常時正確に検出でき、 良好な演算配分で、 精度良く 3軸の角度を 検出できるよ う になる。
第 6 の発明は、第 4 の発明のへッ ド トラッキング装置において、 前記演算手段は、 算出されたピッチ角及びロール角から、 前記ジ ャィ口センサの出力から判断したョ ゥ角の捕正を行う よ う にした ものである。 このよ う にしたこ とによって、 よ り正確なヨ ウ角が 判断できるよ う になる。 図面の簡単な説明
図 1 は、 本発明の一実施の形態によるへッ ドマゥン トデイスプ レイ の装着例を示す斜視図である。
図 2は、 本発明の一実施の形態によるへッ ドマウン トディスプ レイ の形状の一例を示す斜視図である。
図 3は、図 2例のへッ ドマゥン トディ スプレイ の側面図である。 図 4は、 図 2例のへッ ドマウン トディスプレイの映像表示部を 上げた状態の例を示す斜視図である。
図 5は、 本発明の一実施の形態による基準軸を示す説明図であ る。 .
図 6 は、 本発明の一実施の形態によるセンサによる検出状態の 示す説明図である。
図 7は、 本発明の一実施の形態によるシステム構成例を示すブ 口 ック図である。
図 8は、 本発明の一実施の形態によるへッ ド トラッキング処理 例を示すフローチヤ一トである。
図 9は、 本発明の一実施の形態による 2軸センサ処理例を示す フローチャー トである。
図 1 0 は、 本発明の一実施の形態によるジャイロセンサ処理例 を示すフローチヤ一トである。
図 1 1 は、 従来のヘッ ドマウン トディ スプレイ のシステム構成 例を示すブロ ック図である。 発明を実施するための最良の形態
以下、 図 1 〜図 1 0を参照して、 本発明の一実施の形態につい て説明する。 図 1 は、 本例のへッ ドマウン トディスプレイの装着例を示す図 である。 本例のヘッ ドマウン トディスプレイ 1 0 0は、 ユーザの 頭部 hの左右の耳介の上に装着されるへッ ドホンの如き形状と し てあり、 そのへッ ドホンの如き形状と した上で映像表示部を取付 けてある。 図 1 は、 映像表示部 1 1 0 を、 ユーザの目の前に位置 させて、 映像と音声を視聴する状態を示してある。 このヘッ ドマ ゥン トディスプレイ 1 0 0は、 図示しない映像信号源とケーブル 1 4 8で接続させてあり、 その映像信号源から供給される映像を 映像表示部 1 1 0で表示させる と共に、 左右の耳介に装着された ドライバュ-ッ トから、 供給される音声を出力させる。 本例の場 合には、 ヘッ ドマウン トディスプレイ 1 0 0内に、 装着者が向い た方向を検出するセンサを内蔵させてあり、 そのセンサの出力に 基づいて検出された装着者が向いた方向に対応した映像を、 映像 信号源からへッ ドマウン トディスプレイ 1 0 0に供給して表示さ せるよ う にしてある。音声についても、ステレオ音声信号と して、 そのとき向いた方向に対応した位相の音声を出力させるよ う にし ても良い。
図 2は、 へッ ドマウン トディスプレイ 1 0 0の形状の例を示し た図である。 本例のヘッ ドマウン トディスプレイ 1 0 0は、 左 ド ライバユニッ ト 1 4 0 と右 ドライバユニッ ト 1 5 0を、 バン ド 1 3 0で接続させた上で、 左右の ドライバュニッ ト 1 4 0, 1 5 0 で支持された状態で、 横長形状の映像表示部 1 1 0を取付けるよ う にしてある。 バン ド 1 3 0は、 弾力性を有する素材で構成させ てあり、 左 ドライ ノ ユニッ ト 1 4 0 と右 ドライ ノ ユニッ ト 1 5 0 とが、 比較的弱い力で装着者の耳介側に押しつけられて、 頭部に 保持される構成と してある。 また、 頭部に装着されてない状態で は、 左右の ドライバュ-ッ ト 1 4 0, 1 5 0 どう しの一部が接触 するよ う に近接する状態となっている。 バン ド 1 3 0については、 幅広部 1 3 1 が中央部に形成させて あり 、 装着者の頭部でへッ ドマウン トディスプレイ 1 0 0 を安定 して保持できる構成と してある。 また、 パン ド 1 3 0の一端及ぴ 他端には、 U字金具保持部 1 3 2, 1 3 3が構成させてあり、 各 ドライバユニッ ト 1 4 0, 1 5 0の上端に取付けられた U字金具 1 4 4, 1 5 4の途中を、 U字金具保持部 1 3 2, 1 3 3で保持 させるよ う にしてある。 この U字金具 1 4 4, 1.5 4を、 保持部 1 3 2, 1 3 3で保持する位置を変化させることで、3 装着者の頭 部の大きさに応じた調整ができる。
各ドライバユニッ ト 1 4 0, 1 5 0は、 音声信号の供給で音声 を出力する円形の ドライバ (ス ピーカユニッ ト) が内部に配置さ れた ドライバ配置部 1 4 1, 1 5 1 が中央に設けてあり、 各ドラ ィパ配置部 1 4 1 , 1 5 1 の周囲に、環状のィヤーパッ ド 1 4 2, 1 5 2が取付けてある。 本例の各ドライバ配置部 1 4 1, 1 5 1 と各ィヤーパッ ド 1 4 2, 1 5 2 との間には、 空洞部 1 4 7, 1 5 7が設けてあり、 装着者の耳介に対して若干浮いた状態で、 ド ライバ配置部 1 4 1, 1 5 1 が位置するよ う にしてあり、 いわゆ るフルオープンエア型のへッ ドホンとなるよ う にしてある。
映像表示部 1 1 0については、 装着者の左目の前面に左目用の 映像表示パネル 1 0 0 Lが配置してあり、 装着者の右目の前面に 右目用の映像表示パネル 1 0 0 Rが配置してある。 図 1, 図 2で は、外側から見た図となっているため、映像表示パネル 1 0 0 L, 1 0 O Rは見えない状態となっている。 それぞれの映像表示パネ ル 1 0 0 L, 1 0 0 Rは、 例えば液晶表示パネルが使用される。 図 3 は、 装着状態を真横から見た図であり、 装着者の目の前に左 右の映像表示パネル 1 0 0 L, 1 0 0 Rが位置している状態が判 る。 但し、 液晶表示パネルなどの映像表示手段が、 目に近接した 位置にある とは限らず、 映像表示部 1 1 0の内部に表示パネルが 配置されて、 光学部品を介して装着者の目前に映像が表示される よ う に見える構成と してある場合もある。 また、 パックライ トな どの照明手段が必要な場合にも、 映像表示部 1 1 0 に内蔵させて ある。
左右の液晶表示パネル 1 0 0 L, 1 0 0 Rの間の下部には、 鼻 用切り欠き部 1 0 O nが設けてあり、 図 1 に示したよ うな装着時 に、映像表示部 1 1 0が装着者の鼻に接触しないよ う にしてある。 映像表示部 1 1 0を左右の ドライバュニッ ト 1 4 0, 1 5 0で 支持する機構と しては、 映像表示部 1 1 0の一端及ぴ他端が、 連 結部 1 1 1, 1 1 2を介して、 水平面上で回動できる状態で接続 部材 1 1 3, 1 1 4に接続させてあり、さ らに各接続部材 1 1 3 , 1 1 4の端部が連結部 1 1 5, 1 1 6 を介して、 棒状の接続部材 1 1 7, 1 1 8に水平面上で回動できる状態で取付けてある。 このよ う に左右 2箇所、 合計 4箇所の連結部 1 1 1, 1 1 2, 1 1 5, 1 1 6を有してレヽるために、 上述したよ う に、 ヘッ ドマ ゥン トディスプレイ 1 0 0が非装着の状態で、 左右の ドライバュ ニッ ト 1 4 0, 1 5 0が近接した状態から、 装着時に左右の ドラ ィバュニッ ト 1 4 0, 1 5 0が離れた状態まで、 映像表示部 1 1 0を良好に保持できる構造となっている。
映像表示部 1 1 0に接続された棒状の接続部材 1 1 7, 1 1 8 は、 接続部材 1 2 3, 1 2 4に固定された軸保持部 1 2 1 , 1 2 2の透孔 1 2 1 a , 1 2 2 a を通過させてあり、 その透孔 1 2 1 a , 1 2 2 aからの棒状の接続部材 1 1 7, 1 1 8 の突出長を調 整するこ とで、 映像表示部 1 1 0 と装着者の目 との間の距離を調 整できるよ う にしてある。
また、 接続部材 1 2 3, 1 2 4は、 左右の ドライバュニッ ト 1 4 0, 1 5 0側と連結部 1 4 5, 1 5 5 を介して上下に回動でき る状態に接続させてあり、 この回動によ り、 映像表示部 1 1 0 を 上部に上げることができる構成と してある。 図 4は、 映像表示部 1 1 0 を上部に上げた状態の例を示した図である。 このよ う に映 像表示部 1 1 0を上部に上げたときには、 バン ド 1 3 0 の上に映 像表示部 1 1 0が位置するこ とになる。 なお、 映像表示部 1 1 0 は、 棒状の接続部材 1 1 7 , 1 1 8の後端から外部に露出したコ ー ド 1 4 6 , 1 5 6 を介して左右の ドライバユニッ ト 1 4 0 , 1 5 0内と電気的に接続させてあり、 映像信号源と接続されたコー ド 1 4 8 を介して得られた映像信号が、 映像表示部 1 1 0に供給 されると共に、 映像信号源からの音声信号についても、 コー ド 1 4 6 , 1 5 6 を介して右の ドライバユニッ ト 1 5 0に供給される 構成と してある。 また、 図示しない 2つのセンサが ドライパュニ ッ ト 1 5 0 (或いは映像表示部 1 1 0 ) に内蔵させてあり、 その センサ出力に基づいたコン トロール用のデータが、 コ ー ド 1 4 8 を介して映像信号源側に供給されるよ う にしてある。
また、 図示はしないが、 本例のヘッ ドマウン トディスプレイ 1 0 0の所定位置 (例えば一方の ドライバユニッ ト 1 4 0 ) には、 リセッ トスィ ッチが取付けてあり、 また、 その他のキースィ ッチ やポリ ユーム等の操作手段についても、必要によ り配置してある。
次に、 本例のへッ ドマウン トディスプレイ 1 0 0で、 装着者の 頭部が向いた方向を検出する処理構成の原理を、 図 5及び図 6 を 参照して説明する。 図 5 Aに示すよ う に、 直立した状態の頭部 h を直立する軸を Z軸と し、 その Z軸と直交する 2つの軸である X 軸, Y軸を考えて、 その X軸, Y軸, Z軸で装着者の頭部が向い た方向の 3次元的な座標位置を考える とする。 図 5 Bに示すよ う に、 X軸は頭部の左右方向の軸であり、 Y軸は頭部の前後方向の 軸である。 このとき、 頭部 hの水平的な回動は、 Z軸の回り を回 転する角であるヨ ウ角 (Y a w角) 0 で示され、 頭部 hの前後方 向の傾きは、 Y軸との間でなす角度であるピッチ角 (お辞儀方向 の角度) と して示され、 頭部 hの左右方向の傾きは、 X軸との間 でなす角度であるロール角(かしげ方向の角度)と して示される。 装着者の頭部が向いた 3次元的な方向を正確に検出するために は、 ヨ ウ角 0 とロール角及びピッチ角の検出が必要であり、 従来 はそれぞれの角度の検出を行うために、 それぞれ別の方向を向い た 3つのセンサで角速度を個別に検出するよ う にしていた。 ここ で本例においては、 ヨ ウ角 Θ については、 1つのジャイロセンサ から検出するよ う にしてあり、 ロール角と ピッチ角については、 図 5 Aに示すよ う に、 センサの中心を図の座標系の原点と して、 X軸と Y軸で構成される平面 (X Y平面) に対する X軸方向、 Y 軸方向の傾きを検出する傾斜センサ ( 2軸傾斜センサ) の出力か ら判断するよ う にしてある。 ここでは、 Y軸方向の傾き S 1 を、 X軸回転方向の角度ピッチ角と同等と し、 X軸方向の傾き S 2 を Y軸回転方向の角度ロール角と同等とする。
なお、 傾斜センサは、 静的な加速度である重力を計測するセン サであるため、 ± 9 0 ° の判断手しか検出できないが、 直立状態 における人間の頭部の回転角を力パーできる範囲内であるため、 人間の頭部の回転位置を検出できる。 さ らに、 ピッチ角やロール 角は、 静的な加速度である重力を絶対座標軸と して出力となるの で、 センサによる ドリ フ ト現象は発生しない。 Z軸方向の加速度 S 1 及び S 2 は、 同じ方向の加速度であるので、 図 6 に示すよ う に、 Z軸方向の加速度を検出する 1つの加速度センサ 1 2で、 加 速度 S 1 及ぴ S 2 を検出して、 ロール角と ピッチ角を判断するよ う にしてある。 また、 ヨ ウ角 0 は、 この方向の加速度を検出する ジャイ ロセンサ 1 1 が出力する加速度から判断するよ うにしてあ る。 この 2つのセンサ 1 1, 1 2は、 既に述べたよ う に、 ヘッ ド マウン トディスプレイ 1 0 0のいずれかの位置に配置すれば良い < 次に、本例のへッ ドマウン トディスプレイ 1 0 0の回路構成を、 図 7のブロ ック図を参照して説明する。 図 7では、 ヘッ ドマウン トディスプレイ 1 0 0 にコー ド 1 4 8を介して接続される映像信 号源 2 0 の構成についても示してある。
へッ ドマウン トディスプレイ 1 0 0に取付けられたジャイロセ ンサ 1 1 は、 そのセンサ 1 1が出力する加速度信号をアナログ処 理部 1 3に供給して、 ローパスフィルタによるフィルタ リ ング、 増幅などのアナログ処理を行い、 その後デジタルデータ化し、 中 央制御ユニッ ト 1 4に供給する。 傾斜センサ 1 2は、 ここではパ ルス幅変調信号である P W M信号と して、 加速度信号を出力する センサと してあり、 X軸方向の傾斜状態と、 Y軸回転方向の傾斜 状態とを、 個別に P W M信号と して中央制御ュニッ ト 1 4に供給 する。 この供給された P W M信号に基づいて、 ロール角及びピッ チ角を算出するよ う にしてある。
また、 へッ ドマウン トディスプレイ 1 0 0 に設けられたリセッ トスイ ッチ 1 5 と、 キースィ ッチ 1 6 の操作を、 中央制御ュニッ ト 1 4で検出する構成と してある。 中央制御ュニッ ト 1 4では、 リセッ トスイ ッチ 1 5が操作されたときの位置を基準位置と して ジャイロセンサ 1 1 と加速度センサ 1 2 との出力に基づいて、 そ の基準位置からの装着者の頭部の動きを検出する構成と してある, 頭部の正面が向く方向であるヨ ウ角については、 ジャイロセンサ 1 1 の出力に基づいて算出するよ う にしてある。 但し、 傾斜セン サ 1 2の出力に基づいて算出されたロール角及びピッチ角を使用 して、 ジャイ ロセンサ 1 1 の出力に基づいて算出されたヨ ウ角を 補正するよ う にしても良い。 具体的には、 例えば頭部がいずれか の方向に比較的大き く傾斜した状態でヨ ウ角の動きがあった場合 に、 ジャイロセンサ 1 1 の出力から検出される ヨ ウ角に誤差が生 じる可能性があり、 そのよ うな場合に、 算出されたロール角及び ピッチ角を使用して、 ヨ ウ角を補正しても良い。 中央制御ユニッ ト 1 4で算出された 3軸 (ヨ ウ角、 ロール角、 ピッチ角) の各軸毎の算出角度のデータは、 ヘッ ド トラッキング 角度データ と して、コン トロール用インターフェース部 1 8から、 映像信号源 2 0側に送られる。
映像信号源 2 0は、 例えばある地点の周囲の全周の映像データ と、 その映像データに付随する音声データを蓄積するメ モ リ 2 1 と、 そのメ モ リ 2 1 に蓄積された映像データの中から、 ヘッ ドマ ゥン トディスプレイ 1 0 0で検出されたへッ ド トラッキング角度 データで示される方向の映像データを読出して、 3 D処理部 2 3 に供給する制御を行う 中央制御ュニッ ト 2 2 と、 供給される映像 データを画像表示用の映像データ とする 3 D処理部 2 3 と、 3 D 処理部 2 3で作成された映像データを、 ヘッ ドマウン トディスプ レイ部 1 0 0 に供給するビデオインターフェース部 2 4 と、 へッ ドマウン トディスプレイ 1 0 0で検出されたへッ ド トラッキング 角度データを受信するコ ン ト ロール用イ ンターフェース部 2 5 と で構成される。
そして、 映像信号源 2 0からへッ ドマウン トディスプレイ 1 0 0に供給される映像データは、 へッ ドマウン トディ スプレイ 1 0 0 のビデオイ ンターフェース部 1 7で受信されて、 映像表示部 1 1 0に供給し、 映像表示部 1 1 0内の左右の映像表示パネル 1 0 0 L , 1 0 O Rに表示させる処理を行う。 なお、 映像データが立 体映像表示用の映像データである場合には、 左右の映像表示パネ ル 1 0 0 L, 1 0 0 Rに供給して表示させる映像データが個別の ものになる。 ビデオインターフヱース部 1 7での受信、 及ぴ映像 表示部 1 1 0 での映像表示についても、 中央制御ユニッ ト 1 4 の 制御で実行される。
なお、 図 7 のブロ ック図では、 音声データを処理する構成につ いては省略してある。 音声データについては、 ヘッ ド トラツキン グ処理を行わなく ても良いが、ステレオ音声を出力させる場合に、 その音像が定位する方向を、 ヘッ ド トラッキング角度データで示 される角度に変化させても良い。 映像信号源 2 0については、 例 えば、 パーソナルコンピュータ装置, ビデオゲーム機器, P D A ( Personal Digital Assistants ) , 携帯電話端末などの演算処理 を実行する手段と、 これらの機器が内蔵 (又は取付けられた) ハ ードディスク, 光ディスク, 半導体メモリ などの大容量記憶手段 で構成される。
次に、 本例のへッ ドマウン トディスプレイ 1 0 0でへッ ド トラ ッキング角度データを得るヘッ ド トラッキング処理例を、 図 8〜 図 1 0のフローチャー トを参照して説明する。 まず、 ヘッ ド トラ ッキングのメイン処理を、 図 8のフローチヤ一トを参照して説明 する と、 へッ ドマウン トディスプレイ 1 0 0の電源投入がある と (ステップ S 1 1 )、各種初期化命令の出力による初期化処理が行 われ(ステップ S 1 2 )、その後リセッ ト信号処理が実行される(ス テツプ S 1 3 )。 リセッ ト信号処理では、 リセッ トスイ ッチ 1 5の 操作又は映像信号源 2 0からのリセッ ト信号の要求によ り、 その ときの装着者の姿勢時におけるヘッ ド トラッキングデータを保存 し、 信号されるヘッ ド トラッキングデータがその姿勢で 0 ° とな るよ う にする。 また、 その場合、 例えばヨ ウ角は、 ± 1 8 0 ° を 検出できるので問題ないが、 ピッチ角 とロール角は検出できる範 囲が土 9 0 ° であるため、 その 2軸に関してのリセッ トを受け付 ける姿勢角を、 図 5, 図 6 に示した Z軸と直交する平面付近に限 定する処理が行われる。
次に、 3軸角度検出処理が行われる (ステップ S 1 4 )。 この 3 軸角度検出処理では、 2軸傾斜センサ処理と、 ジャイロセンサ処 理が行われる。 図 9 は、 2軸傾斜センサ処理を示したフローチヤ ー トである。 2軸傾斜センサ処理では、 傾斜センサ 1 2から供給 される P W M信号の X軸のデューティ比及び Y軸のデューティ比 を検出する (ステップ S 2 1 , S 2 2 )。 そして、 各デューティ比 から、 ピッチ角及ぴロール角を算出する (ステップ S 2 3 )。 そ し て、 傾斜センサ 1 2 の加速度検出軸が、 装着者の X軸, Υ軸に対 し、 Χ Υ平面上で、 ヨ ウ角方向にずれがあった場合、 算出したピ ツチ角 と ローノレ角に、 そのずれの補正を行い (ステップ S 2 4 )、 2軸傾斜センサ処理を終了する (ステップ S 2 5 )。
図 1 0 は、ジャィ 口センサ処理を示したフローチヤ一トである。 ジャィ 口センサ処理では、 まずジャィ 口センサからの出力をデジ タル変換したデータを取得する (ステップ S 3 1 )。 次に、 そのゲ イ ンの異なる複数の中央制御ュニッ トでデジタル変換して、 ダイ ナミ ック レンジを大き く するためのゲイ ンレンジング処理を行い (ステップ S 3 2 )、さ らにジャイ ロセンサ 1 1 の D Cオフセッ ト をカ ツ トする処理を行う (ステップ S 3 3 )。 そして、 ノイズ成分 をカ ツ トするためのコアリ ング処理を行い (ステップ S 3 4 )、 角 速度データの積分処理によ り 、ヨ ウ角を算出し(ステップ S 3 5 )、 ジャイ ロセンサ処理を終了する (ステップ S 3 6 )。 なお、 既に説 明 したよ う に、 ステップ S 3 5でヨ ウ角を算出する際には、 2軸 傾斜センサ処理で検出されたピッチ角 と ロール角に基づいて、 算 出されたヨ ウ角を補正するよ う にしても良い。
図 8 のメイ ン処理に戻る と、 このよ う にして算出されたヨ ウ角 と ピッチ角 と ロール角を使用して、 へッ ド トラ ッキング角度を求 め、 そのヘッ ド トラ ッキング角度データを、 映像信号源側に転送 する処理を行い (ステップ S 1 5 )、 ステップ S 1 3 のリ セッ ト信 号処理に戻る。 伹し、 リ セッ ト信号処理でリ セッ トスィ ッチの操 作又はリ セッ ト信号の供給がない場合には、 そのままステップ S 1 4の 3軸角度検出処理に戻る。
なお、 ステップ S 1 4での 3軸角度検出処理では、 2軸傾斜セ ンサ処理と して、 重力である静的な加速度を検出して、 その検出 時の傾斜角度を求めるのに対し、 ジャイ ロセンサ処理では、 動的 な加速度成分を検出して、 積分するこ とでヨ ウ角を求めるのであ るので、 それぞれの処理を行う周期は異なった周期であっても良 い。 ヘッ ド トラッキング角度データを、 映像の切り 出し範囲選定 に利用する場合、 ヘッ ド トラ ッキング検出の遅延時間が重要にな つてく るので、 最大でも映像の更新レー ト以内に、 ヘッ ド トラ ッ キング処理を完了させ、 転送する必要があり、 処理時間配分が最 も効率的となる周期で、 図 9のフローチヤ一トの 2軸傾斜センサ 処理と図 1 0のジャイロセンサ処理を実行することが重要になる, 一例と しては、 1 6 ビッ トで演算を行う汎用のマイク ロプロセッ サを中央制御ュニッ ト と し、 2軸傾斜センサ処理を 1 2 5 H z周 期で行い、 ジャイ ロセンサ処理を 1 . 2 5 K H z周期で行う こ と で、 上述した更新レー トを満たすこ とが可能である。
このよ う に構成されるヘッ ドマウン トディスプレイ 1 0 0によ る と、 装着者の頭部の動きに連動した映像を表示させるこ とが可 能になり、 いわゆるパーチャルリ ア リ ティ の映像を表示させるこ とが可能になる。 また、 音声についても、 ヘッ ド トラ ッキングさ せた音声の出力が可能になる。
そして、 ヘッ ド トラッキング角度を検出するセンサと しては、 ジャイ ロセンサと 2軸傾斜センサを用意するだけで良く 、 2個の センサだけを使用した簡単な構成で、 良好に 3次元的なヘッ ド ト ラッキング角度の検出が可能になる。 ピッチ角と ロール角につい ては、 ± 9 0 ° に検出範囲が制限されるこ とになるが、 通常の人 間の頭部の動きの範囲内の姿勢角を検出する分には十分な範囲で あり、 実用上問題はない。 また、 本例の場合には、 ピッチ角と口 一ル角は傾斜センサを使用して検出するので、 ドリ フ ト現象が発 生するこ とがなく 、 水平方向に安定した映像などでの仮想 3 D空 間が、 簡易で低コス ト に実現できる。 また、 センサの数が少ない ために、 ヘッ ド トラ ッキング角度を算出する演算手段 (中央制御 ユニッ ト) での演算処理負担がそれだけ少なく て済む効果を有す る。 さ らに、 センサが少なく て良いので、 ヘッ ドマウン トデイ ス プレイそのものを小型に構成でき、 ヘッ ドマウン トディスプレイ の装着感を向上させるこ とができる。
なお、 図 1 〜図 4 に示した本例の形状のへッ ドマウン トデイ ス プレイの場合には、 いわゆるフルオープンエア型のへッ ドホンに 映像表示部を取付けて、 へッ ドマゥン トディスプレイ と して機能 する形状と してあるので、 従来からあるフルオープンエア型のへ ッ ドホンとほぼ同様の装着感で、 へッ ドマ ウン トディ スプレイ を 装着するこ とができ、 ヘッ ドマウン トディ スプレイ と して良好な ものになる。 また、 図 4 に示したよ う に、 映像表示部 1 1 0 をは ね上げた場合には、 ヘッ ドホンと しても使用可能であ り 、 装置の 汎用性が高い。
なお、 この図 1 〜図 4 に示したへッ ドマウン トディ スプレイの 外形形状については一例を示したものであ り、 その他の形状のへ ッ ドマウン トディスプレイに、 本発明を適用する こ とができる こ とは勿論である。 また、 ステ レオ音声の音像定位位置を、 ヘッ ド トラ ッキングで行うヘッ ドホン装置 (即ち映像表示機能のない装 置) に、 本発明のヘッ ド トラ ッキング処理を適用 しても良い。
さ らに、 上述した実施の形態では、 ヘッ ドマウン トディ スプレ ィにリ セッ トスィ ッチを設けて、 そのリ セッ トスイ ッチの操作さ れた位置を、 基準位置と して、 その位置からの動きを検出するよ う にしたが、 何らかの方法 (例えば地磁気センサなど) で絶対的 な方位を検出する よ う にして、 リ セッ トスィ ッチを設ける こ と な く 、 絶対的な角度によるへッ ド トラ ッキング処理を行う よ う にし ても良い。

Claims

請 求 の 範 囲
1 . 頭部の向いた 3次元的な方向を、 頭部の水平面に直立する直 立軸の回り を回転する角であるヨ ウ角と、 前記直立軸と直交する 2軸となす角度であるピッチ角及びロール角の 3軸で検出するへ ッ ド トラッキング方法において、
前記ヨ ウ角をジャィ口センサの出力の積分値から判断し、 前記直立軸方向と直交する平面の傾斜を検出する傾斜センサの 出力から、 前記ピッチ角及び前記ロール角を算出する
ヘッ ド トラッキング方法。
2 . 請求の範囲第 1項記載のヘッ ド トラッキング方法において、 ジャイロセンサの出力からヨ ウ角を判断する周期は、 前記傾斜 センサの出力からピッチ角及びロール角を算出する周期よ り も短 い周期と した
ヘッ ド トラッキング方法。
3 . 請求の範囲第 1項記載のヘッ ド トラッキング方法において、 判断されたピッチ角及ぴロール角から、 ジャィ 口センサの出力 から判断したヨ ウ角の補正を行う
ヘッ ド トラッキング方法。
4 . 頭部の向いた 3次元的な方向を、 頭部の水平面に直立する直 立軸の回り を回転する角であるヨ ウ角と、 前記直立軸と直交する 2軸となす角度であるピッチ角及びロール角の 3軸で検出するへ ッ ド トラッキング装置において、
前記ョ ゥ角を検出するためのジャイロセンサと、
前記直立軸方向と直交する平面の傾斜を検出する傾斜センサと 前記ジャイ ロセンサの出力の積分値からヨ ウ角を判断する と共 に、 前記傾斜センサが出力する角速度から、 前記ピッチ角及び前 記ロール角を算出する演算手段とを備えた
ヘッ ド トラッキング装置。
5 . 請求の範囲第 4項記載のへッ ド トラッキング装置において、 前記演算手段は、 前記ジャイ ロセンサの出力からヨ ウ角を判断 する周期は、 前記傾斜センサの出力からピッチ角及ぴロール角を 算出する周期よ り も短い周期と した
ヘッ ド トラッキング装置。
6 . 請求の範囲第 4項記載のヘッ ド トラッキング装置において、 前記演算手段は、 算出されたピッチ角及びロール角から、 前記 ジャイロセンサの出力から判断したヨ ウ角の補正を行う
へッ ド トラッキング装置。
PCT/JP2003/010776 2002-08-28 2003-08-26 ヘッドトラッキング方法及び装置 WO2004020946A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/525,925 US20050256675A1 (en) 2002-08-28 2003-08-26 Method and device for head tracking
EP03791296A EP1541966A4 (en) 2002-08-28 2003-08-26 METHOD AND DEVICE FOR MONITORING THE POSITION OF THE HEAD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-249443 2002-08-28
JP2002249443A JP2004085476A (ja) 2002-08-28 2002-08-28 ヘッドトラッキング方法及び装置

Publications (1)

Publication Number Publication Date
WO2004020946A1 true WO2004020946A1 (ja) 2004-03-11

Family

ID=31972580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/010776 WO2004020946A1 (ja) 2002-08-28 2003-08-26 ヘッドトラッキング方法及び装置

Country Status (5)

Country Link
US (1) US20050256675A1 (ja)
EP (1) EP1541966A4 (ja)
JP (1) JP2004085476A (ja)
KR (1) KR20050059110A (ja)
WO (1) WO2004020946A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736353A (zh) * 2020-08-25 2020-10-02 歌尔光学科技有限公司 一种头戴式设备

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
CN1774206A (zh) * 2003-04-11 2006-05-17 松下电器产业株式会社 加速度传感器轴信息校正装置、及其校正方法
US7672781B2 (en) * 2005-06-04 2010-03-02 Microstrain, Inc. Miniaturized wireless inertial sensing system
DE102005033957B4 (de) * 2005-07-20 2008-08-28 Siemens Ag Vorrichtung und Verfahren zur kabellosen Bedienung eines insbesondere medizinischen Geräts
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
JP4530419B2 (ja) 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
JP4810295B2 (ja) * 2006-05-02 2011-11-09 キヤノン株式会社 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
WO2008001635A1 (fr) 2006-06-27 2008-01-03 Nikon Corporation Dispositif d'affichage de vidéo
JP5228305B2 (ja) 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US7463953B1 (en) 2007-06-22 2008-12-09 Volkswagen Ag Method for determining a tilt angle of a vehicle
DE102007030972B3 (de) 2007-07-04 2009-01-29 Siemens Ag MR-kompatibles Videosystem
EP2012170B1 (en) 2007-07-06 2017-02-15 Harman Becker Automotive Systems GmbH Head-tracking system and operating method thereof
US20090119821A1 (en) * 2007-11-14 2009-05-14 Jeffery Neil Stillwell Belt with ball mark repair tool
KR100947046B1 (ko) * 2007-11-19 2010-03-10 황진상 운동체 자세 추적 장치, 운동체 자세 추적 방법, 이를이용한 칫솔 자세 추적 장치 및 칫솔 자세 추적 방법
EP2327003B1 (en) 2008-09-17 2017-03-29 Nokia Technologies Oy User interface for augmented reality
US10015620B2 (en) * 2009-02-13 2018-07-03 Koninklijke Philips N.V. Head tracking
JP2011019035A (ja) * 2009-07-08 2011-01-27 Ricoh Co Ltd 情報装置、該装置を搭載した撮像装置および角度補正方法
US9491560B2 (en) 2010-07-20 2016-11-08 Analog Devices, Inc. System and method for improving headphone spatial impression
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US9529426B2 (en) 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
WO2014069090A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
CN103018907A (zh) * 2012-12-19 2013-04-03 虢登科 显示方法及头戴显示器
JP2014215053A (ja) * 2013-04-22 2014-11-17 富士通株式会社 方位検知装置、方法及びプログラム
GB201310359D0 (en) 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
USD741474S1 (en) * 2013-08-22 2015-10-20 Fresca Medical, Inc. Sleep apnea device accessory
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
KR20150041453A (ko) * 2013-10-08 2015-04-16 엘지전자 주식회사 안경형 영상표시장치 및 그것의 제어방법
KR101665027B1 (ko) * 2014-03-05 2016-10-11 (주)스코넥엔터테인먼트 헤드 마운트 디스플레이용 헤드 트래킹 바 시스템
JP6340301B2 (ja) 2014-10-22 2018-06-06 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP6540004B2 (ja) * 2014-12-08 2019-07-10 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
WO2016155019A1 (zh) * 2015-04-03 2016-10-06 深圳市柔宇科技有限公司 头戴式电子装置
US10225641B2 (en) * 2015-04-30 2019-03-05 Shenzhen Royole Technologies Co., Ltd. Wearable electronic device
WO2016172988A1 (zh) * 2015-04-30 2016-11-03 深圳市柔宇科技有限公司 穿戴式电子装置
CN106031194A (zh) * 2015-04-30 2016-10-12 深圳市柔宇科技有限公司 穿戴式电子装置
SG10201912070VA (en) 2015-05-13 2020-02-27 Kolibree Toothbrush system with magnetometer for dental hygiene monitoring
CN107407809B (zh) * 2016-01-26 2020-04-14 深圳市柔宇科技有限公司 头戴式设备、耳机装置及头戴式设备分离控制方法
US20180061103A1 (en) * 2016-08-29 2018-03-01 Analogix Semiconductor, Inc. Systems and Methods for Generating Display Views Tracking User Head Movement for Head-Mounted Display Devices
KR102614087B1 (ko) * 2016-10-24 2023-12-15 엘지전자 주식회사 Hmd 디바이스
JP2019054360A (ja) 2017-09-14 2019-04-04 セイコーエプソン株式会社 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法
JP2019114884A (ja) 2017-12-22 2019-07-11 セイコーエプソン株式会社 検出装置、表示装置、検出方法
JP2018160249A (ja) * 2018-05-14 2018-10-11 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0889011A (ja) * 1994-09-28 1996-04-09 Mitsubishi Agricult Mach Co Ltd 移動農機の傾斜検出装置
JPH09222921A (ja) * 1996-02-14 1997-08-26 Mitsubishi Heavy Ind Ltd 無人車輛の走行制御装置
JP2000020017A (ja) * 1998-07-02 2000-01-21 Canon Inc 分離型表示装置
US6201883B1 (en) * 1998-01-22 2001-03-13 Komatsu Ltd. Topography measuring device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
US5841409A (en) * 1995-04-18 1998-11-24 Minolta Co., Ltd. Image display apparatus
US5991085A (en) * 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US6369952B1 (en) * 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
JP2002141841A (ja) * 2000-10-31 2002-05-17 Toshiba Corp 頭部装着型情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0889011A (ja) * 1994-09-28 1996-04-09 Mitsubishi Agricult Mach Co Ltd 移動農機の傾斜検出装置
JPH09222921A (ja) * 1996-02-14 1997-08-26 Mitsubishi Heavy Ind Ltd 無人車輛の走行制御装置
US6201883B1 (en) * 1998-01-22 2001-03-13 Komatsu Ltd. Topography measuring device
JP2000020017A (ja) * 1998-07-02 2000-01-21 Canon Inc 分離型表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1541966A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736353A (zh) * 2020-08-25 2020-10-02 歌尔光学科技有限公司 一种头戴式设备

Also Published As

Publication number Publication date
EP1541966A1 (en) 2005-06-15
US20050256675A1 (en) 2005-11-17
KR20050059110A (ko) 2005-06-17
EP1541966A4 (en) 2006-02-01
JP2004085476A (ja) 2004-03-18

Similar Documents

Publication Publication Date Title
WO2004020946A1 (ja) ヘッドトラッキング方法及び装置
US10638213B2 (en) Control method of mobile terminal apparatus
JP5832900B2 (ja) 慣性センサからのユーザ入力を判断するための方法および装置
EP2451187A2 (en) Headset with accelerometers to determine direction and movements of user head and method
JP2004096224A (ja) 電源制御方法及びヘッドマウント装置
US9916004B2 (en) Display device
JP2008067877A (ja) ゲーム装置およびゲームプログラム
JP2010147529A (ja) 情報処理システムおよび情報処理方法
US11589183B2 (en) Inertially stable virtual auditory space for spatial audio applications
US11698258B1 (en) Relative inertial measurement system with visual correction
WO2014147946A1 (ja) 加速度感覚呈示装置、加速度感覚呈示方法および加速度感覚呈示システム
CN107710105A (zh) 操作输入装置和操作输入方法
JP5428261B2 (ja) 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
CN107209205B (zh) 重心移动力设备
CN108393882B (zh) 机器人姿态控制方法及机器人
JP5937137B2 (ja) 地磁気検出装置
KR20170105334A (ko) 카메라 모듈
CN108844529A (zh) 确定姿态的方法、装置及智能设备
WO2020062163A1 (zh) 云台的控制方法及手持云台、手持设备
CN114764241A (zh) 运动状态的控制方法、装置、设备及可读存储介质
JP2004046006A (ja) 3次元情報表示装置
US10560777B1 (en) Bone conduction designs in wearable electronic devices
JP3940896B2 (ja) 回転検出装置、コントローラ装置、ヘッドホン装置および信号処理システム
CN115480561A (zh) 运动状态的控制方法、装置、轮腿式机器人及存储介质
JP2013012010A (ja) ポインタ表示装置、ポインタ表示方法、及びポインタ表示プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10525925

Country of ref document: US

Ref document number: 1020057003247

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2003791296

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003791296

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057003247

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 2003791296

Country of ref document: EP