WO2012172719A1 - ヘッドマウントディスプレイおよびその位置ずれ調整方法 - Google Patents

ヘッドマウントディスプレイおよびその位置ずれ調整方法 Download PDF

Info

Publication number
WO2012172719A1
WO2012172719A1 PCT/JP2012/002499 JP2012002499W WO2012172719A1 WO 2012172719 A1 WO2012172719 A1 WO 2012172719A1 JP 2012002499 W JP2012002499 W JP 2012002499W WO 2012172719 A1 WO2012172719 A1 WO 2012172719A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
display
viewer
head
Prior art date
Application number
PCT/JP2012/002499
Other languages
English (en)
French (fr)
Inventor
加藤 弓子
小澤 順
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201280006773XA priority Critical patent/CN103380625A/zh
Priority to JP2013520409A priority patent/JP5414946B2/ja
Publication of WO2012172719A1 publication Critical patent/WO2012172719A1/ja
Priority to US13/867,164 priority patent/US9191658B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a head-mounted display, and more particularly to a technology for displaying a three-dimensional image on the head-mounted display and a technology for adjusting the positional deviation thereof.
  • Head-mounted image display devices that is, head-mounted displays (hereinafter also referred to as “HMD”), are used in hazardous areas that cannot be directly operated by humans or in remote areas. Therefore, it has been used as a display of a remote operation system and also as a display of an immersive game.
  • HMD head-mounted display
  • a goggle type that covers the periphery of the eye and is fixed to the head has been proposed, but due to the small size and weight of the device, a lighter eyeglass type for viewing portable video content Proposed.
  • 3D images are spreading not only as movies but also as 3D televisions for home use and computer displays as television content and game images.
  • the three-dimensional video is a video that makes the viewer have an illusion of depth by creating a parallax between an image presented to the right eye and an image presented to the left eye.
  • the HMD keeps the display close to the viewer's eyes, and it is easy to present different images on the left and right eyes. Therefore, it is suitable for viewing 3D video.
  • HMDs have also been reduced in size and weight, and proposals for easy glasses instead of large goggles are increasing.
  • goggles that perform immersive viewing that completely hides the surrounding real environment
  • see-through lenses and eyeglass-type HMDs that use a smaller lens diameter allow viewers not only to view images on the HMD display, You will also see the environment.
  • This type is suitable for viewing portable video content. It is expected to be used while traveling by vehicle or walking.
  • a lightweight eyeglass-type HMD is used in such a state where the head moves or vibrates, the positional relationship between the HMD and the head may be shifted.
  • Patent Document 2 corrects the deviation in the horizontal direction and the vertical direction in accordance with the visual field of the viewer.
  • Patent Document 3 there is a technique for obtaining a position of an eyeball from an image of an iris or a pupil and correcting a shift between the horizontal direction and the vertical direction.
  • Patent Document 2 and Patent Document 3 have problems that when the HMD is worn in a state of being deviated from the head, stereoscopic vision abnormalities, fatigue during viewing, or motion sickness are caused. Yes.
  • An object of the present invention is to provide a head mounted display or the like in which the above is suppressed.
  • one form of a head-mounted display is a display that displays a three-dimensional image, a position acquisition unit that measures the position of the eyes or eyes of the viewer relative to the display, and the position A standard position storage unit that acquires and stores the position of the eye or the head of the eye measured by the position acquisition unit as the standard position in calibration for determining a standard position related to, and a new measurement by the position acquisition unit Misalignment detection that detects a difference between the position of the eye or the head of the viewer with respect to the display and the standard position of the viewer stored in the standard position storage unit as misalignment And the detected positional deviation when the positional deviation is detected by the positional deviation detection unit.
  • a position acquisition unit that measures the position of the eyes or eyes of the viewer relative to the display
  • the position A standard position storage unit that acquires and stores the position of the eye or the head of the eye measured by the position acquisition unit as the standard position in calibration for determining a standard position related to, and a new measurement by the position acquisition unit
  • the present invention can be realized not only as a head-mounted display having such a configuration, but also by adjusting a positional deviation of a three-dimensional image displayed on the head-mounted display including a processing unit included in the head-mounted display as a step (or Compensation method), a program for causing the computer to execute the adjustment method, or a computer-readable non-transitory recording medium such as a CD-ROM in which the program is recorded. .
  • head mounted display (HMD) of the present invention it is possible to comfortably view 3D images without being affected by the displacement of the HMD mounting position.
  • the present invention provides a head-mounted display that suppresses the viewer from causing stereoscopic abnormalities, viewing fatigue, or video sickness even when worn with the head off.
  • the practical value of the present invention in the present day when three-dimensional images have become widespread is extremely high.
  • FIG. 1 is a schematic diagram for explaining the displacement of the mounting position of the head mounted display and how the 3D image is seen.
  • FIG. 2 is a diagram schematically showing the direction in which the viewer's eyes move with respect to the vertical displacement of the head that occurs when the viewer tilts his / her head.
  • FIG. 3 is a diagram in which the viewpoints of the left and right eyeballs are recorded by the line-of-sight detection device when a stereoscopic image displayed by rotating it 10 degrees to the right is viewed upright.
  • FIG. 4 is a schematic diagram of the visual line detection device in FIG. 3 and a diagram illustrating an example of an eye image used for visual line detection.
  • FIG. 3 is a schematic diagram for explaining the displacement of the mounting position of the head mounted display and how the 3D image is seen.
  • FIG. 2 is a diagram schematically showing the direction in which the viewer's eyes move with respect to the vertical displacement of the head that occurs when the viewer tilts his / her head.
  • FIG. 3 is a diagram in
  • FIG. 5 is a block diagram showing an example of the overall configuration of the head mounted display according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram illustrating the positions of the eyes, eyes, and pupils.
  • FIG. 7 is a block diagram illustrating an example of a detailed configuration of an image processing unit included in the head mounted display.
  • FIG. 8 is a block diagram showing a hardware configuration used when the processing unit of the head mounted display according to the first embodiment is realized by software.
  • FIG. 9 is a flowchart showing an example of the operation of the head mounted display according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart showing an example of a detailed processing flow of the calibration step (S120) in FIG.
  • FIG. 11 is a diagram illustrating an example of information on a model of an eye shape.
  • FIG. 12 is a diagram illustrating the imaging ranges of the left and right cameras.
  • FIG. 13 is a diagram illustrating an example of data stored in the standard position storage unit.
  • FIG. 14 is a flowchart showing an example of a detailed processing flow of the positional deviation calculation step (S150) in FIG.
  • FIG. 15 is a flowchart showing an example of a detailed processing flow of the correction processing step (S170) in FIG.
  • FIG. 16 is a schematic diagram illustrating a sensing state of the mounting position shift of the head-mounted display according to Embodiment 1 of the present invention, and a diagram for explaining an example of a method for calculating the mounting position shift on a coordinate plane. .
  • FIG. 17 is a diagram illustrating an example of data stored in the standard position storage unit.
  • FIG. 18 is a flowchart showing an example of a detailed processing flow of fine adjustment (S220) in the first embodiment of the present invention.
  • FIG. 19 is a diagram illustrating an example of the peripheral area of the eye standard position.
  • FIG. 20 is a flowchart showing an example of another detailed processing flow of the correction processing step (S170) in FIG.
  • FIG. 21 is a flowchart showing another example of detailed processing flow of the correction processing step (S170) in FIG.
  • FIG. 22 is a diagram illustrating an example of a hardware configuration of the head mounted display according to the second embodiment of the present invention.
  • FIG. 23 is a diagram showing various examples of the mounting state of the head mounted display.
  • FIG. 24 is a diagram for explaining a method of calculating an inclined angle in the head mounted display according to the second embodiment of the present invention.
  • FIG. 1 is a diagram showing a relationship between left and right eyes and an image when viewing a 3D image by HMD.
  • the left column (“normal”) shows the case where the position of the HMD and the head is normal, and the right column (“when the wearing position is shifted”) shows an example (“ The relationship between the position of the display and the eyes ”,“ how to see ”).
  • the right side of the HMD is lowered with respect to the position of the right eye, and the left side is raised with respect to the position of the left eye.
  • the 3D image creates a horizontal parallax between the image presented to the right eye and the image presented to the left eye, and this parallax needs to be parallel to a straight line connecting both eyes.
  • the inventors of the present application are a head-mounted display that prevents the viewer from causing stereoscopic abnormalities, fatigue during viewing, or video sickness even when worn in a state shifted from the head. Devised.
  • one form of the head-mounted display determines a standard position related to the position, a display that displays a three-dimensional image, a position acquisition unit that measures the position of the eyes or eyes of the viewer with respect to the display.
  • a standard position storage unit that acquires and stores the position of the eye head or the heading measured by the position acquisition unit as the standard position in the calibration for the purpose, and during the content viewing that is newly measured by the position acquisition unit
  • a misalignment detection unit that detects a difference between the position of the eye or the head of the viewer relative to the display and the standard position of the viewer stored in the standard position storage unit as a misalignment; and the misalignment
  • the disc is changed according to the detected misalignment.
  • an image processing unit for image processing of the 3D image.
  • the relative position between the eye or the eyelid that does not move and the display corrects the shift of the relative position between the eye and the display regardless of the line of sight. Even in the case of deviation, it is possible to prevent stereoscopic abnormalities, fatigue, and video sickness due to deviation of the relative position between the eyes and the display.
  • the position acquisition unit includes a sensor that measures a relative position between the viewer's pupil and the display, and the head-mounted display further includes the three-dimensional image displayed on the display measured by the sensor.
  • a calibration unit is provided that determines the standard position based on the relative position in a state where no is displayed, and stores the determined standard position in the standard position storage unit.
  • the image processing unit may perform a process of rotating the left-eye image and the right-eye image constituting the 3D video, and a process of moving the image in the horizontal direction and the vertical direction, respectively. This compensates for the deviation of the relative position between the eyes and the display, eliminates the difference in the vertical axis direction of both eyes, and displays an image having binocular parallax at the time of video creation on the horizontal axis of both eyes. it can. Therefore, even if the mounting position of the head mounted display is shifted, the viewer can comfortably continue viewing the 3D video.
  • the image processing unit may further perform image processing for displaying either one of the left-eye image and the right-eye image constituting the three-dimensional image on the display as an image for both the left and right eyes. Good. As a result, when the relative position between the eyes and the display is deviated, the 3D image is switched to the 2D image and displayed. Can be prevented.
  • the position acquisition unit measures the position for each of the viewer's left eye and right eye
  • the standard position storage unit stores the standard position for each of the viewer's left eye and right eye
  • the position The shift detection unit detects the positional shift for each of the viewer's left eye and right eye
  • the image processing unit detects the position for each of the viewer's left eye and right eye detected by the positional shift detection unit.
  • the image processing may be performed on an image for an eye having a smaller shift amount.
  • the image processing unit may determine which of the left-eye image and the right-eye image that constitutes the 3D image when the amount of displacement detected by the displacement detection unit exceeds a predetermined value.
  • the image processing is performed so that one of the images for both the left and right eyes is displayed on the display, and the amount of displacement detected by the displacement detector does not exceed a predetermined value, the left eye And a process of rotating the right-eye image and a process of moving in the horizontal and vertical directions.
  • the displacement of the mounting position of the head-mounted display is large, switching from the three-dimensional image to the two-dimensional image is performed.
  • image processing is performed to compensate for the displacement. Can occur, the 3D video can be enjoyed except when the displacement is too large, and the video can be safely viewed by switching to the 2D image when the mounting displacement is too large.
  • the image processing unit decomposes the positional deviation detected by the positional deviation detection unit into rotation and movement in the horizontal direction and the vertical direction, and the rotation angle exceeds a predetermined value.
  • Performs image processing for displaying either the left-eye image or the right-eye image on the display as an image for both the left and right eyes, and the rotation angle does not exceed a predetermined value May perform a process of rotating the image for the left eye and the image for the right eye, respectively, and a process of moving in the horizontal direction and the vertical direction.
  • the displacement detection unit detects the displacement caused by rotation of the head-mounted display with the viewer's nose as a fulcrum as the displacement, and the rotation of the head-mounted display that moves down to the right
  • the rotation is about a point on the right convex surface of the viewer's nose
  • the rotation that the left side of the head mounted display goes down is a rotation about a point on the left convex surface of the viewer's nose
  • a deviation may be detected.
  • the position shift is detected assuming that the position of the HMD shifts around a fulcrum whose position relationship is known in advance, the position shift of the HMD is detected with a smaller amount of image features.
  • the position acquisition unit includes a camera that images the eye
  • the position shift detection unit detects the position shift from a fulcrum that is a part of the convex surface of the viewer's nose to the position of the camera.
  • the positional deviation may be detected by calculating the rotation amount of the head mounted display using the relative position. Thereby, as the positional deviation, the amount of rotation of the HMD is calculated using the relative position from the fulcrum that is a part of the convex surface of the viewer's nose to the position of the camera. ) Is detected.
  • the position shift detection unit may detect the position shift using the position of the eye or the head close to the center of the image captured by the camera as the standard position.
  • the standard position is determined by using the standard position of the eye or the eye that is close to the center of the image captured by the camera, so that the positional deviation of the HMD is detected with higher accuracy.
  • the inventors of the present application have confirmed through experiments that the viewer moves up and down in the opposite direction, which is not possible as an eye movement in real space, when the viewer tilts his / her head to perform stereoscopic viewing.
  • the viewer's eyes move in a direction to correct the vertical shift caused by the tilt. That is, the eye located below moves upward due to the inclination, and the eye located above moves downward.
  • FIG. 2 is a diagram schematically showing the direction in which the viewer's eyes move with respect to the vertical displacement of the head that occurs when the viewer tilts his / her head.
  • FIG. 3 is a diagram in which the viewpoints of the left and right eyeballs are recorded by the gaze detection device when a stereoscopic image displayed by rotating it 10 degrees to the right is viewed upright.
  • FIG. 4 is a schematic diagram of the line-of-sight detection apparatus and an example of an eye image used for line-of-sight detection.
  • the line-of-sight detection device irradiates near-infrared rays toward the eyeball, obtains the reflected light on the corneal surface and the pupil center position by image processing, and uses the relationship between these relative positions.
  • This is a device for detecting the line of sight.
  • the line-of-sight position changes, the position of the reflected light does not change, but the pupil center position changes. Using this change in the relative positional relationship between the two, the left and right gazes were independently detected in this experiment.
  • FIG. 3 is a graph showing the movement of the line of sight in the horizontal direction when the line connecting the viewer's eyes and the horizontal axis of the stereoscopic image, that is, the direction of parallax, coincides with each other (FIG. 3 ( a)), a graph showing the movement of the line of sight in the vertical direction ((b) of FIG. 3), and a line connecting the viewer's eyes and a stereoscopic image by rotating the image 10 degrees clockwise when viewed from the viewer
  • a graph showing the movement of the line of sight in the horizontal direction (FIG. 3C) and a graph showing the movement of the line of sight in the vertical direction (FIG. 3D) are shown. ing.
  • 3 is the relative movement amount of the line of sight converted to the position on the display, and is the movement amount with the display size of the display shown in FIG. That is, the amount of movement in the horizontal direction is represented by a ratio with the horizontal width of the display being 1, and the amount of movement in the vertical direction is represented by a ratio with the height of the display being 1.
  • the average of the line-of-sight positions when viewing a dark screen where nothing is output (no target) is set to zero.
  • FIG. 3A and FIG. 3C the movement in the left direction is shown as a negative value, and the movement in the right direction is shown as a positive value.
  • FIG. 3B and FIG. 3D the upward movement is shown as a negative value, and the downward movement is shown as a positive value.
  • the horizontal axis represents time, and the unit is seconds.
  • the line of sight of the left eye measured about every 17 ms is indicated by ⁇
  • the line of sight of the right eye is indicated by x.
  • the right eye looks to the right (negative side) and the left eye looks to the left (positive side) with respect to the target behind the display, and the right eye to the left with respect to the target in front of the display. (Negative side) and left eye looking right (positive side).
  • FIG. 3B while the target is presented, the vertical position of both eyes is constant regardless of the depth.
  • the horizontal line of sight shown in FIG. 3C is compared to the case where there is no inclination in FIG. The amount of movement is decreasing.
  • the right eye looks slightly down (positive side) and the left eye looks up (negative side) behind the display, and the right eye looks up above the display.
  • the left eye is looking down.
  • the line of sight of the left eye looks at the same position as the right eye. This coincides with the fact that the left and right images could not be fused under the condition of 70 cm in front of the display (viewer introspection report).
  • the horizontal axis of the screen and the line connecting the viewer's eyes are not parallel, such as when the display position is shifted, the eyes upside down that do not occur when viewing real space or a planar image It has been shown that movement occurs. Thereby, it was shown that the viewer's load of viewing a stereoscopic image with the HMD wearing position shifted is very high.
  • FIG. 5 is a configuration diagram of the head mounted display 1 according to the present embodiment.
  • the head mounted display 1 is an HMD in which the viewer is prevented from causing stereoscopic abnormalities, viewing fatigue, or video sickness even when worn off the head.
  • the input unit 110 that receives the operation instruction, the position acquisition unit 100 that acquires the position of the viewer's eyes and eyes, and the standard position of the eyes and eyes from the positions of the eyes and eyes detected by the position acquisition unit 100
  • Eye position calibration unit 40 standard position storage unit 50 that stores the pupil and standard position of the eye calculated by the eye position calibration unit 40, and pupil and standard position of the eye stored in the standard position storage unit 50
  • a position deviation detection unit 60 for detecting a deviation from the eye position detected by the eye detection unit 30 from an image newly picked up by the camera 10, and storing an image or image information
  • images to be displayed on the right-eye and left-eye displays of the HMD from the image storage / reception unit 120
  • An image processing unit 70 that rotates and moves the acquired image
  • FIG. 6 shows the positions of the eyes, eyes, and pupils.
  • the position of the eye is the point of the junction where the upper and lower eyelids are connected, and the pupil is the center of the black eye in the eyeball.
  • the input unit 110 is an input device such as a switch or a dial that receives an operation instruction from the viewer, and receives an instruction to start / end the operation of the head mounted display 1 from the viewer.
  • the position acquisition unit 100 is a processing unit that measures the position of the eye or eyelid with respect to the display 80 of the viewer, the camera 10 that images the eye and eyeball, and a pupil detection unit that detects the pupil from the image captured by the camera 10. 20 and an eye-head detecting unit 30 that detects the eye-head from an image captured by the camera 10.
  • the camera 10 is an example of a sensor (an imaging device such as a digital camera) that measures the relative position between the viewer's pupil and the display 80.
  • the camera 10 is based on the operation of the viewer using the input unit 110 such as a switch or a dial. Imaging is repeated at regular time intervals, for example, every 10 ms, with the timing of control signal input such as reception of a control signal, display start, display end, display switching, etc. as time 0.
  • the camera 10 may be one that picks up an image with visible light, or may be one that picks up an image with infrared rays with an infrared light emitting unit.
  • the eyeball position calibration unit 40 is configured to display the relative position between the viewer's pupil acquired by the position acquisition unit 100 and the display in a state in which a 3D image is not displayed on the display 80 (that is, a state in which there is nothing to be viewed by the viewer).
  • This is a processing unit that determines the standard position of the viewer's eyes or eyes based on the position, and stores the determined standard position in the standard position storage unit 50.
  • the position of the eye and pupil detected by the position acquisition unit 100 is stored.
  • the standard position of the pupil and the eye is calculated from the position.
  • the “standard position” means the position of at least one of the viewer's eyes and eyes with respect to the head mounted display 1 (or the display 80) when the viewer wears the head mounted display 1 without displacement.
  • the position is at least one position of the viewer's eyes and eyes in the calibration performed with the viewer wearing the head mounted display 1.
  • the standard position storage unit 50 is a hard disk or the like that acquires and stores the position of the viewer's eyes or eyes measured by the position acquisition unit 100 in the calibration by the eye position calibration unit 40 as a standard position. The standard position calculated by the eyeball position calibration unit 40 is held.
  • the misalignment detection unit 60 calculates the difference between the position of the eye or eye on the display 80 of the viewer who is viewing the content newly measured by the position acquisition unit 100 and the standard position of the viewer stored in the position storage unit. It is a processing unit that detects the displacement.
  • the image storage / reception unit 120 is a communication interface that receives a 3D image from the outside via a memory such as a hard disk in which a 3D image to be presented to a viewer is stored in advance, or a wireless communication path.
  • the image processing unit 70 is transmitted from the three-dimensional video (that is, sent from the image storage / reception unit 120) displayed on the display 80 in accordance with the detected positional deviation.
  • a processing unit that performs image processing on the 3D video so that the incoming 3D video) rotates or translates, and receives an input from the image storage / reception unit 120 that stores images or receives image information. The received image is processed.
  • the image processing unit 70 performs a process of rotating the left-eye image and the right-eye image constituting the 3D video presented to the viewer, and a process of moving the image in the horizontal and vertical directions, For example, image processing (two-dimensional processing) is performed so that one of the left-eye image and the right-eye image is displayed on the display 80 as an image for both the left and right eyes. That is, the image processing unit 70 uses the left eye and the right eye that constitute a 3D video to be presented to the viewer when the amount of positional deviation detected by the positional deviation detection unit 60 exceeds a predetermined value.
  • Image processing is performed to display either one of the images on the display 80 as an image for both the left and right eyes, while the amount of misalignment detected by the misalignment detection unit 60 exceeds a predetermined value. If not, a process of rotating the left-eye image and the right-eye image and a process of moving in the horizontal and vertical directions are performed.
  • the display 80 is an LCD or the like for displaying a three-dimensional image, and receives a control signal based on the operation of the viewer by the input unit 110 such as a switch or a dial, and performs display start, display end, display switching, and the like.
  • the components (eyeball position calibration unit 40, input unit 110, image storage / reception unit 120) surrounded by a dotted line frame are not essential as the head mounted display 1 according to the present invention. That is, the head mounted display 1 is measured in a display 80 that displays a three-dimensional image, a position acquisition unit 100 that measures the position of the eyes or eyes of the viewer relative to the display 80, and a calibration that determines a standard position related to the position.
  • a standard position storage unit 50 that acquires and stores the calculated position of the eyes or eyes as a standard position, and the difference between the position of the eyes or eyes and the standard position with respect to the display 80 of the viewer who is viewing the newly measured content.
  • both the camera 10 and the display 80 are provided for the right eye and the left eye.
  • the left-eye camera 10 is referred to as the camera 10L
  • the right-eye camera 10 as the camera 10R
  • the left-eye display 80 as the display 80L
  • the right-eye display 80 as the display 80R.
  • the pupil detection unit 20, the eye-head detection unit 30, the eyeball position calibration unit 40, the position shift detection unit 60, and the image processing unit 70 are executed by, for example, one or more CPUs, one or more memories, and the CPUs. Realized by a program.
  • the standard position storage unit 50 is realized by one or more memories.
  • FIG. 7 is a detailed configuration diagram of the image processing unit 70 in the present embodiment.
  • the image processing unit 70 includes a determination unit 71, a rotation calculation unit 72, an image storage unit 73, a rotation processing unit 74, a parallel movement calculation unit 75, a parallel movement processing unit 76, and a left and right image control unit 77.
  • the determination unit 71 compares the distance between the current eye position and the eye standard position calculated by the positional deviation detection unit 60 with a predetermined reference value.
  • the rotation calculation unit 72 determines the display 80 and the viewer due to the displacement of the mounting position of the HMD 1. Of the coordinate transformation indicating the positional deviation from the eye, a portion due to rotation is calculated.
  • the parallel movement calculation unit 75 displays the display due to the displacement of the mounting position of the head mounted display 1. Of the coordinate transformation indicating the positional deviation between 80 and the viewer's eyes, a portion due to translation is calculated.
  • the image storage unit 73 is a buffer memory that temporarily stores a 3D image to be displayed on the display 80.
  • the rotation processing unit 74 performs the rotation obtained by the rotation calculation unit 72 on the 3D video stored in the image storage unit 73.
  • the parallel movement processing unit 76 performs the parallel movement obtained by the parallel movement calculation unit 75 on the 3D video stored in the image storage unit 73.
  • the left and right image control unit 77 displays, for the 3D video stored in the image storage unit 73, one of the left-eye and right-eye images constituting the 3D video as an image for both the left and right eyes.
  • Image processing for display on the screen 80 is performed. For example, the left-eye image is replaced with the right-eye image.
  • the image storage unit 73 is realized by one or more memories, and there is one determination unit 71, rotation calculation unit 72, rotation processing unit 74, parallel movement calculation unit 75, parallel movement processing unit 76, and left and right image control unit 77. This is realized by the above CPU, one or more memories, and a program executed by the CPU.
  • FIG. 8 is a block diagram showing a hardware configuration used when the processing unit of the head mounted display 1 in the present embodiment is realized by software.
  • the processing unit of the head mounted display 1 according to the present embodiment is realized by software, as shown in FIG. 8, an input unit 211 such as a keyboard and a mouse, a storage unit 212 such as a hard disk, a display device, and the like
  • the head-mounted display 1 according to the present embodiment is realized by the computer 220 including the output unit 213, the CPU 214, the ROM 215, the RAM 216, and the input / output I / F 217 that inputs and outputs signals to and from external devices. Can do. That is, the input unit 110 in FIG.
  • the standard position storage unit 50 in FIG. 5 is mainly realized by the storage unit 212 included in the computer 220, and other processing units (pupil detection units). 20, the eye detection unit 30, the eyeball position calibration unit 40, the position shift detection unit 60, and the image processing unit 70) use the RAM 216 as a temporary storage area in accordance with a program stored in the ROM 215 or the storage unit 212 provided in the computer 220. It is realized by the CPU 214 executing while using it. .
  • FIG. 9 is a flowchart showing a processing procedure of the head mounted display 1 of the present embodiment configured as described above, that is, a diagram showing a method of adjusting the positional deviation of the head mounted display 1 according to the present invention.
  • 10, FIG. 14, and FIG. 15 are diagrams showing in detail a part of the processing procedure of the head mounted display 1 (the flowchart of FIG. 9). The processing procedure will be described below with reference to FIGS. 9, 10, 14, and 15.
  • the viewer wears the HMD 1 and inputs using the input unit 110 to start viewing (S110).
  • the eyeball position calibration unit 40 detects the pupil and the eye without being displayed on the display 80, and performs calibration for determining the relative position of the pupil and the eye as the standard position (S120). ). A detailed procedure of calibration will be described later.
  • the viewer views the video content by instructing with the input unit 110 (S130).
  • the camera 10 determines whether or not a control signal for instructing the end of 3D viewing is input from the input unit 110 (S140).
  • the control signal instructing the end of the three-dimensional viewing is input (Yes in S140)
  • the HMD 1 ends the operation (S190).
  • the eye detection unit 30 captures the viewer's eyes with the camera 10 while viewing the viewer's eyes. Is detected.
  • the positional deviation detection unit 60 calculates the deviation between the standard position of the eye stored in the standard position storage unit 50 and the position of the eye detected by the eye detection unit 30 (S150).
  • the positional deviation detection unit 60 detects whether or not the positional deviation calculated in S150 is a positional deviation exceeding a predetermined allowable range (S160).
  • the allowable range of positional deviation is, for example, 2 mm in total of positional deviation of both eyes.
  • the image processing unit 70 performs the eye position. A process of rotating the screen in accordance with the shift and further moving it horizontally is performed (S170). On the other hand, when there is no deviation between the standard position of the eye and the position of the eye captured by the camera 10 (No in S160), the image processing unit 70 does not process the input image and displays the display 80. The image is output to (S180). Note that steps S140 to S180 are repeated during the video content viewing as described above (S130).
  • the positional deviation adjustment method of the head mounted display 1 in the present embodiment is an adjustment method for adjusting the positional deviation of the 3D image displayed on the head mounted display 1.
  • a display step (such as S180) for displaying a three-dimensional image on the display 80, a position acquisition step (S120, S150, etc.) for measuring the position of the eyes or eyes of the viewer with respect to the display 80, and a standard position relating to the position are determined.
  • the standard position storage step (S120) for storing the position of the eye or the head measured in the position acquisition step in the standard position storage unit 50 as the standard position in the calibration in step S120, and during viewing of the content newly measured by the position acquisition step Or the viewer ’s display 80
  • a position detection step (S150, S160) for detecting a difference between the position of the twist and the standard position as a position shift, and a position detected when the position shift is detected by the position shift detection step (Yes in S160).
  • An image processing step (S180) for performing image processing on the three-dimensional video so that the three-dimensional video displayed on the display 80 rotates or translates in accordance with the shift.
  • the positional deviation adjustment method of the head-mounted display 1 in the present embodiment even if the viewer's line of sight moves, regardless of the line of sight, depending on the relative position between the eye or the eye that does not move and the display 80, Since the deviation of the relative position between the eyes and the display 80 is corrected, stereoscopic vision abnormalities, fatigue and motion sickness due to the deviation of the relative positions of the eyes and the display 80 are prevented.
  • the range including the entire eyes of the viewer is imaged by the camera 10 (S122).
  • the pupil detection unit 20 and the eye head detection unit 30 cut out a portion having a pupil and a portion having an eye from the image captured in S122 (S123). For example, as illustrated in FIG. 6, the pupil detection unit 20 cuts out an image including the eyes imaged in S122 in the middle, which is divided into three vertically, for the pupil, and the eye head detection unit 30 captures the nose imaged in S122. 1/3 of the side is cut out for head recognition.
  • the eye head detection unit 30 recognizes the shape formed by the upper eyelid and the lower eyelid characteristic of the eye (S124).
  • the recognition method is, for example, a method of holding a plurality of typical eye-shaped models and collating the shape in the image with the model.
  • the information on the model of the eye shape includes “model ID”, “type” in which similar models are grouped, and information on the position of the eye in the model figure and the model figure (in the figure, Hold "model”).
  • the eye detection unit 30 determines the eye position in the image from the eye position on the matched model.
  • the model may be described not by a figure but by a feature quantity such as a line segment inclination or angle.
  • the eyeball position calibration unit 40 determines the position on the coordinates of the eye recognized in the image (S125).
  • the position is represented, for example, on a coordinate plane in which the line connecting the left and right displays is the x axis, and the direction perpendicular to the x axis is the y axis.
  • the 0 point on the x axis is, for example, an intermediate point between the imaging ranges of the camera 10L and the camera 10R.
  • the zero point of the y-axis is the center of the camera 10 in the vertical direction.
  • the zero point on the x-axis is at a position outside the imaging range of both the camera 10L and the camera 10R.
  • the coordinate system is set so as to reflect the actual positional relationship between the imaging ranges of the cameras 10L and 10R. When the imaging ranges of the camera 10L and the camera 10R overlap, the zero point on the x axis is included in both imaging ranges.
  • the pupil detection unit 20 specifies an elliptical portion that is darker than the periphery from the central 1/3 image cut out in S123 in parallel with the processing in step S124 (eye recognition) or sequentially.
  • the pupil is recognized (S126).
  • the iris outline is recognized when the iris color is dark, and the pupil outline is recognized when the iris color is light.
  • the eyeball position calibration unit 40 determines the center of the iris or pupil ellipse recognized as the pupil as the pupil position (S127). The position is expressed in the same coordinate plane as the eye.
  • the eyeball position calibration unit 40 determines a standard image display position (S128).
  • the front of the left pupil position determined in S127 for the display 80L is the image center position
  • the front of the right pupil position determined in S127 is the image center position.
  • the standard position storage unit 50 stores the left and right eye positions determined by the eyeball position calibration unit 40 in S125 (S129).
  • the data stored in the standard position storage unit 50 is data representing the standard positions of the left and right eyes in two-dimensional coordinates, for example, as shown in FIG.
  • the pupil position when viewing at infinity is specified, and the center of the image display is set as the standard position. It can be.
  • the position of the pupil during video viewing moves according to the line of sight, but the position of the eyes does not move during video viewing.
  • the standard position of the eye it is possible to relatively determine the pupil position when viewing at infinity even during video viewing.
  • the viewer has a deviation or a deviation in the direction of the left and right eyeballs such as perspective and oblique positions.
  • the pupil position information is used only for determining the presentation position of the image at the standard position.
  • the pupil during video viewing moves depending on where the viewer is looking at the image. For example, when looking at the right end instead of the center of the image, the pupil approaches the right end in the eye. For this reason, the pupil position during video viewing is not necessarily suitable as an index of the center position of the image. Therefore, in the present embodiment, the pupil position is used only when the standard position is determined by the calibration in step S120, and thereafter, the image presentation position corresponding to the HMD shift is adjusted using the position of the eye.
  • the range including the entire eye of the viewer is imaged by the camera 10 (S151).
  • the eye-head detection unit 30 cuts out the portion with the eye-head from the image captured in S151 (S152).
  • the image is cut out, for example, by cutting out the nasal side 1/3 of the image in the same manner as the cutout of S123 in the calibration of S120.
  • the eye-head detecting unit 30 recognizes the shape formed by the upper eyelid and the lower eyelid characteristic of the eye (S153).
  • a recognition method for example, it is assumed that collation with a model is performed in the same manner as in S124.
  • the eye detector 30 stores the model specified in S124, and when performing eye recognition in S153, the stored eye is stored in S124. Processing time can be shortened by recognizing the eyes using only the identified model or only the model and a model similar thereto.
  • a similar model for example, according to the model type shown in FIG. 11, only a model having the same type as the model specified in S124 is used for recognition.
  • the misalignment detection unit 60 determines the position of the recognized eye in the image (S154). This position is determined on the coordinate axis that determined the eye position at the time of calibration in S125. Further, the position deviation detection unit 60 calculates the distance between the eye standard position stored in the standard position storage unit 50 in S129 and the eye position determined in S154 (S155), and performs position deviation detection in S160.
  • the determination unit 71 compares the distance between the current eye position and the eye standard position calculated by the position deviation detection unit in S155 with a predetermined reference value (S171).
  • the reference value is set to 30 mm, for example, and when the distance between the current eye position and the eye standard position is equal to or greater than the reference value, that is, No in S171 in FIG.
  • the image for use is replaced with the image for the right eye (S172). That is, by displaying the same image on both eyes, it is displayed as a two-dimensional video instead of a three-dimensional image.
  • the translation calculation unit 75 and the rotation calculation unit 72 are caused by the displacement of the mounting position of the HMD1.
  • a shift in position between the display 80 and the viewer's eyes is obtained as coordinate conversion, and the rotation processing unit 74 and the parallel movement processing unit 76 perform coordinate conversion of the display position of the image to compensate for the coordinate conversion.
  • FIG. 16 is a diagram schematically showing an example of a positional deviation between the display 80 and the viewer's eyes and a process of calculating the deviation as coordinate transformation.
  • (A) of FIG. 16 shows the eyeball imaged with the camera 10 during the viewing of an image
  • the left side shows the image of the right-eye camera 10R, and the right side shows the image of the left-eye camera 10L.
  • the position of the pupil moves according to the viewer's gaze point.
  • the pupil position deviates greatly from the standard pupil position at the time of calibration in S120 even if there is no deviation between the position of the display 80 and the eyes.
  • the head of the eye is fixed even if the gazing point moves, and the relative position between the display 80 and the eye can be captured more accurately. Therefore, in order to correct a shift in the relative position between the display 80 and the eyes, the image processing unit 70 performs an image conversion process that compensates for a shift in the standard position of the eyes and the current position of the eyes.
  • (xp, yp) indicates coordinates after conversion
  • (xs, ys) indicates coordinates before conversion
  • the left and right eye coordinates obtained by the calibration in S120 are the coordinates before conversion, and the current left and right eye positions determined in S154 are the coordinates after conversion.
  • the conversion matrix and the conversion vector are vectors indicating how the relative position between the center of the image and the position of the pupil set during the calibration in S120 is currently shifted. Therefore, by processing the image using the obtained conversion matrix and the inverse matrix of the conversion vector, the image can be converted so that the image center point is located in front of the current pupil position.
  • Conversion from the standard position of the left and right eyes to the current position of the left and right eyes is based on the line connecting the right and left eye standard positions and the line connecting the right and left eye current positions centered on the right or left eye standard position. Is rotated by an angle ⁇ , and the vector from the standard position of the eye on the side of the rotation center to the current position is translated as a movement vector.
  • the vector from the standard position of the eye on the side of the rotation center to the current position is translated as a movement vector.
  • the rotation calculation unit 72 obtains an angle ⁇ formed by a line segment connecting the left and right eye standard positions and a line segment connecting the left and right eye current positions, and calculates ⁇ as the rotation angle of the image (S173). If the angle between the line segment connecting the left and right eye standard position and the coordinate x-axis is ⁇ s, and the angle between the line segment connecting the left and right eye head current position and the x-axis coordinate is ⁇ p, the rotation calculation unit 72 ⁇ and ⁇ can be obtained as in Equation 2 below.
  • the left-eye head standard position is (xls, yls)
  • the right-eye head standard position is (xrs, yrs)
  • the left-eye head current position is (xlp, ylp)
  • the right-eye head current position is (xrp, yrp).
  • the translation calculation unit 75 obtains a movement vector D starting from the right-eye standard position in FIG. 16B and ending at the current right-eye current position, and uses the vector -D as the image movement vector (S174). ).
  • the movement vector D is expressed by Equation 3 below.
  • the rotation processing unit 74 rotates the left and right images included in the currently viewed video stored in the image storage unit 73 by ⁇ obtained in S173 (S175).
  • the transformation of the coordinates of each point is performed by a transformation matrix represented by the following Equation 4.
  • the parallel movement processing unit 76 moves the left and right images rotated in S175 by ⁇ D (S176).
  • the movement of the coordinates of each point is performed by adding ( ⁇ xrp + xrs) to the x coordinate and adding ( ⁇ yrp + yrs) to the y coordinate.
  • the HMD 1 determines the initial position between the viewer's eyes and the display 80, and detects the positional deviation of the camera 10, the eyeball position calibration unit 40, and the positional deviation detection.
  • Unit 60 and image processing unit 70, and the pupil position and the eye position when the dark display 80 that is not displayed at the beginning of the HMD is viewed is stored as a standard position. Detecting deviations.
  • the image presentation position and angle that compensate for the displacement of the eye are converted and displayed.
  • the pupil position when the infinity is viewed is specified by specifying the position of the pupil while viewing the dark display 80 where nothing is displayed, and the center of the image display Decide.
  • the vertical position relative to the left and right eyes is compensated by compensating for the displacement of the display 80 and the eye due to the displacement of the HMD mounting position with reference to the position of the eye which does not move during video viewing. It is possible to display a correct parallax image without any deviation. As a result, it is possible to reduce stereoscopic vision abnormalities when viewing 3D images, and discomfort, fatigue, and discomfort caused by viewing 3D images. In addition, by identifying the left and right pupil positions independently while viewing the dark display 80 where nothing is displayed, it is possible to reduce the fatigue of viewers who are displaced in the direction of the left and right eyeballs such as strabismus. be able to.
  • the relative position between the eyes and the display 80 does not depend on the line of sight due to the relative position between the eyes or eyes that do not move and the display 80. Since the shift is corrected, even if the mounting position of the HMD 1 is shifted, it is possible to prevent stereoscopic abnormalities, fatigue, and video sickness due to a shift in the relative position between the eyes and the display 80.
  • a dark screen is displayed in S121 immediately after the start of viewing, the entire eye is imaged in S122, an image is roughly cut out in S123, and the eye recognition operation in S124 and the pupil recognition operation in S126 are performed.
  • the pupil standard position, the eye standard position, and the applicable model for eye recognition are stored in the standard position storage unit 130, which is a non-volatile memory shown in FIG. Only the fine adjustment of the immediately preceding standard position may be performed without performing calibration. In this case, when the eye standard position is stored in the standard position storage unit 50 in step S129, the coordinates of the pupil position determined in step S127 are also stored in the standard position storage unit 50.
  • the standard position accumulating unit 130 accumulates, for example, the left and right eye standard positions at the end of viewing, the left and right pupil standard positions, the ID of the applied model used for detecting the eyes and the date and time at the end of viewing.
  • the date and time accumulated at the start of the next viewing may be displayed on the display 80, and the viewer may select his / her data from the displayed date and time.
  • the viewer himself / herself may select the data based on the personal ID.
  • an input is input from the input unit 110 for calibration.
  • the fine adjustment of the standard position is performed in step S220 after the start of viewing in S110.
  • the fine adjustment in S220 is the following operation.
  • the eyeball position calibration unit 40 calls the application model of the pupil standard position, the eye standard position, and the eye recognition at the time of the last use stored in the standard position storage unit 130 (S221).
  • the eye-head detecting unit 30 cuts out only the peripheral area of the eye-eye standard position at the time of viewing immediately before calling in S221 (S223). As shown in FIG. 19, for example, the peripheral area is set to a range of ⁇ 5 mm on the x-axis from the position on the x-axis of the eye standard position called in S221.
  • the eye detection unit 30 recognizes the eye in the peripheral area of the eye standard position at the time of the previous use cut out at S223 by collating with the application model of the eye recognition at the time of use immediately called at S221 (S224).
  • the eye position calibration unit 40 determines the position of the recognized eye in the image (S125). Subsequently, the eyeball position calibration unit 40 determines the pupil position (S227).
  • the pupil position is determined by the following procedure without recognizing the pupil. First, it recognizes in S224 from the eye standard position at the time of use immediately before calling in S221, and obtains the movement vector to the eye position determined in S125 for each of the left and right eyes. Next, the coordinates of the left and right pupil standard positions at the time of just before use called in S221 are converted according to the respective left and right movement vectors. The converted coordinates are determined as the positions of the left and right pupils.
  • the eyeball position calibration unit 40 determines the image display position (S128), and the standard position storage unit 50 stores the left and right eye positions determined by the eyeball position calibration unit 40 in S125 ( S129). Further, the standard position storage unit 50 stores the positions of the left and right pupils determined by the eyeball position calibration unit 40 in S227 (S131).
  • the calibration time can be shortened, and the time from when the viewer inputs the viewing start until the content video is viewed can be shortened.
  • information at the time of use by a plurality of users immediately before is stored in a nonvolatile memory.
  • the user inputs a signal specifying the user together with the start signal.
  • the input unit is, for example, a dial, a switch, or a touch panel.
  • the 3D image is switched to the 2D image by displaying the left eye image on both the left and right displays in S172, but the right eye image may be displayed on both displays.
  • the three-dimensional video may be switched to the two-dimensional video by displaying an image on the side where the distance between the pupil position and the center position of the display is short on both displays.
  • the left and right image control unit 77 obtains the transformation coordinates of the pupil standard position, that is, the distance between the pupil position when viewing the current infinity and the current display center (S272).
  • the reference value for example, the total shift amount of both eyes is 6.5 mm.
  • the distance between the left and right pupils generally used when creating a three-dimensional image is 6.5 cm, and 6.5 mm is 10% thereof.
  • the left and right image control unit 77 compares the distance obtained in S272 for the left and right displays (S273). If the distance between the right pupil and the display is larger than the left side, that is, if Yes in S273, the left and right image control unit 77 replaces the left eye image with the right eye image (S274).
  • the left-eye image is presented to both the left and right eyes by using the left-eye image as the right-eye image. If the distance between the left pupil and the display is larger than the right side in S273, that is, if No in S273, the left and right image control unit 77 replaces the right eye image with the left image (S275). That is, the right eye image is presented to both the left and right eyes.
  • the image processing unit 70 uses the image for the eye with the larger shift amount among the positional shifts for the left eye and the right eye of the viewer detected by the positional shift detection unit 60. Image processing is performed on
  • the standard position storage unit 50 stores not only the eye standard position determined in S125 but also the pupil standard position determined in S127.
  • the rotation calculation unit 72 converts the deviation into rotation and movement.
  • the rotation angle at the time of decomposition may be obtained, and when the magnitude of the rotation angle is equal to or larger than a predetermined reference value, switching from the three-dimensional image to the two-dimensional image may be performed.
  • the image processing unit 70 decomposes the misalignment detected by the misalignment detection unit 60 into rotation and movement in the horizontal direction and the vertical direction, and the angle of the resolved rotation exceeds a predetermined value.
  • image processing is performed so that either one of the left-eye image and the right-eye image is displayed on the display 80 as an image for both the left and right eyes, while the resolved rotation angle is a predetermined value. If it does not exceed, processing for rotating the image for the left eye and the image for the right eye, respectively, and processing for moving in the horizontal and vertical directions may be performed.
  • the rotation calculation unit 72 first obtains the rotation angle ⁇ shown in (b) of FIG. ), The determination unit 71 compares the rotation angle ⁇ with a predetermined value, for example, 6 degrees (S371).
  • a predetermined value for example, 6 degrees (S371).
  • the left and right image control unit 77 switches the left-eye image to the right image and switches the three-dimensional image to the two-dimensional image (S172).
  • the operation from S272 to S275 may be performed.
  • the rotation angle ⁇ is less than 6 degrees in S371, that is, in the case of Yes in S371, the movement vector is calculated and the image is rotated and translated by the operations of S174 to S176 as in the present embodiment. .
  • difference image which becomes an obstacle of a stereoscopic vision is too large among mounting
  • the eye is always imaged in S151.
  • the eye may be out of the imaging range of the camera 10.
  • one of the left and right images may be presented on the left and right displays 80 and switched to a two-dimensional video.
  • the operations from S140 to S180 are sequentially performed while viewing the video content, and the image processing is performed for the displacement of the mounting position of the HMD 1 each time. Image processing may be performed only when the above process continues.
  • the constant deviation means a case where it can be regarded as constant within a range where the deviation varies. For example, if the deviation variation is within the allowable range in S160, it is regarded as a certain deviation.
  • the allowable range in S160 is set so that the sum of the deviations of both eyes is within 2 mm.
  • the time variation of the sum of the shifts of both eyes is within 2 mm, it is regarded as a fixed shift.
  • the fixed time is, for example, 1 second.
  • the viewer continues watching with the mounting position of the HMD 1 being shifted when the viewer is not aware of the mounting position shift. It is assumed that the time until the user notices the deviation and remounts is about 1 second, and the correction process of S170 is performed when the constant deviation is maintained for 1 second or more. Thereby, it is possible to prevent the display from becoming uncomfortable by performing image processing on the wearing misalignment that the viewer immediately corrects or the temporary shaking of the HMD. Furthermore, it is not necessary to perform sequential image processing, and the processing amount can be reduced.
  • the state where the deviation is not constant continues for a certain period of time or longer, one of the left and right images is presented on both the left and right displays to switch to the two-dimensional video.
  • a state where the deviation is not constant indicates that the viewer's head is moving violently. That is, there is a possibility that the viewer is exercising such as walking or the vibration of the vehicle is transmitted. When the head is moving vigorously in this manner, it is a state in which video sickness is likely to occur. Therefore, when the shift is not constant, switching to a two-dimensional video can prevent viewers from getting sick of video.
  • the time for which the deviation is not constant is, for example, 5 minutes.
  • the relative position between the display 80 and the eyes is detected using the position of the eyes as an index. good.
  • FIG. 22 is a diagram illustrating an example of a hardware configuration of the HMD 1 in the present embodiment.
  • a left-eye display 80L is installed in front of the viewer's left eye, and a right-eye display 80R is installed in front of the viewer's right eye.
  • a camera 10 for photographing the viewer's eyes is installed between the two displays. In the case of an infrared camera, an infrared light emitting unit is installed adjacent to the camera 10.
  • the HMD1 In order to wear and fix the HMD1, it is provided with a nose pad. Since the fulcrum of HMD1 is both ears and nose, and the nose supports the center position, when HMD1 tilts, that is, with respect to (a) of FIG. As shown in FIG. 23 (b), when it is shifted downward, it often tilts with Pa as a fulcrum. On the other hand, as shown in FIG. 23C, in the case of shifting to the lower left, there are many cases of shifting using Pb as a fulcrum. When these fulcrums Pa and Pb are shifted from the center, it is possible to detect the shift of the HMD 1 with a smaller image feature amount.
  • the displacement detector 60 detects a displacement caused by the rotation of the head mounted display 1 with the viewer's nose as a fulcrum as the detected displacement, and the right of the head mounted display 1 Is a rotation centered on a point on the right convex surface of the viewer's nose, and a rotation on the left side of the head mounted display is a rotation centered on a point on the left convex surface of the viewer's nose.
  • the displacement is detected.
  • the displacement detector 60 calculates the amount of rotation of the head mounted display 1 using the relative position from the fulcrum that is a part of the convex surface of the viewer's nose to the position of the camera 10 as the displacement. Then, the positional deviation is detected. At this time, the misregistration detection unit 60 detects misregistration using the position of the eye or eye that is closer to the center of the image captured by the camera 10 as the standard position.
  • a point Xs in FIG. 24 is the standard eye position determined by calibration in step S120 of the first embodiment.
  • the origin is not set between the left and right cameras 10 but is set at the upper left end (point Os) of the right-eye camera.
  • the HMD 1 is supported with the nose point Pa as a fulcrum, and the camera capturing the viewer's eyeball has the origin at Os with respect to the origin.
  • the position is detected as a coordinate value of Xs (xrs, yrs).
  • the HMD 1 is inclined by the inclination ⁇ as shown in FIG.
  • the origin Os of the camera is also shifted to a position inclined by ⁇ with respect to the reference coordinate system (reference coordinate system independent of the position of the camera and the eyeball).
  • the origin Os rotates around the origin O's with respect to the reference coordinate system, and the coordinates of the point Xs also rotate around X's with respect to Pa. That is, if the rotational coordinate transformation matrix is R, It becomes.
  • the vector of the point Os with respect to the point Pa is (X0, Y0) in the reference coordinate system.
  • the position coordinates of the point Xs when the HMD 1 is inclined by ⁇ are calculated.
  • the position vector of the point Xs with respect to the point Pa in the reference coordinate system is (coordinate value) using the position of the point O ′s after rotation, Can be expressed as
  • the point O ′s is a coordinate obtained by rotating the position of the point Os by ⁇ around the point Pa, and the position of the viewer's eye in the image of the camera 10 shown in FIG.
  • the coordinate X ′s is measured as (xrp, yrp)
  • the vector of PaXs is Can be calculated.
  • the two expressions (Expression 11 and Expression 12) are established.
  • the position coordinate (X0, Y0) of the point Os with respect to the nose fulcrum coordinate Pa is a value given in advance when it is assumed as the position where the viewer's nose hits at the time of design.
  • (xrs, yrs) is given as the coordinate value of the eye in the state of FIG. 24 (a) by the camera 10 picking up the eyeball, and the HMD1 is tilted with the point Pa as a fulcrum in FIG. ),
  • the inclination ⁇ of the HMD 1 can be calculated when (xrp, yrp) is given as the coordinate value of the eye head.
  • the slope ⁇ can be calculated from each formula.
  • the rotational displacement about the point Pa is measured by the position of the eye head, the positional relationship between the eye head and the fulcrum is greater in the y-axis direction than in the x-axis direction. Therefore, as shown in FIG. 24 (b), when theta rotates, the amount of deviation in the horizontal direction becomes larger. Therefore, it is more accurate to measure xrs and xrp in Equation 11 and calculate the value of ⁇ .
  • the shift amount is calculated by lowering one of the head mounted displays, but in the opposite case, it can be calculated as rotation with Pb as a fulcrum.
  • the rotation angle is obtained using the position of the right eye.
  • the rotation amount can be calculated using the eye position of the left eye.
  • the rotation center needs to use a calculation method with the same point Pa as the rotation center.
  • the calculation is performed without considering the distortion caused by the lens of the camera 10.
  • an image captured by a camera is distorted as the captured image is farther from the center (closer to the peripheral portion). Therefore, when calculating the amount of inclination of the HMD 1 from the image captured by the camera 10, when using the head or the eyelid, it is preferable to use the target imaged at the center of the camera 10 as a reference. Accuracy is improved. Therefore, it is possible to calculate the tilt amount more accurately by using the target close to the imaging center out of the two of the eyes or the eyes.
  • the viewer's eyes are detected and the display position of the image is corrected in response to the shift in the positions of the eyes.
  • the display position of the image may be corrected.
  • the camera 10 is installed between the left and right displays, that is, on the respective eyes to be imaged.
  • the left and right cameras 10 are connected to the heel side of the HMD 1, that is, You may install in each eye corner side to image.
  • the eye detection unit 30 is an eye corner detection unit, and has an eye corner recognition model, not an eye recognition model.
  • the standard position storage unit 50 stores not the eye standard position but the eye corner standard position. Thereby, the display position of the image can be corrected corresponding to the shift of the position of the corner of the eye.
  • the head mounted display 1 and the positional deviation adjustment method according to the present invention have been described using the first and second embodiments, but the present invention is not limited to these embodiments.
  • a form obtained by subjecting each embodiment to various modifications conceived by those skilled in the art without departing from the gist of the present invention, and a form obtained by arbitrarily combining the constituent elements in each embodiment and modification. are included in the present invention.
  • the functional blocks of the processing system in the block diagrams may be realized by an LSI that is a semiconductor integrated circuit.
  • the LSI may be made into one chip for each functional block, or may be made into one chip so as to include a part or all of it.
  • the LSI includes what are called IC, system LSI, super LSI, and ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI implementation, and may be realized by a dedicated circuit or a general-purpose processor.
  • An integrated circuit may be formed by using an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI.
  • FPGA Field Programmable Gate Array
  • the head mounted display 1 in the above embodiment is realized by a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like. Also good.
  • a computer program is stored in the RAM or the hard disk unit.
  • the head mounted display 1 achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • such a program is a method for adjusting a positional deviation of a 3D image displayed on a head-mounted display on a computer (or a processor), a display step for displaying the 3D image on the display, and viewing A position acquisition step of measuring the position of the eye or the eye of the person with respect to the display, and the position of the eye or the eye of the eye measured in the position acquisition step in the calibration for determining the standard position related to the position.
  • a position of the eye or the head of the viewer with respect to the display of the viewer who is currently viewing the content newly measured by the position acquisition step, and the standard position storage unit The stored mark of the viewer A position shift detection step for detecting a difference from the position as a position shift; and when a position shift is detected by the position shift detection step, a three-dimensional image displayed on the display in accordance with the detected position shift And an image processing step for performing image processing on the three-dimensional image so as to rotate or translate.
  • the constituent elements constituting the head mounted display 1 in the above embodiment may be constituted by a removable IC card or a single module.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or module may include a super multifunctional LSI.
  • the IC card or the module achieves its functions by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be realized as a method shown in the flowchart in the above embodiment. Further, the method may be realized as a computer program realized by a computer, or may be realized as a digital signal representing the computer program. Further, the computer program or a recording medium that can read a digital signal such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc), semiconductor memory, etc. It may be realized as a recording medium recorded in the above.
  • the computer program or the digital signal can be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention can be achieved by recording the computer program or digital signal on a recording medium and transferring it, or by transferring the computer program or digital signal via a network or the like, by another independent computer system. You may implement the head mounted display which concerns on this, or its positional offset adjustment method.
  • the head mounted display according to the present invention can be widely used when displaying a three-dimensional image, and is useful for constructing a system for viewing recorded content such as a movie or a video. It can also be applied to applications such as remote work, remote surgery, virtual reality experience systems for games, education, and training.
  • HMD Head mounted display
  • 10 camera 10L camera (left-eye camera)
  • Eye detection unit 30 Eye detection unit 40
  • Eye position calibration unit 50 Standard position storage unit 60
  • Position shift detection unit 70 Image processing unit 71
  • Determination unit 72 Rotation calculation unit 73
  • Image storage unit 74 Rotation processing unit 75
  • Parallel movement calculation unit 76 Parallel Movement processing unit 77
  • Left and right image control unit 80 Display 80L Display (display for left eye)
  • 80R display display (display for right eye)
  • position acquisition unit 110 input unit 120 image storage / reception unit 130 standard position storage unit 211 input unit 212 storage unit 213 output unit 214

Abstract

頭部からずれた状態で装着されても、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすことが抑制されたHMD等を提供する。3次元映像を表示するディスプレイ(80)と、視聴者のディスプレイ(80)に対する目頭または目じりの位置を計測する位置取得部(100)と、その位置に関する標準位置を決定するキャリブレーションにおいて計測された目頭または目じりの位置を標準位置として取得して記憶する標準位置記憶部(50)と、新たに計測されたコンテンツ視聴中の視聴者のディスプレイに対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出部(60)と、検出された位置ずれに応じてディスプレイ(80)に表示される3次元映像が回転または平行移動するように3次元映像に対する画像処理をする画像処理部(70)とを備える。

Description

ヘッドマウントディスプレイおよびその位置ずれ調整方法
 本発明は、ヘッドマウントディスプレイに関し、特に、ヘッドマウントディスプレイにおける3次元映像を表示する技術、および、その位置ずれを調整する技術に関する。
 頭部装着型映像表示装置、つまり、ヘッドマウントディスプレイ(Head Mounted Display;以下「HMD」とも記述する。)は、人間が直接操作することのできない危険区域での作業や、遠隔地での作業のために遠隔操作システムのディスプレイとして用いられる他、没入型のゲーム等のディスプレイに用いられてきた。没入型の場合、目の周りを覆い、頭部に固定するゴーグル型のものが提案されてきたが、機器の小型軽量化により、携帯型の映像コンテンツ観賞用としてより軽量なめがね型のものが提案されている。
 一方、3次元映像は、映画のみでなく、家庭用の3次元テレビやコンピュータディスプレイの普及とともにテレビコンテンツやゲームの映像として広まりつつある。3次元映像は、右目に提示する画像と左目に提示する画像との間に視差を作ることで、視聴者に奥行きがあるように錯覚させる映像である。HMDはディスプレイを視聴者の目の至近に維持しており、左右の目に異なる画像を提示するのが容易である。そのため、3次元映像を視聴するのに向いている。
 しかしながら、HMDは視聴者の頭部に固定されているため、視聴者が頭部を傾けた場合に、画面は頭部とともに傾き、画面の垂直軸と実際の視聴空間での垂直軸とがずれてしまう。そのために、前庭器官により重力加速度を感じている人間は、実際の空間の垂直軸と、画面の垂直軸ずれにより、酔ってしまうことがある。これに対して、従来、特許文献1のように、頭部の傾きをセンサで検出し、その傾きを補正するように矩形の表示領域を回転して表示することで、頭部が傾いても表示される画像の向きが水平に固定されているように視聴者に認識させることができるという技術がある。
 近年はHMDも小型軽量化され、大きなゴーグル型でなく、手軽なめがね型の提案が増えている。周辺の実環境をまったく見えなくする没入型の視聴を行うゴーグル型とは異なり、シースルーレンズや、小さめのレンズ径を採用しためがね型HMDでは視聴者はHMDディスプレイ上の画像のみでなく、周辺実環境をも見ることになる。このタイプは携帯型の映像コンテンツ観賞用に適している。乗り物での移動中や歩きながらの使用が想定されている。このように頭部が動く、あるいは、振動する状態で、軽量のめがね型HMDを使用した場合、HMDと頭部との位置関係がずれる可能性がある。
 HMDの装着状態により、視聴者の目の位置と画面位置との間にずれが生じる課題に対しては、特許文献2では、視聴者の視野にあわせて水平方向と垂直方向のずれを補正する技術があり、特許文献3のように、虹彩あるいは瞳孔の画像から眼球の位置を求めて水平方向と垂直方向のずれを補正する技術がある。
特開2002-14300号公報 特開2010-232718号公報 特開平7-154829号公報
 しかしながら、特許文献2および特許文献3の技術では、HMDが頭部からずれた状態で装着された場合には、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすという課題を有している。
 そこで、本発明は、上記課題に鑑みてなされたものであり、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイ等を提供することを目的とする。
 上記目的を達成するために、本発明に係るヘッドマウントディスプレイの一形態は、3次元映像を表示するディスプレイと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部とを備える。
 なお、本発明は、このような構成を備えるヘッドマウントディスプレイとして実現できるだけでなく、ヘッドマウントディスプレイが備える処理部をステップとして含む、ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整(あるいは、補償)する方法として実現したり、その調整方法をコンピュータに実行させるプログラムとして実現したり、そのプログラムを記録したコンピュータ読み取り可能な非一時的なCD-ROM等の記録媒体として実現することもできる。
 本発明のヘッドマウントディスプレイ(HMD)によれば、HMDの装着位置のずれに影響されることなく3次元映像を快適に視聴することができる。
 よって、本発明により、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイが提供され、3次元映像が普及してきた今日における本発明の実用的価値は極めて高い。
図1は、ヘッドマウントディスプレイの装着位置のずれと3次元映像の見え方を説明する模式図である。 図2は、視聴者が頭を傾けた場合に生じる頭の縦方向のずれに対して視聴者の目が動く方向を模式的に示した図である。 図3は、右に10度回転させて表示した立体画像を正立して視聴した際の左右眼球の視点を視線検出装置によって記録した図である。 図4は、図3における視線検出装置の概略図と視線検出に用いる目の映像の例を示す図である。 図5は、本発明の実施の形態1におけるヘッドマウントディスプレイの全体構成の一例を示すブロック図である。 図6は、目頭と眼球と瞳の位置を示す図である。 図7は、同ヘッドマウントディスプレイが備える画像処理部の詳細な構成の一例を示すブロック図である。 図8は、本実施の形態1におけるヘッドマウントディスプレイの処理部をソフトウェアで実現する場合に用いられるハードウェア構成を示すブロック図である。 図9は、本発明の実施の形態1におけるヘッドマウントディスプレイの動作の一例を示すフローチャートである。 図10は、図9におけるキャリブレーションステップ(S120)の詳細な処理の流れの一例を示すフローチャートである。 図11は、目頭形状のモデルの情報の一例を示す図である。 図12は、左右のカメラの撮像範囲を示す図である。 図13は、標準位置記憶部に記憶されるデータの例を示す図である。 図14は、図9における位置ずれ計算ステップ(S150)の詳細な処理の流れの一例を示すフローチャートである。 図15は、図9における補正処理ステップ(S170)の詳細な処理の流れの一例を示すフローチャートである。 図16は、本発明の実施の形態1におけるヘッドマウントディスプレイの装着位置のずれのセンシング状態を示す模式図と装着位置のずれを座標平面状で計算する方法の一例を説明するための図である。 図17は、標準位置蓄積部に蓄積されるデータの例を示す図である。 図18は、本発明の実施の形態1における微調整(S220)の詳細な処理の流れの一例を示すフローチャートである。 図19は、目頭標準位置の周辺領域の一例を示す図である。 図20は、図9における補正処理ステップ(S170)の別の詳細な処理の流れの一例を示すフローチャートである。 図21は、図9における補正処理ステップ(S170)のさらに別の詳細な処理の流れの一例を示すフローチャートである。 図22は、本発明の実施の形態2におけるヘッドマウントディスプレイのハードウェア構成の一例を示す図である。 図23は、同ヘッドマウントディスプレイの装着状態の各種例を示す図である。 図24は、本発明の実施の形態2におけるヘッドマウントディスプレイにおいて傾いた角度を算出する方法を説明する図である。
 (背景技術における課題の詳細)
 本発明者は、「背景技術」の欄において記載した特許文献2および特許文献3の技術に関し、以下の問題が生じることを見出した。
 しかしながら、特許文献2特許文献3の技術では、視野や眼球位置、すなわち視聴者の目の動きに合わせて画像の位置補正を行うため、視聴者が画面の端に視線を移した際には不必要に画像がずれることがある。また、視野や眼球位置からは水平と垂直の眼球の動きしか捉えることができず、視聴者の頭部の水平垂直軸と画面の水平垂直軸とがずれた状態を検出することはできない。
 図1はHMDにより3次元映像を視聴する際の左右の目と画像との関係を示した図である。左欄(「正常時」)に、HMDと頭部との位置が正常な場合を示し、右欄(「装着位置ずれ時」)にHMDが頭部に対してずれている場合の例(「ディスプレイと目の位置関係」、「見え方」)を示している。図1に示される右欄の例では、HMDの右側が右目の位置に対して下がっており、かつ、左側が左目の位置に対して上がっている状態を示している。先述のとおり、3次元映像は右目に提示する画像と左目に提示する画像との間に水平方向の視差を作っているが、この視差は両眼を結ぶ直線に平行である必要がある。HMDの右目用と左目用のディスプレイが視聴者の右目と左目を結ぶ直線と平行に配置されている場合、すなわち、図1の左欄に示した「正常時」には、3次元映像の右目用画像と左目用画像との視差は正しく両眼を結ぶ直線に平行に配置される。ところが、HMDと視聴者頭部との位置関係がずれた場合、すなわち、図1の右欄に例示した「装着位置ずれ時」には、HMDが頭部からずれたことにより、左の画面はより上に提示され、右の画面はより下に提示される。左右の画面で上下位置が同じで水平方向の視差がある本来の画像は、HMDの傾きにより、視聴者からは水平方向だけでなく垂直方向にも差のある左右画像となってしまう。右目用、左目用の各画面の水平軸の傾きは先述の特許文献1の技術で画像を回転させることで解消することができるが、左右の画面の上下位置のずれは、特許文献1の技術では解消することができない。人間の眼球はもともと近くを見るときには、より目(輻輳)となり、遠くを見るときには、両目が開く(散開)。水平方向の視差に対して左右の目が互いに逆方向に動くことは自然な動作である。ところが、実世界で対象物を見る際には、左右の目が垂直方向に逆向きに動くことはない。3次元映像における垂直方向のずれは、対象物を見ようとする左右の目に垂直方向で逆向きの動きをさせる。そのために、3次元映像における垂直方向のずれは立体視の異常や、視聴時の疲労あるいは映像酔いの原因となる。すなわちHMDが頭部からずれた状態で装着された場合には、特許文献1~3のいずれの補正を施したとしても、立体視の異常や、視聴時の疲労あるいは映像酔いを引き起こすという課題を有している。
 (課題を解決するための態様)
 そこで、本願発明者らは、頭部からずれた状態で装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されるヘッドマウントディスプレイ等を考案した。
 つまり、本発明に係るヘッドマウントディスプレイの一形態は、3次元映像を表示するディスプレイと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部とを備える。
 これにより、視線が移動しても、移動しない目頭または目じりとディスプレイとの相対位置により、視線にかかわり無く、目とディスプレイとの相対位置のずれが補正されるので、ヘッドマウントディスプレイの装着位置がずれた場合であっても、目とディスプレイとの相対位置のずれによる立体視の異常や疲労および映像酔いを防止することができる。
 ここで、前記位置取得部は、前記視聴者の瞳と前記ディスプレイとの相対位置を計測するセンサを有し、前記ヘッドマウントディスプレイはさらに、前記センサにより計測された、前記ディスプレイに前記3次元映像を表示しない状態における、前記相対位置に基づき、前記標準位置を決定し、決定した標準位置を前記標準位置記憶部に格納するキャリブレーション部を備えるのが好ましい。これにより、視聴者が無限遠を見る場合と同等の瞳位置と画像の中心とを一致させることができ、視聴者の眼軸のずれに合わせて画像の表示位置を設定することができ、視聴者の映像視聴による疲労を軽減することができる。
 また、前記画像処理部は、前記3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、目とディスプレイとの相対位置のずれを補償して、両眼の垂直軸方向の差をなくし、両眼の水平軸上に映像作成時の両眼視差を持つ画像を表示することができる。したがって、ヘッドマウントディスプレイの装着位置がずれても、視聴者は快適に3次元映像の視聴を続けられる。
 また、前記画像処理部はさらに、前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行ってもよい。これにより、目とディスプレイとの相対位置がずれた場合には、3次元映像を2次元映像に切り替えて表示することで、ヘッドマウントディスプレイの装着位置のずれによる立体視の異常や疲労、映像酔いを防ぐことができる。
 また、前記位置取得部は、前記視聴者の左目と右目のそれぞれについて前記位置を計測し、前記標準位置記憶部は、前記視聴者の左目と右目のそれぞれについて前記標準位置を記憶し、前記位置ずれ検出部は、前記視聴者の左目と右目のそれぞれについて前記位置ずれを検出し、前記画像処理部は、前記位置ずれ検出部により検出された前記視聴者の左目と右目のそれぞれについての前記位置ずれのうち、ずれ量の小さい方の目用の画像に対して前記画像処理を行ってもよい。これにより、ヘッドマウントディスプレイの装着位置がずれた場合には、目とディスプレイの相対位置が、視聴者が、より見やすい相対位置であるほうの目に対応する画像を連続して見ることになり、3次元画像から2次元画像へ切り替える際の違和感を小さくすることができる。
 また、前記画像処理部は、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えた場合には前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、ヘッドマウントディスプレイの装着位置のずれが大きいときには、3次元画像から2次元画像へ切り替え、装着位置のずれが小さいときには、ずれを補償する画像処理を行うことで、ヘッドマウントディスプレイの装着ずれが起こっても、ずれが大きすぎるとき以外は3次元映像を楽しむことができるとともに、装着のずれが大きすぎる時には2次元映像に切り替えて安全に映像を視聴し続けることができる。
 また、前記画像処理部は、前記位置ずれ検出部により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、前記回転の角度があらかじめ定められた値を超えた場合には前記左目用と前記右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記回転の角度があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。これにより、ヘッドマウントディスプレイの装着位置のずれが大きい、両眼の垂直ずれを起こしている場合は、3次元画像から2次元画像へ切り替え、一方、装着位置のずれが起こす両眼の垂直ずれが小さい場合は、ずれを補償する画像処理を行うことで、ヘッドマウントディスプレイの装着ずれのうち、より視聴者に負荷がかかるずれの場合以外は3次元映像を楽しむことができるともに、3次元映像の視聴により視聴者に大きな負荷がかかる場合には2次元映像に切り替えて安全に映像を視聴し続けることができる。
 また、前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻を支点とする当該ヘッドマウントディスプレイの回転による位置ずれを検出し、かつ、当該ヘッドマウントディスプレイの右が下がる回転は、前記視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、前記視聴者の鼻の左の凸面の一点を中心とする回転であるとして、前記位置ずれを検出してもよい。これにより、予め位置関係が分った支点を中心にHMDの位置がずれることを想定して位置ずれが検出されるので、より少ない画像の特徴量でHMDの位置ずれが検出される。
 また、前記位置取得部は、前記目頭を撮像するカメラを有し、前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻の凸面の一部である支点から前記カメラの位置までの相対位置を用いて当該ヘッドマウントディスプレイの回転量を算出することで、前記位置ずれを検出してもよい。これにより、位置ずれとして、視聴者の鼻の凸面の一部である支点からカメラの位置までの相対位置を用いてHMDの回転量が算出されるので、より簡易に、HMDの位置ずれ(傾き)が検出される。
 また、前記位置ずれ検出部は、前記標準位置として、前記カメラで撮像された画像の中心に近い前記目頭または前記目じりの位置を用いて前記位置ずれを検出してもよい。これにより、標準位置として、カメラで撮像された画像の中心に近い目頭または目じりの標準位置を用いて決定されるので、HMDの位置ずれがより高い精度で検出される。
 以下、図面を用いて、本発明に係るヘッドマウントディスプレイおよびその位置ずれ調整方法の実施の形態について説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成する任意の構成要素として説明される。
 (本発明者らが得た知見)
 次に、本発明の実施の形態を詳細に説明する前に、本発明に関して発明者らが実験で得た知見について以下に説明する。
 本願発明者らは、実験により、視聴者が頭を傾けて立体視を行う際に、実空間の目の動きとしてはありえない、左右反対方向の上下の動きをすることを確認した。頭部又は画像が傾き、視聴者の両眼を結ぶ線と立体画像の水平軸すなわち視差の方向にずれがある場合、視聴者の目は傾きによって生じた縦ずれを修正する方向に動く。すなわち、傾きにより下に位置する目は上向きに動き、上に位置する目は下向きに動く。
 図2は視聴者が頭を傾けた場合に生じる頭の縦方向のずれに対して視聴者の目が動く方向を模式的に示した図である。図3は右に10度回転させて表示した立体画像を正立して視聴した際の左右眼球の視点を、視線検出装置によって記録した図である。図4は、その視線検出装置の概略図と視線検出に用いる目の映像の例を示す図である。
 図4に示されるように、視線検出装置は、眼球に向けて近赤外線を照射し、角膜表面での反射光と瞳孔中心位置を画像処理により求め、それらの相対位置の関係を利用することで、視線を検出する装置である。視線位置が変わると反射光の位置は変わらないが、瞳孔中心位置が変わる。この両者の相対位置関係の変化を利用して、本実験では、左右の視線を独立に検出した。図3には、画像の傾きがなく、視聴者の両眼を結ぶ線と立体画像の水平軸すなわち視差の方向が一致している際の水平方向の視線の動きを示すグラフ(図3の(a))と、垂直方向の視線の動きを示すグラフ(図3の(b))と、画像が視聴者から見て右周りに10度回転し、視聴者の両眼を結ぶ線と立体画像の水平軸が10度ずれた条件での水平方向の視線の動きを示すグラフ(図3の(c))と、垂直方向の視線の動きを示すグラフ(図3の(d))が示されている。図3における縦軸はディスプレイ上の位置に換算された視線の相対移動量であり、図4に示されるディスプレイの表示サイズを1とする移動量である。すなわち、水平方向の移動量はディスプレイの横幅を1とした比で表され、垂直方向の移動量はディスプレイの高さを1とした比で表される。また、何も出力されていない暗い画面を見ている状態(ターゲットなし)での視線位置の平均を0とする。図3の(a)と図3の(c)においては、左方向への移動が負の値、右方向への移動が正の値として示されている。図3の(b)と図3の(d)においては、上方向への移動が負の値、下方向への移動が正の値として示されている。横軸は時間を表しており、単位は秒である。約17msごとに測定された左目の視線を○で示し、右目の視線を×で示している。
 本実験では、データは40代女性を被験者として得られたデータである。ディスプレイは視聴者顔面から90cmの位置に配置した。図4に示されるように、黒の背景に白抜きの十字図形をターゲットとして提示した。ターゲットは視聴者正面に提示され、立体画像として、図形の奥行きがディスプレイ面より奥30cm、10cm、ディスプレイ面より手前10cm、30cm、50cm、70cmとなるように視差を調節した。ターゲットなしの画面を5秒提示した後、上記の順で各奥行き設定の画面を5秒ずつ提示した。図3の(a)では、ディスプレイより奥のターゲットに対しては右目が右(負側)を、左目が左(正側)を見ており、ディスプレイより手前のターゲットに対しては右目が左(負側)を、左目が右(正側)を見ている。図3の(b)では、ターゲットが提示されている間は、奥行きにかかわらず両眼の垂直方向の位置は一定である。画面の水平軸と視聴者の両眼を結んだ線とが平行でない場合は、図3の(c)に示した水平方向の視線は、図3の(a)の傾きがない場合に比べて移動量が減っている。図3の(d)に示した垂直方向の視線はディスプレイより奥ではわずかに右目が下(正側)を、左目が上(負側)を見ており、ディスプレイより手前では右目が上を、左目が下を見ている。ただしディスプレイの手前70cmでは左目の視線は右目と同様の位置を見ている。これはディスプレイの手前70cmの条件では左右画像の融像ができなかった(視聴者内観報告)ことと合致している。この実験により、ディスプレイ位置がずれる等、画面の水平軸と視聴者の両眼を結んだ線とが平行でない場合には、実空間あるいは平面画像を見る際には起こらない上下逆向きの目の動きが起こることが示された。これにより、HMDの装着位置がずれた状態で立体画像を視聴することの視聴者の負荷が非常に高いことが示された。
 次に、本発明に係るヘッドマウントディスプレイおよびその位置ずれ調整方法について、図面を参照しながら詳細に説明する。
 (実施の形態1)
 まず、本発明の実施の形態1におけるヘッドマウントディスプレイおよびその位置ずれ調整方法について説明する。
 図5は、本実施の形態によるヘッドマウントディスプレイ1の構成図である。
 このヘッドマウントディスプレイ1は、頭部からずれて装着されても、その視聴者が立体視の異常や、視聴時の疲労、あるいは、映像酔いを引き起こすことが抑制されたHMDであり、視聴者からの操作指示を受け取る入力部110と、視聴者の目頭と瞳の位置を取得する位置取得部100と、位置取得部100で検出された目頭と瞳の位置から瞳と目頭の標準位置を取得する眼球位置キャリブレーション部40と、眼球位置キャリブレーション部40で計算された瞳と目頭の標準位置とを記憶する標準位置記憶部50と、標準位置記憶部50に記憶された瞳と目頭の標準位置とカメラ10で新たに撮像された画像から目頭検出部30で検出された目頭位置とのずれを検出する位置ずれ検出部60と、画像を記憶する、あるいは、画像情報を通信路で受信する画像記憶・受信部120と、位置ずれ検出部60で検出された位置ずれに対応して、HMDの右目用と左目用のディスプレイに表示する画像(画像記憶・受信部120から取得した画像)を回転および垂直方向と水平方向に移動する画像処理部70と、左右それぞれの画像を表示するディスプレイ80とを備えている。
 ここで、目に関する用語の意味を明確にしておくために、図6に、目頭と眼球と瞳の位置を示す。目頭の位置は目頭の上まぶたと下まぶたがつながる接合部分の点であり、瞳は眼球中の黒目の中心である。
 入力部110は、視聴者からの操作指示を受け取るスイッチまたはダイヤル等の入力機器であり、このヘッドマウントディスプレイ1の動作を開始/終了させる指示等を視聴者から受け付ける。
 位置取得部100は、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する処理部であり、目頭と眼球を撮像するカメラ10と、カメラ10で撮像された画像から瞳を検出する瞳検出部20と、カメラ10で撮像された画像から目頭を検出する目頭検出部30とから成る。
 カメラ10は、視聴者の瞳とディスプレイ80との相対位置を計測するセンサの一例(デジタルカメラ等の撮像装置)であり、ここでは、スイッチやダイヤル等の入力部110による視聴者の操作に基づく制御信号を受付、表示開始、表示終了、表示切替等の制御信号入力のタイミングを0時点として、一定時間間隔たとえば10msごとに撮像を反復する。カメラ10は可視光により撮像を行うものであっても、赤外線発光部を伴い、赤外線による撮像を行うものであっても良い。
 眼球位置キャリブレーション部40は、ディスプレイ80に3次元映像を表示しない状態(つまり、視聴者が見るものが何もない状態)において位置取得部100によって取得された視聴者の瞳とディスプレイとの相対位置に基づき、視聴者の目頭または目じりの標準位置を決定し、決定した標準位置を標準位置記憶部50に格納する処理部であり、ここでは、位置取得部100で検出された目頭と瞳の位置から瞳と目頭の標準位置を算出する。なお、「標準位置」とは、視聴者がヘッドマウントディスプレイ1をずれなく装着したときにおける、ヘッドマウントディスプレイ1(あるいは、ディスプレイ80)に対する、視聴者の目頭および目じりの少なくとも一方の位置を意味し、本実施の形態では、視聴者がヘッドマウントディスプレイ1を装着した状態で行うキャリブレーションにおける視聴者の目頭および目じりの少なくとも一方の位置である。
 標準位置記憶部50は、眼球位置キャリブレーション部40によるキャリブレーションにおいて位置取得部100で計測された視聴者の目頭または目じりの位置を標準位置として取得して記憶するハードディスク等であり、ここでは、眼球位置キャリブレーション部40によって算出された標準位置を保持する。
 位置ずれ検出部60は、位置取得部100により新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と、位置記憶部に記憶された視聴者の標準位置との差を位置ずれとして検出する処理部である。
 画像記憶・受信部120は、視聴者に提示する3次元映像を予め保存しているハードディスク等のメモリ、あるいは、無線等の通信路を介して外部から3次元映像を受信する通信インターフェイスである。
 画像処理部70は、位置ずれ検出部60により位置ずれが検出された際に、検出された位置ずれに応じてディスプレイ80に表示される3次元映像(つまり、画像記憶・受信部120から送られてくる3次元映像)が回転または平行移動するように、その3次元映像に対する画像処理をする処理部であり、画像を記憶するあるいは画像情報を受信する、画像記憶・受信部120からの入力を受け、入力された画像の処理を行う。
 より具体的には、画像処理部70は、視聴者に提示する3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ったり、その左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理(2次元化処理)を行ったりする。つまり、この画像処理部70は、位置ずれ検出部60により検出された位置ずれの量があらかじめ定められた値を超えた場合は、視聴者に提示する3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示させるための画像処理を行い、一方、位置ずれ検出部60により検出された位置ずれの量があらかじめ定められた値を超えない場合は、左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う。
 また、ディスプレイ80は、3次元映像を表示するLCD等であり、スイッチやダイヤル等の入力部110による視聴者の操作に基づく制御信号を受付け、表示開始、表示終了、表示切替等を行う。
 なお、図5において、点線枠で囲まれた構成要素(眼球位置キャリブレーション部40、入力部110、画像記憶・受信部120)は、本発明に係るヘッドマウントディスプレイ1として必須ではない。つまり、ヘッドマウントディスプレイ1として、3次元映像を表示するディスプレイ80と、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する位置取得部100と、その位置に関する標準位置を決定するキャリブレーションにおいて計測された目頭または目じりの位置を標準位置として取得して記憶する標準位置記憶部50と、新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出部60と、検出された位置ずれに応じてディスプレイ80に表示される3次元映像が回転または平行移動するように3次元映像に対する画像処理をする画像処理部70とを備えることで、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止されるからである。
 また、カメラ10とディスプレイ80は、いずれも、右目用と左目用の2つを備える。左右の区別をして説明する際には、左目用カメラ10をカメラ10L、右目用カメラ10をカメラ10R、左目用ディスプレイ80をディスプレイ80L、右目用ディスプレイ80をディスプレイ80Rと表記して区別する。
 また、瞳検出部20、目頭検出部30、眼球位置キャリブレーション部40、位置ずれ検出部60、画像処理部70は、例えば、1つ以上のCPUと1つ以上のメモリとそのCPUによって実行されるプログラムによって実現される。また、標準位置記憶部50は、1つ以上のメモリによって実現される。
 図7は本実施の形態における画像処理部70の詳細な構成図である。
 画像処理部70は、判定部71、回転計算部72、画像記憶部73、回転処理部74、平行移動計算部75、平行移動処理部76、左右画像制御部77よりなる。
 判定部71は、位置ずれ検出部60が計算した現在の目頭の位置と目頭標準位置との距離と、あらかじめ定められた基準値とを比較する。
 回転計算部72は、判定部71での判定において、現在の目頭の位置と目頭標準位置との距離が基準値より小さいと判定された場合に、HMD1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを示す座標変換のうち、回転による部分を算出する。
 平行移動計算部75は、判定部71での判定において、現在の目頭の位置と目頭標準位置との距離が基準値より小さいと判定された場合に、ヘッドマウントディスプレイ1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを示す座標変換のうち、平行移動による部分を算出する。
 画像記憶部73は、ディスプレイ80に表示する3次元映像を一時的に記憶するバッファメモリである。
 回転処理部74は、画像記憶部73に記憶された3次元映像に対して、回転計算部72で得られた回転を施す。
 平行移動処理部76は、画像記憶部73に記憶された3次元映像に対して、平行移動計算部75で得られた平行移動を施す。
 左右画像制御部77は、画像記憶部73に記憶された3次元映像に対して、その3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理を行う。例えば、左目用画像を右目用画像に入れ替える。
 なお、画像記憶部73は1つ以上のメモリにより実現され、判定部71、回転計算部72、回転処理部74、平行移動計算部75、平行移動処理部76、左右画像制御部77は1つ以上のCPUと1つ以上のメモリとそのCPUによって実行されるプログラムによって実現される。
 図8は、本実施の形態におけるヘッドマウントディスプレイ1の処理部をソフトウェアで実現する場合に用いられるハードウェア構成を示すブロック図である。本実施の形態におけるヘッドマウントディスプレイ1の処理部をソフトウェア的で実現する場合には、図8に示されるように、キーボード、マウス等の入力部211、ハードディスク等の記憶部212と、ディスプレイ装置等の出力部213、CPU214、ROM215、RAM216、および、外部機器との間で信号の入出力をする入出力I/F217で構成されるコンピュータ220によって本実施の形態におけるヘッドマウントディスプレイ1を実現することができる。つまり、図5における入力部110は主にコンピュータ220が備える入力部211で実現され、図5におけるディスプレイ80は主にコンピュータ220が備える出力部213で実現され、図5における画像記憶・受信部120は主にコンピュータ220が備える記憶部212または入出力I/F217で実現され、図5における標準位置記憶部50は主にコンピュータ220が備える記憶部212で実現され、他の処理部(瞳検出部20、目頭検出部30、眼球位置キャリブレーション部40、位置ずれ検出部60、画像処理部70)は、コンピュータ220が備えるROM215または記憶部212に格納されたプログラムに従ってRAM216を一時的な記憶エリアとして利用しながらCPU214が実行することによって実現される。
 図9は、以上のように構成された本実施の形態のヘッドマウントディスプレイ1の処理手順を示すフローチャート、つまり、本発明に係るヘッドマウントディスプレイ1の位置ずれを調整する方法を示す図である。図10、図14、図15は、ヘッドマウントディスプレイ1の処理手順(図9のフローチャート)の一部を詳細に示した図である。以下処理手順を図9、図10、図14、図15に従って説明する。
 まず、視聴者がHMD1を装着し、入力部110を用いて視聴開始を指示する入力を行う(S110)。視聴開始入力の直後には、眼球位置キャリブレーション部40は、ディスプレイ80に表示のない状態で瞳と目頭を検出して、瞳と目頭の相対位置を標準位置として決定するキャリブレーションを行う(S120)。キャリブレーションの詳細な手順については後述する。
 S120でキャリブレーションを行った後に、視聴者は入力部110で指示すること等によって映像コンテンツの視聴を行う(S130)。映像コンテンツの視聴時には、まず、カメラ10は入力部110から3次元視聴終了を指示する制御信号が入力されたか否かを判断する(S140)。3次元視聴終了を指示する制御信号が入力された場合は(S140でYes)、HMD1は、動作を終了する(S190)。3次元視聴終了を指示する制御信号が入力されていない場合には(S140でNo)、目頭検出部30は、視聴中の視聴者の目をカメラ10で撮影しながら前記視聴者の目頭の位置を検出する。位置ずれ検出部60は、標準位置記憶部50に記憶された目頭の標準位置と目頭検出部30で検出した目頭の位置とのずれを計算する(S150)。
 そして、位置ずれ検出部60は、S150で計算された位置ずれがあらかじめ定められた許容範囲を超えた位置ずれであるか否かを検出する(S160)。位置ずれの許容範囲は、例えば、両目の位置ずれを合計して2mmとする。
 その結果、目頭の標準位置とカメラ10で撮像された目頭の位置との間にずれがあった(位置ずれが許容範囲を超えていた)場合(S160でYes)、画像処理部70で目頭位置のずれに応じて画面を回転させ、さらに水平移動させる処理を行う(S170)。一方、目頭の標準位置とカメラ10で撮像された目頭の位置との間にずれがなかった場合(S160でNo)、画像処理部70は入力された画像に対して処理を加えずにディスプレイ80に画像を出力する(S180)。なお、以上のような映像コンテンツ視聴の間(S130)、ステップS140からS180が繰り返される。
 以上のように、本実施の形態におけるヘッドマウントディスプレイ1の位置ずれ調整方法は、ヘッドマウントディスプレイ1に表示される3次元映像の位置ずれを調整する調整方法であって、主要なステップとして、3次元映像をディスプレイ80に表示する表示ステップ(S180等)と、視聴者のディスプレイ80に対する目頭または目じりの位置を計測する位置取得ステップ(S120、S150等)と、その位置に関する標準位置を決定するためのキャリブレーションにおいて位置取得ステップで計測された目頭または目じりの位置を標準位置として標準位置記憶部50に格納する標準位置記憶ステップ(S120)と、位置取得ステップにより新たに計測されたコンテンツ視聴中の視聴者のディスプレイ80に対する目頭または目じりの位置と標準位置との差を位置ずれとして検出する位置ずれ検出ステップ(S150、S160)と、位置ずれ検出ステップにより位置ずれが検出された際に(S160でYes)、検出された位置ずれに応じてディスプレイ80に表示される3次元映像が回転または平行移動するように、3次元映像に対する画像処理をする画像処理ステップ(S180)とを含む。
 これにより、本実施の形態におけるヘッドマウントディスプレイ1の位置ずれ調整方法によれば、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止される。
 ここで、図10に従って、図9に示されるS120のキャリブレーションの手順の詳細を説明する。
 まず、キャリブレーションの最初にディスプレイ80に何も表示しない状態で(S121)、カメラ10により、視聴者の目全体を含む範囲を撮像する(S122)。瞳検出部20と目頭検出部30は、S122で撮像した画像より、それぞれ瞳がある部分と目頭がある部分とを切り出す(S123)。例えば、図6に示されるように、瞳検出部20はS122で撮像した目を含む画像を縦に3分割した中央の1/3を瞳用に切り出し、目頭検出部30はS122で撮像した鼻側の1/3を目頭認識用に切り出す。
 続いて、目頭検出部30は目頭に特徴的な上瞼と下瞼とがなす形を認識する(S124)。認識の方法は、例えば、典型的な目頭形状のモデルを複数保持し、画像中の形とモデルとを照合する方法である。目頭形状のモデルの情報としては、例えば、図11に示されるように、「モデルID」と、類似したモデルをまとめた「類型」と、モデル図形とモデル図形における目頭位置の情報(図中における「モデル」)を保持する。目頭検出部30は、合致したモデル上の目頭位置より画像中の目頭位置を決定する。モデルは図形としてではなく、線分の傾きや角度といった特徴量によって記述しても良い。
 眼球位置キャリブレーション部40は画像で認識した目頭の座標上の位置を決定する(S125)。位置は、例えば、左右のディスプレイを結ぶ線をx軸とし、それに直行する方向をy軸とする座標平面であらわす。
 x軸の0点を、例えば、カメラ10Lとカメラ10Rの撮像範囲の中間点とする。y軸の0点を、例えば、カメラ10の上下方向の中心とする。図12においては、x軸の0点はカメラ10Lとカメラ10Rのどちらの撮像範囲からも外れた位置にある。座標系はカメラ10Lとカメラ10Rの撮像範囲の実際の位置関係を反映するように設定される。カメラ10Lとカメラ10Rの撮像範囲が重なる場合には、x軸の0点は両撮像範囲に含まれることになる。瞳検出部20は、ステップS124での処理(目頭認識)と並行して、あるいは、順次に、S123で切り出した中央の1/3の画像から楕円形で周辺より色の濃い部分を特定し、瞳を認識する(S126)。瞳については、虹彩の色が濃い場合は虹彩の輪郭を認識し、虹彩の色が薄い場合は瞳孔の輪郭を認識する。そして、眼球位置キャリブレーション部40は瞳として認識された虹彩または瞳孔の楕円の中心を瞳の位置として決定する(S127)。位置は目頭と同一座標平面で表す。
 さらに、眼球位置キャリブレーション部40は、標準の画像表示位置を決定する(S128)。画像表示位置は、ディスプレイ80LについてはS127で決定された左の瞳位置の正面を画像中心位置とし、ディスプレイ80RついてはS127で決定された右の瞳位置の正面を画像中心位置とする。そして、標準位置記憶部50はS125で眼球位置キャリブレーション部40が決定した左右の目頭位置を記憶する(S129)。ここで、標準位置記憶部50に記憶されるデータは、例えば図13のように、左右の目頭の標準位置を2次元座標で表したデータである。
 このように、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、無限遠を見た際の瞳位置を特定し、標準位置として、画像表示の中心とすることができる。映像観賞中の瞳の位置は視線によって移動するが、目頭の位置は映像観賞中も移動しない。目頭の標準位置を設定することで、映像観賞中でも無限遠を見た場合の瞳位置を相対的に求めることができる。また、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、斜視や斜位等の左右の眼球の向きにずれのある、あるいは、ずれが起こる視聴者に対して、注視点があるときの負荷のかかった眼球の向きではなく、最も負荷のかからない眼球の向きに対して左右それぞれの眼球の正面に画像を提示することができ、視聴者が注視するための眼球への負荷の少ない画像の提示ができる。
 また、瞳位置の情報は、標準位置における画像の提示位置を決定するためにのみ利用する。映像視聴中の瞳は、視聴者が画像のどこを見ているかによって移動する。例えば画像の中心でなく、右端を見ている場合には、瞳は目の中で右端へ寄る。そのため、映像視聴中の瞳位置は必ずしも画像の中心位置の指標としてふさわしくない。そこで、本実施の形態では、ステップS120のキャリブレーションで標準位置を定める際にのみ瞳位置を用い、以降は目頭の位置を用いてHMDのずれに対応する画像提示位置を調整する。
 次に、図9に示されるS150の目頭の位置ずれを計算する手順の詳細を図14のフローチャートに従って説明する。
 まず、カメラ10により視聴者の目全体を含む範囲を撮像する(S151)。目頭検出部30は、S151で撮像した画像より、目頭がある部分を切り出す(S152)。画像の切り出しは、例えば、S120のキャリブレーションにおけるS123の切り出しと同様に画像の鼻側1/3を切り出すものとする。そして、目頭検出部30は目頭に特徴的な上瞼と下瞼とがなす形を認識する(S153)。ここで、認識の方法は、例えば、S124と同様にモデルとの照合を行うものとする。S124で複数のモデルから特定のモデルにより目頭が特定された場合、目頭検出部30はS124で特定されたモデルを記憶しておき、S153で目頭の認識を行う際には、記憶されたS124で特定されたモデルのみあるいは当該のモデルとそれに類似したモデルのみを用いて目頭の認識を行うことで、処理時間を短縮することができる。類似したモデルを用いる場合、例えば、図11に示したモデルの類型に従い、S124で特定されたモデルと同じ類型のモデルのみを認識に用いる。
 続いて、位置ずれ検出部60は画像中に認識した目頭の位置を決定する(S154)。この位置については、S125でキャリブレーション時の目頭位置を決定した座標軸上で決定する。さらに、位置ずれ検出部60は、S129で標準位置記憶部50に記憶された目頭標準位置とS154で決定した目頭の位置との距離を計算し(S155)、S160で位置ずれ検出を行う。
 次に、図9に示されるS170の補正処理の手順を図15のフローチャートに従って詳細に説明する。
 まず、判定部71は、S155で位置ずれ検出部が計算した現在の目頭の位置と目頭標準位置との距離と、あらかじめ定められた基準値とを比較する(S171)。ここで、基準値は、例えば、30mmとし、現在の目頭の位置と目頭標準位置との距離が基準値以上の場合、すなわち、図15のS171ではNoの場合、左右画像制御部77は、左目用の画像を右目用の画像に入れ替える(S172)。すなわち、両目に同一の画像を提示することで、3次元ではなく2次元の映像として表示する。
 S171において現在の目頭の位置と目頭標準位置との距離が基準値より小さい場合、すなわち図15のS171ではYesの場合、平行移動計算部75および回転計算部72は、HMD1の装着位置のずれによるディスプレイ80と視聴者の目との位置のずれを座標変換として求め、回転処理部74および平行移動処理部76は、その座標変換を補償する画像の表示位置の座標変換を行う。
 図16はディスプレイ80と視聴者の目との位置のずれの一例と、ずれを座標変換として計算する過程を模式的に示した図である。図16の(a)は映像の視聴中にカメラ10で撮像された眼球を実線で示し、S120で行ったキャリブレーションの際にカメラ10Lで撮像された状態を点線で示している。左側が右目用カメラ10Rの画像を示し、右側が左目用カメラ10Lの画像を示す。
 映像視聴中瞳の位置は視聴者の注視点によって移動する。注視点が画像の端にある場合、瞳位置はディスプレイ80と目との位置にずれがなくてもS120のキャリブレーション時の標準瞳位置から大きく外れる。一方、目頭は注視点が移動しても固定されており、ディスプレイ80と目との相対位置をより正確に捉えることができる。そこで、ディスプレイ80と目との相対位置のずれを補正するため、画像処理部70により、目頭標準位置と目頭の現在位置のずれを補償する画像変換処理を行う。
 ここで、右目目頭と左目目頭の相対位置には変化がないため、右目目頭標準位置から右目目頭現在位置への移動と左目目頭標準位置から左目目頭現在位置への移動を実現する座標変換はアフィン変換に当たる。2次元のアフィン変換は回転と平行移動によって表現できることが知られている。従って、2次元のアフィン変換は、以下の式1のように記述できる。
Figure JPOXMLDOC01-appb-M000001
 ただし(xp、yp)は変換後の座標、(xs、ys)は変換前の座標を示し、行列
Figure JPOXMLDOC01-appb-M000002
 は座標の回転を示し、
Figure JPOXMLDOC01-appb-M000003
 は平行移動を示す。
 図16の(a)に示される例では、S120のキャリブレーションで得られた左右の目頭の座標を変換前の座標とし、S154で決定された現在の左右の目頭の位置を変換後の座標として上記の式を解き、変換行列
Figure JPOXMLDOC01-appb-M000004
 と変換ベクトル
Figure JPOXMLDOC01-appb-M000005
とを得る。変換行列と変換ベクトルは、S120のキャリブレーション時に設定した画像の中心と瞳の位置の相対位置が、現在どのようにずれたかを示すベクトルである。従って、得られた変換行列と変換ベクトルの逆行列を用いて画像を処理することにより、現在の瞳の位置の正面に画像中心点が位置するように画像を変換することができる。
 実際の計算方法の一例として、ここでは、幾何的に回転と平行移動を求める方法を図16の(b)に従って説明する。
 左右の目頭の標準位置から左右の目頭の現在位置への変換は、右目または左目の目頭標準位置を中心として、左右の目頭標準位置を結ぶ線分と、左右の目頭現在位置を結ぶ線分とがなす角度θで回転し、回転中心とした側の目頭の標準位置から現在位置へのベクトルを移動ベクトルとして平行移動することで実現できる。ここでは、右目頭標準位置を回転中心として変換行列を求める場合を例に説明する。
 まず、回転計算部72は左右の目頭標準位置を結ぶ線分と、左右の目頭現在位置を結ぶ線分とがなす角度θを求め、-θを画像の回転角度として算出する(S173)。左右の目頭標準位置を結ぶ線分と座標のx軸とがなす角をθs、左右の目頭現在位置を結ぶ線分と座標のx軸とがなす角をθpとすると、回転計算部72は、以下の式2ように、θおよび-θを求めることができる。
Figure JPOXMLDOC01-appb-M000006
 ただし、左目頭標準位置を(xls,yls)、右目頭標準位置を(xrs,yrs)、左目頭現在位置を(xlp,ylp)、右目頭現在位置を(xrp,yrp)とする。
 次に、平行移動計算部75は、図16の(b)の右目頭標準位置を始点とし右目頭現在位置を終点とする移動ベクトルDを求め、ベクトル-Dを画像の移動ベクトルとする(S174)。その移動ベクトルDは以下の式3となる。
Figure JPOXMLDOC01-appb-M000007
 続いて、回転処理部74は画像記憶部73に記憶された視聴中の映像に含まれる左右の画像をS173で求められた-θだけ回転する(S175)。各点の座標の変換は以下の式4で示される変換行列によって行われる。
Figure JPOXMLDOC01-appb-M000008
 次いで、平行移動処理部76はS175で回転された左右の画像を-Dだけ移動する(S176)。各点の座標の移動はx座標に(-xrp+xrs)を加算し、y座標に(-yrp+yrs)を加算することで行う。
 以上のように、本実施の形態におけるHMD1は、視聴者の目とディスプレイ80との初期位置を決定し、その位置のずれを検出するためのカメラ10と眼球位置キャリブレーション部40と位置ずれ検出部60と画像処理部70を備え、HMD装着当初に表示のない暗いディスプレイ80を見たときの瞳位置と目頭位置を標準位置として記憶し、映像視聴中は、逐次目頭の位置の標準位置からのずれを検出する。目頭の位置が標準位置からずれている場合には、目頭のずれを補償する画像提示位置および角度の変換を行って表示する。このように動作するHMD1では、何も表示されていない、暗いディスプレイ80を見ている状態で瞳の位置を特定することで、無限遠を見た際の瞳位置を特定し、画像表示の中心を決める。
 さらに、本実施の形態におけるHMD1では、映像観賞中も移動しない目頭の位置を基準にしてHMDの装着位置ずれによるディスプレイ80と目の位置のずれを補償することで左右の目に対して上下方向のずれの無い、正しい視差の画像を表示することができる。これにより3次元映像視聴時の立体視の異常や、3次元映像の視聴による違和感、疲労、不快感を低減することができる。また、何も表示されていない、暗いディスプレイ80を見ている状態で左右の瞳の位置を独立に特定することで、斜視等の左右の眼球の向きにずれのある視聴者の疲労を低減することができる。
 つまり、本実施の形態におけるHMD1によれば、視聴者の視線が移動したとしても、移動しない目頭または目じりとディスプレイ80との相対位置により、視線にかかわり無く、目とディスプレイ80との相対位置のずれが補正されるので、HMD1の装着位置がずれても、目とディスプレイ80との相対位置のずれによる立体視の異常や疲労および映像酔いが防止される。
 なお、本実施の形態では視聴開始直後にS121で暗画面を表示し、S122で目全体を撮像し、S123で大まかに画像を切り出してS124の目頭認識、S126の瞳認識の動作を行うとしたが、S190の視聴終了時に瞳標準位置と目頭標準位置および目頭認識の適用モデルを図17に示す、不揮発性のメモリである標準位置蓄積部130に記憶し、次回の視聴開始時には暗画面表示によるキャリブレーションを行わず、直前の標準位置の微調整のみを行うとしても良い。この場合は、ステップS129で目頭標準位置を標準位置記憶部50に記憶する際に、ステップS127で決定した瞳位置の座標も標準位置記憶部50に記憶する。標準位置蓄積部130は、データとして、たとえば視聴終了時の左右の目頭標準位置と左右の瞳標準位置と目頭の検出に用いられた適用モデルのIDと視聴終了時の日時を蓄積する。次回視聴開始時には直近のデータを呼び出して利用する他、次回視聴開始時に蓄積された日時をディスプレイ80に表示し、視聴者は表示された日時から自分のデータを選択しても良い。データに視聴者を識別する個人IDを入力蓄積するものとして、個人IDにより視聴者本人がデータを選択しても良い。また、次回視聴開始時に、これまで当該のHMDを利用したことのない視聴者である場合には、キャリブレーションを行うため入力を入力部110から入力する。
 標準位置の微調整は、例えば、図18に示すとおり、S110の視聴開始の後に置かれるステップS220である微調整を行う。S220の微調整は以下の動作である。
 まず、カメラ10により目全体を撮像する(S122)。次に、眼球位置キャリブレーション部40は、標準位置蓄積部130に記憶された直前使用時の瞳標準位置と目頭標準位置および目頭認識の適用モデルを呼び出す(S221)。目頭検出部30はS221で呼び出した直前の視聴時の目頭標準位置の周辺領域のみを切り出す(S223)。周辺領域は、図19に示すように、例えば、S221で呼び出した目頭標準位置のx軸上の位置からx軸上で±5mmの範囲とする。
 さらに、目頭検出部30はS221で呼び出した直前使用時の目頭認識の適用モデルとの照合によりS223で切り出した直前使用時の目頭標準位置の周辺領域内で目頭の認識を行う(S224)。
 次に、眼球位置キャリブレーション部40は画像中に認識した目頭の位置を決定する(S125)。続いて、眼球位置キャリブレーション部40は瞳位置を決定する(S227)。ここで、瞳位置は瞳を認識することなく、以下の手順で決定する。まず、S221で呼び出した直前使用時の目頭標準位置からS224で認識し、S125で決定された目頭位置への移動ベクトルを左右の目頭それぞれについて求める。次いで、S221で呼び出した直前使用時の左右の瞳標準位置の座標を、左右それぞれ求めた移動ベクトルにしたがって変換する。変換した座標を左右それぞれの瞳の位置として決定する。
 以降本実施の形態と同様に眼球位置キャリブレーション部40が画像表示位置を決定し(S128)、標準位置記憶部50はS125で眼球位置キャリブレーション部40が決定した左右の目頭位置を記憶する(S129)。さらに標準位置記憶部50はS227で眼球位置キャリブレーション部40が決定した左右の瞳の位置を記憶する(S131)。これにより、HMD1のユーザが固定の場合には、初回使用時にキャリブレーションすれば、その後の使用時のキャリブレーションは微調整のみとなり、視聴開始時に暗画面表示を見る手間を省くことができる。さらにキャリブレーションの時間も短縮することができ、視聴者が視聴開始入力してからコンテンツ映像を視聴するまでの時間を短縮することができる。また、不揮発性のメモリに複数ユーザの直前使用時の情報を記憶する。ユーザは視聴開始時に、開始信号とともにユーザを指定する信号を入力する。入力部は、例えば、ダイヤルやスイッチ、タッチパネルなどである。S110の視聴開始時に視聴開始信号とともにユーザを特定する信号を受け付け、S221で特定されたユーザの直前使用時の情報を読み出すことで、複数のユーザに対応することもできる。
 また、本実施の形態では、S172において左右両方のディスプレイに左目用画像を表示することで3次元映像を2次元映像に切り替えたが、両方のディスプレイに右目用画像を表示しても良い。また、瞳の位置とディスプレイの中心位置との距離が短い側の画像を両側のディスプレイに表示することで、3次元映像を2次元映像に切り替えても良い。
 例えば、図9におけるS170の詳細を示す別のフローチャート(図20)のように、S173の回転角度の計算とS174の移動ベクトルの計算の後、目頭位置のずれ量が基準値を超えないかを判断する(S271)。その結果、ずれ量が基準値以上の場合、すなわちS271でNoの場合に、左右画像制御部77は標準位置記憶部50に記憶された左右の瞳標準位置の座標をS173とS174で決定された回転θと平行移動Dに基づいて変換し、現在の無限遠を見た場合の瞳の位置を求める。さらに、左右画像制御部77は瞳標準位置の変換座標、すなわち現在の無限遠を見た場合の瞳の位置と、現在のディスプレイ中心との距離を求める(S272)。基準値は、例えば、両目のずれ量の合計が6.5mmとする。3次元映像を作成する際に一般的に用いられる左右の瞳孔間の距離が6.5cmであり、6.5mmはその10%である。左右画像制御部77はS272で求めた距離を左右のディスプレイについて比較する(S273)。右側の瞳とディスプレイの距離が左側より大きい場合、すなわちS273でYesの場合には、左右画像制御部77は左目用画像を右目用画像に入れ替える(S274)。すなわち、右目用画像として左目用画像を利用して、左右両方の目に左目用画像を提示することになる。S273において左側の瞳とディスプレイの距離が右側より大きい場合、すなわちS273でNoの場合には、左右画像制御部77は右目用画像を左画像に入れ替える(S275)。すなわち、左右両方の目に右目用画像を提示することになる。このように、2次元化処理では、画像処理部70は、位置ずれ検出部60により検出された視聴者の左目と右目のそれぞれについての位置ずれのうち、ずれ量の大きい方の目用の画像に対して画像処理を行う。
 これにより、3次元映像を2次元映像に切り替えた際により映像が見やすい状態の目に合わせた2次元映像を表示することができる。この処理を行う場合、ステップS120でキャリブレーションを行う際に、標準位置記憶部50はS125で決定した目頭標準位置のみでなく、S127で決定した瞳標準位置をも記憶する。
 また、本実施の形態では、S171でキャリブレーション時の目とディスプレイ80の相対位置に対して現在の目とディスプレイ80の相対位置のずれの量が基準値以上か否かを判断して、3次元画像表示のための補正を行うか、3次元画像から2次元画像への切り替えを行うかを決定しているが、ずれ量で判断せず、回転計算部72でずれを回転と移動とに分解した際の回転角を求め、回転角の大きさがあらかじめ定められた基準値以上である場合には3次元画像から2次元画像への切り替えを行うとしても良い。
 つまり、画像処理部70は、位置ずれ検出部60により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、分解された回転の角度があらかじめ定められた値を超えた場合は、左目用と右目用の画像のどちらか一方を左右両方の目用の画像としてディスプレイ80に表示されるための画像処理を行い、一方、分解された回転の角度があらかじめ定められた値を超えない場合は、左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行ってもよい。
 例えば、図9におけるS170の詳細を示す別のフローチャート(図21)のように、ずれ量による判断はせず、まず回転計算部72で図16の(b)に示す回転角θを求め(S173)、判定部71が、その回転角θとあらかじめ定められた値、例えば6度、とを比較する(S371)。回転角θが6度以上の場合、すなわちS371でNoの場合、左右画像制御部77は左目用画像を右画像に入れ替えて、3次元画像を2次元画像に切り替える(S172)。3次元画像を2次元画像に切り替える方法については、右目用画像を左画像に入れ替えても良い。また、前記のS272からS275の動作で行っても良い。一方、S371で回転角θが6度未満の場合、すなわちS371でYesの場合は、本実施の形態と同様にS174からS176の動作で、移動ベクトルを計算し、画像の回転と平行移動を行う。これにより、HMD1の装着ずれのうち、立体視の障害となる縦ずれ画像の原因となる回転の成分が大きすぎる場合に2次元映像に切り替えることができる。すなわち、立体視の異常や疲労あるいは映像酔いを起こしやすいずれに対してのみ2次元映像に切り替えることになり、必要以上に3次元映像の視聴を妨げないようにすることができる。
 また、本実施の形態では、S151において、必ず目頭が撮像されるものとして説明したが、極端にHMD1の装着位置がずれた場合には、目頭がカメラ10の撮像範囲から外れる場合がある。その場合には、左右どちらか一方の画像を左右両側のディスプレイ80に提示して、2次元映像に切り替えてもよい。これにより、HMD1の装着位置が大きくずれて、3次元映像を視聴するための視差を正確に作ることができない場合にも、視聴者が無理なく映像の視聴を続けことができる。
 また、本実施の形態では、映像コンテンツの視聴中はS140からS180の動作を逐次行い、都度、HMD1の装着位置のずれに対して画像処理を行うとしたが、一定のずれが、一定の時間以上続く場合にだけ、画像処理を行うものとしても良い。一定のずれとは、ずれの変動がある範囲内で、一定とみなせる場合をさす。例えば、ずれの変動がS160で許容範囲内とされる範囲にあれば一定のずれとみなす。本実施の形態ではS160での許容範囲を両眼のずれの和が2mm以内とした。例えば、両眼のずれの和の時間変動が2mm以内である場合に一定のずれとみなす。さらに一定の時間とは、例えば、1秒である。視聴者がHMD1の装着位置がずれたまま視聴を続けるのは、視聴者が装着位置のずれに気がついていない場合と考えることができる。ずれに気がついて装着しなおすまでを約1秒として、1秒以上一定のずれが維持された場合にS170の補正処理を行うものとする。これにより、視聴者がすぐに修正する装着ずれや、HMDの一時的な揺れに対して画像処理を施すことで、かえって違和感のある表示になることを防ぐことができる。さらに、逐次の画像処理の必要がなくなり処理量が削減できる。また、ずれが一定でない状態が、一定時間以上続く場合には、左右どちらか一方の画像を左右両側のディスプレイに提示して、2次元映像に切り替える。ずれが一定でない状態は、視聴者の頭部が激しく動いていることを示す。すなわち、視聴者が歩行等の運動をしているか、乗り物等の振動が伝わっている可能性がある。このように頭部が激しく運動している状態は、映像酔いを起こしやすい状態であるため、ずれが一定でない場合に2次元映像に切り替えることで、視聴者の映像酔いを防ぐことができる。ずれが一定でない状態が続く時間については、例えば5分とする。
 また、本実施の形態では、目頭の位置を指標としてディスプレイ80と目との相対位置のずれを検出したが、目じり等、映像視聴中に位置の変わらない目の周辺部位であれば目頭以外でも良い。
 (実施の形態2)
 次に、本発明の実施の形態2におけるヘッドマウントディスプレイおよびその位置ずれ調整方法について説明する。
 実施の形態1においては、HMD1の形状に拘束されずに、HMD1が眼球の前からずれた場合に、そのずれのベクトルを算出する方法について説明した。しかしながら、一般に、HMD1は視聴者の鼻の凸部分によって、支えられている場合が多い。図22は、本実施の形態におけるHMD1のハードウェア構成の一例を示す図である。視聴者の左目の前に左目用ディスプレイ80Lを設置し、視聴者の右目の前に右目用ディスプレイ80Rを設置する。2つのディスプレイの間に視聴者の目を撮影するためのカメラ10を設置する。赤外線カメラである場合は、赤外線の発光部をカメラ10に隣接して設置する。HMD1を装着、固定するためにつると鼻あてを備える。HMD1の支点が両耳と鼻であり、中心位置を支えるのが鼻であるため、HMD1が傾く場合には、つまり、正常時におけるHMD1の装着状態を示す図23の(a)に対して、図23の(b)に示すように、右下がりにずれる場合には、Paを支点として傾く場合が多い。逆に、図23の(c)に示すように、左下がりにずれる場合には、Pbを支点としてずれる場合が多い。これらの支点PaおよびPbを中心にずれる場合には、より少ない画像特徴量でHMD1のずれを検出することが可能になる。
 つまり、本実施の形態では、位置ずれ検出部60は、検出する位置ずれとして、視聴者の鼻を支点とするヘッドマウントディスプレイ1の回転による位置ずれを検出し、かつ、ヘッドマウントディスプレイ1の右が下がる回転は、視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、視聴者の鼻の左の凸面の一点を中心とする回転であるとして、位置ずれを検出する。
 より詳しくは、位置ずれ検出部60は、位置ずれとして、視聴者の鼻の凸面の一部である支点からカメラ10の位置までの相対位置を用いてヘッドマウントディスプレイ1の回転量を算出することで、位置ずれを検出する。このとき、位置ずれ検出部60は、標準位置として、カメラ10で撮像された画像の中心に近いほうの目頭または目じりの位置を用いて位置ずれを検出する。
 以下、具体的に、本実施の形態における位置ずれの検出方法、つまり、HMD1の傾いた角度を算出する方法について、図24を用いて説明する。図24における点Xsは実施の形態1のステップS120でキャリブレーションにより決定された標準目頭位置である。本実施の形態では、原点を左右のカメラ10の間に設定せず、右目用カメラの左上端(点Os)に設定する。図24の(a)に示される状態では、鼻の点Paの点を支点にHMD1が支えられており、視聴者の眼球を撮像しているカメラからは、原点をOsに対して、目頭の位置がXs(xrs,yrs)の座標値として検出されている。このとき、点Paを支点として、傾きθだけHMD1が図24の(b)に示すように、傾いたとする。このとき、カメラの原点Osも、基準座標系(カメラ、眼球の位置に依存しない基準の座標系)に対してθだけ傾いた位置にずれることとなる。その結果、基準座標系に対して原点Osは原点O’sに、Paを中心に、回転し、また、点Xsの座標もX’sに、Paを中心に、回転することとなる。すなわち、回転座標変換行列をRとすると
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 となる。ただし、
Figure JPOXMLDOC01-appb-M000011
で表現することができる。また、図24の(a)において、点Paに対する点Osのベクトルを、基準座標系において、(X0,Y0)とする。すなわち、HMD1が支えられている鼻の位置と、カメラ10が撮像している原点の座標との相対的な位置関係が設計時の計測等によって、あらかじめ、与えられているものとする。このとき、基準座標系における点Paに対する点Xsの位置ベクトル(座標値)は、
Figure JPOXMLDOC01-appb-M000012
によって計算することができる。
 一方、HMD1がθだけ傾いたときの状態での点Xsの位置座標について計算する。図24の(b)に示される状態において、基準座標系における点Paに対する点Xsの位置ベクトルは(座標値)は、回転後の点O’sの位置を利用して、
Figure JPOXMLDOC01-appb-M000013
で表現できる。さらに、点O’sが、点Paを中心に点Osの位置をθだけ回転させた座標であり、また、図24の(b)に示されるカメラ10の画像において、視聴者の目頭の位置座標X’sが(xrp,yrp)として計測されたとき、PaXsのベクトルは、
Figure JPOXMLDOC01-appb-M000014
で算出することができる。ここで、基準座標系において、目頭の位置が固定されているとすると、
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
という、2つの式(式11、式12)が成立することとなる。
 ここで、鼻の支点座標Paに対する点Osの位置座標(X0,Y0)は、設計時に視聴者の鼻のあたる位置として想定されていたときには、あらかじめ与えられている値となる。さらに、眼球を撮像しているカメラ10によって、図24の(a)の状態での目頭の座標値として(xrs,yrs)が与えられ、HMD1が点Paを支点として傾いた図24の(b)の状態での目頭の座標値として(xrp,yrp)が与えられたとき、HMD1の傾きθを計算することができる。
 上記、2つの式(式11、式12)では、各式から傾きθを計算することが可能である。しかしながら、点Paを中心とした回転方向のずれは、目頭の位置により測定する場合、目頭と支点との位置関係は、y軸方向のずれの方がx軸方向のずれより大きい。そのため、図24の(b)に示されるようにθ回転したときには、水平方向のずれ量の方が大きくなる。よって、式11におけるxrsとxrpを計測して、θの値を計算する方が、精度がよくなる。
 なお、図24に示される例では、ヘッドマウントディスプレイの一方が下に下がることにより、ずれ量を算出したが、逆の場合には、Pbを支点とした回転として計算することが可能である。
 また、図24に示される例では、HMD1が右に傾いたときに、右目の目頭の位置を用いて回転角を求めた。しかしながら、目頭の画像が鮮明に取得できなかったり、目頭の位置がカメラ10の画角からはずれてしまったりするときには、左目の目頭の位置を用いて回転量を計算することも可能である。ただし、回転中心は、同じ点Paを回転中心とする算出方法を用いる必要がある。
 また、上記の計算では、カメラ10のレンズによる歪を考慮しないで算出を行っている。一般に、カメラで撮像される画像は、撮像される画像が中心から離れるほど(周辺部分に近づくほど)歪が生じる。そこで、カメラ10で撮像された画像からHMD1の傾きの量を算出するに当って、目頭または目じりを用いる場合には、なるべく、カメラ10の中心で撮像されている対象を基準にする方が、精度がよくなる。そこで、目頭または目じりの2つのうち、撮像中心に近い対象を用いて、傾き量を検出する方が精度よく算出可能となる。
 また、実施の形態1および2では、視聴者の目頭を検出して目頭の位置のずれに対応して画像の表示位置を補正するとしたが、目尻を検出して目尻の位置のずれに対応して画像の表示位置を補正するとしても良い。図22に示される例では、カメラ10を左右のディスプレイの間、すなわち撮像するそれぞれの目頭側にカメラを設置したが、目尻を検出する場合には、左右のカメラ10をHMD1のつる側、すなわち撮像するそれぞれの目尻側に設置しても良い。このとき、目頭検出部30は目尻検出部となり、目頭認識用モデルではなく目尻認識用モデルを持つ。標準位置記憶部50は目頭標準位置でなく目尻標準位置を記憶する。これにより、目尻の位置のずれに対応して画像の表示位置を補正することができる。
 以上、本発明に係るヘッドマウントディスプレイ1およびその位置ずれ調整方法について、実施の形態1および2を用いて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の主旨を逸脱しない範囲で、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、各実施の形態および変形例における構成要素を任意に組み合わせて得られる形態も、本発明に含まれる。
 たとえば、上記ブロック図(図5、図7)における処理系の機能ブロックは、半導体集積回路であるLSIで実現されてもよい。そのLSIは、機能ブロックごとに1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。なお、ここでは、LSIとは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されるものが含まれる。
 また、集積回路化の手法としては、LSI化に限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用して集積回路化をしてもよい。
 また、上記実施の形態におけるヘッドマウントディスプレイ1は、図8を用いて説明したように、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムで実現されてもよい。ここで、RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサがそのコンピュータプログラムにしたがって動作することにより、ヘッドマウントディスプレイ1はその機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 すなわち、そのようなプログラムは、コンピュータ(あるいは、プロセッサ)に、ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整する方法であって、3次元映像をディスプレイに表示する表示ステップと、視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得ステップと、前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得ステップで計測された前記目頭または前記目じりの位置を前記標準位置として標準位置記憶部に格納する標準位置記憶ステップと、前記位置取得ステップにより新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出ステップと、前記位置ずれ検出ステップにより位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理ステップととを実行させてもよい。
 また、上記実施の形態におけるヘッドマウントディスプレイ1を構成する構成要素の一部または全部は、脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、超多機能LSIを含んでもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。
 また、本発明は、上記実施の形態におけるフローチャートに示す方法として実現してもよい。また、その方法をコンピュータにより実現するコンピュータプログラムとして実現してもよいし、そのコンピュータプログラムを表すデジタル信号として実現してもよい。さらに、そのコンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録した記録媒体として実現してもよい。
 また、上記コンピュータプログラムまたはデジタル信号は、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送することができるのは言うまでもない。
 また、上記コンピュータプログラムまたはデジタル信号を記録媒体に記録して移送することにより、または、上記コンピュータプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより、本発明に係るヘッドマウントディスプレイまたはその位置ずれ調整方法を実施してもよい。
 本発明にかかるヘッドマウントディスプレイは、3次元映像を表示する場合に広く利用可能であり、映画やビデオ等の収録済みコンテンツを視聴するシステムを構築する際に有用である。また、遠隔作業や遠隔手術あるいはゲームや教育、訓練用のバーチャルリアリティによる体験システム等の用途にも応用できる。
1 ヘッドマウントディスプレイ(HMD)
10 カメラ
10L カメラ(左目用カメラ)
10R カメラ(右目用カメラ)
20 瞳検出部
30 目頭検出部
40 眼球位置キャリブレーション部
50 標準位置記憶部
60 位置ずれ検出部
70 画像処理部
71 判定部
72 回転計算部
73 画像記憶部
74 回転処理部
75 平行移動計算部
76 平行移動処理部
77 左右画像制御部
80 ディスプレイ
80L ディスプレイ(左目用ディスプレイ)
80R ディスプレイ(右目用ディスプレイ)
100 位置取得部
110 入力部
120 画像記憶・受信部
130 標準位置蓄積部
211  入力部
212  記憶部
213  出力部
214  CPU
215  ROM
216  RAM
217  入出力I/F
220  コンピュータ

Claims (12)

  1.  3次元映像を表示するディスプレイと、
     視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得部と、
     前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得部で計測された前記目頭または前記目じりの位置を前記標準位置として取得して記憶する標準位置記憶部と、
     前記位置取得部により新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出部と、
     前記位置ずれ検出部により位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理部と
     を備えるヘッドマウントディスプレイ。
  2.  前記位置取得部は、前記視聴者の瞳と前記ディスプレイとの相対位置を計測するセンサを有し、
     前記ヘッドマウントディスプレイはさらに、前記センサにより計測された、前記ディスプレイに前記3次元映像を表示しない状態における、前記相対位置に基づき、前記標準位置を決定し、決定した標準位置を前記標準位置記憶部に格納するキャリブレーション部を備える
     請求項1に記載のヘッドマウントディスプレイ。
  3.  前記画像処理部は、前記3次元映像を構成する左目用と右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
     請求項1に記載のヘッドマウントディスプレイ。
  4.  前記画像処理部はさらに、前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行う
     請求項1に記載のヘッドマウントディスプレイ。
  5.  前記位置取得部は、前記視聴者の左目と右目のそれぞれについて前記位置を計測し、
     前記標準位置記憶部は、前記視聴者の左目と右目のそれぞれについて前記標準位置を記憶し、
     前記位置ずれ検出部は、前記視聴者の左目と右目のそれぞれについて前記位置ずれを検出し、
     前記画像処理部は、前記位置ずれ検出部により検出された前記視聴者の左目と右目のそれぞれについての前記位置ずれのうち、ずれ量の小さい方の目用の画像に対して前記画像処理を行う
     請求項4に記載のヘッドマウントディスプレイ。
  6.  前記画像処理部は、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えた場合には前記3次元映像を構成する左目用と右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記位置ずれ検出部により検出された位置ずれの量があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
     請求項1に記載のヘッドマウントディスプレイ。
  7.  前記画像処理部は、前記位置ずれ検出部により検出された位置ずれを回転と水平方向および垂直方向への移動とに分解し、前記回転の角度があらかじめ定められた値を超えた場合には前記左目用と前記右目用の画像のどちらか一方を左右両方の目用の画像として前記ディスプレイに表示されるための画像処理を行い、前記回転の角度があらかじめ定められた値を超えない場合は前記左目用と前記右目用の画像を各々回転させる処理と水平方向および垂直方向に移動させる処理とを行う
     請求項6に記載のヘッドマウントディスプレイ。
  8.  前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻を支点とする当該ヘッドマウントディスプレイの回転による位置ずれを検出し、かつ、当該ヘッドマウントディスプレイの右が下がる回転は、前記視聴者の鼻の右の凸面の一点を中心とする回転であり、ヘッドマウントディスプレイの左が下がる回転は、前記視聴者の鼻の左の凸面の一点を中心とする回転であるとして、前記位置ずれを検出する
     請求項1に記載のヘッドマウントディスプレイ。
  9.  前記位置取得部は、前記目頭を撮像するカメラを有し、
     前記位置ずれ検出部は、前記位置ずれとして、前記視聴者の鼻の凸面の一部である支点から前記カメラの位置までの相対位置を用いて当該ヘッドマウントディスプレイの回転量を算出することで、前記位置ずれを検出する
     請求項8に記載のヘッドマウントディスプレイ。
  10.  前記位置ずれ検出部は、前記標準位置として、前記カメラで撮像された画像の中心に近い前記目頭または前記目じりの位置を用いて前記位置ずれを検出する
     請求項9に記載のヘッドマウントディスプレイ。
  11.  ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整する方法であって、
     3次元映像をディスプレイに表示する表示ステップと、
     視聴者の前記ディスプレイに対する目頭または目じりの位置を計測する位置取得ステップと、
     前記位置に関する標準位置を決定するためのキャリブレーションにおいて前記位置取得ステップで計測された前記目頭または前記目じりの位置を、前記標準位置として、取得し、標準位置記憶部に格納する標準位置記憶ステップと、
     前記位置取得ステップにより新たに計測されたコンテンツ視聴中の前記視聴者の前記ディスプレイに対する前記目頭または前記目じりの位置と、前記標準位置記憶部に記憶された前記視聴者の前記標準位置との差を位置ずれとして検出する位置ずれ検出ステップと、
     前記位置ずれ検出ステップにより位置ずれが検出された際に、前記検出された位置ずれに応じて前記ディスプレイに表示される3次元映像が回転または平行移動するように、前記3次元映像に対する画像処理をする画像処理ステップと
     を含むヘッドマウントディスプレイの位置ずれ調整方法。
  12.  ヘッドマウントディスプレイに表示される3次元映像の位置ずれを調整するためのプログラムであって、
     請求項11記載の位置ずれ調整方法に含まれるステップをコンピュータに実行させる
     プログラム。
PCT/JP2012/002499 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法 WO2012172719A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280006773XA CN103380625A (zh) 2011-06-16 2012-04-11 头戴式显示器及其位置偏差调整方法
JP2013520409A JP5414946B2 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US13/867,164 US9191658B2 (en) 2011-06-16 2013-04-22 Head-mounted display and position gap adjustment method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011134632 2011-06-16
JP2011-134632 2011-06-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/867,164 Continuation US9191658B2 (en) 2011-06-16 2013-04-22 Head-mounted display and position gap adjustment method

Publications (1)

Publication Number Publication Date
WO2012172719A1 true WO2012172719A1 (ja) 2012-12-20

Family

ID=47356740

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002499 WO2012172719A1 (ja) 2011-06-16 2012-04-11 ヘッドマウントディスプレイおよびその位置ずれ調整方法

Country Status (4)

Country Link
US (1) US9191658B2 (ja)
JP (1) JP5414946B2 (ja)
CN (1) CN103380625A (ja)
WO (1) WO2012172719A1 (ja)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103442195A (zh) * 2013-08-27 2013-12-11 肖遥 一种多媒体头戴接收装置
JP2014145734A (ja) * 2013-01-30 2014-08-14 Nikon Corp 情報入出力装置、及び情報入出力方法
CN104221077A (zh) * 2013-02-22 2014-12-17 索尼公司 头戴式显示器
WO2015019656A1 (ja) * 2013-08-06 2015-02-12 株式会社ソニー・コンピュータエンタテインメント 3次元画像生成装置、3次元画像生成方法、プログラム及び情報記憶媒体
JP2015141312A (ja) * 2014-01-29 2015-08-03 株式会社東芝 表示装置及び視線推定装置
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
KR20160016524A (ko) * 2014-07-31 2016-02-15 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
JP2016085350A (ja) * 2014-10-27 2016-05-19 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
WO2016170854A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017016455A (ja) * 2015-07-02 2017-01-19 アルパイン株式会社 画像補正装置および画像補正方法
JP2017046065A (ja) * 2015-08-24 2017-03-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
JP2018027290A (ja) * 2016-08-18 2018-02-22 エーエーシーアコースティックテクノロジーズ(シンセン)カンパニーリミテッドAAC Acoustic Technologies(Shenzhen)Co.,Ltd 虹彩情報収集機能を有するバーチャルリアリティ装置
US9904053B2 (en) 2014-12-25 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
KR20180030681A (ko) * 2015-07-20 2018-03-23 매직 립, 인코포레이티드 가상/증강 현실 시스템에서 안쪽 지향 각도들을 가진 시준 섬유 스캐너 설계
JP2018146966A (ja) * 2018-04-05 2018-09-20 株式会社ニコン 情報入出力装置、及び情報入出力方法
JP2018536300A (ja) * 2016-08-31 2018-12-06 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体
KR20190058581A (ko) * 2016-10-05 2019-05-29 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
WO2019244419A1 (ja) * 2018-06-19 2019-12-26 コニカミノルタ株式会社 画像表示装置とウェアラブルディスプレイ
US10627897B2 (en) 2017-12-04 2020-04-21 Fujitsu Limited Head mounted display, display control device, processing method, display method, and storage medium
JP2020518842A (ja) * 2017-02-27 2020-06-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited バーチャルリアリティーヘッドマウント装置
JP2020533721A (ja) * 2017-09-06 2020-11-19 エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited 建物情報モデルの仮想画像の表示
JPWO2019163031A1 (ja) * 2018-02-21 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
CN112513784A (zh) * 2018-09-27 2021-03-16 宝马股份公司 自动隐藏显示内容的、用于车辆的数据眼镜
JP2021049354A (ja) * 2015-10-16 2021-04-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. 眼の特徴を用いる眼ポーズ識別
JP2021141612A (ja) * 2015-11-04 2021-09-16 マジック リープ, インコーポレイテッドMagic Leap, Inc. 眼追跡に基づく動的ディスプレイ較正
JP2021525036A (ja) * 2018-06-06 2021-09-16 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体
JP2021532464A (ja) * 2018-07-24 2021-11-25 マジック リープ, インコーポレイテッドMagic Leap, Inc. 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
US11198063B2 (en) 2016-09-14 2021-12-14 Square Enix Co., Ltd. Video display system, video display method, and video display program
US11579688B2 (en) 2019-06-28 2023-02-14 Canon Kabushiki Kaisha Imaging display device and wearable device
KR102657100B1 (ko) * 2016-10-05 2024-04-12 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103380625A (zh) * 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
US9582006B2 (en) * 2011-07-06 2017-02-28 Peloton Technology, Inc. Systems and methods for semi-autonomous convoying of vehicles
JP6289498B2 (ja) * 2012-12-14 2018-03-07 ビステオン グローバル テクノロジーズ インコーポレイテッド 車両内の3次元ディスプレイの角度を自動的に調整するためのシステム及び方法
JP6238532B2 (ja) * 2013-03-11 2017-11-29 キヤノン株式会社 画像表示装置及び画像表示方法
KR20160025522A (ko) * 2013-06-28 2016-03-08 톰슨 라이센싱 위치 감지와 뷰들의 적응 수를 갖는 멀티뷰 3차원 디스플레이 시스템 및 방법
US9736467B2 (en) * 2013-08-05 2017-08-15 Samsung Display Co., Ltd. Apparatus and method for adjusting stereoscopic images in response to head roll
US11343487B2 (en) * 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
KR102138520B1 (ko) * 2013-11-11 2020-08-11 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US9600925B2 (en) * 2014-01-06 2017-03-21 Oculus Vr, Llc Calibration of multiple rigid bodies in a virtual reality system
US10228562B2 (en) * 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
CN106233227B (zh) 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
US10996473B2 (en) * 2014-03-26 2021-05-04 Atheer, Inc. Method and apparatus for adjusting motion-based data space manipulation
GB2525170A (en) 2014-04-07 2015-10-21 Nokia Technologies Oy Stereo viewing
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions
JP2015215505A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置、および表示方法
US9835862B1 (en) * 2014-05-15 2017-12-05 Google Llc Graphic interface for real-time vision enhancement
CN105204604B (zh) * 2014-05-30 2019-03-01 华为技术有限公司 一种眼球交互控制设备
EP2958074A1 (en) * 2014-06-17 2015-12-23 Thomson Licensing A method and a display device with pixel repartition optimization
JP2016009873A (ja) * 2014-06-20 2016-01-18 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
US9995933B2 (en) * 2014-06-24 2018-06-12 Microsoft Technology Licensing, Llc Display devices with transmittance compensation mask
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
KR102194787B1 (ko) * 2014-09-24 2020-12-24 삼성전자주식회사 사용자 기반 센서 정보 획득 방법 및 그 전자 장치
US20160109952A1 (en) * 2014-10-17 2016-04-21 Top Victory Investments Ltd. Method of Controlling Operating Interface of Display Device by User's Motion
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
JP6635048B2 (ja) * 2014-12-25 2020-01-22 ソニー株式会社 情報処理装置
CN105812777B (zh) * 2015-01-21 2018-02-09 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
WO2016117061A1 (ja) * 2015-01-22 2016-07-28 株式会社野村総合研究所 ウェアラブル端末およびそれを用いた情報処理システム
JP2016149660A (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10877297B2 (en) 2015-04-02 2020-12-29 Essilor International Monitoring component of the position of a head mounted device
CN104793741A (zh) * 2015-04-03 2015-07-22 深圳市虚拟现实科技有限公司 带眼球跟踪虚拟现实成像系统和方法
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
CN105204618B (zh) * 2015-07-22 2018-03-13 深圳多新哆技术有限责任公司 虚拟空间中虚拟物件的投影显示方法及装置
KR102591552B1 (ko) 2015-08-21 2023-10-18 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
CN105192982B (zh) * 2015-09-07 2018-03-23 北京小鸟看看科技有限公司 可调节式虚拟现实头盔的图像矫正方法和系统
US10757399B2 (en) 2015-09-10 2020-08-25 Google Llc Stereo rendering system
CN105376546A (zh) * 2015-11-09 2016-03-02 中科创达软件股份有限公司 一种2d转3d方法、装置及移动终端
US10347048B2 (en) 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN105898275A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 虚拟现实图像校准方法及装置
JP6732617B2 (ja) * 2016-09-21 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
CN114356098A (zh) 2016-09-28 2022-04-15 奇跃公司 由可穿戴设备进行面部模型捕获
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
WO2018120554A1 (zh) * 2016-12-26 2018-07-05 华为技术有限公司 图像显示方法和头戴显示设备
US10962779B2 (en) * 2017-02-15 2021-03-30 Sharp Kabushiki Kaisha Display control device, method for controlling display control device, and storage medium
JP2018142857A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
WO2018165906A1 (zh) * 2017-03-15 2018-09-20 廖建强 一种头戴式显示装置及其显示方法
TWI622806B (zh) * 2017-04-11 2018-05-01 宏碁股份有限公司 虛擬實境顯示裝置
CN107157588B (zh) * 2017-05-08 2021-05-18 上海联影医疗科技股份有限公司 影像设备的数据处理方法以及影像设备
CN106991706B (zh) * 2017-05-08 2020-02-14 北京德火新媒体技术有限公司 一种拍摄校准方法及系统
EP3425907B1 (en) * 2017-07-03 2022-01-05 Vestel Elektronik Sanayi ve Ticaret A.S. Display device and method for rendering a three-dimensional image
CN107462992B (zh) * 2017-08-14 2020-09-18 深圳创维新世界科技有限公司 一种头戴显示设备的调节方法、装置及头戴显示设备
DE102017214546B4 (de) 2017-08-21 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
TWI669683B (zh) * 2017-09-12 2019-08-21 宏達國際電子股份有限公司 三維影像重建方法、裝置及其非暫態電腦可讀取儲存媒體
JP6934806B2 (ja) 2017-11-02 2021-09-15 キヤノン株式会社 表示装置、表示装置の制御方法
US20190138789A1 (en) * 2017-11-09 2019-05-09 Mindtronic Ai Co.,Ltd. Display system and method for displaying images
CN108111837B (zh) * 2017-11-27 2020-08-07 北京灵犀微光科技有限公司 双目近眼显示的图像融合方法和装置
EP3740847B1 (en) 2018-01-17 2024-03-13 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
WO2019160698A2 (en) * 2018-02-16 2019-08-22 Valve Corporation Using detected pupil location to align optical components of a head-mounted display
DE102018105917A1 (de) 2018-03-14 2019-09-19 tooz technologies GmbH Verfahren zur benutzerindividuellen Kalibrierung einer auf den Kopf eines Benutzers aufsetzbaren Anzeigevorrichtung für eine augmentierte Darstellung
JP6774975B2 (ja) 2018-03-19 2020-10-28 株式会社東芝 眼球回転検出装置、電子機器及びシステム
KR20190118040A (ko) * 2018-04-09 2019-10-17 삼성전자주식회사 웨어러블 디스플레이 장치 및 그의 입체 영상 표시 방법
US10491890B1 (en) * 2018-05-14 2019-11-26 Dell Products L.P. Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays
US10921595B2 (en) * 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
DE102018215272A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
EP3671692A1 (en) * 2018-12-19 2020-06-24 Ningbo Geely Automobile Research & Development Co. Ltd. Time for passage of a platoon of vehicles
US20200211512A1 (en) * 2018-12-27 2020-07-02 Facebook Technologies, Llc Headset adjustment for optimal viewing
US10904516B2 (en) * 2019-01-14 2021-01-26 Valve Corporation Counterrotation of display panels and/or virtual cameras in a HMD
AU2019100368B4 (en) * 2019-01-25 2019-11-28 Norman BOYLE A driverless impact attenuating traffic management vehicle
US11823576B2 (en) * 2019-02-04 2023-11-21 Nec Corporation Vehicle management device, vehicle management method, and storage medium having program stored therein
CN113519154A (zh) * 2019-03-13 2021-10-19 惠普发展公司,有限责任合伙企业 检测眼睛跟踪校准误差
US11137596B2 (en) * 2019-08-29 2021-10-05 Apple Inc. Optical adjustment for head-mountable device
CN114341703B (zh) * 2019-09-25 2024-02-02 Jvc建伍株式会社 显示装置、显示系统、显示调整方法
US11228745B2 (en) 2019-11-26 2022-01-18 Varjo Technologies Oy Display apparatus and method of correcting image distortion therefor
US11846782B1 (en) 2020-04-13 2023-12-19 Apple Inc. Electronic devices with deformation sensors
GB2603496A (en) 2021-02-05 2022-08-10 Xyz Reality Ltd Aligning multiple coordinate systems for information model rendering
JP1700156S (ja) * 2021-03-08 2021-11-22
CN115131979B (zh) * 2021-03-25 2023-09-29 丰田自动车株式会社 共乘系统以及共乘方法
US11869361B2 (en) * 2021-04-01 2024-01-09 Gm Cruise Holdings Llc Coordinated multi-vehicle routing
GB2605442B (en) 2021-04-01 2023-03-22 Xyz Reality Ltd Configuration method for the display of a building information model
GB2613155A (en) 2021-11-24 2023-05-31 Xyz Reality Ltd Matching a building information model
US20230368403A1 (en) * 2022-05-16 2023-11-16 Microsoft Technology Licensing, Llc Systems and methods for facilitating display misalignment correction
GB2619966A (en) 2022-06-24 2023-12-27 Xyz Reality Ltd Augmented reality for a construction site with multiple devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07154829A (ja) * 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
JP2002014300A (ja) * 2000-06-28 2002-01-18 Seiko Epson Corp 頭部装着型表示装置
JP2010124339A (ja) * 2008-11-20 2010-06-03 Scalar Corp ヘッドマウントディスプレイ
JP2010232718A (ja) * 2009-03-25 2010-10-14 Olympus Corp 頭部装着型画像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
JPH0821975A (ja) * 1994-07-06 1996-01-23 Olympus Optical Co Ltd 頭部装着型映像表示システム
JP2000013818A (ja) * 1998-06-23 2000-01-14 Nec Corp 立体表示装置及び立体表示方法
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
JP2005010687A (ja) * 2003-06-20 2005-01-13 Pentax Corp 電子双眼鏡
EP2150170B1 (en) * 2007-05-23 2016-05-11 Mirametrix Inc. Methods and apparatus for estimating point-of-gaze in three dimensions
JP2010122879A (ja) * 2008-11-19 2010-06-03 Sony Ericsson Mobile Communications Ab 端末装置、表示制御方法および表示制御プログラム
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
KR101627214B1 (ko) * 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101729023B1 (ko) * 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9766698B2 (en) * 2011-05-05 2017-09-19 Nokia Technologies Oy Methods and apparatuses for defining the active channel in a stereoscopic view by using eye tracking
CN103283244A (zh) * 2011-05-20 2013-09-04 松下电器产业株式会社 立体影像提供装置以及其方法
CN103380625A (zh) * 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
CN103733118B (zh) * 2011-08-11 2015-11-25 富士通株式会社 立体图像显示装置
KR20140067575A (ko) * 2012-11-27 2014-06-05 삼성디스플레이 주식회사 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07154829A (ja) * 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
JP2002014300A (ja) * 2000-06-28 2002-01-18 Seiko Epson Corp 頭部装着型表示装置
JP2010124339A (ja) * 2008-11-20 2010-06-03 Scalar Corp ヘッドマウントディスプレイ
JP2010232718A (ja) * 2009-03-25 2010-10-14 Olympus Corp 頭部装着型画像表示装置

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014145734A (ja) * 2013-01-30 2014-08-14 Nikon Corp 情報入出力装置、及び情報入出力方法
CN104221077A (zh) * 2013-02-22 2014-12-17 索尼公司 头戴式显示器
CN104221077B (zh) * 2013-02-22 2017-07-14 索尼公司 头戴式显示器
US9709806B2 (en) 2013-02-22 2017-07-18 Sony Corporation Head-mounted display and image display apparatus
CN105431763A (zh) * 2013-06-24 2016-03-23 微软技术许可有限责任公司 在佩戴移动设备时跟踪头部移动
KR102213725B1 (ko) 2013-06-24 2021-02-05 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 모바일 디바이스 착용 시의 머리 움직임 추적
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
KR20160022921A (ko) * 2013-06-24 2016-03-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 모바일 디바이스 착용 시의 머리 움직임 추적
CN105431763B (zh) * 2013-06-24 2018-06-26 微软技术许可有限责任公司 在佩戴移动设备时跟踪头部移动
WO2015019656A1 (ja) * 2013-08-06 2015-02-12 株式会社ソニー・コンピュータエンタテインメント 3次元画像生成装置、3次元画像生成方法、プログラム及び情報記憶媒体
CN105432081B (zh) * 2013-08-06 2019-12-31 索尼电脑娱乐公司 三维图像生成设备、三维图像生成方法、程序和信息存储介质
US10484661B2 (en) 2013-08-06 2019-11-19 Sony Interactive Entertainment Inc. Three-dimensional image generating device, three-dimensional image generating method, program, and information storage medium
CN105432081A (zh) * 2013-08-06 2016-03-23 索尼电脑娱乐公司 三维图像生成设备、三维图像生成方法、程序和信息存储介质
JPWO2015019656A1 (ja) * 2013-08-06 2017-03-02 株式会社ソニー・インタラクティブエンタテインメント 3次元画像生成装置、3次元画像生成方法、プログラム及び情報記憶媒体
CN103442195A (zh) * 2013-08-27 2013-12-11 肖遥 一种多媒体头戴接收装置
US9823743B2 (en) 2014-01-29 2017-11-21 Kabushiki Kaisha Toshiba Devices for estimating gaze based on a state of an eyelid of a viewer
JP2015141312A (ja) * 2014-01-29 2015-08-03 株式会社東芝 表示装置及び視線推定装置
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
KR20160016524A (ko) * 2014-07-31 2016-02-15 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
KR102361025B1 (ko) * 2014-07-31 2022-02-08 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법
JP2016085350A (ja) * 2014-10-27 2016-05-19 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9904053B2 (en) 2014-12-25 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
WO2016170854A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2016170854A1 (ja) * 2015-04-22 2018-02-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017016455A (ja) * 2015-07-02 2017-01-19 アルパイン株式会社 画像補正装置および画像補正方法
KR102390346B1 (ko) * 2015-07-20 2022-04-22 매직 립, 인코포레이티드 가상/증강 현실 시스템에서 안쪽 지향 각도들을 가진 시준 섬유 스캐너 설계
KR20180030681A (ko) * 2015-07-20 2018-03-23 매직 립, 인코포레이티드 가상/증강 현실 시스템에서 안쪽 지향 각도들을 가진 시준 섬유 스캐너 설계
JP2017046065A (ja) * 2015-08-24 2017-03-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP7136875B2 (ja) 2015-10-16 2022-09-13 マジック リープ, インコーポレイテッド 眼の特徴を用いる眼ポーズ識別
JP2021049354A (ja) * 2015-10-16 2021-04-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. 眼の特徴を用いる眼ポーズ識別
US11536559B2 (en) 2015-11-04 2022-12-27 Magic Leap, Inc. Light field display metrology
JP7218398B2 (ja) 2015-11-04 2023-02-06 マジック リープ, インコーポレイテッド 眼追跡に基づく動的ディスプレイ較正
JP2021141612A (ja) * 2015-11-04 2021-09-16 マジック リープ, インコーポレイテッドMagic Leap, Inc. 眼追跡に基づく動的ディスプレイ較正
JP2018027290A (ja) * 2016-08-18 2018-02-22 エーエーシーアコースティックテクノロジーズ(シンセン)カンパニーリミテッドAAC Acoustic Technologies(Shenzhen)Co.,Ltd 虹彩情報収集機能を有するバーチャルリアリティ装置
US10178379B2 (en) 2016-08-31 2019-01-08 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for testing virtual reality head display device
JP2018536300A (ja) * 2016-08-31 2018-12-06 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体
US11198063B2 (en) 2016-09-14 2021-12-14 Square Enix Co., Ltd. Video display system, video display method, and video display program
JP2020502849A (ja) * 2016-10-05 2020-01-23 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実較正のための眼球周囲試験
KR20190058581A (ko) * 2016-10-05 2019-05-29 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
KR102269065B1 (ko) * 2016-10-05 2021-06-24 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
KR20210077806A (ko) * 2016-10-05 2021-06-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US11100692B2 (en) 2016-10-05 2021-08-24 Magic Leap, Inc. Periocular test for mixed reality calibration
JP7090601B2 (ja) 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
KR102657100B1 (ko) * 2016-10-05 2024-04-12 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US11906742B2 (en) 2016-10-05 2024-02-20 Magic Leap, Inc. Periocular test for mixed reality calibration
KR102402467B1 (ko) * 2016-10-05 2022-05-25 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
JP2022069522A (ja) * 2016-10-05 2022-05-11 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
JP2020518842A (ja) * 2017-02-27 2020-06-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited バーチャルリアリティーヘッドマウント装置
JP7071384B2 (ja) 2017-02-27 2022-05-18 アドバンスド ニュー テクノロジーズ カンパニー リミテッド バーチャルリアリティーヘッドマウント装置
US11523039B2 (en) 2017-02-27 2022-12-06 Advanced New Technologies Co., Ltd. Virtual reality head-mounted apparatus
JP2020533721A (ja) * 2017-09-06 2020-11-19 エクス・ワイ・ジィー リアリティ リミテッドXyz Reality Limited 建物情報モデルの仮想画像の表示
US10627897B2 (en) 2017-12-04 2020-04-21 Fujitsu Limited Head mounted display, display control device, processing method, display method, and storage medium
JPWO2019163031A1 (ja) * 2018-02-21 2021-03-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
JP2018146966A (ja) * 2018-04-05 2018-09-20 株式会社ニコン 情報入出力装置、及び情報入出力方法
JP2021525036A (ja) * 2018-06-06 2021-09-16 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体
JP7096369B2 (ja) 2018-06-06 2022-07-05 北京七▲しん▼易▲維▼信息技▲術▼有限公司 スマートグラス、眼球軌跡の追跡方法、装置及び記憶媒体
US11334155B2 (en) 2018-06-06 2022-05-17 Beijing 7Invensun Technology Co., Ltd. Smart glasses, method and device for tracking eyeball trajectory, and storage medium
WO2019244419A1 (ja) * 2018-06-19 2019-12-26 コニカミノルタ株式会社 画像表示装置とウェアラブルディスプレイ
JP2021532464A (ja) * 2018-07-24 2021-11-25 マジック リープ, インコーポレイテッドMagic Leap, Inc. 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
JP7456995B2 (ja) 2018-07-24 2024-03-27 マジック リープ, インコーポレイテッド 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
CN112513784A (zh) * 2018-09-27 2021-03-16 宝马股份公司 自动隐藏显示内容的、用于车辆的数据眼镜
CN112513784B (zh) * 2018-09-27 2024-04-16 宝马股份公司 自动隐藏显示内容的、用于车辆的数据眼镜
US11579688B2 (en) 2019-06-28 2023-02-14 Canon Kabushiki Kaisha Imaging display device and wearable device

Also Published As

Publication number Publication date
CN103380625A (zh) 2013-10-30
US9191658B2 (en) 2015-11-17
JP5414946B2 (ja) 2014-02-12
US20130235169A1 (en) 2013-09-12
JPWO2012172719A1 (ja) 2015-02-23

Similar Documents

Publication Publication Date Title
JP5414946B2 (ja) ヘッドマウントディスプレイおよびその位置ずれ調整方法
US11880043B2 (en) Display systems and methods for determining registration between display and eyes of user
JP5967597B2 (ja) 画像表示装置および画像表示方法
JP5637560B2 (ja) 近視および疲労の防止および治療のための方法およびデバイス
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
CN111771179A (zh) 用于确定显示器与用户的眼睛之间的配准的显示系统和方法
CN112805659A (zh) 通过用户分类为多深度平面显示系统选择深度平面
JPWO2018008232A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6026836B2 (ja) 画像表示装置、制御方法、プログラム及び記憶媒体
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
US11216907B2 (en) Image generating apparatus, method, and program for displaying image resolution with motion in head-mounted display (HMD)
WO2019187808A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2018008577A1 (ja) 頭部装着型ディスプレイ装置
KR20170118693A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
CN115053270A (zh) 用于基于用户身份来操作头戴式显示系统的系统和方法
TW201814356A (zh) 頭戴顯示裝置與其鏡片位置調整方法
CN114424147A (zh) 利用一个或多个眼睛跟踪相机确定眼睛旋转中心
WO2011136213A1 (ja) 表示装置
JP6576639B2 (ja) 電子眼鏡および電子眼鏡の制御方法
CN106708249B (zh) 交互方法、交互装置及用户设备
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
WO2016203844A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2017091190A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013520409

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12799843

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12799843

Country of ref document: EP

Kind code of ref document: A1