WO2015012280A1 - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
WO2015012280A1
WO2015012280A1 PCT/JP2014/069369 JP2014069369W WO2015012280A1 WO 2015012280 A1 WO2015012280 A1 WO 2015012280A1 JP 2014069369 W JP2014069369 W JP 2014069369W WO 2015012280 A1 WO2015012280 A1 WO 2015012280A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
line
user
eye
detection device
Prior art date
Application number
PCT/JP2014/069369
Other languages
English (en)
French (fr)
Inventor
高山 淳
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2015528297A priority Critical patent/JPWO2015012280A1/ja
Publication of WO2015012280A1 publication Critical patent/WO2015012280A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording

Definitions

  • the present invention relates to a line-of-sight detection device.
  • a technology is generally known in which a virtual image that is a virtual world image created by computer graphics or the like is superimposed on an external image that is an image of the real world and displayed on a display.
  • the external image may be a real-world image that can be directly viewed by the user through transparent glass, resin, or the like, or may be an image obtained by capturing an image of the external environment with an imaging device such as a camera in advance. Good.
  • Patent Literature 1 a method for detecting the position of the pupil from the image of the user's eye imaged by the camera and detecting the line of sight based on the position of the pupil has been conventionally known (for example, the following patent document). 1).
  • a user wears a spectacle-type head-mounted display, and an image of the user's eye is captured through a see-through member of the head-mounted display (a part corresponding to a spectacle lens). Then, the position of the pupil is detected from the image of the eye, and the direction of the line of sight is detected based on the position of the pupil.
  • an object of the present invention is to provide a gaze detection device that can accurately detect the position of the pupil of the user's eye.
  • Light receiving means for receiving light from the user's eyes and generating a light receiving signal corresponding to the intensity of the light, light guiding means for guiding light from the eyes to the light receiving means, and based on the light receiving signal And a measuring means for measuring a positional relationship between the light guide means and the pupil or iris of the eye, and a calculating means for calculating the position of the user's pupil based on the positional relationship.
  • Detection device for measuring light from the user's eyes and generating a light receiving signal corresponding to the intensity of the light, light guiding means for guiding light from the eyes to the light receiving means, and based on the light receiving signal
  • a measuring means for measuring a positional relationship between the light guide means and the pupil or iris of the eye
  • a calculating means for calculating the position of the user's pupil based on the positional relationship.
  • the measurement unit measures a distance between the eyepiece surface of the light guide unit and the iris as the positional relationship, and the calculation unit calculates the position of the pupil with reference to the eyepiece surface based on the distance. And the direction of the pupil is calculated, and the line-of-sight direction is calculated based on the direction of the pupil.
  • the light receiving unit includes a compound eye imaging device, generates an image signal as the light reception signal, and the measurement unit measures the distance based on the image signal.
  • the line-of-sight detection device according to 2) or (3).
  • the light receiving means includes a stereo camera as a compound eye imaging device, generates an image signal as the light reception signal, and the measuring means measures the distance based on the image signal.
  • the visual line detection device according to (2) or (3).
  • the light receiving unit includes an array camera as a compound eye imaging device, generates an image signal as the light reception signal, and the measuring unit measures the distance based on the image signal.
  • the line-of-sight detection device according to (2) or (3) above.
  • the line-of-sight detection device according to any one of (1) to (6), further including illumination means for irradiating irradiation light to the user's eyes.
  • the reflected light received by the TOF camera, a delay time of the reflected light with respect to the pulsed light is calculated based on the received light signal, and the distance is measured based on the delay time (1)
  • the line-of-sight detection device according to any one of (1) to (3).
  • the light guide means includes a holographic optical element, and changes the course by diffracting the irradiation light with the holographic optical element, guides it to the eye, and reflects the reflected light by the eye.
  • a subject imaging unit that captures an external subject, and a target ahead of the user's line of sight in the video imaged by the subject imaging unit based on the line-of-sight direction calculated by the calculation unit.
  • the eye gaze detection device according to any one of the above (2) to (12), further comprising specifying means for specifying.
  • the information on the object ahead of the user's line of sight is displayed on a display unit based on a specifying unit that identifies the object ahead of the user's line of sight. Gaze detection device.
  • FIG. 4 is a cross-sectional view taken along line IV-IV of the visual line detection device shown in FIG. 1. It is sectional drawing for demonstrating the optical path in the light guide part of the infrared light irradiated from the light. It is sectional drawing for demonstrating the optical path in the light guide part of the reflected light from a user's eyes.
  • the 3rd Embodiment of this invention it is a figure which shows arrangement
  • FIG. 1 is an external view showing the main part of the visual line detection device according to the first embodiment of the present invention
  • FIG. 2 is a schematic block diagram of the detection unit of the visual line detection device shown in FIG. 1
  • FIG. It is a schematic diagram which shows arrangement
  • the line-of-sight detection device 1 includes a mounting unit 10, a detection unit 20, and a light guide unit 30.
  • viewpoint the center position of the pupil of the user's eye wearing the line-of-sight detection device 1
  • direction of the user's line of sight is referred to as “line-of-sight direction”.
  • the mounting unit 10 includes a pair of first support members 11R and 11L, second support members 12R and 12L, and a connecting member 13, and plays a role of fixing the detection unit 20 and the light guide unit 30 to the user's head. .
  • the first support members 11R and 11L are rod-shaped members formed of, for example, a metal, a resin, or the like and having curved end portions.
  • the first support members 11R and 11L support the light guide unit 30 at one end and the user's temporal region at the other end. It is supported by the site between the ears.
  • the second support members 12R and 12L are members formed of a material such as metal or resin, for example, and are attached to the light guide 30 and supported by the user's nose.
  • the connecting portion 13 is a member formed of a material such as metal or resin, for example, and connects the pair of transparent plates 31R and 31L of the light guide portion 30 to each other.
  • the transparent plates 31R and 31L are positioned immediately in front of the left and right eyes, respectively, and the first support members 11R and 11L
  • the second support members 12R and 12L are supported on both upper side portions of the nose. That is, the line-of-sight detection device 1 of the present embodiment has a shape similar to general glasses as a whole, the transparent plates 31R and 32R correspond to lenses, the support members 11R and 11L correspond to temples (temples), The two support members 12R and 12L correspond to nose pads.
  • the detection unit 20 detects the viewpoint and the line-of-sight direction based on the image of the user's eye guided by the light guide unit 30.
  • the detection unit 20 is attached to the upper part of the transparent plate 31 ⁇ / b> R of the light guide unit 30.
  • the detection unit 20 includes an illumination unit 21, an imaging unit 22, a display unit 23, a communication unit 24, and an arithmetic control unit 25, and these components are electrically connected by a bus or a control line 26. Connected to each other.
  • the illumination unit 21 irradiates the user's eyes with light via the light guide unit 30 as illumination means.
  • the illumination unit 21 includes lights 21A and 21B including a light emitting element (not shown) and a light emission driving unit that drives the light emitting element (see FIG. 3).
  • the user's eyes are irradiated with light from two directions by the left and right lights 21 ⁇ / b> A and 21 ⁇ / b> B of the illumination unit 21.
  • the light emitting element may be, for example, an infrared LED (Light Emitting Diode) that emits infrared light.
  • an infrared LED Light Emitting Diode
  • the imaging unit 22 is configured to be sensitive to infrared light, and an image captured with infrared light is a kind of monochrome image representing the brightness of infrared light.
  • the image of the user's eye can be recognized with high accuracy.
  • the light guided from the user's eye to the imaging unit 22 includes not only the image of the user's eye but also an external image reflected on the surface of the user's eye. Therefore, there is a possibility that noise from the outside world is mixed when the user's eyes are imaged.
  • the imaging unit 22 captures the right eye of the user by receiving the reflected light from the right eye of the user transmitted through the light guide unit 30 as a light receiving unit.
  • the imaging unit 22 includes cameras 22A and 22B including an imaging element (not shown), an imaging lens that forms an image of light on the imaging element, and an imaging drive unit that drives the imaging element.
  • the imaging unit 22 receives reflected light from the right eye of the user with the imaging element, performs photoelectric conversion, generates a video signal as a light reception signal, and transmits the video signal to the calculation control unit 25.
  • the imaging device includes, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), and the like that are sensitive to infrared light.
  • the cameras 22A and 22B are arranged separately on the left and right to function as a compound eye imaging device, and image the right eye of the user from two directions in a stereo manner.
  • the video signal of the right eye of the user captured by the two cameras 22A and 22B is transmitted to the arithmetic control unit 25.
  • the optical system and the image sensor of the cameras 22A and 22B may be integrally configured.
  • the display unit 23 displays a predetermined image on the eyepiece surface of the transparent plate 31R.
  • the display unit 23 includes a display that is disposed on the light guide unit 30 and includes a display element (not shown) and a display driving unit that drives the display element.
  • the display element can be, for example, a liquid crystal display element, an LED light emitting display element, an organic light emitting display element, or the like.
  • the line-of-sight detection device 1 of the present embodiment detects the user's viewpoint and line-of-sight direction, and identifies an object ahead of the user's line-of-sight direction in the predetermined video based on the detection result.
  • the predetermined video is, for example, a video that captures the outside including the object, a menu screen for controlling the device, a video of a movie or a television program, and the like.
  • the communication unit 24 includes a wired communication method or a wireless communication method transmitter and receiver, and a CPU (Central Processing Unit) (not shown) that controls the entire system including them, and between the arithmetic control unit 25 and an external device. Send and receive various data.
  • the communication unit 24 transmits information regarding the calculated user viewpoint and the subject in the line-of-sight direction to an external device, and receives information about the subject in the line-of-sight direction.
  • the communication unit 24 transmits the received data to the calculation control unit 25 and the display unit 23 and displays the data on the display unit.
  • the calculation control unit 25 controls the illumination unit 21, the imaging unit 22, the display unit 23, and the communication unit 24.
  • the arithmetic control unit 25 has a CPU and a memory (not shown). A control program is stored in the memory, and the CPU executes the control program to control the illumination unit 21, the imaging unit 22, the display unit 23, and the communication unit 24.
  • the arithmetic control unit 25 performs distance measurement, iris shape measurement, iris tilt measurement, viewpoint detection, line-of-sight detection, gradation conversion, distortion correction, noise removal on the video signal of the user's eye imaged by the imaging unit 22. Various processes such as are executed.
  • the arithmetic control unit 25 measures the positional relationship between the light guide unit 30 and the pupil or iris of the user's right eye UE based on the video signal of the user's eye, and the positional relationship. Based on the above, the viewpoint and line-of-sight direction of the user's right eye are calculated.
  • the arithmetic control unit 25 functions as a measurement unit and a calculation unit. Information regarding the positional relationship, the viewpoint, and the line-of-sight direction is temporarily stored in the memory. Details of the measurement method of the positional relationship and the calculation method of the viewpoint and the line-of-sight direction will be described later.
  • the light guide unit 30 guides the irradiation light from the illumination unit 21 to the user's right eye UE and guides the reflected light from the user's right eye UE to the imaging unit 22 as light guide means.
  • the light guide unit 30 guides the light of the video displayed on the display unit 23 to the user's right eye UE.
  • the light guide 30 includes a transparent plate 31R and holographic optical elements (hereinafter referred to as HOE) 32A and 32B. Note that 32A may be a normal half mirror.
  • the detection unit 20 and the light guide unit 30 are arranged on the transparent plate 31L, the left eye viewpoint and the line-of-sight direction can be detected. It is not limited to the case.
  • the user's right eye and left eye are simply referred to as the user's eye UE.
  • the transparent plate 31R is a transparent plate made of a material such as glass or resin having a refractive index larger than that of air.
  • HOEs Holographic Optical Elements
  • HOEs 32A and 32B are optical elements using holograms, and have the property of reflecting only light of a specific wavelength and transmitting light of other wavelengths.
  • a hologram is produced by irradiating a photosensitive material with two highly coherent light beams such as a laser and recording the interference state.
  • the HOEs 32A and 32B are designed to selectively reflect infrared (IR) light and to be a half mirror for visible light. That is, the HOEs 32A and 32B transmit visible light incident from one surface (first surface) and reflect visible light incident from the other surface (second surface). Accordingly, a part of the external image observed by the user does not become dark due to the presence of the HOE 32B. On the other hand, as for infrared light, light incident on either the first surface or the second surface is reflected.
  • IR infrared
  • the HOE 32A is arranged such that the first surface faces the display unit 23 side and the second surface faces the illumination unit 21A side. Further, the HOE 32B is arranged so that the second surface faces the user's eye UE.
  • the HOEs 32A and 32B have a function of reflecting infrared light in addition to visible light for display, and therefore can have both a display function and an illumination function.
  • the user's eye UE can be imaged from substantially the front by using the HOE 32B. Therefore, it is possible to accurately detect the viewpoint and the line-of-sight direction while securing the user's field of view.
  • the imaging unit 22 images the user's eye UE from two directions across the display unit 23
  • the central portions of the HOEs 32A and 32B are used to diffract display light from the display unit 23.
  • both ends of the HOEs 32 ⁇ / b> A and 32 ⁇ / b> B are used to diffract reflected light from the user's eye UE toward the imaging unit 22.
  • FIG. 5 is a cross-sectional view for explaining the optical path in the light guide part of the infrared light irradiated from the illumination part
  • FIG. 6 is a cross-section for explaining the optical path in the light guide part of the reflected light from the user's eyes
  • FIG. 7 is a conceptual diagram for explaining the optical paths of the irradiation light and the reflected light when the light guide unit is viewed from the detection unit in FIGS. 5 and 6, and FIGS. 8A and 8B show the user's line-of-sight direction. It is a conceptual diagram for demonstrating the method to calculate.
  • FIG. 9 is a cross-sectional view for explaining an optical path in a light guide portion of display light from the display portion.
  • the irradiation light LA irradiated from the lights 21A and 21B is reflected by the HOE 32A and changes its direction in the direction of the transparent plate 31R. Then, the irradiation light LA travels toward the HOE 32B while totally reflecting the interface between the transparent plate 31R and the outside air, is reflected by the HOE 32B, and reaches the user's eye UE.
  • the optical paths of the irradiation light and the reflected light when viewing the direction of the light guide unit from the detection unit will be described below with reference to FIG. 7.
  • the light guide is not shown and the optical path is expressed as a straight line on the XZ plane.
  • the origin O is the point where the light beam that passes through the center of the HOE 32B intersects the eyepiece surface ES of the light guide 30.
  • the direction perpendicular to the plane of FIG. 8A from the back to the front is the X-axis direction
  • the direction from the origin O toward the center of the user's eye UE is the Z-axis direction
  • the direction perpendicular to the X-axis direction and the Z-axis direction is set.
  • the arithmetic control unit 25 can calculate the distance between the eyepiece surface ES of the light guide unit 30 and the iris IR and the shape of the iris IR in the above image from the images of the user's eye UE captured by the two cameras 22A and 22B. .
  • the two cameras 22A and 22B have a predetermined baseline length and image the user's eye UE.
  • the arithmetic control unit 25 compares the images of the iris IR and the pupil PU from two directions imaged by the two cameras 22A and 22B, and based on the principle of stereoscopic vision (the principle of triangulation), the eyepiece of the light guide unit 30 The distance between the surface ES and the iris IR is calculated.
  • the arithmetic control unit 25 recognizes the image and extracts the shape of the iris IR in the image.
  • the calculation control unit 25 calculates the coordinates of p0 and the inclination of the Sp plane with respect to the XY plane based on the distance and the shape.
  • the shape of the iris IR in the above image changes depending on which direction the iris IR is oriented with respect to the XY plane.
  • the arithmetic control unit 25 calculates the slope of the Sp plane with respect to the XY plane by calculating the distance between the XY plane and a plurality of points on the iris IR based on the shape of the iris IR in the video.
  • the arithmetic control unit 25 derives the normal line n based on the coordinates of p0 and the inclination of the Sp plane with respect to the XY plane, and the position s (xs, ys) where the normal line n crosses the XY plane and the direction of the normal line n
  • the angle ⁇ x and the elevation angle ⁇ y are calculated.
  • the position at which the line-of-sight detection device is mounted on the user is calculated by calculating the distance to the iris IR and the shape of the iris IR with reference to the eyepiece surface ES of the light guide unit 30. Even if changes, the three-dimensional positional relationship between the line-of-sight detection device 1 and the iris IR can be specified, and the user's viewpoint and line-of-sight direction can be accurately calculated.
  • the display unit 23 projects an image on the eye UE through the eyepiece surface ES of the light guide unit 30.
  • the image light IL from the display unit 23 passes through the HOE 32A, travels toward the HOE 32B while totally reflecting the interface between the transparent plate 31R and the outside air, and is reflected by the HOE 32B. Reach the user's eye UE.
  • the arithmetic control unit 25 acquires in advance information on the display position of each display image displayed in the video, and collates the calculated position s (xs, ys) with the information on the display position.
  • the display image ahead of the user's line of sight can be specified. That is, it can identify what the user is looking at.
  • the arithmetic control unit 25 functions as a specifying unit.
  • the image displayed in the video can be controlled according to the image that the user is viewing.
  • the icon can be selected by moving the line of sight to the icon displayed on the screen.
  • the line-of-sight detection apparatus 1 of the present embodiment can accurately detect the user's viewpoint and line-of-sight direction, the user can accurately select an icon even when a large number of small icons are displayed on the screen.
  • the position where the image is displayed may be controlled by the user's viewpoint and line-of-sight direction.
  • the line-of-sight detection device 1 of the present embodiment has the following effects.
  • the line-of-sight detection device 1 of the present embodiment measures the positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE, the position where the line-of-sight detection device 1 is attached to the user is determined. Even if it changes, the user's viewpoint and line-of-sight direction can be accurately detected.
  • the line-of-sight detection device 1 of the present embodiment can image the user's eye UE even in a place where visible light is scarce, such as at night or in a dark room, by irradiating the user's eye UE with infrared light.
  • infrared light it is possible to avoid noise from the external image when the user's eye UE is imaged, so that the image of the user's eye UE can be accurately recognized.
  • the HOEs 32A and 32B of the line-of-sight detection device 1 of the present embodiment have a function of reflecting infrared light in addition to visible light for display, they can have both a display function and an illumination function.
  • the user's eye UE can be imaged from substantially the front by using the HOE 32B. Therefore, it is possible to accurately detect the viewpoint and the line-of-sight direction while securing the user's field of view.
  • the imaging unit 22 of the line-of-sight detection device 1 images the user's eye UE in a stereo manner using the two cameras 22A and 22B, the optical system between the imaging unit 22 and the light guide unit 30 is minimized (optical path).
  • the length can be kept to the shortest).
  • the line-of-sight detection device 1 can be made thin, small, and lightweight.
  • the line-of-sight detection apparatus has been described by taking as an example an HMD that captures the user's eyes in stereo using two cameras.
  • a line-of-sight detection apparatus will be described by taking an HMD having an array camera including a plurality of cameras as an example.
  • detailed description of the same configuration as that of the first embodiment will be omitted to avoid duplication of description.
  • the array camera includes a super-resolution type, a field division type, and an insect type, and any of the array cameras can be used in this embodiment.
  • any of the array cameras can be used in this embodiment.
  • an embodiment in which the array camera is used will be described with reference to FIGS. 10A to 13.
  • FIG. 10A is a diagram showing the arrangement of the light and camera of the detection unit when a super-resolution array camera is used in the second embodiment
  • FIG. 10B is a view of the light guide unit from the detection unit of FIG. 10A. It is a conceptual diagram for demonstrating the optical path of the irradiation light and reflected light at the time.
  • FIG. 10C is a conceptual diagram showing another embodiment in the case of imaging with a super-resolution array camera in the second embodiment.
  • the illumination unit 21 includes lights 21A and 21B.
  • the lights 21A and 21B irradiate the user's eye UE from two directions.
  • the imaging unit 22 has an array camera 22C.
  • the array camera 22C is an array of cameras arranged in a grid, and is arranged between the light 21A and the light 21B, and can capture the same region of the user's eye UE from a plurality of directions.
  • each camera of the array camera 22C has an image sensor 221C and an image pickup lens 222C.
  • the imaging lens 222C has an angle of view ⁇ , and each camera of the array camera 22C can capture a predetermined area corresponding to the angle of view ⁇ . Therefore, each camera of the array camera 22C can overlap the imaging area with respect to other cameras while slightly different imaging areas between adjacent cameras. That is, the array camera 22C has a plurality of stereo cameras arranged.
  • the positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE is measured, Based on the positional relationship, the viewpoint and the line-of-sight direction are calculated.
  • FIG. 11 is a conceptual diagram for explaining optical paths of irradiation light and reflected light when the light guide unit is viewed from the detection unit in the case of using the divided-field array camera in the second embodiment.
  • the imaging surface of the array camera 22D is divided into a plurality of areas, and the optical system is arranged so as to image the same portion of the user's eye UE in each area. In the example shown in the figure, it is divided into two areas.
  • the array camera 22D is divided into left and right, an optical system having two fields of view is arranged in each of the left and right regions, and the user's eyes are imaged.
  • the line-of-sight detection device 1 has a positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on images of the user's eye UE captured from two directions of the two areas of the array camera 22D. And the viewpoint and line-of-sight direction are calculated based on the positional relationship.
  • FIG. 12 is a conceptual diagram for explaining an optical path of reflected light when an insect type array camera is used in the second embodiment.
  • the imaging system of the array camera 22E is divided into two regions, and the optical system is arranged so as to capture the same part of the user's eye UE when the field of view of the single-eye camera in each region is matched. To do.
  • the line-of-sight detection device 1 has a positional relationship between the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on images of the user's eye UE captured from two directions of the two areas of the array camera 22E. And the viewpoint and line-of-sight direction are calculated based on the positional relationship.
  • the array camera includes a small number of cameras has been described above, but the number of cameras included in the array camera is not limited.
  • the line-of-sight detection device 1 of the present embodiment has the following effects.
  • the line-of-sight detection apparatus 1 uses the array camera to capture the same region of the user's eye UE from a plurality of directions, the stereo method for attaching the plurality of cameras and capturing the user's eye UE is the same with a single array camera. Can be obtained. Therefore, the camera can be mounted thinly and accurately, and the position between the eyepiece surface ES of the light guide unit 30 and the pupil PU or iris IR of the user's eye UE based on the captured image of the user's eye UE The relationship can be measured accurately. As a result, the user's viewpoint and line-of-sight direction can be accurately detected.
  • the imaging lens 222E is very thin because it is arranged on the chip without a distance, so that the thickness of the entire array camera can be reduced.
  • the line-of-sight detection device has been described by taking the HMD that images the user's eye with the compound eye imaging device as an example.
  • a line-of-sight detection apparatus will be described by taking an HMD having a TOF (Time Of Flight) camera as an example.
  • TOF Time Of Flight
  • FIG. 13 is a diagram illustrating the arrangement of the lights and cameras of the detection unit in the third embodiment.
  • the illumination unit 21 of the present embodiment includes an LED light 21C.
  • the imaging unit 22 includes a TOF camera 22F.
  • the arithmetic control unit 25 controls the illumination unit 21 to irradiate the user's eye UE with pulsed light using the LED light 21C.
  • the TOF camera 22F receives the reflected light reflected by the iris IR and retina of the user's eye UE.
  • the arithmetic control unit 25 two-dimensionally calculates the delay time of the reflected light with respect to the pulsed light based on the light reception signal from the TOF camera 22F.
  • the delay time is proportional to the distance from the eyepiece surface ES of the light guide unit 30 to the iris IR of the user's eye UE, the relationship between the delay time and the distance is determined in advance by a lookup table or a mathematical formula. As required. Therefore, the arithmetic control unit 25 can calculate the distance based on the delay time. Note that the imaging element of the TOF camera 22F has a pixel structure that can detect the delay time of reflected pulsed light.
  • the line-of-sight detection device 1 of the present embodiment has the following effects.
  • the line-of-sight detection device 1 emits pulsed light from the light 21C and is received by the TOF camera 22F, calculates a delay time of reflected light with respect to the irradiated pulsed light, and the eyepiece surface ES of the light guide unit 30 based on the delay time To the iris IR of the user's eye UE, and the tilt of the iris IR can be accurately measured. Therefore, the user's viewpoint and line-of-sight direction can be accurately detected. Note that the intensity of the pulsed light is such that it is not confused with external light.
  • the line-of-sight detection device 1 can be made thin, small, and lightweight.
  • FIG. 14 is an external view for explaining a case where a stereo camera for imaging a subject is provided in the fourth embodiment.
  • FIG. 15 is a case where an array camera for imaging a subject is provided in the fourth embodiment. It is an external view for demonstrating. In the following, detailed description of the same configuration as that of the first embodiment will be omitted to avoid duplication of description.
  • the line-of-sight detection device 1 includes stereo cameras 40A and 40B as subject imaging units (subject imaging means). Stereo cameras 40A and 40B are integrated with transparent plate 31R.
  • the line-of-sight detection device 1 includes an array camera 41 as a subject imaging unit (subject imaging unit).
  • the array camera 41 is integrated with the transparent plate 31R.
  • the subject is also imaged by a stereo camera, an array camera, a TOF camera, etc., and the space and objects in the outside world are recognized three-dimensionally. Therefore, the subject ahead of the user's line of sight can be accurately identified based on the video image of the subject and the detected viewpoint and line-of-sight direction.
  • the line-of-sight detection device 1 of the present embodiment described as described above has the following effects in addition to the first embodiment.
  • the line-of-sight detection device 1 is mounted with the stereo cameras 40A and 40B or the array camera 41, thereby three-dimensionally representing an object in the outside world that the user wearing the line-of-sight detection device 1 is looking at. I can grasp it. Therefore, based on the user's viewpoint and line-of-sight direction, what the user is looking at in the outside world can be accurately specified.
  • the visual line detection device of the present invention has been described in the embodiment.
  • the present invention can be appropriately added, modified, and omitted by those skilled in the art within the scope of the technical idea.
  • the HMD has been described as an example of the visual line detection device, but the visual line detection device of the present invention is not limited to the HMD.
  • the present invention may be configured not to be fixed to the user's head like binoculars or a vision test device, but to look into the light guide when used by the user.
  • the positional relationship between the eyepiece surface of the light guide unit and the pupil or iris of the user's eye is irradiated with infrared light to the user's eye and the reflected light is used.
  • the reflected light from the user's eyes can be received sufficiently, such as when the line-of-sight detection device is used in a bright place, the reflected light from the user's eyes by sunlight (natural light) without using infrared light May be used.
  • the iris of the user's eyes can be captured in color using the light of the display unit.
  • the display unit has a transmissive display with a backlight
  • the line-of-sight detection device when the line-of-sight detection device is calibrated (at the start of use) or the like, the display is white so that the backlight is turned on.
  • the eye can be illuminated with white light.
  • the display unit does not have a backlight, by imaging the user's eyes irradiated with light from the image from the display unit, by performing image processing to remove the video component from the display unit, It is also possible to image the iris of the user's eye in color.
  • the WYRIr filter is a filter capable of separating and extracting RGB signals while having sensitivity in the infrared region (Ir).
  • the line-of-sight detection device it is possible to have a function of simultaneously performing iris authentication, retina authentication, and the like.
  • the detection unit and the light guide unit are disposed on a transparent plate corresponding to the right eye of the user wearing the visual line detection device, and the right eye viewpoint and the visual line direction are detected.
  • the positions of the detection unit and the light guide unit are not limited to the transparent plate corresponding to the user's right eye.
  • the viewpoint and line-of-sight direction of the user's left eye may be detected, or the viewpoint and line-of-sight direction of both eyes may be detected.
  • the present invention is not limited to such a case.
  • the light guide unit may be configured such that the display light is directly diffracted by the HOE and does not go through the process of totally reflecting the interface between the light guide unit and external air.
  • ES eyepiece IR iris, IL display light, LA, LB irradiation light, PU pupil, RA, RB reflected light
  • the eyes of the UE user 1 gaze detection device, 10 mounting part, 11R, 11L first support member, 12R, 12L second support member, 13 connecting part, 20 detector, 21 Lighting section, 21A-21C light, 22 imaging unit, 22A-22F camera, 23 display section, 24 communication department, 25 arithmetic control unit, 26 Bus, 30 light guide, 31R, 31L transparent plate, 32A, 32B HOE, 40A, 40B, 41 Imaging unit for subject.

Abstract

【課題】ユーザーの眼の瞳孔の位置が正確に検出される視線検出装置を提供する。 【解決手段】視線検出装置1は、受光手段22と、導光手段30と、測定手段25と、算出手段25とを有する。受光手段22は、ユーザーの眼UEからの光を受光し、当該光の強度に応じた受光信号を生成する。導光手段30は、上記眼からの光を受光手段22に導く。測定手段25は、上記受光信号に基づいて、導光手段30と上記眼の瞳孔PUまたは虹彩IRとの間の位置関係を測定する。算出手段25は、上記位置関係に基づいて、上記ユーザーの瞳孔PUの位置を算出する。

Description

視線検出装置
 本発明は、視線検出装置に関する。
 現実世界の像である外界像にコンピューターグラフィックスなどで作成した仮想世界の映像である仮想映像を重ね合せてディスプレイに表示する技術が一般に知られている。この技術では、ユーザーは、あたかも仮想映像が外界像と一体となってディスプレイに表示されているように知覚する。上記外界像は、透明なガラスや樹脂などを通してユーザーが直接見ることができる現実世界の像であってもよいし、あらかじめカメラなどの撮像装置で外界を撮像した映像を再生したものであってもよい。
 また、近年では、たとえば、ユーザーの手足や眼などの身体の位置や挙動を検知することにより、ユーザーが仮想映像や機器に対して働きかけることを可能にする技術についても研究が進められている。とくに、ユーザーの眼の瞳孔の位置に基づいて視線を検出することによって、現実世界や映像におけるユーザーの視線の先にある対象を判別する技術が注目されており、様々な分野における応用が期待されている。たとえば、パーソナル・コンピューターを操作する方法として、従来のキーボード、マウスなどによる操作に加えて、ユーザーの視線によって操作する技術も開発されている。
 視線を検出する方法としては、カメラにより撮像したユーザーの眼の映像から瞳孔の位置を検出し、当該瞳孔の位置に基づいて視線を検出する方法が従来から知られている(たとえば、下記特許文献1を参照)。特許文献1の技術では、眼鏡型のヘッドマウントディスプレイをユーザーが装着し、当該ヘッドマウントディスプレイのシースルー部材(眼鏡のレンズに相当する部分)を通してユーザーの眼の像が撮像される。そして、眼の映像から瞳孔の位置が検出され、当該瞳孔の位置に基づいて視線の方向が検出される。
 しかしながら、特許文献1の技術では、ヘッドマウントディスプレイのシースルー部材とユーザーの眼との間の距離が考慮されていないため、ヘッドマウントディスプレイの装着状態が変化すると、ユーザーの眼の瞳孔の位置が正確に検出されないという問題がある。また、ユーザーの眼の瞳孔の位置が正確に検出されないので、ユーザーの視線の方向も正確に検出されないという問題もある。
特開2010-102215号公報
 本発明は、上記問題に鑑みてなされたものである。したがって、本発明の目的は、ユーザーの眼の瞳孔の位置が正確に検出される視線検出装置を提供することである。
 本発明の上記目的は、下記によって達成される。
 (1)ユーザーの眼からの光を受光し、当該光の強度に応じた受光信号を生成する受光手段と、前記眼からの光を前記受光手段に導く導光手段と、前記受光信号に基づいて、前記導光手段と前記眼の瞳孔または虹彩との間の位置関係を測定する測定手段と、前記位置関係に基づいて、前記ユーザーの瞳孔の位置を算出する算出手段と、を有する、視線検出装置。
 (2)前記測定手段は、前記位置関係として前記導光手段の接眼面と前記虹彩との距離を測定し、前記算出手段は、前記距離に基づいて前記接眼面を基準とする前記瞳孔の位置および前記瞳孔の向きを算出し、前記瞳孔の向きに基づいて視線方向を算出することを特徴とする上記(1)に記載の視線検出装置。
 (3)前記導光手段は、前記眼からの光を回折させることにより進路を変えて、前記受光手段に導くことを特徴とする上記(1)または(2)に記載の視線検出装置。
 (4)前記受光手段は、複眼撮像装置を有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。
 (5)前記受光手段は、複眼撮像装置としてステレオカメラを有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。
 (6)前記受光手段は、複眼撮像装置としてアレイカメラを有し、前記受光信号としての画像信号を生成し、前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする上記(2)または(3)に記載の視線検出装置。
 (7)前記ユーザーの眼に照射光を照射する照明手段をさらに有することを特徴とする上記(1)~(6)のいずれか1つに記載の視線検出装置。
 (8)前記ユーザーの眼に照射光を照射する照明手段をさらに有し、前記照明手段は、前記照射光としてパルス光を照射し、前記受光手段は、TOFカメラを有し、前記眼から反射された反射光を当該TOFカメラで受光し、前記パルス光に対する反射光の遅延時間を前記受光信号に基づいて算出し、当該遅延時間に基づいて前記距離を測定することを特徴とする上記(1)~(3)のいずれか1つに記載の視線検出装置。
 (9)前記導光手段は、ホログラフィック光学素子を有し、前記照射光を当該ホログラフィック光学素子で回折させることにより進路を変えて、前記眼に導くとともに、前記眼によって反射された反射光を前記受光手段に導くことを特徴とする上記(7)に記載の視線検出装置。
 (10)前記導光手段は、透明板を有し、当該透明板は前記接眼面を含むことを特徴とする上記(1)~(9)のいずれか1つに記載の視線検出装置。
 (11)前記ユーザーの頭部に装着されるように構成されていることを特徴とする上記(1)~(10)のいずれか1つに記載の視線検出装置。
 (12)前記照射光は、赤外光であることを特徴とする上記(7)に記載の視線検出装置。
 (13)外界の被写体を撮像する被写体用撮像手段と、前記算出手段で算出された前記視線方向に基づいて、前記被写体用撮像手段で撮像された映像における前記ユーザーの視線の先にある対象を特定する特定手段と、をさらに有することを特徴とする上記(2)~(12)のいずれか1つに記載の視線検出装置。
 (14)前記ユーザーの視線の先にある対象を特定する特定手段に基づいて、前記ユーザーの視線の先にある対象に関する情報を表示部に表示することを特徴とする上記(13)に記載の視線検出装置。
本発明の第1の実施形態における視線検出装置の主要部を示す外観図である。 図1に示す視線検出装置の検出部の概略ブロック図である。 図1に示す検出部におけるライトおよびカメラの配置を示す模式図である。 図1に示す視線検出装置のIV-IV線に沿って切断した断面図である。 ライトから照射された赤外光の導光部における光路を説明するための断面図である。 ユーザーの眼からの反射光の導光部における光路を説明するための断面図である。 図5および図6において検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。 ユーザーの視線方向を算出する方法を説明するための概念図である。 ユーザーの視線方向を算出する方法を説明するための概念図である。 表示部からの表示光の導光部における光路を説明するための断面図である。 本発明の第2の実施形態において、超解像型アレイカメラを使用する場合の検出部のライトおよびカメラの配置を示す図である。 図10Aの検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。 本発明の第2の実施形態において、超解像型アレイカメラで撮像する場合の他の形態を示す概念図である。 本発明の第2の実施形態において、視野分割型アレイカメラを使用する場合の検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。 本発明の第2の実施形態において、昆虫型アレイカメラを使用する場合の反射光の光路を説明するための概念図である。 本発明の第3の実施形態において、検出部のライトおよびカメラの配置を示す図である。 第4の実施形態において被写体を撮像するためのステレオカメラを有する場合について説明するための外観図である。 第4の実施形態において被写体を撮像するためのアレイカメラを有する場合について説明するための外観図である。
 以下、添付した図面を参照して本発明の視線検出装置の実施形態を説明する。なお、図中、同一の部材には同一の符号を用いた。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 (第1の実施形態)
 第1の実施形態では、複眼撮像装置として2つのカメラを有し、ステレオ方式でユーザーの眼を撮像するヘッドマウントディスプレイ(以下、HMDと称する)を例に挙げて視線検出装置について説明する。図1は本発明の第1の実施形態における視線検出装置の主要部を示す外観図であり、図2は図1に示す視線検出装置の検出部の概略ブロック図であり、図3は図1に示す検出部におけるライトおよびカメラの配置を示す模式図である。図4は図1に示す視線検出装置のIV-IV線に沿って切断した断面図である。なお、直交座標系のX軸、Y軸、Z軸を図1に示す方向に定めた。
 図1に示すように、本実施形態の視線検出装置1は、装着部10、検出部20、および導光部30を有する。なお、本明細書を通して、視線検出装置1を装着したユーザーの眼の瞳孔の中心位置を「視点」と称し、ユーザーの視線の方向を「視線方向」と称する。
 <装着部の概略構成>
 装着部10は、一対の第1支持部材11R,11L、第2支持部材12R,12L、および連結部材13を有し、検出部20および導光部30をユーザーの頭部に固定する役割を果たす。
 第1支持部材11R,11Lは、たとえば金属、樹脂などの材料で形成され、端部が湾曲した棒状の部材であり、一端において導光部30を支持し、他端においてユーザーの側頭部と耳部との間の部位によって支持される。
 第2支持部材12R,12Lは、たとえば金属、樹脂などの材料で形成された部材であり、導光部30に取り付けられ、ユーザーの鼻部によって支持される。
 連結部13は、たとえば金属、樹脂などの材料で形成された部材であり、導光部30の一対の透明板31R,31Lを互いに連結する。
 視線検出装置1がユーザーの頭部に装着されたとき、透明板31R、31Lはそれぞれ左右の眼の直前に位置し、第1支持部材11R、11Lは左右から頭部を挟んで耳部の上縁を含む側頭部で支持され、第2支持部材12R,12Lは鼻部の上部両側部で支持される。すなわち、本実施形態の視線検出装置1は、全体として一般の眼鏡に類似した形状を呈し、透明板31R、32Rがレンズに相当し、支持部材11R、11Lがつる(テンプル)に相当し、第2支持部材12R,12Lが鼻当てに相当する。
 <検出部の概略構成>
 検出部20は、導光部30によって導かれたユーザーの眼の映像に基づいて視点および視線方向を検出する。本実施形態では、検出部20は導光部30の透明板31Rの上部に取り付けられている。
 図2に示すように、検出部20は、照明部21、撮像部22、表示部23、通信部24、および演算制御部25を有し、これらの構成要素は、バスまたは制御線26により電気的に相互に接続されている。
 照明部21は、照明手段として、導光部30を介してユーザーの眼に光を照射する。照明部21は、図示しない発光素子と当該発光素子を駆動する発光駆動部とを備えるライト21A,21Bを有する(図3を参照)。本実施形態では、照明部21の左右2つのライト21A,21Bによってユーザーの眼に2つの方向から光が照射される。
 上記発光素子は、たとえば、赤外光を発する赤外LED(Light Emitting Diode)でありうる。赤外光をユーザーの眼に照射することにより、夜間や暗室のような可視光が乏しい場所であってもユーザーの眼を撮像できる。なお、撮像部22は赤外光に感度を有するように構成されており、赤外光により撮像された映像は赤外光の輝度を表した一種のモノクロ画像である。
 また、赤外光を使用することにより、ユーザーの眼を撮像するときに外界像のノイズが混入することを避けられるので、ユーザーの眼の映像を精度良く認識できる。一方、可視光による撮像では、ユーザーの眼から撮像部22に導かれる光は、ユーザーの眼の像だけでなく、ユーザーの眼の表面に映った外界像も含まれる。したがって、ユーザーの眼を撮像するときに外界像のノイズが混入するおそれがある。
 撮像部22は、受光手段として、導光部30を介して伝達されたユーザーの右眼からの反射光を受光することにより、ユーザーの右眼を撮像する。撮像部22は、図示しない撮像素子と、当該撮像素子上に光を結像させる撮像レンズと、当該撮像素子を駆動する撮像駆動部とを備えるカメラ22A,22Bを有する。撮像部22は、ユーザーの右眼からの反射光を上記撮像素子で受光して光電変換し、受光信号としての映像信号を生成し、演算制御部25に送信する。本実施形態では、上記撮像素子は、たとえば、赤外光に感度を有するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などを備える。
 図3に示すように、本実施形態では、カメラ22A,22Bは、左右に分かれて配置されて複眼撮像装置として機能し、ステレオ方式で2つの方向からユーザーの右眼を撮像する。2つのカメラ22A,22Bで撮像されたユーザーの右眼の映像信号は、演算制御部25に送信される。カメラ22A、22Bの光学系、撮像素子は一体的に構成されたものでも良い。
 表示部23は、透明板31Rの接眼面に所定の映像を表示する。図4に示すように、本実施形態では、表示部23は、導光部30の上部に配置され、図示しない表示素子と当該表示素子を駆動する表示駆動部とを備えるディスプレイを有する。上記表示素子は、たとえば液晶表示素子、LED発光表示素子、有機発光表示素子などでありうる。
 本実施形態の視線検出装置1は、ユーザーの視点および視線方向を検出し、検出結果に基づいて、上記所定の映像におけるユーザーの視線方向の先にある対象物を特定する。上記所定の映像は、たとえば、上記対象物を含む外界を撮像した映像、機器を制御するためのメニュー画面、映画やテレビ番組の映像などである。
 通信部24は、有線通信方式または無線通信方式の送信器および受信器とそれらを含め全体をコントロールするCPU(Central Processing Unit)(不図示)を備え、演算制御部25と外部機器との間で各種データを送受信する。通信部24は、算出されたユーザーの視点および視線方向の被写体に関する情報などを外部機器に送信したり、視線方向の被写体に関する情報を受信したりする。通信部24は、受信したデータを演算制御部25、表示部23に伝達し、表示部に表示したりする。
 演算制御部25は、照明部21、撮像部22、表示部23、および通信部24を制御する。演算制御部25は、図示しないCPUおよびメモリを有する。上記メモリには、制御プログラムが保存されており、上記CPUは当該制御プログラムを実行して照明部21、撮像部22、表示部23、および通信部24を制御する。また、演算制御部25は、撮像部22で撮像したユーザーの眼の映像信号に対して距離計測、虹彩形状計測、虹彩傾き計測、視点検知、視線検知、階調変換、歪曲補正、ノイズ除去、などの各種の処理を実行する。
 とくに、本実施形態では、演算制御部25は、ユーザーの眼の映像信号に基づいて、導光部30とユーザーの右眼UEの瞳孔または虹彩との間の位置関係を測定し、当該位置関係に基づいて、ユーザーの右目の視点および視線方向を算出する。演算制御部25は、測定手段および算出手段として機能する。上記メモリには、上記位置関係、上記視点および上記視線方向に関する情報が一時的に保存される。上記位置関係の測定方法、ならびに上記視点および上記視線方向の算出方法の詳細については後述する。
 導光部30は、導光手段として、照明部21からの照射光をユーザーの右眼UEに導くとともに、ユーザーの右眼UEからの反射光を撮像部22に導く。また、導光部30は、表示部23で表示された映像の光をユーザーの右眼UEに導く。図4に示すように、導光部30は、透明板31Rおよびホログラフィック光学素子(以下、HOEと称する)32A,32Bを有する。尚、32Aは通常のハーフミラーでも良い。
 なお、検出部20および導光部30を透明板31Lに配置すれば、左眼の視点および視線方向を検出できるので、本実施形態の視線検出装置1は右眼の視点および視線方向を検出する場合に限定されない。以下の説明では、ユーザーの右眼および左眼を合せて、単にユーザーの眼UEと記載する。
 透明板31Rは、屈折率が空気よりも大きいガラス、樹脂などの材料で形成された透明な板である。透明板31Rの内部には、HOE(Holographic Optical Element)32A,32Bが形成されている。
 HOE32A,32Bは、ホログラムを利用した光学素子であり、特定の波長の光のみを反射し、その他の波長の光を透過する性質を有する。ホログラムは、レーザーなどの干渉性の高い2つの光束を感光材に照射し、その干渉状態を記録することで作製される。
 本実施形態では、HOE32A,32Bは、赤外(IR)光を選択的に反射し、可視光に対してはハーフミラーとなるように設計されている。すなわち、HOE32A,32Bは、一方の面(第1面)から入射した可視光に対しては透過させ、他方の面(第2面)から入射した可視光に対しては反射させる。したがって、HOE32Bの存在によりユーザーが観察する外界像の一部が暗くなることはない。一方、赤外光については、第1面および第2面のどちらの面に入射した光も反射される。
 図4に示す例では、HOE32Aについては、表示部23側に第1面が、照明部21A側に第2面が向くように配置されている。また、HOE32Bについては、ユーザーの眼UEに第2面が向くように配置されている。
 このように、本実施形態では、HOE32A,32Bは表示用の可視光に加え、赤外光も反射する機能を有しているので、表示機能と照明機能とを兼ね備えることができる。また、本実施形態では、HOE32Bを利用することにより、ユーザーの眼UEを概ね正面から撮像できる。したがって、ユーザーの視界を確保しつつ、視点および視線方向を正確に検出できる。
 なお、撮像部22が、たとえば表示部23を挟んで2つの方向からユーザーの眼UEを撮像する場合、HOE32A,32Bの中央部は、表示部23からの表示光を回折するために使用される。一方、HOE32A,32Bの両端部は、ユーザーの眼UEからの反射光を撮像部22に向けて回折するために使用される。
 次に、図5~図8Bを参照して、上述のとおり構成される本実施形態の視線検出装置1の作用について説明する。
 図5は照明部から照射された赤外光の導光部における光路を説明するための断面図であり、図6はユーザーの眼からの反射光の導光部における光路を説明するための断面図である。また、図7は図5および図6において検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図であり、図8Aおよび図8Bはユーザーの視線方向を算出する方法を説明するための概念図である。図9は、表示部からの表示光の導光部における光路を説明するための断面図である。
 図5に示すように、ライト21A,21Bから照射された照射光LAは、HOE32Aにて反射され、透明板31Rの方向に向きを変えて進む。そして、照射光LAは、透明板31Rと外部の空気との界面を全反射しながらHOE32Bに向かって進行し、HOE32Bにて反射され、ユーザーの眼UEに到達する。
 図6に示すように、ユーザーの眼UEにて反射された反射光RAは、HOE32Bにて反射され、透明板31Rと外部の空気との界面を全反射しながらHOE32Aに向かって進行し、HOE32Aにて反射され、カメラ22A、22Bに到達する。
 図5および図6において検出部から導光部の方向を見たときの照射光および反射光の光路について、図7を参照して以下に説明する。なお、図7では、導光部の図示を省略し、光路をXZ平面上の直線として表現する。
 図7に示すように、ライト21A,21Bは、カメラ22A,22Bを挟んで左右からユーザーの眼UEを照射光LA,LBで照射する。一方、ユーザーの眼UEからの反射光RA,RBは、2つのカメラ22A,22Bで各々受光される。このように、本実施形態では、カメラ22A,22Bは、互いに異なる2つの方向からユーザーの眼UEを撮像することができる。そして、2つのカメラ22A,22Bで撮像されたユーザーの眼UEの映像信号は、演算制御部25に送信される。
 演算制御部25は、カメラ22A,22Bで撮像されたユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔または虹彩との間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。より具体的には以下に示すとおりである。
 図8Aおよび図8Bに示すように、HOE32Bの中心を透過する光線が導光部30の接眼面ESと交差する点を原点Oにとる。そして、図8Aの紙面に垂直で奥から手前に向かう方向をX軸方向、原点Oからユーザーの眼UEの中心に向かう方向をZ軸方向、X軸方向およびZ軸方向に垂直な方向であってHOE32Bから検出部20へ向かう方向をY軸方向とする直交座標系を設定する。
 図8Bにおいて、ユーザーの眼UEは、虹彩IRおよび瞳孔PUを含む。虹彩IRおよび瞳孔PUは略円形状であり、虹彩IRの円をSiとし、瞳孔PUの円をSpとする。円Siおよび円Spの中心、すなわち瞳孔PUの中心(視点)は、p0(xp,yp,zp)である。
 また、p0から導光部30のXY平面(接眼面ES)に向けて引いた法線nと当該XY平面との交点をs(xs,ys)とし、法線nの方位角(左右の角度)および仰角(上下の角度)をそれぞれθxおよびθyとする。このように定義すると、p0とsとを結ぶ線がユーザーの視線に相当する。
 p0とsとを結ぶ線の方向は、瞳孔PUを含む平面に対して垂直であるので、円Spを含む平面(以下、Sp平面と称する)の向きに基づいて算出されうる。演算制御部25は、2つのカメラ22A,22Bで撮像したユーザーの眼UEの映像から、導光部30の接眼面ESと虹彩IRとの距離と上記映像での虹彩IRの形状とを算出できる。
 より具体的には、2つのカメラ22A,22Bは、所定の基線長を有し、ユーザーの眼UEを撮像する。演算制御部25は、2つのカメラ22A,22Bによって撮像された2方向からの虹彩IRおよび瞳孔PUの画像を比較し、立体視の原理(三角測量の原理)に基づいて導光部30の接眼面ESと虹彩IRとの距離を算出する。また、演算制御部25は、上記映像を画像認識し、上記映像での虹彩IRの形状を抽出する。そして、演算制御部25は、上記距離と上記形状とに基づいて、p0の座標とXY平面に対するSp平面の傾きを算出する。
 上記映像での虹彩IRの形状は、虹彩IRがXY平面に対してどちらの方向を向いているかによって変化する。演算制御部25は、上記映像での虹彩IRの形状に基づいて、XY平面と虹彩IR上の複数の点との距離を算出することにより、XY平面に対するSp平面の傾きを算出する。そして、演算制御部25は、p0の座標とXY平面に対するSp平面の傾きに基づいて法線nを導出し、法線nがXY平面を横切る位置s(xs,ys)と法線nの方位角θxおよび仰角θyとを算出する。
 このように、本実施形態では、導光部30の接眼面ESを基準として、虹彩IRまでの距離と虹彩IRの形状とを算出することにより、ユーザーに対して視線検出装置の装着される位置が変化しても、視線検出装置1と虹彩IRとの3次元的な位置関係を特定し、ユーザーの視点と視線方向とを正確に算出できる。
 さらに、本実施形態では、表示部23により導光部30の接眼面ESを通して眼UEに映像が投影される。図9に示すように、表示部23からの映像の光ILは、HOE32Aを透過し、透明板31Rと外部の空気との界面を全反射しながらHOE32Bに向かって進み、HOE32Bにて反射されてユーザーの眼UEに到達する。
 演算制御部25は、映像で表示される各々の表示画像の表示位置に関する情報をあらかじめ取得しておき、算出された上記位置s(xs,ys)と上記表示位置に関する情報とを照合することにより、ユーザーの視線の先にある表示画像を特定できる。すなわち、ユーザーが何を見ているかを特定できる。演算制御部25は、特定手段として機能する。
 さらに、ユーザーが注目している画像が特定された場合、ユーザーが見ている画像に応じて、映像に表示されている画像を制御することもできる。たとえば、画面に表示されたアイコンにユーザーが視線を移動させることにより当該アイコンが選択されうる。とくに、本実施形態の視線検出装置1は、ユーザーの視点および視線方向を正確に検出できるので、画面に小さいアイコンが多数表示されている場合であっても、ユーザーは正確にアイコンを選択できる。また、画像を表示する位置をユーザーの視点および視線方向によって制御してもよい。
 以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。
 本実施形態の視線検出装置1は、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定するので、ユーザーに対して視線検出装置1の装着される位置が変化しても、ユーザーの視点および視線方向を正確に検出できる。
 また、本実施形態の視線検出装置1は、赤外光をユーザーの眼UEに照射することにより、夜間や暗室のような可視光が乏しい場所であってもユーザーの眼UEを撮像できる。また、赤外光を使用することにより、ユーザーの眼UEを撮像するときに外界像のノイズが混入することを避けられるので、ユーザーの眼UEの映像を精度良く認識できる。
 また、本実施形態の視線検出装置1のHOE32A,32Bは表示用の可視光に加え、赤外光も反射する機能を有しているので、表示機能と照明機能とを兼ね備えることができる。また、本実施形態では、HOE32Bを利用することにより、ユーザーの眼UEを概ね正面から撮像できる。したがって、ユーザーの視界を確保しつつ、視点および視線方向を正確に検出できる。
 また、視線検出装置1の撮像部22は、2つのカメラ22A,22Bによりステレオ方式でユーザーの眼UEを撮像するので、撮像部22と導光部30との間の光学系を最小限(光路長を最短)に留めることができる。その結果、視線検出装置1は、薄型化され、小型かつ軽量とすることができる。
 (第2の実施形態)
 第1の実施形態では、2つのカメラを使用して、ステレオ方式でユーザーの眼を撮像するHMDを例に挙げて視線検出装置について説明した。第2の実施形態では、複数のカメラを含むアレイカメラを有するHMDを例に挙げて視線検出装置について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。
 一般に、アレイカメラには、超解像型、視野分割型、および昆虫型があり、本実施形態ではいずれのアレイカメラも使用することができる。以下、図10A~図13を参照して、上記アレイカメラを使用した場合の実施形態について説明する。
 <超解像型アレイカメラ>
 図10Aは第2の実施形態において、超解像型アレイカメラを使用する場合の検出部のライトおよびカメラの配置を示す図であり、図10Bは図10Aの検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。また、図10Cは、第2の実施形態において、超解像型アレイカメラで撮像する場合の他の形態を示す概念図である。
 図10Aおよび図10Bに示すように、本実施形態では照明部21は、ライト21A,21Bを有する。ライト21A,21Bは、ユーザーの眼UEを2つの方向から照射する。また、撮像部22は、アレイカメラ22Cを有する。アレイカメラ22Cは、カメラを格子状に配列したものであり、ライト21Aとライト21Bとの間に配置され、ユーザーの眼UEの同じ領域を複数方向から撮像することができる。
 また、図10Cに示すように、アレイカメラ22Cをより詳しく見ると、アレイカメラ22Cの各々のカメラは、撮像素子221Cおよび撮像レンズ222Cを有する。撮像レンズ222Cは画角αを有し、アレイカメラ22Cの各々のカメラは、画角αに応じた所定の領域を撮像できる。したがって、アレイカメラ22Cの各々のカメラは、隣接するカメラ同士で撮像領域をわずかに異ならせながら、他のカメラに対して撮像領域に重なりを有しうる。すなわち、アレイカメラ22Cは、配列された複数のステレオカメラを有する。
 本実施形態では、アレイカメラ22Cにより複数方向から撮像したユーザーの眼UEの画像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。
 <視野分割型アレイカメラ>
 図11は、第2の実施形態において、視野分割型アレイカメラを使用する場合の検出部から導光部を見たときの照射光および反射光の光路を説明するための概念図である。
 図11に示す形態では、アレイカメラ22Dの撮像面を複数の領域に分割し、それぞれの領域でユーザーの眼UEの同じ部分を撮像するように光学系を配置する。図の例では2つの領域に分割している。図11ではアレイカメラ22Dを左右に分割し、左右それぞれの領域に2つの視野を持つ光学系を配置し、ユーザーの眼を撮像する。
 視線検出装置1は、アレイカメラ22Dの2つの領域で複数方向から撮像したユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。
 <昆虫型アレイカメラ>
 図12は、第2の実施形態において、昆虫型アレイカメラを使用する場合の反射光の光路を説明するための概念図である。
 図12に示すように、撮像部22は、アレイカメラ22Eを有する。アレイカメラ22Eは、格子状に配列された複数の撮像レンズ222Eと、各レンズに1画素が対応するよう画素が配列された撮像素子221Eを有し、ユーザーの眼UEからの反射光を複数方向から受光できる。なお、照明部21のライトの配置と、当該ライトによる照射光の光路とについては、視野分割型アレイカメラの場合と同じであるので説明を省略する。
 図12に示す形態では、アレイカメラ22Eの撮像面を2つの領域に分割し、それぞれの領域の個眼カメラの視野を合わせた時にユーザーの眼UEの同じ部分を撮像するように光学系を配置する。
 視線検出装置1は、アレイカメラ22Eの2つの領域で複数方向から撮像したユーザーの眼UEの映像に基づいて、導光部30とユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を測定し、当該位置関係に基づいて、視点および視線方向を算出する。
 なお、以上では、説明の便宜上、アレイカメラが少数のカメラを含む場合について説明したが、アレイカメラが含むカメラの個数は限定されない。
 以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。
 視線検出装置1は、アレイカメラを使用してユーザーの眼UEの同じ領域を複数方向から撮像するので、複数のカメラを取り付けてユーザーの眼UEを撮像するステレオ方式を、1つのアレイカメラで同様の構成を得ることができる。したがって、薄型かつ精度良くカメラを取り付けることができ、撮像されたユーザーの眼UEの画像に基づいて、導光部30の接眼面ESとユーザーの眼UEの瞳孔PUまたは虹彩IRとの間の位置関係を正確に測定できる。その結果、ユーザーの視点および視線方向を正確に検出できる。
 また、昆虫型アレイカメラ22Eを使用すれば、撮像レンズ222Eはチップ上に距離をおかないで配置されるため非常に薄いので、アレイカメラ全体の厚みも薄くすることができる。
 (第3の実施形態)
 第1および第2の実施形態では、複眼撮像装置でユーザーの眼を撮像するHMDを例に挙げて視線検出装置について説明した。第3の実施形態では、TOF(Time Of Flight)カメラを有するHMDを例に挙げて視線検出装置について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。
 図13は、第3の実施形態において、検出部のライトおよびカメラの配置を示す図である。
 図13に示すように、本実施形態の照明部21は、LEDライト21Cを有する。また、撮像部22は、TOFカメラ22Fを有する。本実施形態では、演算制御部25は、照明部21を制御してLEDライト21Cによりユーザーの眼UEにパルス光を照射する。TOFカメラ22Fは、ユーザーの眼UEの虹彩IRや網膜で反射される反射光を受光する。演算制御部25は、TOFカメラ22Fからの受光信号に基づいて、上記パルス光に対する反射光の遅延時間を2次元的に算出する。当該遅延時間は、導光部30の接眼面ESからユーザーの眼UEの虹彩IRまでの距離と比例関係にあるので、上記遅延時間と上記距離との間の関係は、あらかじめルックアップテーブルや数式として求められる。したがって、演算制御部25は、上記遅延時間に基づいて上記距離を算定できる。なお、TOFカメラ22Fの撮像素子は、反射されるパルス光の遅延時間を検出できる画素構造を有する。
 以上のとおり説明した本実施形態の視線検出装置1は、下記の効果を奏する。
 視線検出装置1は、ライト21Cからパルス光を照射しTOFカメラ22Fで受光して、照射したパルス光に対する反射光の遅延時間を算出し、当該遅延時間に基づいて導光部30の接眼面ESからユーザーの眼UEの虹彩IRまでの位置関係、虹彩IRの傾きを正確に測定できる。したがって、ユーザーの視点および視線方向を正確に検出できる。なお、パルス光は外光に紛れない程度の強度である。
 また、本実施形態では、ライト21Cからの光をTOFカメラ22Fで受光するので、カメラを複数用いることがなく、撮像部22と導光部30との間の光学系を最小限(光路長を最短)に留めることができる。その結果、視線検出装置1は、薄型化され、小型かつ軽量とすることができる。
 (第4の実施形態)
 第4の実施形態では、第1の実施形態の構成に加えて、被写体を撮像する被写体撮像部をさらに有する場合について説明する。
 図14は第4の実施形態において被写体を撮像するためのステレオカメラを有する場合について説明するための外観図であり、図15は第4の実施形態において被写体を撮像するためのアレイカメラを有する場合について説明するための外観図である。なお、以下では、説明の重複を避けるため、第1の実施形態と同じ構成については、詳細な説明を省略する。
 図14に示す形態では、視線検出装置1は、被写体用撮像部(被写体用撮像手段)としてステレオカメラ40A,40Bを有する。ステレオカメラ40A,40Bは、透明板31Rと一体化されている。
 図15に示す形態では、視線検出装置1は、被写体用撮像部(被写体用撮像手段)としてアレイカメラ41を有する。アレイカメラ41は、透明板31Rと一体化されている。
 図14および図15に示すように、本実施形態では、被写体についてもステレオカメラ、アレイカメラ、TOFカメラなどで撮像し、外界の空間や物体を3次元的に認識する。したがって、上記被写体を撮像した映像と検出した視点および視線方向とに基づいて、ユーザーの視線の先にある被写体を精度良く特定できる。
 以上のとおり説明した本実施形態の視線検出装置1は、第1の実施形態に加えて下記の効果を奏する。
 本実施形態によれば、視線検出装置1は、ステレオカメラ40A,40Bまたはアレイカメラ41を搭載することにより、視線検出装置1を装着しているユーザーが見ている外界の物体を3次元的に把握することができる。したがって、ユーザーの視点および視線方向に基づいて、ユーザーが外界の何を見ているのかを正確に特定することができる。
 以上のとおり、実施形態において、本発明の視線検出装置を説明した。しかしながら、本発明は、その技術思想の範囲内において当業者が適宜に追加、変形、および省略することができることはいうまでもない。
 たとえば、第1~第4の実施形態では、視線検出装置としてHMDを例に挙げて説明したが、本発明の視線検出装置は、HMDに限定されない。本発明は、双眼鏡や視力検査装置のようにユーザーの頭部に固定されず、ユーザーが使用するとき導光部を覗き込むように構成されていてもよい。
 また、第1および第2の実施形態では、赤外光をユーザーの眼に照射し、その反射光を使用して導光部の接眼面とユーザーの眼の瞳孔または虹彩との間の位置関係を測定することについて説明した。しかしながら、視線検出装置を明るい場所で使用する場合など、ユーザーの眼からの反射光を十分に受光できる場合は、赤外光を使用せずに太陽光(自然光)によるユーザーの眼からの反射光を使用してもよい。
 また、表示部の光を利用して、ユーザーの眼の虹彩をカラーで撮像することもできる。たとえば、表示部がバックライトを備える透過型のディスプレイを有する場合、視線検出装置を校正する際(使用開始時)などにディスプレイが白を表示するようにしてバックライトを点灯させることにより、ユーザーの眼に白色光を照射することができる。また、表示部がバックライトを有しない場合であっても、表示部からの映像による光が照射されたユーザーの眼を撮像し、表示部からの映像成分を除去する画像処理を施すことによって、ユーザーの眼の虹彩をカラーで撮像することも可能である。
 また、WYRIrフィルターを搭載した撮像素子を使用することにより、一つの撮像部で赤外光を使用して高感度で撮像しつつ、可視光を使用してカラーで撮像することができる。なお、WYRIrフィルターは、赤外領域(Ir)に感度を有しつつ、RGB信号を分離して取り出すことができるフィルターである。
 また、視線検出装置の追加機能として、虹彩認証、網膜認証などを同時に実施する機能を有することもできる。
 また、第1~第4の実施形態では、視線検出装置を装着するユーザーの右眼に対応する透明板上に検出部および導光部を配置して、右眼の視点および視線方向を検出することについて主に説明した。しかしながら、検出部および導光部の位置は、ユーザーの右眼に対応する透明板上に限定されない。また、ユーザーの左眼の視点および視線方向を検出してもよいし、両眼の視点および視線方向を検出してもよい。
 また、第1~第4の実施形態では、表示光が導光部と外部の空気との界面を全反射して進む場合について説明した。しかしながら、本発明はこのような場合に限定されない。たとえば、表示光が導光部と外部の空気との界面を全反射する過程を経ずに直接的にHOEで回折されてユーザーの眼に到達するように導光部を構成してもよい。
 なお、本出願は、2013年7月24日に出願された日本国特許出願第2013-153768号に基づいており、その開示内容は、参照により全体として引用されている。
ES 接眼面、
IR 虹彩、
IL 表示光、
LA,LB 照射光、
PU 瞳孔、
RA,RB 反射光、
UE ユーザーの眼、
1 視線検出装置、
10 装着部、
11R,11L 第1支持部材、
12R,12L 第2支持部材、
13 連結部、
20 検出部、
21 照明部、
21A~21C ライト、
22 撮像部、
22A~22F カメラ、
23 表示部、
24 通信部、
25 演算制御部、
26 バス、
30 導光部、
31R,31L 透明板、
32A,32B HOE、
40A,40B,41 被写体用撮像部。

Claims (14)

  1.  ユーザーの眼からの光を受光し、当該光の強度に応じた受光信号を生成する受光手段と、
     前記眼からの光を前記受光手段に導く導光手段と、
     前記受光信号に基づいて、前記導光手段と前記眼の瞳孔または虹彩との間の位置関係を測定する測定手段と、
     前記位置関係に基づいて、前記ユーザーの瞳孔の位置を算出する算出手段と、を有する、視線検出装置。
  2.  前記測定手段は、
     前記位置関係として前記導光手段の接眼面と前記虹彩との距離を測定し、
     前記算出手段は、
     前記距離に基づいて前記接眼面を基準とする前記瞳孔の位置および前記瞳孔の向きを算出し、
     前記瞳孔の向きに基づいて視線方向を算出することを特徴とする請求項1に記載の視線検出装置。
  3.  前記導光手段は、
     前記眼からの光を回折させることにより進路を変えて、前記受光手段に導くことを特徴とする請求項1または2に記載の視線検出装置。
  4.  前記受光手段は、複眼撮像装置を有し、前記受光信号としての画像信号を生成し、
     前記測定手段は、前記画像信号に基づいて、前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
  5.  前記受光手段は、複眼撮像装置としてステレオカメラを有し、前記受光信号としての画像信号を生成し、
     前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
  6.  前記受光手段は、複眼撮像装置としてアレイカメラを有し、前記受光信号としての画像信号を生成し、
     前記測定手段は、前記画像信号に基づいて前記距離を測定することを特徴とする請求項2または3に記載の視線検出装置。
  7.  前記ユーザーの眼に照射光を照射する照明手段をさらに有することを特徴とする請求項1~6のいずれか1項に記載の視線検出装置。
  8.  前記ユーザーの眼に照射光を照射する照明手段をさらに有し、
     前記照明手段は、前記照射光としてパルス光を照射し、
     前記受光手段は、TOFカメラを有し、前記眼から反射された反射光を当該TOFカメラで受光し、前記パルス光に対する反射光の遅延時間を前記受光信号に基づいて算出し、当該遅延時間に基づいて前記距離を測定することを特徴とする請求項1~3のいずれか1項に記載の視線検出装置。
  9.  前記導光手段は、ホログラフィック光学素子を有し、前記照射光を当該ホログラフィック光学素子で回折させることにより進路を変えて、前記眼に導くとともに、前記眼によって反射された反射光を前記受光手段に導くことを特徴とする請求項7に記載の視線検出装置。
  10.  前記導光手段は、透明板を有し、当該透明板は前記接眼面を含むことを特徴とする請求項1~9のいずれか1項に記載の視線検出装置。
  11.  前記ユーザーの頭部に装着されるように構成されていることを特徴とする請求項1~10のいずれか1項に記載の視線検出装置。
  12.  前記照射光は、赤外光であることを特徴とする請求項7に記載の視線検出装置。
  13.  外界の被写体を撮像する被写体用撮像手段と、
     前記算出手段で算出された前記視線方向に基づいて、前記被写体用撮像手段で撮像された映像における前記ユーザーの視線の先にある対象を特定する特定手段と、をさらに有することを特徴とする請求項2~12のいずれか1項に記載の視線検出装置。
  14.  前記ユーザーの視線の先にある対象を特定する特定手段に基づいて、前記ユーザーの視線の先にある対象に関する情報を表示部に表示することを特徴とする請求項13に記載の視線検出装置。
PCT/JP2014/069369 2013-07-24 2014-07-22 視線検出装置 WO2015012280A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015528297A JPWO2015012280A1 (ja) 2013-07-24 2014-07-22 視線検出装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013153768 2013-07-24
JP2013-153768 2013-07-24

Publications (1)

Publication Number Publication Date
WO2015012280A1 true WO2015012280A1 (ja) 2015-01-29

Family

ID=52393314

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/069369 WO2015012280A1 (ja) 2013-07-24 2014-07-22 視線検出装置

Country Status (2)

Country Link
JP (1) JPWO2015012280A1 (ja)
WO (1) WO2015012280A1 (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016158281A1 (ja) * 2015-03-31 2016-10-06 国立大学法人東北大学 画像表示装置、処理方法、検出方法、及び、処理装置
KR20170039621A (ko) * 2015-04-01 2017-04-11 포브, 아이엔씨. 헤드 마운트 디스플레이
CN107260121A (zh) * 2017-06-14 2017-10-20 苏州四海通仪器有限公司 一种复眼眼底相机
JP2018518706A (ja) * 2015-05-19 2018-07-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 二重混合光照射フィールドデバイス
WO2019032199A1 (en) * 2017-08-11 2019-02-14 Microsoft Technology Licensing, Llc MONITORING THE EYE WITH MEMS SCANNING AND REFLECTED LIGHT
WO2019063415A1 (de) * 2017-09-27 2019-04-04 Audi Ag Anzeigevorrichtung, insbesondere für ein fahrzeug, sowie fahrzeug mit einer solchen anzeigevorrichtung
JP2019519859A (ja) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法
KR20190099374A (ko) * 2016-12-31 2019-08-27 루머스 리미티드 도광 광학 소자를 통한 망막 이미징 기반 안구 추적기
CN110520825A (zh) * 2017-04-17 2019-11-29 阿科尼亚全息有限责任公司 斜交镜辅助成像
JP2020514824A (ja) * 2017-03-21 2020-05-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 回折光学要素を使用した眼結像装置
JP2020523620A (ja) * 2017-05-17 2020-08-06 アップル インコーポレイテッドApple Inc. 視力矯正を行うヘッドマウント表示デバイス
JP2020141772A (ja) * 2019-03-05 2020-09-10 Kikura株式会社 瞳孔測定器具及び瞳孔測定装置
JP2021520517A (ja) * 2018-04-06 2021-08-19 エシロール・アンテルナシオナル 仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法
US11099389B2 (en) 2005-02-10 2021-08-24 Lumus Ltd. Substrate-guide optical device
US11187905B2 (en) 2005-11-08 2021-11-30 Lumus Ltd. Polarizing optical system
JP2022502701A (ja) * 2018-09-26 2022-01-11 マジック リープ, インコーポレイテッドMagic Leap, Inc. 屈折力を有する回折光学要素
US11243434B2 (en) 2017-07-19 2022-02-08 Lumus Ltd. LCOS illumination via LOE
US11262587B2 (en) 2018-05-22 2022-03-01 Lumus Ltd. Optical system and method for improvement of light field uniformity
US11409103B2 (en) 2018-07-16 2022-08-09 Lumus Ltd. Light-guide optical element employing polarized internal reflectors
US11415812B2 (en) 2018-06-26 2022-08-16 Lumus Ltd. Compact collimating optical device and system
RU2782543C1 (ru) * 2019-07-10 2022-10-31 Биго Текнолоджи Пте. Лтд. Способ и устройство для детектирования линии взгляда, способ и устройство для обработки видеоданных, устройство и носитель данных
US11500143B2 (en) 2017-01-28 2022-11-15 Lumus Ltd. Augmented reality imaging system
US11531201B2 (en) 2015-02-19 2022-12-20 Lumus Ltd. Compact head-mounted display system having uniform image
US11536975B2 (en) 2017-03-22 2022-12-27 Lumus Ltd. Overlapping facets
US11561335B2 (en) 2019-12-05 2023-01-24 Lumus Ltd. Light-guide optical element employing complementary coated partial reflectors, and light-guide optical element having reduced light scattering
US11573371B2 (en) 2019-11-27 2023-02-07 Lumus Ltd. Lightguide optical element for polarization scrambling
US11668989B2 (en) 2016-12-08 2023-06-06 Magic Leap, Inc. Diffractive devices based on cholesteric liquid crystal
US11668933B2 (en) 2020-11-09 2023-06-06 Lumus Ltd. Color corrected back reflection in AR systems
US11796729B2 (en) 2021-02-25 2023-10-24 Lumus Ltd. Optical aperture multipliers having a rectangular waveguide
US11940625B2 (en) 2018-11-08 2024-03-26 Lumus Ltd. Light-guide display with reflector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003230539A (ja) * 2002-02-07 2003-08-19 Minolta Co Ltd 視線検出装置
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2009071478A (ja) * 2007-09-12 2009-04-02 Sharp Corp 情報通信端末および情報通信システム
JP2010061265A (ja) * 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2011203238A (ja) * 2010-03-01 2011-10-13 Ricoh Co Ltd 撮像装置及び距離測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003230539A (ja) * 2002-02-07 2003-08-19 Minolta Co Ltd 視線検出装置
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2009071478A (ja) * 2007-09-12 2009-04-02 Sharp Corp 情報通信端末および情報通信システム
JP2010061265A (ja) * 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2011203238A (ja) * 2010-03-01 2011-10-13 Ricoh Co Ltd 撮像装置及び距離測定装置

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11099389B2 (en) 2005-02-10 2021-08-24 Lumus Ltd. Substrate-guide optical device
US11187905B2 (en) 2005-11-08 2021-11-30 Lumus Ltd. Polarizing optical system
US11531201B2 (en) 2015-02-19 2022-12-20 Lumus Ltd. Compact head-mounted display system having uniform image
WO2016158281A1 (ja) * 2015-03-31 2016-10-06 国立大学法人東北大学 画像表示装置、処理方法、検出方法、及び、処理装置
US10321817B2 (en) 2015-03-31 2019-06-18 Tohoku University Image display apparatus, method of processing, and processing apparatus
KR101883090B1 (ko) * 2015-04-01 2018-07-27 포브, 아이엔씨. 헤드 마운트 디스플레이
JPWO2016157485A1 (ja) * 2015-04-01 2017-04-27 フォーブ インコーポレーテッド ヘッドマウントディスプレイ
KR20170039621A (ko) * 2015-04-01 2017-04-11 포브, 아이엔씨. 헤드 마운트 디스플레이
US10460165B2 (en) 2015-04-01 2019-10-29 Fove, Inc. Head mounted display
JP2019133204A (ja) * 2015-05-19 2019-08-08 マジック リープ, インコーポレイテッドMagic Leap,Inc. 二重混合光照射フィールドデバイス
JP2018518706A (ja) * 2015-05-19 2018-07-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 二重混合光照射フィールドデバイス
JP7007327B2 (ja) 2015-05-19 2022-01-24 マジック リープ, インコーポレイテッド 二重混合光照射フィールドデバイス
JP2019519859A (ja) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法
US11668989B2 (en) 2016-12-08 2023-06-06 Magic Leap, Inc. Diffractive devices based on cholesteric liquid crystal
KR20190099374A (ko) * 2016-12-31 2019-08-27 루머스 리미티드 도광 광학 소자를 통한 망막 이미징 기반 안구 추적기
KR102296369B1 (ko) * 2016-12-31 2021-09-01 루머스 리미티드 도광 광학 소자를 통한 망막 이미징 기반 안구 추적기
US11500143B2 (en) 2017-01-28 2022-11-15 Lumus Ltd. Augmented reality imaging system
US11754840B2 (en) 2017-03-21 2023-09-12 Magic Leap, Inc. Eye-imaging apparatus using diffractive optical elements
JP7300996B2 (ja) 2017-03-21 2023-06-30 マジック リープ, インコーポレイテッド 回折光学要素を使用した眼結像装置
JP2020514824A (ja) * 2017-03-21 2020-05-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. 回折光学要素を使用した眼結像装置
US11536975B2 (en) 2017-03-22 2022-12-27 Lumus Ltd. Overlapping facets
KR20190133229A (ko) * 2017-04-17 2019-12-02 아코니아 홀로그래픽스 엘엘씨 스큐 미러 보조 이미징
JP7125423B2 (ja) 2017-04-17 2022-08-24 アコニア ホログラフィックス、エルエルシー スキューミラー補助画像化
US11927765B2 (en) 2017-04-17 2024-03-12 Akonia Holographics Llc Skew mirror auxiliary imaging
CN110520825B (zh) * 2017-04-17 2024-02-20 阿科尼亚全息有限责任公司 斜交镜辅助成像
CN110520825A (zh) * 2017-04-17 2019-11-29 阿科尼亚全息有限责任公司 斜交镜辅助成像
KR102419459B1 (ko) * 2017-04-17 2022-07-08 아코니아 홀로그래픽스 엘엘씨 스큐 미러 보조 이미징
JP2020516949A (ja) * 2017-04-17 2020-06-11 アコニア ホログラフィックス、エルエルシー スキューミラー補助画像化
JP6994048B2 (ja) 2017-05-17 2022-01-14 アップル インコーポレイテッド 視力矯正を行うヘッドマウント表示デバイス
JP2020523620A (ja) * 2017-05-17 2020-08-06 アップル インコーポレイテッドApple Inc. 視力矯正を行うヘッドマウント表示デバイス
US11874530B2 (en) 2017-05-17 2024-01-16 Apple Inc. Head-mounted display device with vision correction
CN107260121B (zh) * 2017-06-14 2023-11-21 苏州四海通仪器有限公司 一种复眼眼底相机
CN107260121A (zh) * 2017-06-14 2017-10-20 苏州四海通仪器有限公司 一种复眼眼底相机
US11243434B2 (en) 2017-07-19 2022-02-08 Lumus Ltd. LCOS illumination via LOE
WO2019032199A1 (en) * 2017-08-11 2019-02-14 Microsoft Technology Licensing, Llc MONITORING THE EYE WITH MEMS SCANNING AND REFLECTED LIGHT
US10976811B2 (en) 2017-08-11 2021-04-13 Microsoft Technology Licensing, Llc Eye-tracking with MEMS scanning and reflected light
CN111033354A (zh) * 2017-08-11 2020-04-17 微软技术许可有限责任公司 利用mems扫描和反射光的眼睛跟踪
WO2019063415A1 (de) * 2017-09-27 2019-04-04 Audi Ag Anzeigevorrichtung, insbesondere für ein fahrzeug, sowie fahrzeug mit einer solchen anzeigevorrichtung
EP3968079A1 (de) * 2017-09-27 2022-03-16 Audi AG Anzeigevorrichtung, insbesondere für ein fahrzeug, sowie fahrzeug mit einer solchen anzeigevorrichtung
US11493758B2 (en) 2017-09-27 2022-11-08 Audi Ag Display device, in particular for vehicle, and vehicle having display device with volume hologram
KR20200063178A (ko) * 2017-09-27 2020-06-04 아우디 아게 특히 차량용 디스플레이 장치, 및 이 유형의 디스플레이 장치를 포함하는 차량
JP2020535065A (ja) * 2017-09-27 2020-12-03 アウディ アクチェンゲゼルシャフトAudi Ag 特に車両用の、ディスプレイ装置、およびそのディスプレイ装置を備えた車両
KR102365320B1 (ko) 2017-09-27 2022-02-24 아우디 아게 특히 차량용 디스플레이 장치, 및 이 유형의 디스플레이 장치를 포함하는 차량
JP2021520517A (ja) * 2018-04-06 2021-08-19 エシロール・アンテルナシオナル 仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法
US11262587B2 (en) 2018-05-22 2022-03-01 Lumus Ltd. Optical system and method for improvement of light field uniformity
US11415812B2 (en) 2018-06-26 2022-08-16 Lumus Ltd. Compact collimating optical device and system
US11409103B2 (en) 2018-07-16 2022-08-09 Lumus Ltd. Light-guide optical element employing polarized internal reflectors
JP2022502701A (ja) * 2018-09-26 2022-01-11 マジック リープ, インコーポレイテッドMagic Leap, Inc. 屈折力を有する回折光学要素
JP7444861B2 (ja) 2018-09-26 2024-03-06 マジック リープ, インコーポレイテッド 屈折力を有する回折光学要素
US11940625B2 (en) 2018-11-08 2024-03-26 Lumus Ltd. Light-guide display with reflector
JP7284498B2 (ja) 2019-03-05 2023-05-31 Kikura株式会社 瞳孔測定装置
JP2020141772A (ja) * 2019-03-05 2020-09-10 Kikura株式会社 瞳孔測定器具及び瞳孔測定装置
RU2782543C1 (ru) * 2019-07-10 2022-10-31 Биго Текнолоджи Пте. Лтд. Способ и устройство для детектирования линии взгляда, способ и устройство для обработки видеоданных, устройство и носитель данных
US11573371B2 (en) 2019-11-27 2023-02-07 Lumus Ltd. Lightguide optical element for polarization scrambling
US11561335B2 (en) 2019-12-05 2023-01-24 Lumus Ltd. Light-guide optical element employing complementary coated partial reflectors, and light-guide optical element having reduced light scattering
US11668933B2 (en) 2020-11-09 2023-06-06 Lumus Ltd. Color corrected back reflection in AR systems
US11796729B2 (en) 2021-02-25 2023-10-24 Lumus Ltd. Optical aperture multipliers having a rectangular waveguide

Also Published As

Publication number Publication date
JPWO2015012280A1 (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
WO2015012280A1 (ja) 視線検出装置
US11782274B2 (en) Stray light suppression for head worn computing
KR102594058B1 (ko) 광 스캐닝 프로젝터와 함께 눈 움직임을 추적하기 위한 방법 및 시스템
US10534173B2 (en) Display with a tunable mask for augmented reality
US9092671B2 (en) Visual line detection device and visual line detection method
JP7087481B2 (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
TWI571654B (zh) 整合眼睛追蹤及顯示系統與用於整合眼睛追蹤及顯示的方法
US10147235B2 (en) AR display with adjustable stereo overlap zone
US10948724B2 (en) Transmissive display device, display control method, and computer program
US9563058B2 (en) Display device, display method, and readable medium
KR20190017983A (ko) 사용자의 시야에 가상 이미지를 중첩시키기 위한 디스플레이 장치
JP2021535588A (ja) ウエハーツーウエハーボンディングのためのメサ形成
CN117043658A (zh) 通过波导的眼睛跟踪器照明
US11579449B2 (en) Systems and methods for providing mixed-reality experiences under low light conditions
US20180267601A1 (en) Light Projection for Guiding a User within a Physical User Area During Virtual Reality Operations
US20220350149A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
US11169374B1 (en) Eyewear eye-tracking using optical waveguide
US11860371B1 (en) Eyewear with eye-tracking reflective element
US11044460B1 (en) Polychromatic object imager
US20220342222A1 (en) Eyewear having a projector with heat sink shields
US20230314716A1 (en) Emission of particular wavelength bands utilizing directed wavelength emission components in a display system
US20240069347A1 (en) System and method using eye tracking illumination
EP4325433A1 (en) Augmented reality device and method for acquiring depth map using depth sensor
US20220279151A1 (en) Projector with field lens
EP4330757A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14829064

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015528297

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14829064

Country of ref document: EP

Kind code of ref document: A1