WO2016031666A1 - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
WO2016031666A1
WO2016031666A1 PCT/JP2015/073350 JP2015073350W WO2016031666A1 WO 2016031666 A1 WO2016031666 A1 WO 2016031666A1 JP 2015073350 W JP2015073350 W JP 2015073350W WO 2016031666 A1 WO2016031666 A1 WO 2016031666A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
image acquisition
light source
pupil
Prior art date
Application number
PCT/JP2015/073350
Other languages
English (en)
French (fr)
Inventor
河内 隆宏
山下 龍麿
Original Assignee
アルプス電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルプス電気株式会社 filed Critical アルプス電気株式会社
Priority to JP2016545466A priority Critical patent/JP6381654B2/ja
Priority to CN201580046029.6A priority patent/CN106793944A/zh
Priority to EP15834918.3A priority patent/EP3187100A4/en
Publication of WO2016031666A1 publication Critical patent/WO2016031666A1/ja
Priority to US15/436,165 priority patent/US20170156590A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Definitions

  • the present invention relates to a gaze detection apparatus capable of detecting a gaze direction of a driver of a car or another subject.
  • the gaze point detection method described in Patent Document 1 generates a face image of a subject as a bright pupil image and a dark pupil image using two or more cameras and a light source provided outside the openings of these cameras. Then, based on these images, the vector from the corneal reflection point of the subject to the pupil in a plane perpendicular to the reference line connecting the camera and the pupil is calculated, and based on this vector, the target for each camera reference line
  • the direction of the person's gaze is calculated using a predetermined function. Furthermore, by correcting the function so that the direction of the line of sight calculated corresponding to each camera becomes close, and calculating the direction of the line of sight using the corrected function, the intersection point on the predetermined plane of the line of sight is determined. A fixation point on a predetermined plane of the subject can be detected.
  • light emitting elements that output light of different wavelengths are provided as the light sources, and by alternately emitting these light emitting elements, one of the light emitting elements is used.
  • a bright pupil image is generated when illumination light is irradiated to the eye of the subject, and a dark pupil image is generated when illumination light is irradiated by the other light emitting element.
  • the present invention can provide an eye gaze detection apparatus capable of acquiring an image for generating a bright pupil image and a dark pupil image by one detection light irradiation, and realizing speeding up of the gaze detection process. To aim.
  • a first camera and a second camera which are disposed apart and each obtain an image of an area including at least eyes, and a first camera disposed close to the first camera.
  • a gaze detection apparatus having a light source, a second light source arranged close to the second camera, and a pupil image extraction unit for extracting a pupil image from a bright pupil image and a dark pupil image acquired by each camera
  • the first light source is turned on to obtain a bright pupil image by the first camera
  • the second camera is to obtain a dark pupil image
  • the second light source is turned on to brighten the second camera.
  • a second image acquisition for acquiring a pupil image and acquiring a dark pupil image by the first camera is performed.
  • the gaze detection apparatus includes a corneal reflection light center detection unit that detects corneal reflection light from the dark pupil image, and a gaze direction calculation unit that calculates the gaze direction of the subject from the pupil image and the cornea reflection light. It is possible to have
  • the visual axis detection device can acquire a bright pupil image and a dark pupil image when one of the first light source and the second light source emits light, and can perform the visual axis detection process at high speed. .
  • the first camera and the second camera simultaneously acquire images when the first light source is on, and the second light source is on when the first light source is on.
  • one camera and the second camera acquire images simultaneously.
  • the image acquisition by the first camera and the image acquisition by the second camera are alternately performed so as not to overlap, and the second light source is on.
  • the image acquisition by the first camera and the image acquisition by the second camera may be alternately performed so as not to overlap.
  • the first image acquisition and the second image acquisition are alternately performed.
  • the brightness of the image obtained in the first image acquisition is monitored, and in the subsequent first image acquisition, the exposure condition for acquiring the image by the camera is controlled based on the monitor result.
  • an exposure control unit is provided.
  • exposure control is performed to monitor the brightness of the image obtained by the second image acquisition, and control the exposure condition for acquiring the image by the camera based on the monitoring result in the second image acquisition.
  • a part is provided.
  • an image comparison unit that compares the brightness of the image obtained by the first image acquisition with the brightness of the image obtained by the second image acquisition, and the comparison result by the image comparison unit
  • the exposure control unit configured to control the exposure condition in at least one of the first image acquisition and the second image acquisition is provided.
  • the brightness of the image to be the bright pupil image obtained in the first image acquisition and the brightness of the image to be the dark pupil image obtained in the second image acquisition are compared Be done.
  • the image comparison unit compares the brightness of the image to be a dark pupil image obtained by the first image acquisition with the brightness of the image to be a bright pupil image obtained by the second image acquisition.
  • the image comparison unit compares an image obtained by the first image acquisition or the second image acquisition with a target value.
  • the exposure condition is at least one of an emission time and an emission intensity of the light source, an image acquisition time by the camera, and a gain.
  • the exposure condition includes an image acquisition time by the camera, and at least one of the first image acquisition and the second image acquisition, the image acquisition time by the first camera and the second camera It is preferable to control the light emission time of the light source in accordance with the longer one of the image acquisition times by.
  • the present invention it is possible to acquire an image for generating a bright pupil image and a dark pupil image during a period in which one of the first light source and the second light source is turned on, so speeding up processing of sight line detection It is possible to realize
  • the present invention it is possible to suppress the variation in the brightness of the acquired image due to the variation in the brightness of the light source and the like, so it is possible to obtain a bright pupil image and a dark pupil image of constant image quality. High-accuracy gaze detection is possible.
  • FIG. 1 is a front view showing a configuration of a gaze detection apparatus according to an embodiment of the present invention. It is a block diagram showing composition of an eye gaze detection device concerning an embodiment of the present invention. It is a top view which shows the relationship between direction of gaze of a person's eyes, and a camera. It is an explanatory view for computing direction of a look from a pupil center and a center of cornea catoptric light. It is a chart which shows the timing of the image acquisition in the gaze detection apparatus of embodiment of this invention. It is a chart which shows the light emission of a light source, and the timing of the image acquisition by a camera.
  • FIG. 1 is a front view showing the configuration of a gaze detection apparatus according to the present embodiment
  • FIG. 2 is a block diagram showing the configuration of the gaze detection apparatus according to the present embodiment
  • FIG. FIG. 4 is an explanatory view for calculating the direction of the line of sight from the center of the pupil and the center of the corneal reflected light.
  • the line-of-sight detection device includes two image receiving devices 10 and 20 and an arithmetic control unit CC, and is disposed in the vehicle compartment of a car, for example, at the top of an instrument panel or windshield. It is installed to face the driver's face as a target person.
  • the two image receivers 10 and 20 are spaced apart by a predetermined distance L10, and the optical axes 13C and 23C of the cameras 12 and 22 provided for each are for the eyes 50 of the driver etc. It is directed.
  • the cameras 12 and 22 each have an imaging device such as a CMOS (complementary metal oxide semiconductor) or a CCD (charge coupled device) and acquire an image of the face including the eyes of the driver.
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the image receiving apparatus 10 includes a first light source 11 and a first camera 12, and the first light source 11 includes twelve LED (light emitting diode) light sources 111.
  • the LED light sources 111 are arranged on the outside of the lens 12L of the camera 12 so that their optical axis 111C and the optical axis 12C of the camera 12 are separated by a distance L11 to be circular.
  • the image receiving device 20 includes a second light source 21 and a second camera 22.
  • the second light source 21 includes twelve LED light sources 211.
  • the LED light sources 211 are arranged on the outer side of the lens 22L of the second camera 22 so that their optical axis 211C and the optical axis 22C of the second camera 22 are separated by a distance L21 to be circular.
  • the first camera 12 and the second camera 22 it is preferable to arrange a band pass filter matched to the wavelength of the detection light emitted by the light sources 11 and 21. This makes it possible to suppress the incidence of light of a wavelength other than the detection light, so that the comparison of the brightness of the image in the image comparison unit 33, the extraction of the pupil image in the pupil image extraction unit 40, and the gaze direction calculation unit 45 The gaze direction can be calculated with high accuracy.
  • the LED light source 111 of the first light source 11 and the LED light source 211 of the second light source 21 emit, for example, infrared light (near infrared light) having a wavelength of 850 nm as detection light. It is arranged to be able to give to the eyes.
  • 850 nm is a wavelength with a low light absorptivity in the eyeball of the human eye, and light of this wavelength is easily reflected by the retina at the back of the eyeball.
  • the distance L11 between the optical axes of the first camera 12 and the LED light source 111 is equal to the distance L10 between the optical axes of the first camera 12 and the second camera 22 in consideration of the distance between the visual axis detection device and the driver as the object person.
  • the first light sources 11 can be regarded as substantially coaxial with each other with respect to the first camera 12 because the first light sources 11 are sufficiently short.
  • the second light source 21 is a second camera
  • the optical axes can be regarded as substantially coaxial with each other.
  • the inter-optical axis distance L10 is set to, for example, a dimension that substantially matches the distance between the human eyes.
  • each optical axis of the first light source 11 and the first camera 12 and the second light source 21 and the second camera are not coaxial with each other.
  • two members may be expressed as being substantially coaxial or the like, and two members may be expressed as being non-coaxial or the like.
  • the calculation control unit CC is configured by a CPU and a memory of a computer, and the functions of the blocks shown in FIG. 2 are calculated by executing software installed in advance.
  • the light source control units 31 and 32, the image comparison unit 33, the image acquisition units 34 and 35, the exposure control unit 36, the pupil image extraction unit 40, and the pupil center calculation unit 43, a corneal reflected light center detection unit 44, and a gaze direction calculation unit 45 are provided.
  • the light source control unit 31 and the light source control unit 32 respectively control lighting / non-lighting of the first light source 11 and the second light source 21 in accordance with an instruction signal from the exposure control unit 36. Images acquired by the cameras 12 and 22 are acquired by the image acquisition units 34 and 35 for each frame.
  • the image comparison unit 33 controls the brightness of the image acquired in the first image acquisition and the second image for the images acquired by the image acquisition units 34 and 35, that is, the image for extracting the bright pupil image or the dark pupil image.
  • the brightness of the images acquired in acquisition is compared with each other.
  • the first image acquisition means a process of acquiring images simultaneously or substantially simultaneously from the first camera 12 and the second camera 22 when the detection light is given from the first light source 11, and the second image acquisition is performed.
  • the term “step” means a process of acquiring images simultaneously or substantially simultaneously from the first camera 12 and the second camera 22 when the detection light is given from the second light source 21.
  • the detection light may be supplied from the second light source in the first image acquisition, and the detection light may be supplied from the first light source in the second image acquisition.
  • the image comparison unit 36 acquires an image acquired by the first camera 12 to acquire a bright pupil image in the first image acquisition and an image acquired by the first camera 12 to acquire a dark pupil image in the second image acquisition. The brightness is compared with the original image. In addition, in the first image acquisition, an image acquired by the second camera 22 to acquire a dark pupil image, and an image acquired by the second camera 22 to acquire a bright pupil image in the second image acquisition. Brightness is compared.
  • the difference in brightness between the bright pupil image and the dark pupil image obtained by the first camera 12 in the first image acquisition and the second image acquisition (a face other than the pupil portion) Differences in brightness of the image can be eliminated or reduced, and differences in brightness between the dark pupil image and the light pupil image obtained by the second camera 22 (difference in brightness of face images other than the pupil) can be eliminated or reduced. It can be reduced.
  • an image for obtaining a bright pupil image obtained by the first camera 12 in obtaining the first image and an image for obtaining the next first image are obtained.
  • the brightness is compared with the image for obtaining the bright pupil image obtained with the first camera 12, and the image for obtaining the dark pupil image obtained with the second camera 12 in the first image acquisition, and the following In one image acquisition, brightness may be compared with an image for acquiring a dark pupil image acquired by the second camera 12.
  • the brightness is compared between the images for acquiring the bright pupil image, and the second image acquisition and the second image acquisition subsequent thereto
  • the brightness may be compared between images for obtaining a dark pupil image.
  • the reference of the brightness of the image is determined in advance as the target value.
  • the image comparison unit 33 compares the brightness of the image for obtaining the bright pupil image obtained by the first camera 12 with the target value for the bright pupil image in obtaining the first image, and also for the second camera 22.
  • the brightness of the image for obtaining the dark pupil image acquired in the above may be compared with the target value for the dark pupil image, and the comparison result may be given to the exposure control unit 36. In this control, the exposure condition in the next first image acquisition is changed so as to optimize the brightness of the image in the first image acquisition performed earlier. This is also true for the second image acquisition.
  • the comparison of the brightness of the images or the comparison of the brightness of the images and the target value is, for example, a comparison of average values of the brightness values of the entire images acquired by the image acquisition units 34 and 35 or a comparison of total values.
  • the difference between the maximum value and the minimum value of the luminance may be compared, or the standard deviations of the luminance values may be compared with each other.
  • the exposure control unit 36 performs imaging in the first image acquisition and the second image acquisition according to the comparison result by the image comparison unit 33 such that the difference in brightness between the images to be compared falls within a predetermined range. Control the exposure conditions for
  • the exposure conditions controlled by the exposure control unit 36 include, for example, the light emission time and the light emission intensity of the first light source 11 and the second light source 21 and the image acquisition time by the first camera 12 and the second camera 22 (exposure time of the camera) Control at least one of the sensor gains.
  • a signal corresponding to this control is output from the exposure control unit 36 to the light source control units 31 and 32, the first camera 12, and the second camera 22, and the light source control units 31 and 32 perform the first control according to the control signal.
  • the light emission time and light emission intensity of the light source 11 and the second light source 21 are set, and in the first camera 12 and the second camera 22, the image acquisition time corresponding to the aperture time of the shutter and the sensor gain are set according to the control signal. Ru.
  • the images acquired by the image acquisition units 34 and 35 are read into the pupil image extraction unit 40 for each frame.
  • the pupil image extraction unit 40 includes a bright pupil image detection unit 41 and a dark pupil image detection unit 42.
  • FIG. 3 is a plan view schematically showing the relationship between the direction of the line of sight of the eye 50 of the subject and the camera.
  • FIG. 4 is an explanatory diagram for calculating the direction of the line of sight from the pupil center and the center of the corneal reflection light.
  • the line-of-sight direction VL of the object person is directed to the middle between the image receiving apparatus 10 and the image receiving apparatus 20, and in FIGS. 3B and 4B, the line of sight The direction VL is directed in the direction of the optical axis 13C of the camera.
  • the eye 50 has a cornea 51 in front, and a pupil 52 and a lens 53 are located behind it. And the retina 54 exists in the last part.
  • the infrared light of wavelength 850 nm emitted from the first light source 11 and the second light source 21 has a low absorptivity in the eyeball, and the light is easily reflected by the retina 54. Therefore, when the first light source 11 is turned on, in the image acquired by the first camera 12 substantially coaxial with the first light source 11, infrared light reflected by the retina 54 is detected through the pupil 52, and the pupil 52 It looks bright. This image is extracted by the bright pupil image detection unit 41 as a bright pupil image. The same applies to an image acquired by the second camera 22 substantially coaxial with the second light source 21 when the second light source 21 is turned on.
  • the infrared light reflected by the retina 54 is the second camera 22.
  • the pupil 52 looks dark because it becomes difficult to be detected. Therefore, this image is extracted as a dark pupil image by the dark pupil image detection unit 42. The same applies to an image acquired by the first camera 12 which is not coaxial with the second light source 21 when the second light source 21 is turned on.
  • the dark pupil image detected by the dark pupil image detection unit 42 is subtracted from the bright pupil image detected by the bright pupil image detection unit 41, and preferably an image other than the pupil 52 is The cancellation produces a pupil image signal in which the shape of the pupil 52 is brightened.
  • the pupil image signal is supplied to the pupil center calculation unit 43.
  • the pupil image signal is image-processed and binarized, and an area image of a portion corresponding to the shape and the area of the pupil 52 is calculated.
  • an ellipse including the area image is extracted, and the intersection of the major axis and the minor axis of the ellipse is calculated as the center position of the pupil 52.
  • the center of the pupil 52 can be obtained from the luminance distribution of the pupil image.
  • the dark pupil image signal detected by the dark pupil image detection unit 42 is given to the corneal reflection light center detection unit 44.
  • the dark pupil image signal includes the luminance signal of the reflected light reflected from the reflection point 55 of the cornea 51 shown in FIGS. 3 and 4.
  • the light from the light source is reflected by the surface of the cornea 51, and the light is transmitted from the first camera 12 and the second camera 22. Both are acquired and detected by the bright pupil image detection unit 41 and the dark pupil image detection unit 42.
  • the image of the pupil 52 is relatively dark in the dark pupil image detection unit 42, the reflected light reflected from the reflection point 55 of the cornea 51 is brightly detected as a spot image.
  • the reflected light from the reflection point 55 of the cornea 51 forms a Purkinje image, and as shown in FIG. 4, a spot image of a very small area is acquired by the imaging device of the cameras 12 and 22.
  • the spot image is image-processed to determine the center of the reflected light from the reflection point 55 of the cornea 51.
  • the pupil center calculation value calculated by the pupil center calculation unit 43 and the corneal reflection light center calculation value calculated by the corneal reflection light center detection unit 44 are given to the gaze direction calculation unit 45.
  • the gaze direction calculation unit 45 detects the direction of the gaze from the pupil center calculation value and the corneal reflection light center calculation value.
  • the line of sight direction VL of the human eye 50 is directed to the middle of the two image receivers 10 and 20.
  • the center of the reflection point 55 from the cornea 51 coincides with the center of the pupil 52.
  • the line of sight direction VL of the human eye 50 is directed slightly to the left, as shown in FIG. 4 (B)
  • the center of the reflection point 55 from the cornea 51 is misaligned.
  • the gaze direction calculation unit 45 calculates a linear distance ⁇ between the center of the pupil 52 and the center of the reflection point 55 from the cornea 51 (FIG. 4 (B)). Further, an XY coordinate having the center of the pupil 52 as the origin is set, and an inclination angle ⁇ of a line connecting the center of the pupil 52 and the center of the reflection point 55 with the X axis is calculated. Further, the sight line direction VL is calculated from the linear distance ⁇ and the inclination angle ⁇ .
  • the detection of the viewing direction VL can be determined in three dimensions.
  • the first light source 11 is made to emit light in the first image acquisition, and during this time, the first camera 12 and the second camera 22 acquire images simultaneously or substantially simultaneously.
  • the second image acquisition the second light source is illuminated, and during this time, images are acquired simultaneously or substantially simultaneously with the first camera 12 and the second camera 22.
  • the relationship between the first image acquisition and the second image acquisition and the detection of the bright pupil image and the dark pupil image is as follows.
  • the (A) first image acquisition and the (B) second image acquisition are basically alternately performed.
  • the image comparison unit 33 After performing the first image acquisition and the second image acquisition once each time, the image comparison unit 33 performs an image acquisition on the images acquired by the first image acquisition and the second image acquisition that were performed immediately before. The brightness is compared with each other, and the comparison result is sent to the exposure control unit 36.
  • the exposure control unit 36 In response to the comparison result, the exposure control unit 36 receiving the comparison result generates a control signal for controlling the exposure condition of the light source such that the brightness of the image acquired in future image acquisition falls within a predetermined range. Do.
  • the control signal is sent to the light source control units 31 and 32 and the image acquiring units 34 and 35 corresponding to the light source used in the next image acquisition, and the light emission time or the light emission intensity is adjusted in the light source, for example.
  • the exposure time and gain are adjusted.
  • a bright pupil image is acquired by the first camera and a dark pupil image is acquired by the second camera.
  • a pupil image is obtained from the bright pupil image and the dark pupil image. It is possible to obtain corneal reflection light and calculate the gaze direction.
  • a dark pupil image is acquired by the first camera and a bright pupil image is acquired by the second camera. Therefore, at this time, the gaze direction can be calculated from the pupil image and corneal reflected light .
  • the gaze direction can be calculated at each time of the first image acquisition and the second image acquisition, it is possible to speed up the gaze detection operation.
  • FIG. 5 is a chart showing timing of image acquisition in the gaze detection apparatus of the present embodiment.
  • (A) to (d-4) of FIG. 5 show timings of the following signals and the like, respectively.
  • the timings of the trigger signals (b-1) and (d-1) are the same, so that images are simultaneously acquired from the first camera 12 and the second camera 22. Further, in the example shown in FIG. 5, the light emission time of (a) or (c) and the exposure time of (b-3) and (d-3) for each image acquisition are the same.
  • the exposure E11 of the first camera 12 and the exposure E12 of the second camera 22 are simultaneously performed in accordance with the light emission L1 of the first light source 11 as the first image acquisition.
  • the image acquired by the first camera 12 substantially coaxial with the first light source 11 is an image for bright pupil image extraction
  • the image acquired by the second camera 22 non-coaxial with the first light source 11 is dark pupil image extraction Is an image for
  • the exposures E11 and E12 end simultaneously, and simultaneously with the end of the exposure, data transfer D11, D12 from the first camera 12 and the second camera 22 to the image acquisition unit 34, 35 (more specifically, data transfer Each frame) is started.
  • the time TG of the data transfer D11, D12 is the same in each section regardless of the exposure time of the light sources 11, 21.
  • the exposure E21 of the first camera 12 and the exposure E22 of the second camera 22 are simultaneously performed in accordance with the light emission L2 of the second light source 21.
  • the image acquired by the second camera 22 substantially coaxial with the second light source 21 is an image for bright pupil image extraction
  • the image acquired by the first camera 12 non-coaxial with the second light source 21 is dark pupil image extraction Is an image for When the light emission L2 ends, the exposures E21 and E22 end simultaneously, and simultaneously with the end of the exposure, data transfer D21 and D22 from the first camera 12 and the second camera 22 to the image acquisition units 34 and 35 is started, respectively.
  • the times of the light emission L1 and L2 and the times of the exposures E11, E12, E21, and E22 up to this point are the same time set in advance.
  • the image comparison unit 33 compares the brightness of the images obtained by the first image acquisition and the second image acquisition performed previously, and sends the comparison result to the exposure control unit 36. In this comparison, the brightness of the image for the bright pupil image obtained in the first image acquisition and the brightness of the image for the dark pupil image obtained in the second image acquisition are compared. Also, the brightness of the image for the dark pupil image obtained in the first image acquisition and the brightness of the image for the bright pupil image obtained in the second image acquisition are compared.
  • the brightness of the image obtained by the first image acquisition by the light emission L1 of the first light source 11 is lower than the brightness of the image obtained by the second image acquisition by the light emission L2 of the second light source 21.
  • the exposure control unit 36 the exposure condition in the light emission L3 of the first light source 11 is increased (for example, the image acquisition time (exposure) of the camera is increased) to increase the light reception amount in the first image acquisition of the next period. I have to. Therefore, in the second acquisition of the first image in which the first light source 21 emits light L3, an image brighter than the acquisition of the first image is acquired.
  • the brightness of the images obtained in the first image acquisition is compared, and from the comparison result, the exposure conditions are changed in the subsequent first image acquisition, and the second image is acquired.
  • the brightness of the images may be compared, and the exposure condition may be changed in the second image acquisition later based on the comparison result.
  • the image (bright pupil image, dark pupil image) obtained in the previous first image acquisition is compared with a predetermined target value (threshold), and as a result of the comparison, the exposure state in the next first image acquisition May be changed. This is also true for the second image acquisition.
  • FIG. 6 shows (a) the timing of light emission LA of the light source 11 or 21, (b) the timing of exposure EA 1 in the first camera 12, and (c) the timing of exposure EA 2 in the second camera 22. Are shown respectively.
  • the image acquisition time (exposure time) EA1 in the first camera 12 and the image acquisition time (exposure time) EA2 in the second camera 22 are made different. ing.
  • the length of the light emission LA of the light source is adjusted to the end of the long exposure EA 21. This eliminates the need for complex control over the acquisition of images for the bright and dark pupil images.
  • the wavelength of the detection light from the 1st light source 11 and the detection light from the 2nd light source 21 was 850 nm, if the absorptivity in the eyeball is comparable, even other wavelengths may be used. Good.
  • An image for extracting a bright pupil image by a camera substantially coaxial with a light source when detecting light is given from one of the first light source 11 and the second light source 21 as first image acquisition or second image acquisition
  • the visual axis detection process can be performed at high speed by acquiring and acquiring an image for extracting a dark pupil image with a camera that is not coaxial with the light source. Further, by simultaneously performing acquisition of an image for extracting a bright pupil image and acquisition of an image for extracting a dark pupil image, the cycle of detection light emission from a plurality of light sources can be shortened. Therefore, the gaze detection process can be performed at higher speed.
  • the gaze detection can be realized with high accuracy by using a plurality of images for extracting a pupil image obtained by alternately performing the first image acquisition and the second image acquisition.
  • An image comparison unit that compares the brightness of the two images acquired in the first image acquisition with the brightness of the two images acquired in the second image acquisition, and the comparison result by the image comparison unit
  • an exposure control unit for controlling the exposure condition of the light source such that the brightness of the image acquired in the first image acquisition and the second image acquisition falls within a predetermined range; Since variations in the brightness of the acquired image due to the difference in etc. can be suppressed, it is possible to obtain a bright pupil image and a dark pupil image of constant image quality, which makes it possible to detect the visual line with high accuracy.
  • the line of sight detection device is useful when high accuracy and high speed detection is required, as in the case of detecting the line of sight of the driver by arranging the line of sight in the vehicle compartment of the vehicle. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

 1度の検知光照射によって明瞳孔像と暗瞳孔像の生成のための画像を取得し、これによって、視線検出の処理の高速化を実現する視線検出装置を提供する。 画像取得部は、光軸が互いに略同軸とならない所定距離だけ離間されるように配置された複数のカメラから画像を取得し、複数の光源は、複数のカメラのいずれかに対して、光軸が略同軸となるようにそれぞれ配置され、複数の光源のうちの1つの第1光源から与えた検知光についての第1画像取得として、第1光源と略同軸のカメラで明瞳孔画像を抽出するための画像を取得し、第1光源と略同軸とならないカメラで暗瞳孔画像を抽出するための画像を取得する。

Description

視線検出装置
 本発明は、車の運転者その他の対象者の視線方向を検出可能な視線検出装置に関する。
 特許文献1に記載の注視点検出方法は、2台以上のカメラと、これらのカメラの開口部外側に設けた光源とを用いて、対象者の顔画像を明瞳孔画像及び暗瞳孔画像として生成し、これらの画像に基づいて、カメラと瞳孔を結ぶ基準線に垂直な平面上における対象者の角膜反射点から瞳孔までのベクトルを計算し、このベクトルをもとに各カメラの基準線に対する対象者の視線の方向を所定の関数を用いて計算する。さらに、各カメラに対応して計算した視線の方向が近くなるように前記関数を補正し、補正された関数を用いて視線の方向を計算して視線の所定の平面上の交点を求めることによって対象者の所定平面上の注視点を検出することができる。
 特許文献1に記載の注視点検出方法においては、前記光源として、互いに異なる波長の光を出力する発光素子が設けられており、これらの発光素子を交互に発光させることによって、一方の発光素子によって対象者の目に照明光が照射されたときに明瞳孔像を生成し、他方の発光素子によって照明光が照射されたときに暗瞳孔像を生成する。
国際公開2012/020760号公報
 しかしながら、特許文献1に記載の注視点検出方法においては、明瞳孔像と暗瞳孔像を生成するために2回の照明光の照射が必要となるため、瞳孔像の取得に時間を要し、ひいては、これらの瞳孔像を用いて行う、注視点や視線の検出処理の高速化を困難にしていた。
 そこで本発明は、1回の検知光照射によって明瞳孔像と暗瞳孔像の生成のための画像を取得することができ、視線検出の処理の高速化を実現できる視線検出装置を提供することを目的とする。
 上記課題を解決するために、本発明は、離れて配置されてそれぞれが少なくとも目を含む領域の画像を取得する第1カメラならびに第2カメラと、前記第1カメラに接近して配置された第1光源と、前記第2カメラに接近して配置された第2光源と、それぞれのカメラで取得した明瞳孔画像と暗瞳孔画像とから瞳孔画像を抽出する瞳孔画像抽出部とを有する視線検出装置において、
 前記第1光源を点灯させて前記第1カメラで明瞳孔画像を取得し前記第2カメラで暗瞳孔画像を取得する第1画像取得と、前記第2光源を点灯させて前記第2カメラで明瞳孔画像を取得し前記第1カメラで暗瞳孔画像を取得する第2画像取得と、が行われることを特徴とするものである。
 本発明の視線検出装置は、前記暗瞳孔画像から角膜反射光を検出する角膜反射光中心検出部と、前記瞳孔画像と前記角膜反射光とから前記対象者の視線方向を算出する視線方向算出部とを有するものとすることが可能である。
 本発明の視線検出装置は、第1光源と第2光源の一方が発光しているときに明瞳孔画像と暗瞳孔画像を取得することができ、視線検出処理を高速に行うことが可能となる。
 本発明の視線検出装置では、前記第1光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得し、前記第2光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得することが好ましい。
 明瞳孔画像を抽出するための画像の取得と暗瞳孔画像を抽出するための画像の取得を同時に行うことにより、2つのカメラで明瞳孔画像と暗瞳孔画像を取得するための周期を短くすることができ、視線検出処理をさらに高速に行うことができる。
 なお、本発明では、第1光源が点灯している期間に、第1カメラによる画像取得と第2カメラによる画像取得とが、重複しないように交互に行われ、第2光源が点灯している期間にも、第1カメラによる画像取得と第2カメラによる画像取得とが、重複しないように交互に行われてもよい。
 本発明は、第1画像取得と第2画像取得とが交互に行われることが好ましい。
 この場合に、前記第1画像取得で得られた画像の明るさをモニターし、その次の第1画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられていることが好ましい。
 また、前記第2画像取得で得られた画像の明るさをモニターし、その次の第2画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられていることが好ましい。
 例えば、本発明は、第1画像取得で得られた画像の明るさと、第2画像取得で得られた画像の明るさと比較する画像比較部と、前記画像比較部による比較結果に応じて、第1画像取得と第2画像取得の少なくとも一方において前記露光条件を制御する前記露光制御部とが設けられているものとなる。
 この場合に、前記画像比較部では、第1画像取得で得られた明瞳孔画像となる画像の明るさと、前記第2の画像取得で得られた暗瞳孔画像となる画像との明るさが比較される。
 また、前記画像比較部では、第1画像取得で得られた暗瞳孔画像となる画像の明るさと、前記第2の画像取得で得られた明瞳孔画像となる画像の明るさとが比較される。
 あるいは、前記画像比較部では、前記第1画像取得、または、前記第2画像取得で得られた画像とターゲット値とが比較される。
 上記発明では、複数の光源の輝度等の違いに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
 本発明の視線検出装置は、前記露光条件は、前記光源の発光時間及び発光強度、並びに、前記カメラによる画像取得時間、ゲインのうちの少なくとも一つであることが好ましい。
 本発明の視線検出装置において、前記露光条件が前記カメラによる画像取得時間を含んでおり、第1画像取得と第2画像取得の少なくとも一方において、前記第1カメラによる画像取得時間と前記第2カメラによる画像取得時間のうちの長い方の時間に合わせて光源の発光時間を制御することが好ましい。
 これにより、明瞳孔画像と暗瞳孔画像のための画像の取得について複雑な制御が不要となる。
 本発明によると、第1光源と第2光源の一方を点灯している期間に、明瞳孔像と暗瞳孔像の生成のための画像を取得することができるため、視線検出の処理の高速化を実現することが可能となる。
 また、本発明によると、光源の輝度の変動などに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
本発明の実施形態に係る視線検出装置の構成を示す正面図である。 本発明の実施形態に係る視線検出装置の構成を示すブロック図である。 人の目の視線の向きとカメラとの関係を示す平面図である。 瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。 本発明の実施形態の視線検出装置における画像取得のタイミングを示すチャートである。 光源の発光とカメラによる画像取得のタイミングを示すチャートである。
 以下、本発明の実施形態に係る視線検出装置について図面を参照しつつ詳しく説明する。
<視線検出装置の構造>
 図1は、本実施形態の視線検出装置の構成を示す正面図、図2は、本実施形態の視線検出装置の構成を示すブロック図、図3は、人の目の視線の向きとカメラとの関係を示す平面図、図4は、瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。
 本実施形態の視線検出装置は、図2に示すように、2つの受像装置10、20と、演算制御部CCとを備え、自動車の車室内の、例えばインストルメントパネルやウインドシールドの上部などに、対象者としての運転者の顔に向けるように設置される。
 図1と図3に示すように、2つの受像装置10、20は所定距離L10だけ離間して配置されて、それぞれが備えるカメラ12、22の光軸13C、23Cが運転者などの目50に向けられている。カメラ12、22は、CMOS(相補型金属酸化膜半導体)やCCD(電荷結合素子)などの撮像素子を有しており、運転者の目を含む顔の画像を取得する。撮像素子では、二次元的に配列された複数の画素で光が検出される。
 図1と図2に示すように、受像装置10は、第1光源11と第1カメラ12とを備え、第1光源11は、12個のLED(発光ダイオード)光源111からなる。これらのLED光源111は、カメラ12のレンズ12Lの外側において、それらの光軸111Cとカメラ12の光軸12Cとが距離L11だけ離れて円状になるように配置されている。受像装置20は、第2光源21と第2カメラ22とを備え、第2光源21は、12個のLED光源211からなる。これらのLED光源211は、第2カメラ22のレンズ22Lの外側において、それらの光軸211Cと第2カメラ22の光軸22Cとが距離L21だけ離れて円状になるように配置されている。
 第1カメラ12と第2カメラ22においては、光源11、21が射出する検知光の波長に合わせたバンドパスフィルタを配置していることが好ましい。これにより、検知光以外の波長の光の入射を抑えることができるため、画像比較部33における画像の明るさの比較や、瞳孔画像抽出部40における瞳孔画像の抽出や、視線方向算出部45における視線方向の算出を精度良く行うことができる。
 第1光源11のLED光源111、及び、第2光源21のLED光源211は、検知光として、例えば波長が850nmの赤外光(近赤外光)を出射し、この検知光を対象者の目に与えることができるように配置されている。ここで、850nmは、人の目の眼球内で光吸収率の低い波長であり、この波長の光は眼球の奥の網膜で反射されやすい。
 第1カメラ12とLED光源111の光軸間距離L11は、視線検出装置と対象者としての運転者との距離を考慮して、第1カメラ12と第2カメラ22の光軸間距離L10に対して十分に短いため、第1光源11は第1カメラ12に対して互いの光軸が略同軸であるとみなすことができる。同様に、第2カメラ22とLED光源211の光軸間距離L21は、第1カメラ12と第2カメラ22の光軸間距離L10に対して十分に短いため、第2光源21は第2カメラ22に対して互いの光軸が略同軸であるとみなすことができる。なお、光軸間距離L10は、例えば人の両目の間隔とほぼ一致する寸法に設定されている。
 これに対して、第1カメラ12と第2カメラ22の光軸間距離L10は十分に長いために、第1光源11及び第1カメラ12の各光軸と、第2光源21及び第2カメラ22の各光軸とは、互いに同軸ではない。以下の説明において、上記状態に関し、2つの部材が略同軸である等と表現し、2つの部材が非同軸である等と表現することがある。
 演算制御部CCは、コンピュータのCPUやメモリで構成されており、図2に示す各ブロックの機能は、予めインストールされたソフトウエアを実行することで演算が行われる。
 図2に示す演算制御部CCには、光源制御部31、32と、画像比較部33と、画像取得部34、35と、露光制御部36と、瞳孔画像抽出部40と、瞳孔中心算出部43と、角膜反射光中心検出部44と、視線方向算出部45とが設けられている。
 光源制御部31及び光源制御部32は、露光制御部36からの指示信号にしたがって、第1光源11及び第2光源21の点灯・非点灯をそれぞれ制御する。カメラ12、22で取得された画像は、フレームごとに画像取得部34、35にそれぞれ取得される。
 画像比較部33は、画像取得部34、35で取得された画像、すなわち、明瞳孔画像又は暗瞳孔画像を抽出するための画像について、第1画像取得において取得した画像の明るさと、第2画像取得において取得した画像の明るさと、を互いに比較する。
 ここで、第1画像取得とは、第1光源11から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味し、第2画像取得とは、第2光源21から検知光を与えたときに第1カメラ12及び第2カメラ22から同時又は略同時に画像をそれぞれ取得する行程を意味する。なお、第2光源から検知光を与えるときが第1画像取得で、第1光源から検知光を与えるときが第2画像取得であってもよい。
 画像比較部36では、第1画像取得において、明瞳孔画像を得るために第1カメラ12で取得された画像と、第2画像取得において、暗瞳孔画像を得るために第1カメラ12で取得された画像との明るさが比較される。また、第1画像取得において、暗瞳孔画像を得るために第2カメラ22で取得された画像と、第2画像取得において、明瞳孔画像を得るために第2カメラ22で取得された画像との明るさが比較される。この比較結果を露光制御部36に与えることにより、第1画像取得と第2画像取得において、第1カメラ12で得られる明瞳孔画像と暗瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくでき、また第2カメラ22で得られる暗瞳孔画像と明瞳孔画像との明るさの差(瞳孔部以外の顔画像の明るさの差)を無くしまたは少なくできる。
 また、他の実施の形態での画像比較部36の動作として、第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像と、次の第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像とで明るさを比較し、第1画像取得において、第2カメラ12で取得された暗瞳孔画像を得るための画像と、次の第1画像取得において、第2カメラ12で取得された暗瞳孔画像を得るための画像とで明るさを比較してもよい。
 同様に、第2画像取得と、その次の第2画像取得とで、明瞳孔画像を得るための画像どうしで明るさを比較し、第2画像取得と、その次の第2画像取得とで、暗瞳孔画像を得るための画像どうしで明るさを比較してもよい。この比較結果を露光制御部36に与えることにより、第1画像取得と第2画像取得において、明るさのばらつきの少ない明瞳孔画像と暗瞳孔画像を得ることができるようになる。
 あるいは、予め画像の明るさの基準をターゲット値として決めておく。画像比較部33では、第1画像取得において、第1カメラ12で取得された明瞳孔画像を得るための画像の明るさと、明瞳孔画像用のターゲット値とを比較し、また、第2カメラ22で取得された暗瞳孔画像を得るための画像の明るさと、暗瞳孔画像用のターゲット値とを比較し、その比較結果が露光制御部36に与えられてもよい。この制御では、先に行われた第1画像取得での画像の明るさを最適化するように、次の第1画像取得での露光条件が変更される。これは第2画像取得においても同じである。
 画像どうしの明るさの比較、あるいは画像の明るさとターゲット値との比較は、例えば、画像取得部34、35で取得された画像全体の輝度値の平均値の比較若しくは合計値の比較である。あるいは、輝度の最大値と最小値の差の比較であってもよいし、輝度値の標準偏差を互いに比較してもよい。
 露光制御部36は、画像比較部33による比較結果に応じて、第1画像取得と第2画像取得で取得する、比較すべく画像間の明るさの差が所定範囲内に収まるように、撮像のための露光条件を制御する。
 露光制御部36で制御する露光条件は、例えば、第1光源11と第2光源21の発光時間及び発光強度、並びに、第1カメラ12と第2カメラ22による画像取得時間(カメラの露光時間)、センサーゲインのうちの少なくとも1つを制御する。この制御に対応する信号は、露光制御部36から、光源制御部31、32、第1カメラ12、及び第2カメラ22に出力され、光源制御部31、32では、制御信号にしたがって、第1光源11と第2光源21の発光時間及び発光強度が設定され、第1カメラ12及び第2カメラ22では、制御信号にしたがって、シャッタの開口時間に対応する画像取得時間、およびセンサーゲインが設定される。
 画像取得部34、35で取得された画像は、フレームごとに瞳孔画像抽出部40に読み込まれる。瞳孔画像抽出部40は、明瞳孔画像検出部41と暗瞳孔画像検出部42とを備えている。
<明瞳孔画像と暗瞳孔画像>
 図3は、対象者の目50の視線の向きとカメラとの関係を模式的に示す平面図である。図4は、瞳孔中心と角膜反射光の中心とから視線の向きを算出するための説明図である。図3(A)と図4(A)では、対象者の視線方向VLが受像装置10と受像装置20との中間に向けられており、図3(B)と図4(B)では、視線方向VLがカメラの光軸13Cの方向へ向けられている。
 目50は前方に角膜51を有し、その後方に瞳孔52と水晶体53が位置している。そして最後部に網膜54が存在している。
 第1光源11と第2の光源21から発せられる波長850nmの赤外光は、眼球内での吸収率が低く、その光は網膜54で反射されやすい。そのため、第1光源11が点灯したときに、第1光源11と略同軸の第1カメラ12で取得される画像では、網膜54で反射された赤外光が瞳孔52を通じて検出され、瞳孔52が明るく見える。この画像が明瞳孔画像として明瞳孔画像検出部41で抽出される。これは、第2光源21が点灯したときに、これと略同軸の第2カメラ22で取得される画像についても同様である。
 これに対して、第1光源11を点灯したときに、第1光源11と非同軸の第2カメラ22で画像を取得する場合には、網膜54で反射された赤外光が第2カメラ22で検知されにくくなるため、瞳孔52が暗く見える。したがって、この画像は暗瞳孔画像として、暗瞳孔画像検出部42で抽出される。これは、第2光源21が点灯したときに、これと非同軸の第1カメラ12で取得される画像についても同様である。
 図2に示す瞳孔画像抽出部40では、明瞳孔画像検出部41で検出された明瞳孔画像から暗瞳孔画像検出部42で検出された暗瞳孔画像がマイナスされ、好ましくは瞳孔52以外の画像が相殺されて、瞳孔52の形状が明るくなった瞳孔画像信号が生成される。この瞳孔画像信号は、瞳孔中心算出部43に与えられる。瞳孔中心算出部43では、瞳孔画像信号が画像処理されて二値化され、瞳孔52の形状と面積に対応する部分のエリア画像が算出される。さらに、このエリア画像を含む楕円が抽出され、楕円の長軸と短軸との交点が瞳孔52の中心位置として算出される。あるいは、瞳孔画像の輝度分布から瞳孔52の中心が求められる。
 また、暗瞳孔画像検出部42で検出された暗瞳孔画像信号は、角膜反射光中心検出部44に与えられる。暗瞳孔画像信号には、図3と図4に示す、角膜51の反射点55から反射された反射光による輝度信号が含まれている。
 図3(A)に示すように、いずれかの光源が点灯しているときには、その光源からの光が、角膜51の表面で反射されて、その光が第1カメラ12と第2カメラ22の双方で取得され、明瞳孔画像検出部41と暗瞳孔画像検出部42で検出される。特に、暗瞳孔画像検出部42では、瞳孔52の画像が比較的暗いため、角膜51の反射点55から反射された反射光が明るくスポット画像として検出される。
 角膜51の反射点55からの反射光はプルキニエ像を結像するものであり、図4に示すように、カメラ12,22の撮像素子には、きわめて小さい面積のスポット画像が取得される。角膜反射光中心検出部44では、スポット画像が画像処理されて、角膜51の反射点55からの反射光の中心が求められる。
 瞳孔中心算出部43で算出された瞳孔中心算出値と角膜反射光中心検出部44で算出された角膜反射光中心算出値は、視線方向算出部45に与えられる。視線方向算出部45では、瞳孔中心算出値と角膜反射光中心算出値とから視線の向きが検出される。
 図3(A)に示す場合では、人の目50の視線方向VLが、2つの受像装置10,20の中間に向けられている。このとき、図4(A)に示すように、角膜51からの反射点55の中心が瞳孔52の中心と一致している。これに対して、図3(B)に示す場合では、人の目50の視線方向VLが、やや左方向へ向けられているため、図4(B)に示すように、瞳孔52の中心と角膜51からの反射点55の中心とが位置ずれする。
 視線方向算出部45では、瞳孔52の中心と、角膜51からの反射点55の中心との直線距離αが算出される(図4(B))。また瞳孔52の中心を原点とするX-Y座標が設定され、瞳孔52の中心と反射点55の中心とを結ぶ線とX軸との傾き角度βが算出される。さらに、前記直線距離αと前記傾き角度βとから、視線方向VLが算出される。
 前記の瞳孔画像抽出と、角膜反射光中心の検出と、これらを利用した視線方向VLの算出は、2つのカメラ12,22で得られたステレオ画像に基づいて行われるため、視線方向VLの検出を三次元的に求めることが可能になる。
<撮像ならびに検知動作>
 視線検出装置においては、第1画像取得で、第1光源11を発光させて、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。第2の画像取得で、第2光源を発光させ、この間に、第1カメラ12と第2カメラ22で同時又は略同時に画像を取得する。
 第1画像取得ならびに第2の画像取得と、明瞳孔画像ならびに暗瞳孔画像の検知との関係は以下の通りである。
(A)第1画像取得:第1光源11が点灯、
 (A-1)第1カメラ12で、明瞳孔画像を得るための画像取得。
 (A-2)第2カメラ22で、暗瞳孔画像を得るための画像取得。
(B)第2画像取得:第2光源12が点灯、
 (B-1)第2カメラ22で、明瞳孔画像を得るための画像取得。
 (B-2)第1カメラ12で、暗瞳孔画像を得るための画像取得。
 前記(A)第1画像取得と(B)第2画像取得は、基本的に交互に行なわれる。
 第1画像取得と第2画像取得を1回ずつ行った後において、画像比較部33は、画像取得を行うたびに、直前に行った、第1画像取得と第2画像取得で取得した画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。比較結果を受けた露光制御部36は、その比較結果に応じて、今後の画像取得で取得する画像の明るさが所定範囲内に収まるように光源の露光条件を制御するための制御信号を生成する。この制御信号は、次の画像取得で用いる光源に対応する光源制御部31,32、及び、画像取得部34、35に送出され、例えば、光源においては発光時間又は発光強度が調整され、カメラにおいては露光時間、ゲインが調整される。
 また、この実施の形態では、第1画像取得において、第1カメラで明瞳孔画像が取得され第2カメラで暗瞳孔画像が取得され、この時点で、明瞳孔画像と暗瞳孔画像から瞳孔画像を得て、さらに角膜反射光を得て、視線方向を算出できる。同様に、第2画像取得においても、第1カメラで暗瞳孔画像が取得され第2カメラで明瞳孔画像が取得されるため、この時点で、瞳孔画像と角膜反射光とから視線方向を算出できる。
 このように、第1画像取得と第2画像取得のそれぞれの時点で視線方向を算出できるので、視線検出動作を高速化することが可能である。
 以下、図5を参照して、より具体的に説明する。図5は、本実施形態の視線検出装置における画像取得のタイミングを示すチャートである。図5の(a)~(d-4)は、それぞれ以下の信号等のタイミングを示している。
(a):第1光源11の発光タイミング
(b-1):第1カメラ12の露光開始を指示するトリガ信号(TE1、TE2、TE3、TE4、TE5、...)
(b-2):第1カメラ12から画像取得部34への画像取得の開始を指示するトリガ信号(TD1、TD2、TD3、TD4、TD5、...)
(b-3):第1カメラ12における画像取得(露光)
(b-4):第1カメラ12から画像取得部34へのデータ転送
(c):第2光源21の発光タイミング
(d-1):第2カメラ22の露光開始を指示するトリガ信号
(d-2):第2カメラ22から画像取得部35への画像取得の開始を指示するトリガ信号
(d-3):第2カメラ22における画像取得(露光)
(d-4):第2カメラ22から画像取得部35へのデータ転送
 ここで、(b-1)と(d-1)のトリガ信号のタイミングは同一であって、これにより、第1カメラ12と第2カメラ22から同時に画像が取得される。また、図5に示す例では、画像取得ごとの、(a)又は(c)の発光時間と、(b-3)と(d-3)の露光時間と、は同じ長さとしている。
 図5に示す例では、第1画像取得として、第1光源11の発光L1に合わせて、第1カメラ12における露光E11及び第2カメラ22における露光E12が同時に行われる。第1光源11と略同軸の第1カメラ12で取得する画像は明瞳孔画像抽出のための画像であって、第1光源11と非同軸の第2カメラ22で取得する画像は暗瞳孔画像抽出のための画像である。
 発光L1が終了すると、同時に露光E11、E12が終了し、露光の終了と同時に、第1カメラ12及び第2カメラ22から画像取得部34、35へのデータ転送D11、D12(詳しくはデータ転送とフレームへの展開)がそれぞれ開始される。データ転送D11、D12の時間TGは、光源11、21の露光時間に拘わらず、各区間において同一である。
 次に、第2画像取得として、第2光源21の発光L2に合わせて、第1カメラ12における露光E21及び第2カメラ22における露光E22が同時に行われる。第2光源21と略同軸の第2カメラ22で取得する画像は明瞳孔画像抽出のための画像であって、第2光源21と非同軸の第1カメラ12で取得する画像は暗瞳孔画像抽出のための画像である。発光L2が終了すると、同時に露光E21、E22が終了し、露光の終了と同時に、第1カメラ12及び第2カメラ22から画像取得部34、35へのデータ転送D21、D22がそれぞれ開始される。ここまでの発光L1、L2の時間、及び、露光E11、E12、E21、E22の時間は、予め設定した同一の時間である。
 ここで、画像比較部33は、先に行われた第1画像取得と第2画像取得とで得られた画像の明るさを互いに比較し、比較結果を露光制御部36へ送出する。この比較では、第1画像取得で得られた明瞳孔画像のための画像の明るさと、第2画像取得で得られた暗瞳孔画像のための画像の明るさとが比較される。また、第1画像取得で得られた暗瞳孔画像のための画像の明るさと、第2画像取得で得られた明瞳孔画像のための画像の明るさ、とが比較される。
 図5は、第1光源11の発光L1による第1画像取得で得られた画像の明るさが、第2光源21の発光L2による第2画像取得で得られた画像の明るさよりも低下している例を示している。したがって、露光制御部36では、次の期間の第1画像取得で、第1光源11の発光L3における露光条件を高め(例えばカメラの画像取得時間(露光)を長くし)、受光量を高めるようにしている。そのため、第1光源21が発光L3となる2回目の第1画像取得では、先の第1画像取得に比べて明るい画像が取得される。
 さらに、図5に示す例では、第2光源21の発光L2による第2画像取得と、第1光源11の発光L3による2回目の第1画像取得とが比較された結果、第2光源21の発光L4となる2回目の第2画像取得において、画像取得の露光条件が長く補正されている。
 なお、前述のように、第1画像取得で得られた画像の明るさどうしを比較して、その比較結果から、後の第1画像取得で露光条件を変化させ、第2画像取得で得られた画像の明るさどうしを比較して、その比較結果から、後の第2画像取得で露光条件を変化させてもよい。
 あるいは、先の第1画像取得で得られた画像(明瞳孔画像、暗瞳孔画像)を所定のターゲット値(しきい値)と比較し、その比較の結果として次の第1画像取得において露光状態を変更してもよい。これは第2画像取得においても同じである。
 次に、図6は、(a)が光源11または21の発光LAのタイミングを、(b)は第1カメラ12における露光EA1のタイミングを、(c)は第2カメラ22における露光EA2のタイミングを、それぞれ示している。
 図6に示す例では、2つの受像装置10、20の位置関係や、カメラ12、22の受光性能の違いや、明瞳孔画像と暗瞳孔画像を抽出するために適切となる画像に明るさの違いなどを考慮し、光源が発光LAとなっている画像取得において、第1カメラ12における画像取得時間(露光時間)EA1と、第2カメラ22における画像取得時間(露光時間)EA2とを相違させている。
 この場合に、光源の発光LAの長さを、時間の長い露光EA21の終了に合わせている。これにより、明瞳孔画像と暗瞳孔画像のための画像の取得について複雑な制御が不要となる。
 また、上述の実施形態では、第1光源11からの検知光と第2光源21からの検知光の波長を850nmとしていたが、眼球内での吸収率が同程度であればこれ以外の波長でもよい。
 以上のように構成されたことから、上記実施形態によれば、次の効果を奏する。
(1)第1画像取得又は第2画像取得として、第1光源11と第2光源21の一方から検知光を与えたときに、光源と略同軸のカメラで明瞳孔画像を抽出するための画像を取得し、光源と非同軸のカメラで暗瞳孔画像を抽出するための画像を取得することにより、視線検出処理を高速に行うことが可能となる。また、明瞳孔画像を抽出するための画像の取得と、暗瞳孔画像を抽出するための画像の取得と、を同時に行うことにより、複数の光源からの検知光射出のサイクルを短くすることができるため、視線検出処理をさらに高速に行うことができる。第1画像取得と第2画像取得を交互に行うことによって得られる、瞳孔画像を抽出するための複数の画像を用いることにより、視線検出を高い精度で実現することができる。
(2)第1画像取得において取得した2枚の画像の明るさと、第2画像取得において取得した2枚の画像の明るさと、を比較する画像比較部と、画像比較部による比較結果に応じて、第1画像取得と第2画像取得で取得する、画像の明るさが所定範囲内に収まるように、光源の露光条件を制御する露光制御部と、を備えることにより、複数の光源それぞれの輝度等の違いに起因する、取得画像の明るさのばらつきを抑えることができるため、一定の画質の明瞳孔画像と暗瞳孔画像を得ることができ、これにより高精度の視線検出が可能となる。
 本発明について上記実施形態を参照しつつ説明したが、本発明は上記実施形態に限定されるものではなく、改良の目的または本発明の思想の範囲内において改良または変更が可能である。
 以上のように、本発明に係る視線検出装置は、車両の車室内に配置して運転者の視線を検出する場合のように、高精度かつ高速に検出することが求められる場合に有用である。
 10、20  受像装置
 11  第1光源
 12  第1カメラ
 12C 光軸
 21  第2光源
 22  第2カメラ
 22C 光軸
 33  画像比較部
 34、35 画像取得部
 36  露光制御部
 40  瞳孔画像抽出部
 41  明瞳孔画像検出部
 42  暗瞳孔画像検出部
 43  瞳孔中心算出部
 44  角膜反射光中心検出部
 45  視線方向検出部
 50  目

Claims (12)

  1.  離れて配置されてそれぞれが少なくとも目を含む領域の画像を取得する第1カメラならびに第2カメラと、前記第1カメラに接近して配置された第1光源と、前記第2カメラに接近して配置された第2光源と、それぞれのカメラで取得した明瞳孔画像と暗瞳孔画像とから瞳孔画像を抽出する瞳孔画像抽出部とを有する視線検出装置において、
     前記第1光源を点灯させて前記第1カメラで明瞳孔画像を取得し前記第2カメラで暗瞳孔画像を取得する第1画像取得と、前記第2光源を点灯させて前記第2カメラで明瞳孔画像を取得し前記第1カメラで暗瞳孔画像を取得する第2画像取得と、が行われることを特徴とする視線検出装置。
  2.  前記暗瞳孔画像から角膜反射光を検出する角膜反射光中心検出部と、前記瞳孔画像と前記角膜反射光とから前記対象者の視線方向を算出する視線方向算出部とを有する請求項1記載の視線検出装置。
  3.  前記第1光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得し、前記第2光源が点灯しているときに、前記第1カメラと前記第2カメラが同時に画像を取得する請求項1または2記載の視線検出装置。
  4.  第1画像取得と第2画像取得とが交互に行われる請求項1ないし3のいずれかに記載の視線検出装置。
  5.  前記第1画像取得で得られた画像の明るさをモニターし、その次の第1画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられている請求項1ないし4のいずれかに記載の視線検出装置。
  6.  前記第2画像取得で得られた画像の明るさをモニターし、その次の第2画像取得では、カメラで画像を取得するための露光条件を、前記モニター結果に基づいて制御する露光制御部が設けられている請求項1ないし5のいずれかに記載の視線検出装置。
  7.  第1画像取得で得られた画像の明るさと、第2画像取得で得られた画像の明るさと比較する画像比較部と、
     前記画像比較部による比較結果に応じて、第1画像取得と第2画像取得の少なくとも一方において前記露光条件を制御する前記露光制御部とが設けられている請求項1ないし5のいずれかに記載の視線検出装置。
  8.  前記画像比較部では、第1画像取得で得られた明瞳孔画像となる画像の明るさと、前記第2画像取得で得られた暗瞳孔画像となる画像との明るさが比較される請求項7記載の視線検出装置。
  9.  前記画像比較部では、第1画像取得で得られた暗瞳孔画像となる画像の明るさと、前記第2画像取得で得られた明瞳孔画像となる画像の明るさとが比較される請求項7または8記載の視線検出装置。
  10.  前記画像比較部では、前記第1画像取得、または、前記第2画像取得で得られた画像とターゲット値とが比較される請求項7記載の視線検出装置。
  11.  前記露光条件は、前記光源の発光時間及び発光強度、並びに、前記カメラによる画像取得時間、ゲインのうちの少なくとも一つである請求項5ないし10のいずれかに記載の視線検出装置。
  12.  前記露光条件が前記カメラによる画像取得時間を含んでおり、第1画像取得と第2画像取得の少なくとも一方において、前記第1カメラによる画像取得時間と前記第2カメラによる画像取得時間のうちの長い方の時間に合わせて光源の発光時間を制御する請求項8記載の視線検出装置。
PCT/JP2015/073350 2014-08-29 2015-08-20 視線検出装置 WO2016031666A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016545466A JP6381654B2 (ja) 2014-08-29 2015-08-20 視線検出装置
CN201580046029.6A CN106793944A (zh) 2014-08-29 2015-08-20 视线检测装置
EP15834918.3A EP3187100A4 (en) 2014-08-29 2015-08-20 Line-of-sight detection device
US15/436,165 US20170156590A1 (en) 2014-08-29 2017-02-17 Line-of-sight detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-176128 2014-08-29
JP2014176128 2014-08-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/436,165 Continuation US20170156590A1 (en) 2014-08-29 2017-02-17 Line-of-sight detection apparatus

Publications (1)

Publication Number Publication Date
WO2016031666A1 true WO2016031666A1 (ja) 2016-03-03

Family

ID=55399561

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/073350 WO2016031666A1 (ja) 2014-08-29 2015-08-20 視線検出装置

Country Status (5)

Country Link
US (1) US20170156590A1 (ja)
EP (1) EP3187100A4 (ja)
JP (1) JP6381654B2 (ja)
CN (1) CN106793944A (ja)
WO (1) WO2016031666A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154370A1 (ja) * 2016-03-09 2017-09-14 アルプス電気株式会社 視線検出装置および視線検出方法
WO2020095747A1 (ja) * 2018-11-05 2020-05-14 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体。

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726574B2 (en) 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
GB2611289A (en) * 2021-09-23 2023-04-05 Continental Automotive Tech Gmbh An image processing system and method thereof
SE2250765A1 (en) * 2022-06-22 2023-12-23 Tobii Ab An eye tracking system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2950759B2 (ja) * 1995-08-31 1999-09-20 キヤノン株式会社 視線検出装置を有する光学機器
JP4824420B2 (ja) * 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
ATE527934T1 (de) * 2009-04-01 2011-10-15 Tobii Technology Ab Adaptive kamera und illuminator-eyetracker
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
EP2604180A4 (en) * 2010-08-09 2017-07-05 National University Corporation Shizuoka University Gaze point detection method and gaze point detection device
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
JP5998863B2 (ja) * 2012-11-09 2016-09-28 株式会社Jvcケンウッド 視線検出装置および視線検出方法
EP2995241B1 (en) * 2013-05-08 2021-04-14 National University Corporation Shizuoka University Pupil detection light source device, pupil detection device and pupil detection method
AU2015235511B2 (en) * 2014-03-25 2017-06-01 JVC Kenwood Corporation Detection device and detection method
JP6201956B2 (ja) * 2014-10-24 2017-09-27 株式会社Jvcケンウッド 視線検出装置および視線検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006167256A (ja) * 2004-12-17 2006-06-29 National Univ Corp Shizuoka Univ 瞳孔検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154370A1 (ja) * 2016-03-09 2017-09-14 アルプス電気株式会社 視線検出装置および視線検出方法
WO2020095747A1 (ja) * 2018-11-05 2020-05-14 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体。
JP2020077055A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
JP7173836B2 (ja) 2018-11-05 2022-11-16 京セラ株式会社 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
US11551375B2 (en) 2018-11-05 2023-01-10 Kyocera Corporation Controller, position determination device, position determination system, and display system for determining a position of an object point in a real space based on cornea images of a first eye and a second eye of a user in captured image

Also Published As

Publication number Publication date
EP3187100A1 (en) 2017-07-05
EP3187100A4 (en) 2018-05-09
JP6381654B2 (ja) 2018-08-29
CN106793944A (zh) 2017-05-31
US20170156590A1 (en) 2017-06-08
JPWO2016031666A1 (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
WO2016031666A1 (ja) 視線検出装置
JP5145555B2 (ja) 瞳孔検出方法
CN108027977B (zh) 视线检测装置以及视线检测方法
JP6346525B2 (ja) 視線検出装置
EP2649932A1 (en) Method for detecting point of gaze and device for detecting point of gaze
US9898658B2 (en) Pupil detection light source device, pupil detection device and pupil detection method
US11023039B2 (en) Visual line detection apparatus and visual line detection method
WO2020184447A1 (ja) ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置
JP6900994B2 (ja) 視線検出装置及び視線検出方法
WO2018164104A1 (ja) 眼部画像処理装置
CN111398975B (zh) 主动传感器、物体识别系统、车辆、车辆用灯具
US11179035B2 (en) Real-time removal of IR LED reflections from an image
JP2017184787A5 (ja)
JP2024037793A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP2017112486A (ja) 画像処理装置
JP2016051317A (ja) 視線検出装置
JP2017124037A (ja) 視線検出装置
WO2017134918A1 (ja) 視線検出装置
JP2017191082A (ja) 輝点画像取得装置および輝点画像取得方法
JP2016051312A (ja) 視線検出装置
JP2016049258A (ja) 照明撮像装置及びそれを備えた視線検出装置
JP2017162233A (ja) 視線検出装置および視線検出方法
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
JP6471533B2 (ja) 視線検出装置および視線検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15834918

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016545466

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015834918

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015834918

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE