WO2024004416A1 - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
WO2024004416A1
WO2024004416A1 PCT/JP2023/018364 JP2023018364W WO2024004416A1 WO 2024004416 A1 WO2024004416 A1 WO 2024004416A1 JP 2023018364 W JP2023018364 W JP 2023018364W WO 2024004416 A1 WO2024004416 A1 WO 2024004416A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
sight detection
detection device
pattern
light
Prior art date
Application number
PCT/JP2023/018364
Other languages
English (en)
French (fr)
Inventor
友輝 馬見新
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024004416A1 publication Critical patent/WO2024004416A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes

Definitions

  • this technology relates to a line of sight detection device.
  • a line of sight detection device that detects the line of sight, which is the direction of the eyeball, by irradiating the eyeball with patterned light and capturing an image of the eyeball with an imaging system.
  • Some conventional line-of-sight detection devices include those that irradiate the eyeball with patterned light having a rectangular frame shape (for example, see Patent Document 1), and those that irradiate the eyeball with patterned light that has a shape in which two line segments intersect at one point. There is one that irradiates (for example, see Patent Document 2).
  • an object of the present technology is to provide a line-of-sight detection device that can suppress a decrease in detection accuracy regardless of the imaging method of the imaging system.
  • This technology includes a patterned light irradiation system that irradiates the eyeball with patterned light; an imaging system that images the eyeball irradiated with the patterned light; a line of sight detection system that detects a line of sight, which is the direction of the eyeball, based on a captured image of the imaging system; Equipped with
  • the patterned light is a reference pattern having at least three non-parallel lines, and has a shape along the reference pattern having an intersection point where at least two of the at least three lines intersect. do.
  • Each of the at least three lines may intersect at least one other of the lines.
  • Each of the at least three lines may intersect at least two other lines.
  • the reference pattern may have at least three of the intersection points that are not on the same straight line.
  • the at least three lines may intersect at the same intersection.
  • the at least three lines may continuously form an acute angle around the intersection.
  • the at least three lines may extend radially from the intersection.
  • the reference pattern may include a plurality of patterns including the at least two lines that intersect with each other.
  • the plurality of patterns may include at least two patterns having the same shape.
  • the plurality of patterns may include at least two patterns having different shapes.
  • the pattern light irradiation system may irradiate the eyeball with a portion of the pattern light corresponding to the pattern whose intersection point can be detected among the plurality of patterns.
  • the line of sight detection system may include a corneal reflection image detection unit that detects feature points of a corneal reflection image of the patterned light from the captured image.
  • the corneal reflection image detection unit may associate the intersection point with the feature point based on information indicating an angle and/or directionality near the feature point of the corneal reflection image in the captured image.
  • the corneal reflection image detection unit may extract pixels whose brightness has increased in the captured image as pixels constituting the feature point.
  • the line of sight detection system may include a movement information estimation unit that estimates at least one of a movement amount, a movement direction, and a movement speed of the eyeball based on a detection result by the corneal reflection image detection unit.
  • the movement information estimation unit determines the position of the feature point corresponding to the intersection that could not be detected by the corneal reflection image detection unit from the feature point corresponding to the intersection that could be detected by the corneal reflection image detection unit.
  • the movement direction of the eyeball may be extracted from the estimation result.
  • the line of sight detection system may detect the line of sight based on at least a captured image of the imaging system and a detection result of the corneal reflection image detection section.
  • the pattern light irradiation system may include a light source that emits the pattern light.
  • the pattern light irradiation system may include a light source and an optical element that shapes light from the light source to generate the pattern light.
  • the imaging system may include an event sensor.
  • FIGS. 1A and 1B are diagrams for explaining conventional eye tracking methods (Part 1 and Part 2), respectively.
  • 2A and 2B are diagrams for explaining problems when using EVS for eye tracking in Comparative Example 1.
  • 3A and 3B are diagrams for explaining problems when using EVS for eye tracking in Comparative Example 2.
  • 4A to 4C are diagrams for explaining problems when using EVS for eye tracking in Comparative Example 3.
  • FIG. 5A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to the first embodiment of the present technology.
  • FIG. 5B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 1 is a block diagram illustrating a functional example of a line of sight detection device according to a first embodiment of the present technology.
  • FIGS. 11A to 11C are diagrams showing configuration examples 1 to 3 of the light source section of the pattern light irradiation system of the line of sight detection device according to the first embodiment of the present technology, respectively.
  • FIG. 2 is a block diagram showing a functional example 1 of a corneal reflection image detection section.
  • 3 is a flowchart for explaining line of sight detection processing 1.
  • FIG. 10 is a flowchart for explaining the calibration process of FIG. 9.
  • FIGS. 11A to 11C are diagrams for explaining an example of the operation of the line of sight detection device according to the first embodiment of the present technology.
  • 11 is a diagram for explaining acquisition of calibration values in FIG. 10.
  • FIG. 10 is a flowchart for explaining the line of sight detection process of FIG. 9.
  • FIG. 10 is a flowchart for explaining the line of sight detection process of FIG. 9.
  • FIG. 10 is a flowchart for explaining the line of sight detection process of FIG. 9.
  • FIG. 10 is a flowchart for explaining the line of sight
  • FIG. 14A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 1 of the first embodiment of the present technology.
  • FIG. 14B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 15A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 2 of the first embodiment of the present technology.
  • FIG. 15B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 16A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 3 of the first embodiment of the present technology.
  • FIG. 16B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 3 is a block diagram showing a functional example 2 of a corneal reflection image detection section.
  • 18 is a diagram illustrating an example of the operation of the corneal reflection image detection section in FIG. 17.
  • FIG. 3 is a flowchart for explaining line of sight detection processing 2.
  • FIG. 20A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to the second embodiment of the present technology.
  • FIG. 20B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 2 is a block diagram illustrating a functional example of a line of sight detection device according to a second embodiment of the present technology.
  • FIG. 22A is a diagram illustrating an eyeball irradiated with pattern light from the line of sight detection device according to Modification 1 of the second embodiment of the present technology.
  • FIG. 22B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 22C is a diagram for explaining a method of detecting an intersection from the captured image.
  • FIG. 23A is a diagram showing an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 2 of the second embodiment of the present technology.
  • FIG. 23B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 24A is a diagram illustrating an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 3 of the second embodiment of the present technology.
  • FIG. 24B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 25A is a diagram showing an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 4 of the second embodiment of the present technology.
  • FIG. 25B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 26A is a diagram showing an eyeball irradiated with pattern light from a line of sight detection device according to modification 5 of the second embodiment of the present technology.
  • FIG. 26B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 27A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to the third embodiment of the present technology.
  • FIG. 27B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 3 is a block diagram illustrating a functional example of a line of sight detection device according to a third embodiment of the present technology.
  • FIG. 7 is a block diagram showing a functional example 3 of a corneal reflection image detection section.
  • FIG. 3 is a block diagram showing a functional example of a line of sight detection device according to a fourth embodiment of the present technology.
  • FIG. 2 is a block diagram showing a functional example 1 of a movement information estimating section.
  • FIG. 3 is a diagram for explaining the principle of functional example 1 of a movement information estimation unit.
  • FIG. 7 is a block diagram showing a functional example 2 of a movement information estimation section.
  • 34A and 34B are diagrams for explaining the principle of functional example 2 of the movement information estimation section.
  • FIG. 7 is a block diagram showing a third functional example of a movement information estimating section.
  • FIG. 7 is a diagram for explaining the principle of functional example 3 of a movement information estimation unit.
  • FIG. 2 is a block diagram showing a functional example of a pupil detection section.
  • FIGS. 38A and 38B are diagrams showing an eyeball irradiated with pattern light from the line-of-sight detection device according to Modifications 6 and 7 of the second embodiment of the present technology, respectively.
  • FIGS. 39A to 39E are diagrams showing eyeballs irradiated with pattern light from the line of sight detection devices according to Modifications 4 to 8 of the first embodiment of the present technology, respectively.
  • FIG. 12 is a diagram showing an eyeball irradiated with pattern light from a line of sight detection device according to modification 9 of the first embodiment of the present technology.
  • FIGS. 41A to 41C are diagrams showing eyeballs irradiated with pattern light from the line-of-sight detection devices according to Modifications 10 to 12 of the first embodiment of the present technology, respectively.
  • FIGS. 42A to 42C are diagrams showing eyeballs irradiated with pattern light from the line-of-sight detection devices according to variations 13 to 15 of the first embodiment of the present technology, respectively.
  • Line of sight detection device 2 according to the first embodiment of the present technology.
  • Line of sight detection device 3 according to modification 1 of the first embodiment of the present technology.
  • Line of sight detection device according to modification 2 of the first embodiment of the present technology 4.
  • Line of sight detection device according to modification 3 of the first embodiment of the present technology 5.
  • Line of sight detection device 6 according to the second embodiment of the present technology.
  • Line of sight detection device 7 according to modification 1 of the second embodiment of the present technology.
  • Line of sight detection device 8 according to modification 2 of the second embodiment of the present technology.
  • Line of sight detection device 9 according to modification 3 of the second embodiment of the present technology.
  • Line of sight detection device 10 according to modification 4 of the second embodiment of the present technology.
  • Line of sight detection device 11 according to modification 5 of the second embodiment of the present technology.
  • Line of sight detection device 12 according to the third embodiment of the present technology.
  • Line of sight detection device 13 according to the fourth embodiment of the present technology.
  • Line of sight detection device 14 according to modified examples 6 and 7 of the second embodiment of the present technology.
  • Line of sight detection device 15 according to variations 4 to 8 of the first embodiment of the present technology.
  • Line of sight detection device 16 according to modification 9 of the first embodiment of the present technology.
  • Line of sight detection device 17 according to Modifications 10 to 12 of the first embodiment of the present technology.
  • Line of sight detection device 18 according to variations 13 to 15 of the first embodiment of the present technology.
  • Pattern light variation 1 19.
  • Pattern light variation 2 20 Other variations of this technology
  • a line of sight detection device (eye tracking device) that detects the line of sight, which is the direction of the eyeball, by irradiating the eyeball with light (for example, invisible light) and capturing an image of the eyeball with an imaging system.
  • a polynomial fitting method for pupil and corneal reflection images is known, as shown in FIG. 1A. This is a method of linking the relationship between the corneal reflection image of the light source and the pupil position and the line of sight through calibration.
  • a model estimation method for pupil and corneal reflection images is known, as shown in FIG. 1B. This is a method of detecting the line of sight by determining the corneal center from a plurality of corneal reflection images and determining the pupil center from a pupil image.
  • EVS electronic vision sensor
  • FIG. 2A shows an image of an eyeball irradiated with light from a small point light source taken with a normal image sensor
  • FIG. 2B shows an image of an eyeball irradiated with light from a small point light source taken with an EVS.
  • FIG. 3A shows an image of an eyeball irradiated with light from a large point light source taken with a normal image sensor
  • FIG. 3B shows an image of an eyeball irradiated with light from a large point light source taken with an EVS.
  • the size of the light source for example, use a circular light source with a large diameter
  • the center of the circle can be considered as the feature point of the circle, but this is not suitable because the radius of the circle is affected by ambiguity such as eye movement and corneal curvature.
  • FIG. 4A shows an image captured by a normal image sensor NS of an eyeball irradiated with a rectangular frame-shaped pattern light PL.
  • FIG. 4B shows an image captured by EVS of an eyeball irradiated with a rectangular frame-shaped pattern light PL while horizontally moving at a relatively high speed.
  • FIG. 4C shows an image captured by EVS of an eyeball irradiated with a rectangular frame-shaped pattern light PL while horizontally moving at a relatively low speed.
  • the image PL-NS of the reflected light of the rectangular frame-shaped pattern light PL can be clearly seen.
  • FIG. 4A shows an image captured by a normal image sensor NS of an eyeball irradiated with a rectangular frame-shaped pattern light PL.
  • FIG. 4B shows an image captured by EVS of an eyeball irradiated with a rectangular frame-shaped pattern light PL while horizontally moving at a relatively high speed.
  • FIG. 4C shows an image captured by EVS of an eyeball
  • the rectangular frame appears as a double line in the image PL-EVS of the reflected light of the pattern light PL, and since the line is thick, ambiguity occurs in the fitting between the light source and the reflected light.
  • the rectangular frame appears as a double line in the image PL-EVS of the reflected light of the patterned light PL, and since there is almost no change in brightness horizontally, the shape of the patterned light PL is considerably lost. I understand that.
  • the inventor developed a line-of-sight detection device (eye tracking device) that can suppress the decline in detection accuracy regardless of the imaging method of the imaging system by devising the shape of the pattern light.
  • a line of sight detection device based on this technology.
  • the line of sight detection device according to the present technology is very effective, especially when using EVS in the imaging system.
  • FIG. 5A is a diagram showing an eyeball EB irradiated with pattern light from the line of sight detection device 10 according to the first embodiment of the present technology.
  • FIG. 5B is a diagram showing an image taken by EVS of the eyeball EB.
  • FIG. 6 is a block diagram showing a functional example of the line of sight detection device 10 according to the first embodiment of the present technology.
  • the line of sight detection device 10 is mounted on, for example, an HMD (Head Mounted Display) and is used for eye tracking (line of sight detection).
  • the line of sight detection device 10 includes a pattern light irradiation system 100, an imaging system 200, and a line of sight detection system 300, as shown in FIG.
  • the line of sight detection device 10 is supported by an HMD support structure (for example, an eyeglass frame) that is worn on the user's head.
  • the HMD displays images superimposed on the user's field of view.
  • the HMD controls the display of images based on the output of the line-of-sight detection device 10 (the user's line-of-sight).
  • the support structure of the HMD may be provided with an audio output device that provides audio information to the user.
  • the pattern light irradiation system 100 irradiates the user's eyeball EB with pattern light PL1 (see FIG. 5A).
  • the pattern light PL1 has, for example, a triangular shape.
  • the pattern light irradiation system 100 includes, as an example, a light source 100a and a light source driver 100b (light source driver) (see FIG. 6).
  • the light source 100a emits invisible light (for example, infrared light).
  • the light source 100a is, for example, a point light source, a line light source, or a surface light source.
  • the light source 100a for example, an LED (Light Emitting Diode), an OLED (Organic Light Emitting Diode), an LD (Laser diode), etc. can be used.
  • LED Light Emitting Diode
  • OLED Organic Light Emitting Diode
  • LD Laser diode
  • the pattern light PL1 is a reference pattern BP having at least three non-parallel lines, and has a shape along the reference pattern BP (for example, a triangle) having an intersection point where at least two of the at least three lines intersect.
  • Each of the at least three non-parallel lines constituting the reference pattern BP is, for example, a line constituting a part of a figure, a line constituting a part of the outline of a figure, a line constituting a part of a character, etc. Either a straight line or a curved line may be used, and not only a solid line but also at least a portion may be a broken line.
  • the pattern light PL1 may be a pattern that completely matches the reference pattern BP, or may be a pattern that approximately matches the reference pattern BP.
  • the "pattern that roughly matches the reference pattern BP" includes, for example, a pattern in which at least one intersection of the reference pattern BP is removed, a pattern in which at least one intersection of the reference pattern BP is replaced with a figure, and the like.
  • the pattern light PL1 completely matches the reference pattern BP.
  • the shape of the reference pattern may be the shape of the light source itself, or the shape of an optical element that shapes the light from the light source.
  • Each of the at least three (eg, three) lines of the patterned light PL1 intersects with at least one (eg, two) other lines.
  • each of the at least three lines of patterned light PL1 intersects with at least two (eg, two) other lines.
  • the reference pattern BP has at least three intersections (for example, three intersections) that are not on the same straight line.
  • both the reference pattern BP and the pattern light PL1 are triangles (eg, isosceles triangles, more specifically, equilateral triangles) in which one side is substantially horizontal and the height direction coincides with the substantially vertical direction.
  • FIG. 7A to 7C are diagrams showing configuration examples 1 to 3 of the light source section of the pattern light irradiation system 100 of the line of sight detection device 10 according to the first embodiment of the present technology, respectively.
  • a light source 100a having the same shape (for example, triangular shape) as the pattern light PL1 is provided on the eyeglass frame EF (for example, on the rim of the eyeglass frame EF).
  • a light source 100a e.g., uLED
  • a transparent glass or resin e.g., an eyeglass frame
  • an optical element e.g., a diffraction element
  • a transparent glass or resin e.g., a rim of the eyeglass frame EF
  • the light from the light source 100a is irradiated onto the optical element. That is, the optical element shapes the shape of the light from the light source 100a into the shape of the pattern light PL1.
  • the eyeglass frames may be rimless frames.
  • the light source drive unit 100b is configured to include circuit elements such as transistors, capacitors, and resistors.
  • the light source driver 100b generates a drive signal (for example, a pulse signal) and applies it to the light source 100a.
  • the imaging system 200 images the eyeball EB irradiated with the pattern light PL1 and outputs the captured image to the line of sight detection system 300.
  • the imaging system 200 is a camera including an imaging element 200a, as shown in FIG. 6 as an example.
  • the imaging system 200 includes a condensing element (for example, a condensing lens, (condensing mirror, etc.) and a signal processing unit that processes the output signal of the image sensor 200a.
  • the imaging system 200 may include an imaging element (for example, a normal image sensor) for pupil detection.
  • the image sensor 200a is, for example, an EVS (event-based vision sensor).
  • the EVS has a plurality of pixels arranged two-dimensionally.
  • EVS is a vision sensor that detects changes in the brightness of each pixel and outputs the brightness value (pixel value) of only those pixels that have changed in brightness in combination with time information. It is a sensor.
  • the EVS includes, for example, a light receiving circuit having a photoelectric conversion element (for example, a photodiode sensitive to infrared region) for each pixel, an amplifier, and a comparator.
  • EVS incident light is converted into an electrical signal by a light receiving circuit, amplified by an amplifier, and divided into a bright signal (positive event) and a dark signal (negative event) by a comparator based on a brightness threshold and output. .
  • the output signal of the EVS is output as a captured image via a signal processing section.
  • EVS is also called an "event sensor” or “event vision sensor.”
  • the line of sight detection system 300 includes, as an example, a corneal reflection image detection section 300a, a pupil detection section 300b, and a line of sight detection section 300c.
  • the line of sight detection system 300 may further include a storage unit (eg, memory).
  • the line of sight detection system 300 is realized by hardware such as a CPU and a chipset.
  • the corneal reflection image detection unit 300a detects feature points of the corneal reflection image of the pattern light PL1 from the captured image of the imaging system 200. Specifically, the corneal reflection image detection unit 300a detects the corneal reflection image of the pattern light PL1 from the captured image of the imaging system 200 by image processing (for example, edge detection, contour extraction, density detection, etc.), and detects the corneal reflection image of the patterned light PL1. Extract feature points. Further, the corneal reflection image detection unit 300a associates the intersection of the reference pattern BP (the intersection of the pattern light PL1) with the feature point of the corneal reflection image of the pattern light PL1.
  • image processing for example, edge detection, contour extraction, density detection, etc.
  • FIG. 8 is a block diagram showing a functional example 1 of the corneal reflection image detection section.
  • the corneal reflection image detection section 300a includes a feature point extraction section 300a1 and a matching section 300a2.
  • the feature point extracting unit 300a1 extracts feature points of the corneal reflection image of the pattern light PL1 by, for example, corner detection or DNN (Deep Neural Network).
  • the association unit 300a2 determines the intersection of the feature point of the corneal reflection image of the pattern light PL1 and the reference pattern BP (pattern light PL1 intersection point), and the result of the mapping is stored in a storage unit (for example, memory) and/or output to the line of sight detection unit 300c.
  • a storage unit for example, memory
  • the EVS when the eyeball EB moves horizontally, for example, the EVS outputs only the pixel values of the pixels in the pattern light PL1 where the brightness has changed, resulting in a captured image of the EVS as shown in FIG. 5B. It becomes like this.
  • what appears in the image captured by the EVS due to a brightness change due to the horizontal movement of the eyeball EB in the pattern light PL1 is an inverted V-shaped corneal reflection image PL1i (EVS output signal) consisting of two hypotenuses. ).
  • the feature point extraction unit 300a1 extracts the intersection of the two oblique sides of the corneal reflection image PL1i as a feature point of the corneal reflection image of the pattern light PL1. Then, the association unit 300a2 determines the intersection of the feature point and the patterned light PL1 based on information indicating the angle and/or directionality (for example, acute angle, upward direction) near the feature point (for example, the intersection of two hypotenuses). Match.
  • FIG. 5A the case where the eyeball EB moves in a direction (for example, horizontal direction) parallel to one line of the reference pattern BP has been described as an example;
  • three non-parallel lines of the reference pattern BP pattern light PL1 will appear in the EVS captured image.
  • three feature points (intersection points) of the corneal reflection image of the reference pattern BP can be detected.
  • the pupil detection unit 300b extracts a pupil from an image captured by an image sensor for pupil detection using image processing (for example, edge detection, contour extraction, density detection, etc.), and determines the center of the pupil in the coordinate system of the captured image.
  • image processing for example, edge detection, contour extraction, density detection, etc.
  • the calculation result is stored in a storage unit (for example, memory) and/or output to the line-of-sight detection unit 300c.
  • the line of sight detection unit 300c detects the line of sight, which is the orientation of the eyeball EB, based on the detection result of the pupil detection unit 300b based on the captured image of the imaging system 200 and the detection result of the corneal reflection image detection unit 300a. .
  • FIG. 9 is a flowchart for explaining line of sight detection processing 1.
  • step S1 a calibration process is performed. Details of the calibration process will be described later.
  • step S2 a line of sight detection step is performed. Details of the line of sight detection process will be described later.
  • step S2 the flow ends.
  • Step S1 Calibration process
  • the user's line of sight is directed in a predetermined direction.
  • a notification e.g., a display on an HMD, a sound from an audio output device, etc.
  • a predetermined gaze point e.g., the front
  • a predetermined direction e.g., the front direction
  • the patterned light PL1 is irradiated onto the eyeball EB.
  • the light source 100a is driven by the light source driving section 100b.
  • imaging is performed. Specifically, the eyeball EB irradiated with the patterned light PL1 is imaged by an imaging device for pupil detection (for example, a normal image sensor).
  • an imaging device for pupil detection for example, a normal image sensor
  • a corneal reflection image is detected.
  • the corneal reflection image detection unit 300a extracts feature points of the corneal reflection image of the patterned light PL1 from the captured image taken in step S1-3, and extracts the feature points of the corneal reflection image of the patterned light PL1, and calculates the intersection between the feature points and the intersection of the patterned light PL1. Make a correspondence.
  • the pupil is detected. Specifically, the pupil detection unit 300b extracts the pupil PU from the image captured by the image sensor for pupil detection, and detects the position of the center of the pupil.
  • a calibration value is obtained. Specifically, the positional relationship (see FIG. 12) between the pupil center detected in step S1-5 and the corneal reflection image of the intersection of patterned light PL1 detected in step S1-4 is determined from the line of sight direction (for example, The calibration value is obtained in association with the front direction) and is stored in a storage unit (for example, memory).
  • the accuracy of the calibration value can be improved by performing the series of steps S1-1 to S1-6 multiple times to obtain the calibration value multiple times and using the average value or median value of each time.
  • the predetermined direction in step S1-1 each time may be the same direction or may be different directions.
  • Step S2 line of sight detection step
  • the line of sight detection process in FIG. 9 will be described below with reference to the flowchart in FIG. 13.
  • the patterned light PL1 is irradiated onto the eyeball EB.
  • the light source 100a is driven by the light source driving section 100b.
  • FIG. 11A shows a captured image of the eyeball EB irradiated with the patterned light PL1, captured by a normal image sensor NS.
  • FIG. 11B shows an image captured by EVS of an eyeball irradiated with pattern light PL1 while horizontally moving at a relatively high speed.
  • FIG. 11C shows an image captured by EVS of an eyeball irradiated with pattern light PL1 while horizontally moving at a relatively low speed.
  • the image PL1-NS of the reflected light of the pattern light PL1 can be clearly seen.
  • the two hypotenuses appear as double lines and the lines are thick, but the corner formed by the two hypotenuses and their intersection can always be detected. Therefore, robust detection is possible against high-speed movement of the eyeball EB.
  • FIG. 11A the image PL1-NS of the reflected light of the pattern light PL1 can be clearly seen.
  • FIG. 11B in the image PL1-EVS of the reflected light of the pattern light PL1
  • the two hypotenuses appear as double lines and the lines are thick, but the corner formed by the two hypotenuses and their intersection can always be detected. Therefore, robust detection is possible against high-speed movement of the eyeball EB.
  • the two hypotenuses appear as double lines and the lines become thicker, and although there is almost no change in brightness horizontally, the two hypotenuses and these Since the corners formed by the intersections of 2 and 3 can be detected at all times, robust detection against low-speed movement of the eyeball EB is possible.
  • a corneal reflection image is detected. Specifically, the corneal reflection image detection unit 300a extracts the feature points of the corneal reflection image of the patterned light PL1, and associates the feature points with the intersections of the patterned light PL1.
  • the pupil is detected. Specifically, the pupil detection unit 300b extracts the pupil PU from the image captured by the image sensor for pupil detection, and detects the position of the center of the pupil.
  • step S2-5 the line of sight is detected based on the calibration value. Specifically, the positional relationship between the pupil center detected in step S2-4 and the corneal reflection image of each intersection of patterned light PL1 detected in step S2-3, and the positional relationship obtained in the calibration process (step S1) The line of sight direction is determined based on the calibration value stored in the storage unit.
  • step S2-6 it is determined whether or not to end the line of sight detection.
  • the judgment here is affirmed when the power of the line of sight detection device 10 is turned off, and is negative when it is turned on, and the line of sight detection (steps S2-1 to S2-5) is performed again.
  • the line of sight detection device 10 includes a pattern light irradiation system 100 that irradiates the eyeball EB with the pattern light PL1, an imaging system 200 that images the eyeball EB irradiated with the pattern light PL1, and the imaging system 200 that images the eyeball EB irradiated with the pattern light PL1.
  • the pattern light PL1 is a reference pattern having at least three non-parallel lines; It has a shape along a reference pattern BP having an intersection point where at least two of the lines intersect.
  • the imaging method of the imaging system 200 is an event-based vision method
  • no matter which direction the eyeball EB irradiated with the patterned light PL1 moves the non-parallel at least one of the patterned light PL1 will appear in the captured image.
  • Two lines can be detected, and feature points (eg, intersections) formed by the at least two lines can be extracted.
  • the line-of-sight detection device 10 can provide a line-of-sight detection device that can suppress a decrease in detection accuracy regardless of the imaging method of the imaging system 200.
  • the imaging system 200 uses a non-event-based vision system (for example, when a normal image sensor is used)
  • the line of sight detection device 10 detects at least three non-parallel lines of the pattern light PL1 in the captured image. It is possible to extract feature points (for example, intersection points) formed by the at least three lines. Also in this case, it is possible to provide a line of sight detection device that can suppress a decrease in detection accuracy.
  • Each of the at least three (eg, three) lines of the reference pattern BP intersects with at least one (eg, two) other lines.
  • the patterned light PL1 can be made into an extremely simple shape that allows feature points to be detected regardless of the imaging method.
  • the light source and optical element used to generate the patterned light PL1 can have an extremely simple shape.
  • Each of the at least three (eg, three) lines of the reference pattern BP intersects with at least two other lines.
  • pattern light PL1 can be made into a simple shape that allows feature points to be detected regardless of the imaging method.
  • the light source and optical element used to generate the patterned light PL1 can have a simple shape.
  • the reference pattern BP has at least three intersection points that are not on the same straight line. Thereby, no matter which direction the eyeball EB irradiated with the patterned light PL1 moves, at least one feature point (for example, an intersection) of the patterned light PL1 can be detected in the captured image, improving detection accuracy. be able to.
  • the line of sight detection system 300 includes a corneal reflection image detection unit 300a that detects feature points (for example, intersection points) of the corneal reflection image of the pattern light PL1 from the captured image of the imaging system 200. This enables robust detection with respect to the movement of the eyeball EB.
  • a corneal reflection image detection unit 300a that detects feature points (for example, intersection points) of the corneal reflection image of the pattern light PL1 from the captured image of the imaging system 200. This enables robust detection with respect to the movement of the eyeball EB.
  • the corneal reflection image detection unit 300a detects the reference pattern based on information indicating the angle and/or directionality near the feature point (for example, the intersection of the reference patterns BP) of the corneal reflection image of the reference pattern BP in the captured image of the imaging system 200.
  • BP intersection points and feature points are associated with each other. Thereby, the intersection point and the feature point can be correlated with high accuracy.
  • the line of sight detection system 300 detects the line of sight based on the captured image of the imaging system 200 and the detection result of the corneal reflection image detection unit 300a. Thereby, the line of sight can be detected with high accuracy.
  • the pattern light irradiation system 100 may include a light source 100a that emits pattern light. This allows the light source 100a to have a simple shape, making it easy to manufacture the light source 100a.
  • the pattern light irradiation system 100 may include a light source 100a and an optical element that shapes the light from the light source 100a to generate the pattern light PL1. This allows the optical element to have a simple shape, making it easy to manufacture the optical element.
  • the imaging system 200 includes an EVS. This enables imaging at high speed and with low power consumption.
  • FIG. 14A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 1 of the first embodiment of the present technology.
  • FIG. 14B is a diagram showing an image taken by EVS of the eyeball.
  • the shape of patterned light PL2 irradiated from patterned light irradiation system 100 to eyeball EB is different from the shape of patterned light PL1. Except for this point, it has the same configuration as the line of sight detection device 10 according to the first embodiment.
  • the reference pattern BP in the reference pattern BP, at least three non-parallel lines (for example, three lines) intersect at the same intersection and extend radially from the intersection.
  • the reference pattern BP has, for example, a shape of a Y character turned sideways (a shape of a Y character rotated by 90 degrees).
  • the pattern light PL2 completely matches the reference pattern BP.
  • the same effects as the visual line detection device 10 according to the first embodiment are achieved, and since the intersection of the reference pattern BP (the intersection of the patterned light PL2) is single, the corneal reflection image It is easy to associate the lines with the intersection points, and faster line-of-sight detection is possible.
  • FIG. 15A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 2 of the first embodiment of the present technology.
  • FIG. 15B is a diagram showing an image taken by EVS of the eyeball.
  • the shape of the patterned light PL3 irradiated from the patterned light irradiation system 100 to the eyeball EB is different from the shape of the patterned light PL1. Except for this point, it has the same configuration as the line of sight detection device 10 according to the first embodiment.
  • the reference pattern BP in the reference pattern BP, at least three non-parallel lines intersect at the same intersection, and continuously form an acute angle around the intersection.
  • the reference pattern BP has, for example, the shape of a horizontal arrow.
  • the pattern light PL3 completely matches the reference pattern BP.
  • the same effect as the line of sight detection device 10 according to the first embodiment is achieved, and since the intersection of the reference pattern BP (the intersection of the patterned light PL3) is single, the corneal reflection image It is easy to associate the lines with the intersection points, and faster line-of-sight detection is possible.
  • FIG. 16A is a diagram showing an eyeball irradiated with pattern light PL5 from the line of sight detection device according to Modification 3 of the first embodiment of the present technology.
  • FIG. 16B is a diagram showing an image taken by EVS of the eyeball.
  • the shape of the patterned light PL5 irradiated from the patterned light irradiation system 100 to the eyeball EB is different from the shape of the patterned light PL1. Except for this point, it has the same configuration as the line of sight detection device 10 according to the first embodiment.
  • each of at least three (eg, four) non-parallel lines intersects with at least two (eg, two) other lines.
  • the reference pattern BP has, for example, a quadrilateral shape with four non-parallel sides, one side of which is substantially parallel to the horizontal direction.
  • the size of the reference pattern BP is, for example, greater than or equal to the size of the pupil PU.
  • the pattern light PL5 completely matches the reference pattern BP.
  • FIG. 17 is a block diagram showing a functional example 2 of the corneal reflection image detection section.
  • a corneal reflection image detection section 300a includes a feature point extraction section 300a1, an association section 300a2, and a corneal center estimation section 300a3.
  • FIG. 18 is a diagram showing an example of the operation of the corneal reflection image detection section of FIG. 17.
  • the feature point extraction unit 300a1 extracts a plurality of feature points of the corneal reflection image PL5i of the patterned light PL5 from the EVS captured image.
  • the association unit 300a2 associates each feature point extracted by the feature point extraction unit 300a1 with each intersection of the patterned light PL5.
  • the corneal center estimating unit 300a3 determines the reflection points on the cornea of the corresponding plurality of intersections of the patterned light PL5 from the plurality of feature points extracted by the feature point extraction unit 300a1 and associated with the plurality of intersections by the association unit 300a2.
  • the normal vector passing through each reflection point is determined, the intersection of the plurality of normal vectors is estimated as the corneal center (the center of the cornea CO) in the coordinate system of the captured image, and the estimation result is output to the line of sight detection unit 300c. .
  • the pupil detection unit 300b extracts a pupil from an image captured by an image sensor for pupil detection using image processing (for example, edge detection, contour extraction, shading, etc.), and determines the center of the pupil in the coordinate system of the captured image. The position is calculated and the calculation result is output to the line of sight detection section 300c.
  • image processing for example, edge detection, contour extraction, shading, etc.
  • the line of sight detection unit 300c determines the line of sight direction based on the corneal center, which is the estimation result of the corneal center estimation unit 300a3, and the pupil center, which is the detection result of the pupil detection unit 300b.
  • FIG. 19 is a flowchart for explaining line of sight detection processing 2.
  • step S11 pattern light is irradiated onto the eyeball EB.
  • the light source 100a is driven by the light source driving section 100b.
  • imaging is performed. Specifically, the image sensor 200a (EVS) of the imaging system 200 images the eyeball EB irradiated with the pattern light, and outputs the captured image.
  • EVS image sensor 200a
  • a corneal reflection image is detected. Specifically, the corneal reflection image detection unit 300a extracts a plurality of feature points of the corneal reflection image of the pattern light from the captured image, and associates each corneal reflection image with each intersection of the pattern light.
  • the corneal center is estimated. Specifically, the corneal reflection image detection unit 300a calculates the corneal center of the cornea CO based on a plurality of feature points of the corneal reflection image of the pattern light.
  • the next step S15 is to detect the pupil.
  • the pupil detection unit 300b extracts the pupil PU from the image captured by the image sensor for pupil detection, and detects the position of the center of the pupil.
  • the line of sight is detected. Specifically, the line of sight direction is determined based on the corneal center estimated in step S14 and the pupil center detected in step S15.
  • step S17 it is determined whether or not to end the line of sight detection.
  • the determination here is affirmed when the power of the line of sight detection device according to modification 3 is turned off, and is negative when it is turned on, and the line of sight detection (steps S11 to S16) is performed again.
  • the line-of-sight detection device According to the line-of-sight detection device according to the third modification, at least two feature points of the corneal reflection image of the patterned light PL5 can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration. Furthermore, since the pattern light PL5 is relatively large, it is easy to detect the characteristic points of the corneal reflection image.
  • FIG. 20A is a diagram showing an eyeball irradiated with pattern light PL1 from the line of sight detection device according to the second embodiment of the present technology.
  • FIG. 20B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 21 is a block diagram showing a functional example of the line of sight detection device 20 according to the second embodiment of the present technology.
  • the line of sight detection device 20 detects points in which the reference pattern BP has a plurality (for example, two) of patterns (for example, triangular patterns) including at least two (for example, three) lines that intersect with each other. Except for this, it has the same configuration as the line of sight detection device 10 according to the first embodiment.
  • the reference pattern BP has a plurality (for example, two) of patterns (for example, triangular patterns) including at least two (for example, three) lines that intersect with each other. Except for this, it has the same configuration as the line of sight detection device 10 according to the first embodiment.
  • the reference pattern BP includes at least two (eg, two) patterns with the same shape (including similar shapes, the same applies hereinafter), and the at least two patterns have the same orientation.
  • the pattern light corresponding to the reference pattern BP completely matches the reference pattern BP. That is, as shown in FIG. 20A as an example, the pattern light corresponding to the reference pattern BP includes a plurality (for example, two) of first and second pattern parts PL1A and PL1B having the same shape and orientation.
  • each pattern of the reference pattern BP and each pattern portion of the patterned light have a triangular shape with one side substantially horizontal.
  • a corneal reflection image PL1Ai of the first pattern portion PL1A and a corneal reflection image PL1Bi of the second pattern portion PL1B appear in the captured image of the EVS.
  • Each corneal reflection image is an inverted V-shape with one intersection.
  • the pattern light irradiation system 100 includes first and second light sources 100a1 and 100a2, as shown in FIG.
  • the first light source 100a1 is used to generate the first pattern portion PL1A.
  • the second light source 100a2 is used to generate the second pattern portion PL1B.
  • the first and second light sources 100a1 and 100a2 are driven by a light source driving section 100b.
  • the line-of-sight detection process 2 is also performed in the line-of-sight detection device 20.
  • the feature points of the corneal reflection image PL1Ai (the intersection of the first pattern part PL1A) and the feature points of the corneal reflection image PL1Bi (the intersection of the second pattern part PL1B) are extracted, and the center of the cornea is determined using these feature points. calculate.
  • the line-of-sight detection device 20 at least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration.
  • the pattern light irradiation system 100 emits only a portion of the pattern light (pattern portion where feature points can be detected) corresponding to a pattern whose intersection can be detected among the plurality of patterns of the reference pattern BP. may be selectively irradiated onto the eyeball EB.
  • the total amount of light emitted from the light source section is constant, if pattern light is divided into a plurality of pattern sections and irradiated, the brightness of each pattern section will decrease, resulting in a decrease in contrast and making it difficult to obtain a signal.
  • the number of divisions of the pattern light is a pattern in which an intersection can be detected can be determined based on the estimation result (for example, the moving direction of the eyeball EB) of the movement information estimating section 300d, which will be described later.
  • the method of selectively irradiating patterned light described here is also applicable to line-of-sight detection devices according to other embodiments and modifications.
  • FIG. 22A is a diagram illustrating an eyeball irradiated with pattern light from the line of sight detection device according to Modification 1 of the second embodiment of the present technology.
  • FIG. 22B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 22C is a diagram for explaining a method of detecting an intersection from the captured image.
  • the pattern light irradiated onto the eyeball EB has first and second patterns each having a shape of a Y character turned sideways (a shape of a Y character rotated by 90 degrees). It has the same configuration as the line of sight detection device 20 according to the second embodiment, except that it includes portions PL2A and PL2B.
  • a corneal reflection image PL2Ai of the first pattern portion PL2A and a corneal reflection image PL2Bi of the second pattern portion PL2B appear in the captured image of the EVS.
  • Each corneal reflection image has the shape of a horizontal V-shape (a V-shape rotated by 90 degrees) with one intersection point.
  • the line-of-sight detection process 2 is also performed in the line-of-sight detection device according to the first modification of the second embodiment.
  • the corneal reflection image detection unit 300a extracts the feature points of the corneal reflection image PL2Ai (the intersection of the first pattern portion PL2A) and the feature points of the corneal reflection image PL2Bi (the intersection of the second pattern portion PL2B), and The corneal center is calculated using the feature points.
  • the line-of-sight detection device According to the line-of-sight detection device according to the first modification of the second embodiment, at least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration. be. Further, even if each pattern portion is relatively small, the acute angle can be made large, so that feature points (for example, intersection points) can be easily detected (see FIG. 22C).
  • FIG. 23A is a diagram showing an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 2 of the second embodiment of the present technology.
  • FIG. 23B is a diagram showing an image taken by EVS of the eyeball.
  • the pattern light irradiated onto the eyeball EB includes first and second pattern parts PL1A and PL1' having mutually different shapes. It has the same configuration as the line-of-sight detection device 20 according to the second embodiment except for the following points.
  • the first pattern portion PL1A has a triangular shape with one side substantially horizontal.
  • the second pattern portion PL1' has a triangular shape that is dissimilar to the first pattern portion PL1A, and each side is non-parallel to any side of the first pattern portion PL1A.
  • a corneal reflection image PL1Ai of the first pattern portion PL1A and a corneal reflection image PL1'i of the second pattern portion PL1' appear in the captured image of the EVS.
  • the corneal reflection image PL1Ai has an inverted V shape
  • the corneal reflection image PL1'i has a triangular shape (substantially the same shape as the second pattern portion PL1').
  • the line-of-sight detection process 2 is also performed in the line-of-sight detection device according to the second modification of the second embodiment.
  • the corneal reflection image detection unit 300a extracts the feature point of the corneal reflection image PL1Ai (the intersection of the first pattern part PL1A) and the feature point of the corneal reflection image PL1'i (the intersection of the second pattern part PL1'). , the corneal center is calculated using these feature points.
  • the line-of-sight detection device According to the line-of-sight detection device according to the second modification of the second embodiment, at least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration. be. Furthermore, since many feature points of the corneal reflection image can be detected, the line of sight can be detected with higher accuracy.
  • FIG. 24A is a diagram illustrating an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 3 of the second embodiment of the present technology.
  • FIG. 24B is a diagram showing an image taken by EVS of the eyeball.
  • the line of sight detection device is arranged so that the pattern light irradiated onto the eyeball EB is formed by first and second pattern parts having the same shape and different directions. It has the same configuration as the line of sight detection device 20 according to the second embodiment, except that it includes PL2A and PL2B.
  • the first pattern portion PL2A has a shape obtained by rotating the letter Y by an acute angle or an obtuse angle (for example, an obtuse angle).
  • the second pattern portion PL2B has a shape in which the letter Y is turned sideways (the letter Y is rotated by 90 degrees). That is, in the second pattern portion PL2B, each of the three straight lines forming the Y-shape is non-parallel to any of the three straight lines forming the Y-shape of the first pattern portion PL2A.
  • a corneal reflection image PL2Ai of the first pattern portion PL2A and a corneal reflection image PL2Bi of the second pattern portion PL2B appear in the captured image of the EVS.
  • the corneal reflection image PL1Ai has a shape obtained by rotating the letter Y by an obtuse angle (substantially the same shape as the first pattern portion PL2A).
  • the corneal reflection image PL2Bi has a sideways V shape (a V shape rotated by 90 degrees).
  • the line-of-sight detection process 2 is also performed in the line-of-sight detection device according to the third modification of the second embodiment.
  • the corneal reflection image detection unit 300a extracts the feature points of the corneal reflection image PL2Ai (the intersection of the first pattern portion PL2A) and the feature points of the corneal reflection image PL2Bi (the intersection of the second pattern portion PL2B), and The corneal center is calculated using the feature points.
  • At least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration. be.
  • FIG. 25A is a diagram showing an eyeball irradiated with pattern light from a line-of-sight detection device according to Modification 4 of the second embodiment of the present technology.
  • FIG. 25B is a diagram showing an image taken by EVS of the eyeball.
  • the line of sight detection device according to Modification 4 of the second embodiment is arranged such that the pattern light irradiated onto the eyeball EB is formed by first and second pattern portions having the same shape and different directions. It has the same configuration as the line of sight detection device 20 according to the second embodiment except that it includes PL4A and PL4B.
  • the first pattern portion PL4A has a shape obtained by rotating a V-shape by an acute angle or an obtuse angle (for example, an obtuse angle).
  • the second pattern portion PL4B has a shape obtained by rotating a V-shape by an acute angle or an obtuse angle (for example, an obtuse angle) so that the direction is different from that of the first pattern portion PL4A. That is, in the second pattern portion PL4B, each of the two straight lines forming the V-shape is non-parallel to both of the two straight lines forming the V-shape of the first pattern portion PL4A.
  • a corneal reflection image PL4Ai of the first pattern portion PL4A and a corneal reflection image PL4Bi of the second pattern portion PL4B appear in the captured image of the EVS.
  • the corneal reflection image PL4Ai has substantially the same shape as the first pattern portion PL4A.
  • the corneal reflection image PL4Bi has substantially the same shape as the second pattern portion PL4B.
  • line-of-sight detection processing 1 is performed.
  • the corneal reflection image detection unit 300a extracts the feature points of the corneal reflection image PL4Ai (the intersections of the first pattern portions PL4A) and/or the feature points of the corneal reflection images PL4Bi (the intersections of the second pattern portions PL4B).
  • At least one feature point of the corneal reflection image can be extracted at all times while the pattern light has an extremely simple shape, and the line-of-sight can therefore be detected at all times.
  • FIG. 26A is a diagram showing an eyeball irradiated with pattern light from a line of sight detection device according to modification 5 of the second embodiment of the present technology.
  • FIG. 26B is a diagram showing an image taken by EVS of the eyeball.
  • the line of sight detection device is such that the pattern light irradiated onto the eyeball EB includes first and second pattern portions PL1A and PL4A having mutually different shapes. It has the same configuration as the line-of-sight detection device 20 according to the second embodiment, except that the line-of-sight detection device 20 according to the second embodiment.
  • the first pattern portion PL1A has a triangular shape with one side substantially horizontal.
  • the second pattern portion PL4A has an inverted V shape. Each line of the second pattern portion PL4A is non-parallel to any of the three sides of the first pattern portion PL1A.
  • a corneal reflection image PL1Ai of the first pattern portion PL1A and a corneal reflection image PL4Ai of the second pattern portion PL4A appear in the captured image of the EVS.
  • the corneal reflection image PL1Ai has a shape in which the horizontal lines of the first pattern portion PL1A are missing.
  • the corneal reflection image PL4Ai has substantially the same shape as the second pattern portion PL4A.
  • the line-of-sight detection process 2 is also performed in the line-of-sight detection device according to the fifth modification of the second embodiment.
  • the corneal reflection image detection unit 300a extracts the feature points of the corneal reflection image PL1Ai (the intersection of the first pattern part PL1A) and the feature points of the corneal reflection image PL4Ai (the intersection of the second pattern part PL4A), and The corneal center is calculated using the feature points.
  • At least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line of sight can be detected by the line of sight detection process 2 that does not require calibration. be.
  • FIG. 27A is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to the third embodiment of the present technology.
  • FIG. 27B is a diagram showing an image taken by EVS of the eyeball.
  • FIG. 28 is a block diagram showing a functional example of the line of sight detection device 30 according to the third embodiment of the present technology.
  • the line of sight detection device 30 according to the third embodiment is similar to the first embodiment except that the reference pattern BP has a plurality (for example, three) of patterns including at least two (for example, two) lines that intersect with each other. It has the same configuration as the line of sight detection device 10 according to the above.
  • the reference pattern BP includes at least two (eg, three) patterns with the same shape, and the at least two patterns have different directions.
  • the pattern light corresponding to the reference pattern BP completely matches the reference pattern BP. That is, as shown in FIG. 27A as an example, the pattern light corresponding to the reference pattern BP includes a plurality (for example, three) of first to third pattern parts PL4A, PL4B, and PL4C that have the same shape but different orientations. There is.
  • each pattern of the reference pattern BP and each pattern portion of the patterned light are approximately V-shaped.
  • each of the two straight lines forming the V-shape of each pattern section is non-parallel to any of the two straight lines forming the V-shape of the other pattern section.
  • One side of the third pattern portion PL4C is approximately horizontal.
  • the EVS captured image includes a corneal reflection image PL4Ai of the first pattern portion PL4A, a corneal reflection image PL4Bi of the second pattern portion PL4B, and a third pattern portion PL4C.
  • a corneal reflection image PL4Ci appears.
  • Corneal reflection images PL4Ai and PL4Bi are V-shaped with one intersection.
  • the corneal reflection image PL4Ci is one straight line.
  • the pattern light irradiation system 100 includes first to third light sources 100a1, 100a2, and 100a3, as shown in FIG.
  • the first light source 100a1 is used to generate the first pattern portion PL4A.
  • the second light source 100a2 is used to generate the second pattern portion PL4B.
  • the third light source 100a3 is used to generate the third pattern portion PL4C.
  • the first to third light sources 100a1, 100a2, and 100a3 are driven by a light source driving section 100b.
  • the line-of-sight detection device 30 also performs line-of-sight detection processing 2.
  • the feature point of the corneal reflection image PL4Ai (the intersection of the first pattern part PL4A)
  • the feature point of the corneal reflection image PL4Bi the intersection of the second pattern part PL4B
  • the feature point of the corneal reflection image PL4Ci (the intersection of the third pattern part PL4C)
  • the center of the cornea is calculated using these feature points.
  • the line-of-sight detection device 30 at least two feature points of the corneal reflection image of the pattern light can be detected at all times, so the line-of-sight can be detected by the line-of-sight detection process 2 that does not require calibration.
  • the corneal reflection image detection unit 300a may extract pixels whose brightness has increased in the EVS captured image as feature points.
  • FIG. 29 is a block diagram showing a functional example 3 of the corneal reflection image detection section.
  • configuration example 3 of the corneal reflection image detection section 300a includes a brightness comparison section 300a4 in addition to the feature point extraction section 300a1 and the association section 300a2.
  • the brightness comparison unit 300a4 compares the brightness in the current frame and the brightness in the previous frame of each of the plurality of pixels that constitute the feature points extracted by the feature point extraction unit 300a1 and correlated by the correlation unit 300a2, and compares the brightness in the previous frame.
  • the pixels only those pixels whose brightness has increased are extracted as pixels constituting feature points. Thereby, feature points can be extracted more precisely.
  • FIG. 30 is a block diagram showing a functional example of the line of sight detection device 40 according to the fourth embodiment of the present technology.
  • the line of sight detection device 40 according to the fourth embodiment is the line of sight detection device according to the first embodiment, except that the line of sight detection system 300 further includes a movement information estimation unit 300d. It has roughly the same configuration as 10.
  • the movement information estimation unit 300d estimates at least one of the movement amount, movement direction, and movement speed of the eyeball EB based on the detection result by the corneal reflection image detection unit 300a.
  • FIG. 31 is a block diagram showing a functional example 1 of the movement information estimation section 300d.
  • the movement information estimation section 300d shown in FIG. 31 includes a movement amount estimation section 300d1 and a movement direction estimation section 300d2.
  • the movement amount estimating unit 300d1 can extract, for example, a feature point with low brightness and a feature point with high brightness, and estimate the movement amount of the eyeball EB from the positional relationship between these two feature points.
  • the movement direction estimating unit 300d2 can estimate the movement direction of the eyeball EB from the positional relationship, or, for example, as shown in FIG.
  • the moving direction of the eyeball EB can also be estimated from the direction of the eyeball EB and the polarity of the event (brightening or darkening).
  • the line-of-sight detection unit 300c performs line-of-sight detection processing 1.
  • the amount and direction of movement of the eyeball EB estimated by the movement information estimation unit 300d are associated with the line of sight. , the line of sight can be determined with higher accuracy.
  • FIG. 33 is a block diagram showing a second functional example of the movement information estimation section 300d.
  • the movement information estimation section 300d shown in FIG. 33 includes a movement direction estimation section 300d2 and a movement speed estimation section 300d3.
  • the movement direction estimating unit 300d2 can, for example, extract a feature point with low brightness and a feature point with high brightness, and estimate the movement direction of the eyeball EB from the positional relationship between these two feature points.
  • the direction of movement of the eyeball EB is estimated from the direction of an acute angle formed by two straight lines that intersect at the feature point (intersection) of the corneal reflection image PL4i and the polarity of the event (bright change or dark change).
  • the moving speed estimating unit 300d3 extracts, for example, a feature point with reduced brightness and a feature point with increased brightness, and estimates the moving speed of the eyeball EB from the positional relationship of these two feature points, the frame rate of EVS, etc. You may.
  • Functional example 2 of the movement information estimating unit 300d shown in FIG. 33 performs saccade estimation to estimate the target position (arrival position) of the eyeball EB from the moving direction and moving speed of the eyeball EB.
  • 34A and 34B are diagrams for explaining the principle of functional example 2 of the movement information estimation unit 300d.
  • FIGS. 34A and 34B show temporal changes in the position of the eyeball and temporal changes in the speed of the eyeball, respectively, for the same movement of the eyeball. From FIGS. 34A and 34B, there is a correlation between the temporal change in the position of the eyeball and the maximum speed of the eyeball, and by detecting the maximum speed, it is possible to predict the position the eyeball has reached.
  • FIG. 35 is a block diagram showing a third functional example of the movement information estimating section 300d.
  • the movement information estimating unit 300d shown in FIG. 35 detects feature points corresponding to intersections that could be detected by the corneal reflection image detection unit 300a (appeared in the captured image of EVS) and could not be detected by the corneal reflection image detection unit 300a ( The position of the feature point corresponding to the intersection (which did not appear in the EVS captured image) is estimated, and the moving direction of the eyeball EB is extracted from the estimation result.
  • the movement information estimation section 300d includes a non-detection intersection estimation section 300d4 and a movement direction extraction section 300d5. For example, as shown in FIG.
  • the undetected intersection estimation unit 300d4 detects the position of the feature point (for example, the feature point of the corneal reflection image PL4Bi) that corresponds to the intersection of the reference pattern BP and is detected by the corneal reflection image detection unit 300a.
  • the position of the feature point (for example, the feature point of the corneal reflection image PL4Ai) corresponding to the intersection of the reference pattern BP that could not be detected by the corneal reflection image detection unit 300a (does not appear in the captured image of EVS) is estimated (for example, the position of the feature point of the corneal reflection image PL4Ai). 36 broken line portions), and outputs the estimation results.
  • the number of feature points can be increased, the detection accuracy can be improved in performing the line-of-sight detection process 1, and it is also possible to correspond to the line-of-sight detection process 2.
  • FIG. 37 is a block diagram showing a functional example of the pupil detection section 300b.
  • the pupil detection section 300b shown in FIG. 37 includes a movement information acquisition section 300b1 and a pupil pattern estimation section 300b2.
  • the movement information acquisition unit 300b1 acquires movement information (for example, at least one of movement amount, movement direction, and movement speed) of the eyeball EB, which is the estimation result of the movement information estimation unit 300d.
  • the pupil pattern estimation unit 300b2 estimates a pupil pattern from the movement information of the eyeball EB acquired by the movement information acquisition unit 300b1, and detects the pupil by pattern detection or the like.
  • the line-of-sight detection system 300 since the line-of-sight detection system 300 includes the movement information estimation section 300d, further improvement in line-of-sight detection accuracy can be expected.
  • FIGS. 38A and 38B are diagrams showing an eyeball irradiated with pattern light from the line-of-sight detection device according to Modifications 6 and 7 of the second embodiment of the present technology, respectively.
  • the pattern light irradiated onto the eyeball EB is transmitted through the first and second pattern portions PL6A, which are rectangular in shape (including similar shapes) and different in direction. , including PL6B.
  • the pattern light irradiated onto the eyeball EB includes a rectangular first pattern portion PL6 and a triangular second pattern portion PL1'.
  • Line of sight detection device according to variations 4 to 8 of the first embodiment of the present technology> 39A to 39E are diagrams showing eyeballs irradiated with pattern light from the line of sight detection devices according to Modifications 4 to 8 of the first embodiment of the present technology, respectively.
  • the reference patterns BP corresponding to the patterned light are all radial (for example, Y-shaped).
  • the pattern light PL2 has a shape along the reference pattern BP, two of the three straight lines intersect, and one straight line is separated from the intersection by some distance (for example, within 10 pixels). It has a separate shape.
  • patterned light PL2 has a shape that follows the reference pattern BP, and the portion corresponding to the intersection of the reference pattern BP is replaced with a figure (for example, a circle).
  • patterned light PL2 has a shape that follows the reference pattern BP, with portions corresponding to the intersections of the reference pattern BP removed.
  • pattern light PL2 has a shape along the reference pattern BP, a portion corresponding to an intersection of the reference pattern BP is removed, and a figure (for example, a circle) is formed in the removed portion. It has an arranged shape.
  • FIG. 40 is a diagram showing an eyeball irradiated with pattern light from the line of sight detection device according to Modification 9 of the first embodiment of the present technology.
  • pattern light PL7 has three non-parallel straight lines that intersect at one point. Four line segments extend radially from the intersection of the three straight lines.
  • FIGS. 41A to 41C are diagrams showing eyeballs irradiated with pattern light from the line-of-sight detection devices according to Modifications 10 to 12 of the first embodiment of the present technology, respectively.
  • pattern light PL9 has an A-shaped shape with three intersections.
  • pattern light PL10 has a shape in which the horizontal line of the letter A is extended left and right, with three intersections.
  • pattern light PL11 has a shape in which the horizontal line of the letter A is extended left and right, and the two diagonal lines of the letter A are extended upward, with three intersections.
  • FIGS. 42A to 42C are diagrams showing eyeballs irradiated with pattern light from the line-of-sight detection devices according to variations 13 to 15 of the first embodiment of the present technology, respectively.
  • pattern light PL12 has a shape in which one curve and two straight lines intersect at one point and extend radially from the intersection. Note that in the pattern light PL12, one curve and two straight lines may intersect at multiple points.
  • pattern light PL13 has a shape in which two curved lines and one straight line intersect at one point. Note that in the patterned light PL13, two curved lines and one straight line may intersect at a plurality of points.
  • pattern light PL14 has a shape in which three curves intersect at one point. Note that in the pattern light PL14, three curves may intersect at a plurality of points.
  • FIG. 43 is a diagram showing variation 1 of pattern light suitable for the line of sight detection device according to the present technology and a corneal reflection image of the pattern light.
  • FIG. 43 shows star-shaped light patterns in addition to polygonal shapes such as triangles, pentagons, and hexagons.
  • images captured by EVS are shown for each direction of movement of the eyeball (for example, horizontal direction, vertical direction, and diagonal direction). From FIG. 43, it can be seen that with any of these shapes of pattern light, at least one feature point (intersection) of the corneal reflection image can be detected with respect to horizontal movement, vertical movement, and diagonal movement of the eyeball.
  • FIG. 44 is a diagram showing variation 2 of pattern light suitable for the line of sight detection device according to the present technology and a corneal reflection image of the pattern light.
  • pattern light in a star-shaped frame shape is shown in FIG.
  • images captured by EVS are shown for each direction of movement of the eyeball (for example, horizontal direction, vertical direction, and diagonal direction). From FIG. 44, it is possible to detect at least one characteristic point (intersection) of the corneal reflection image for any of these shapes of pattern light with respect to horizontal, vertical, and diagonal movement of the eyeball. I understand that.
  • the number of light sources and optical elements can be changed as appropriate.
  • the number of light sources and optical elements can be determined depending on the number of divisions of pattern light (number of pattern parts). Specifically, when the light source emits pattern portions of patterned light, the number of light sources may be set to the same number as the number of pattern portions.
  • the number of optical elements When shaping the light emitted from the light source into pattern parts using optical elements, the number of optical elements may be the same as the number of pattern parts, and the number of light sources may be set to be less than or equal to the number of pattern parts.
  • the image sensor 200a of the imaging system is not limited to an EVS, but may be a normal image sensor.
  • the type, number, shape, arrangement, etc. of the light sources and optical elements can be changed as appropriate.
  • the present technology can also have the following configuration.
  • a patterned light irradiation system that irradiates the eyeball with patterned light; an imaging system that images the eyeball irradiated with the patterned light; a line of sight detection system that detects a line of sight, which is the direction of the eyeball, based on a captured image of the imaging system;
  • the line of sight detection device wherein the pattern light is a reference pattern having at least three non-parallel lines, and has a shape along the reference pattern having an intersection point where at least two of the at least three lines intersect.
  • the line of sight detection device has a plurality of patterns including the at least two lines that intersect with each other.
  • the line of sight detection device includes at least two patterns having the same shape.
  • the line of sight detection device include at least two patterns having the same direction.
  • the line of sight detection device have different directions.
  • the line of sight detection device include at least two patterns having different shapes.
  • the pattern light irradiation system irradiates the eyeball with a portion of the pattern light corresponding to the pattern in which the intersection point can be detected among the plurality of patterns.
  • the line of sight detection device according to item 1.
  • the line of sight detection system includes a corneal reflection image detection unit that detects feature points of a corneal reflection image of the patterned light from the captured image, according to any one of (1) to (13). Gaze detection device.
  • the corneal reflection image detection unit associates the intersection point with the feature point based on information indicating an angle and/or directionality near the feature point of the corneal reflection image in the captured image. ).
  • the line of sight detection device according to (14) or (15), wherein the corneal reflection image detection unit extracts pixels whose brightness has increased in the captured image as pixels forming the feature point.
  • the line of sight detection system includes a movement information estimation unit that estimates at least one of the amount of movement, the direction of movement, and the speed of movement of the eyeball based on the detection result of the corneal reflection image detection unit. ) to (16).
  • the movement information estimating unit selects the feature point corresponding to the intersection that could not be detected by the corneal reflection image detection unit from the feature point corresponding to the intersection that could be detected by the corneal reflection image detection unit.
  • the line of sight detection device which estimates the position of the eyeball and extracts the movement direction of the eyeball from the estimation result.
  • the line of sight detection system detects the line of sight based on at least a captured image of the imaging system and a detection result of the corneal reflection image detection unit, according to any one of (14) to (18). line of sight detection device.
  • the line of sight detection device according to any one of (1) to (19), wherein the pattern light irradiation system includes a light source that emits the pattern light.
  • line of sight detection device 100 pattern light irradiation system 100a: light source 100a1: first light source (light source) 100a2: Second light source (light source) 100a3: Third light source (light source) 200: Imaging system 300: Line of sight detection system 300a: Corneal reflection image detection unit 300d: Movement information estimation unit

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

撮像系の撮像方式によらず検出精度の低下を抑制することができる視線検出装置を提供すること。 本技術に係る視線検出装置は、パターン光を眼球に照射するパターン光照射系と、前記パターン光が照射された前記眼球を撮像する撮像系と、前記撮像系の撮像画像に基づいて前記眼球の向きである視線を検出する視線検出系と、を備え、前記パターン光は、非平行な少なくとも3つの線を有する基準パターンであって、前記少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンに沿う形状を有する。本技術に係る視線検出装置によれば、撮像系の撮像方式によらず検出精度の低下を抑制することができる視線検出装置を提供することができる。

Description

視線検出装置
 本開示に係る技術(以下「本技術」とも呼ぶ)は、視線検出装置に関する。
 従来、パターン光を眼球に照射し該眼球を撮像系で撮像することにより、眼球の向きである視線を検出する視線検出装置が知られている。
 従来の視線検出装置の中には、矩形枠形状を持つパターン光を眼球に照射するもの(例えば特許文献1参照)や、2つの線分が1点で交差する形状を持つパターン光を眼球に照射するもの(例えば特許文献2参照)がある。
特開2010-250789号公報 特開2014-188322号公報
 しかしながら、従来の視線検出装置では、撮像系の撮像方式(例えばイベントベースビジョン方式)によっては検出精度が低下するおそれがあった。
 そこで、本技術は、撮像系の撮像方式によらず検出精度の低下を抑制することができる視線検出装置を提供することを目的とする。
 本技術は、パターン光を眼球に照射するパターン光照射系と、
 前記パターン光が照射された前記眼球を撮像する撮像系と、
 前記撮像系の撮像画像に基づいて前記眼球の向きである視線を検出する視線検出系と、
 を備え、
 前記パターン光は、非平行な少なくとも3つの線を有する基準パターンであって、前記少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンに沿う形状を有する、視線検出装置を提供する。
 前記少なくとも3つの線の各々は、少なくとも1つの他の前記線と交差していてもよい。
 前記少なくとも3つの線の各々は、少なくとも2つの他の前記線と交差していてもよい。
 前記基準パターンは、同一直線上にない少なくとも3つの前記交点を持っていてもよい。
 前記少なくとも3つの線が、同一の前記交点で交差していてもよい。
 前記少なくとも3つの線は、前記交点の周りに連続して鋭角を形成していてもよい。
 前記少なくとも3つの線は、前記交点から放射状に延びていてもよい。
 前記基準パターンは、互いに交差する前記少なくとも2つの線を含むパターンを複数有していてもよい。
 複数の前記パターンは、形状が同一の少なくとも2つの前記パターンを含んでいてもよい。
 複数の前記パターンは、形状が異なる少なくとも2つの前記パターンを含んでいてもよい。
 前記パターン光照射系は、複数の前記パターンのうち前記交点を検出可能な前記パターンに対応する、前記パターン光の一部を前記眼球に照射してもよい。
 前記視線検出系は、前記撮像画像から、前記パターン光の角膜反射像の特徴点を検出する角膜反射像検出部を含んでいてもよい。
 前記角膜反射像検出部は、前記撮像画像における前記角膜反射像の前記特徴点付近の角度及び/又は方向性を示す情報に基づいて、前記交点と前記特徴点とを対応付けてもよい。
 前記角膜反射像検出部は、前記撮像画像において輝度が上がった画素を、前記特徴点を構成する画素として抽出してもよい。
 前記視線検出系は、前記角膜反射像検出部での検出結果に基づいて、前記眼球の移動量、移動方向及び移動速度の少なくとも1つを推定する移動情報推定部を含んでいてもよい。
 前記移動情報推定部は、前記角膜反射像検出部で検出できた、前記交点に対応する前記特徴点から前記角膜反射像検出部で検出できなかった、前記交点に対応する前記特徴点の位置を推定し、その推定結果から前記眼球の移動方向を抽出してもよい。
 前記視線検出系は、少なくとも前記撮像系の撮像画像及び前記角膜反射像検出部での検出結果に基づいて前記視線を検出してもよい。
 前記パターン光照射系は、前記パターン光を出射する光源を含んでいてもよい。
 前記パターン光照射系は、光源と、前記光源からの光を整形して前記パターン光を生成する光学素子と、を含んでいてもよい。
 前記撮像系は、イベントセンサを含んでいてもよい。
図1A及び図1Bは、それぞれ従来のアイトラッキング手法(その1及びその2)を説明するための図である。 図2A及び図2Bは、比較例1のアイトラッキングにEVSを使用する際の問題点を説明するための図である。 図3A及び図3Bは、比較例2のアイトラッキングにEVSを使用する際の問題点を説明するための図である。 図4A~図4Cは、比較例3のアイトラッキングにEVSを使用する際の問題点を説明するための図である。 図5Aは、本技術の第1実施形態に係る視線検出装置からパターン光が照射された眼球を示す図である。図5Bは、該眼球のEVSによる撮像画像を示す図である。 本技術の第1実施形態に係る視線検出装置の機能例を示すブロック図である。 図7A~図7Cは、それぞれ本技術の第1実施形態に係る視線検出装置のパターン光照射系の光源部の構成例1~3を示す図である。 角膜反射像検出部の機能例1を示すブロック図である。 視線検出処理1を説明するためのフローチャートである。 図9のキャリブレーション工程を説明するためのフローチャートである。 図11A~図11Cは,本技術の第1実施形態に係る視線検出装置による作用例を説明するための図である。 図10のキャリブレーション値の取得について説明するための図である。 図9の視線検出工程を説明するためのフローチャートである。 図14Aは、本技術の第1実施形態の変形例1に係る視線検出装置からパターン光が照射された眼球を示す図である。図14Bは、該眼球のEVSによる撮像画像を示す図である。 図15Aは、本技術の第1実施形態の変形例2に係る視線検出装置からパターン光が照射された眼球を示す図である。図15Bは、該眼球のEVSによる撮像画像を示す図である。 図16Aは、本技術の第1実施形態の変形例3に係る視線検出装置からパターン光が照射された眼球を示す図である。図16Bは、該眼球のEVSによる撮像画像を示す図である。 角膜反射像検出部の機能例2を示すブロック図である。 図17の角膜反射像検出部の動作例を示す図である。 視線検出処理2を説明するためのフローチャートである。 図20Aは、本技術の第2実施形態に係る視線検出装置からパターン光が照射された眼球を示す図である。図20Bは、該眼球のEVSによる撮像画像を示す図である。 本技術の第2実施形態に係る視線検出装置の機能例を示すブロック図である。 図22Aは、本技術の第2実施形態の変形例1に係る視線検出装置からパターン光が照射された眼球を示す図である。図22Bは、該眼球のEVSによる撮像画像を示す図である。図22Cは、該撮像画像から交点を検出する方法を説明するための図である。 図23Aは、本技術の第2実施形態の変形例2に係る視線検出装置からパターン光が照射された眼球を示す図である。図23Bは、該眼球のEVSによる撮像画像を示す図である。 図24Aは、本技術の第2実施形態の変形例3に係る視線検出装置からパターン光が照射された眼球を示す図である。図24Bは、該眼球のEVSによる撮像画像を示す図である。 図25Aは、本技術の第2実施形態の変形例4に係る視線検出装置からパターン光が照射された眼球を示す図である。図25Bは、該眼球のEVSによる撮像画像を示す図である。 図26Aは、本技術の第2実施形態の変形例5に係る視線検出装置からパターン光が照射された眼球を示す図である。図26Bは、該眼球のEVSによる撮像画像を示す図である。 図27Aは、本技術の第3実施形態に係る視線検出装置からパターン光が照射された眼球を示す図である。図27Bは、該眼球のEVSによる撮像画像を示す図である。 本技術の第3実施形態に係る視線検出装置の機能例を示すブロック図である。 角膜反射像検出部の機能例3を示すブロック図である。 本技術の第4実施形態に係る視線検出装置の機能例を示すブロック図である。 移動情報推定部の機能例1を示すブロック図である。 移動情報推定部の機能例1の原理を説明するための図である。 移動情報推定部の機能例2を示すブロック図である。 図34A及び図34Bは、移動情報推定部の機能例2の原理を説明するための図である。 移動情報推定部の機能例3を示すブロック図である。 移動情報推定部の機能例3の原理を説明するための図である。 瞳孔検出部の機能例を示すブロック図である。 図38A及び図38Bは、それぞれ本技術の第2実施形態の変形例6、7に係る視線検出装置からパターン光が照射された眼球を示す図である。 図39A~図39Eは、それぞれ本技術の第1実施形態の変形例4~8に係る視線検出装置からパターン光が照射された眼球を示す図である。 本技術の第1実施形態の変形例9に係る視線検出装置からパターン光が照射された眼球を示す図である。 図41A~図41Cは、それぞれ本技術の第1実施形態の変形例10~12に係る視線検出装置からパターン光が照射された眼球を示す図である。 図42A~図42Cは、それぞれ本技術の第1実施形態の変形例13~15に係る視線検出装置からパターン光が照射された眼球を示す図である。 本技術に係る視線検出装置に好適なパターン光のバリエーション1及び該パターン光の角膜反射像を示す図である。 本技術に係る視線検出装置に好適なパターン光のバリエーション2及び該パターン光の角膜反射像を示す図である。
 以下に添付図面を参照しながら、本技術の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。以下に説明する実施形態は、本技術の代表的な実施形態を示したものであり、これにより本技術の範囲が狭く解釈されることはない。本明細書において、本技術に係る視線検出装置が複数の効果を奏することが記載される場合でも、本技術に係る視線検出装置は、少なくとも1つの効果を奏すればよい。本明細書に記載された効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
 また、以下の順序で説明を行う。
0.導入
1.本技術の第1実施形態に係る視線検出装置
2.本技術の第1実施形態の変形例1に係る視線検出装置
3.本技術の第1実施形態の変形例2に係る視線検出装置
4.本技術の第1実施形態の変形例3に係る視線検出装置
5.本技術の第2実施形態に係る視線検出装置
6.本技術の第2実施形態の変形例1に係る視線検出装置
7.本技術の第2実施形態の変形例2に係る視線検出装置
8.本技術の第2実施形態の変形例3に係る視線検出装置
9.本技術の第2実施形態の変形例4に係る視線検出装置
10.本技術の第2実施形態の変形例5に係る視線検出装置
11.本技術の第3実施形態に係る視線検出装置
12.本技術の第4実施形態に係る視線検出装置
13.本技術の第2実施形態の変形例6、7に係る視線検出装置
14.本技術の第1実施形態の変形例4~8に係る視線検出装置
15.本技術の第1実施形態の変形例9に係る視線検出装置
16.本技術の第1実施形態の変形例10~12に係る視線検出装置
17.本技術の第1実施形態の変形例13~15に係る視線検出装置
18.パターン光のバリエーション1
19.パターン光のバリエーション2
20.本技術のその他の変形例
<0.導入>
(従来のアイトラッキング手法)
 従来、光(例えば非可視光)を眼球に照射し該眼球を撮像系で撮像することにより、眼球の向きである視線を検出する視線検出装置(アイトラッキング装置)が知られている。従来のアイトラッキング手法の第1例として、図1Aに示す、瞳孔と角膜反射像の多項式フィッティング法が知られている。これは、光源の角膜反射像と瞳孔位置との関係性と視線とをキャリブレーションで紐付ける方法である。
 従来のアイトラッキング手法の第2例として、図1Bに示す、瞳孔と角膜反射像のモデル推定法が知られている。これは、複数の角膜反射像から角膜中心を求め、瞳孔画像から瞳孔中心を求めることで視線を検出する方法である。
 上記第1例及び第2例のような従来のアイトラッキングでは、高精度化が可能であるものの、消費電力とフレームレートとがトレードオフの関係にある。これに対処するために、例えばEVS(イベントベースビジョンセンサ)を用いることが考えられる。EVSは、高速且つ低消費電力な撮像素子として近年注目を集めている。
 しかし、EVSをアイトラッキングに使用する場合には、ロバスト性が低下する問題がある。その一因として、角膜反射像(プルキニエ像)の検出が難しいことが挙げられる。図2Aは小さい点光源からの光が照射された眼球を通常の撮像素子で撮像した画像を示し、図2Bは小さい点光源からの光が照射された眼球をEVSで撮像した画像を示す。図2A及び図2Bに示すように小さい点光源を用いる場合には、コンピュータビジョンのアルゴリズムで階調なく点光源の小さい角膜反射像を抽出するのは困難である。さらに、太陽光等の多くの外光が点光源的に瞳に映り込むため、区別も難しい。
 図3Aは大きい点光源からの光が照射された眼球を通常の撮像素子で撮像した画像を示し、図3Bは大きい点光源からの光が照射された眼球をEVSで撮像した画像を示す。図3A及び図3Bに示すように光源サイズを大きくすること(例えば大径の円形光源を用いること)も考えられる。この場合、円の特徴点として円の中心が考えられるが、円の半径が眼球運動、角膜曲率などの曖昧さの影響を受けるため好適ではない。
 そこで、EVSをアイトラッキングに使用する場合に角膜反射像の検出精度を向上させる取り組みが文献(Event-Based Kilohertz Eye Tracking using Coded Differential Lighting)で提案されている。この文献では、隣接する二つのLEDを明滅させることでプルキニエの検出精度を向上させることが言及されているが、LEDの明滅によって全体の輝度変化が起こらないようにする管理が必要であったり、明滅周波数がEVSの帯域幅に依存するなどの問題もある。なお、全体の輝度変化が起こるとイベントが一斉発火してしまい、レイテンシーが生じうる。
 そこで、特徴点を増やすべく眼球にパターン光を照射することが考えられるが、以下のような問題がある。
・眼球の動きによって、パターンの見え方が変わる。
・眼球の動きによって、パターンの少なくとも一部が消える。
 これらは、検出のロバスト性を大きく減少させる。
 以下に、眼球に矩形枠状のパターン光PLを照射してアイトラッキングを行うシミュレーション例について説明する。図4Aは、矩形枠状のパターン光PLが照射された眼球を通常の撮像素子NSで撮像した画像を示す。図4Bは、比較的高速で水平移動中に矩形枠状のパターン光PLが照射された眼球をEVSで撮像した画像を示す。図4Cは、比較的低速で水平移動中に矩形枠状のパターン光PLが照射された眼球をEVSで撮像した画像を示す。図4Aでは、矩形枠状のパターン光PLの反射光の画像PL-NSが明瞭に確認できる。図4Bでは、パターン光PLの反射光の画像PL-EVSにおいて矩形枠が二重線になって現れ、線が太いため、光源と反射光とのフィッティングに曖昧性が生じる。図4Cでも、パターン光PLの反射光の画像PL-EVSにおいて矩形枠が二重線になって現れ、さらに水平には輝度変化がほとんど起こらないので、パターン光PLの形状が相当失われていることがわかる。
 そこで、発明者は、鋭意検討の末、パターン光の形状に工夫を凝らすことにより、撮像系の撮像方式によらず検出精度の低下を抑制することができる視線検出装置(アイトラッキング装置)として、本技術に係る視線検出装置を開発した。本技術に係る視線検出装置は、特に撮像系にEVSを用いる場合に非常に効果的である。
<1.本技術の第1実施形態に係る視線検出装置>
≪視線検出装置の構成≫
 図5Aは、本技術の第1実施形態に係る視線検出装置10からパターン光が照射された眼球EBを示す図である。図5Bは、該眼球EBのEVSによる撮像画像を示す図である。図6は、本技術の第1実施形態に係る視線検出装置10の機能例を示すブロック図である。
 視線検出装置10は、例えばHMD(Head Mounted Display)に搭載され、アイトラッキング(視線検出)に用いられる。視線検出装置10は、図6に示すように、パターン光照射系100と、撮像系200と、視線検出系300とを備える。視線検出装置10は、一例として、ユーザの頭部に装着される、HMDの支持構造体(例えば眼鏡フレーム)に支持されている。HMDは、ユーザの視野に画像を重畳して表示する。HMDは、一例として、視線検出装置10の出力(ユーザの視線)に基づいて画像の表示を制御する。HMDの支持構造体には、ユーザに音声情報を提供する音声出力装置が設けられていてもよい。
(パターン光照射系)
 パターン光照射系100は、パターン光PL1(図5A参照)をユーザの眼球EBに照射する。パターン光PL1は、例えば三角形状である。パターン光照射系100は、一例として、光源100a及び光源駆動部100b(光源ドライバ)を含む(図6参照)。光源100aは、一例として、非可視光(例えば赤外光)を射出する。光源100aは、一例として、点光源、線光源又は面光源である。光源100aとして、例えばLED(Light Emitting Diode)、OLED(Organic Light Emitting Diode)、LD(Laser diode)等を用いることができる。なお、図5A等において、符号COは角膜、符号PUは瞳孔を示す。
 パターン光PL1は、非平行な少なくとも3つの線を有する基準パターンBPであって、該少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンBP(例えば三角形)に沿う形状を有する。基準パターンBPを構成する非平行な少なくとも3つの線の各々は、例えば図形の一部を構成する線、図形の輪郭の一部を構成する線、文字の一部を構成する線などであり、直線及び曲線のいずれでもよく、また実線のみならず少なくとも一部が破線でもよい。パターン光PL1は、基準パターンBPと完全に一致するパターンであってもよいし、基準パターンBPと概ね一致するパターンであってもよい。ここで「基準パターンBPと概ね一致するパターン」には、例えば基準パターンBPの少なくとも1つの交点を除去したパターン、基準パターンBPの少なくとも1つの交点を図形に置き換えたパターン等が含まれる。ここでは、パターン光PL1は、基準パターンBPに完全に一致している。基準パターンの形状は、光源自体の形状であってもよいし、光源からの光を整形する光学素子の形状であってもよい。
 パターン光PL1の少なくとも3つ(例えば3つ)の線の各々は、少なくとも1つ(例えば2つ)の他の線と交差する。詳述すると、パターン光PL1の少なくとも3つの線の各々は、少なくとも2つ(例えば2つ)の他の線と交差する。基準パターンBPは、一例として、同一直線上にない少なくとも3つの交点(例えば3つの交点)を持つ。より詳細には、基準パターンBP及びパターン光PL1は、いずれも一辺が略水平で高さ方向が略鉛直方向に一致する三角形(例えば二等辺三角形、詳しくは正三角形)である。
 図7A~図7Cは、それぞれ本技術の第1実施形態に係る視線検出装置10のパターン光照射系100の光源部の構成例1~3を示す図である。図7Aに示す構成例1では、パターン光PL1と同じ形状(例えば三角形状)の光源100aが眼鏡フレームEFに(例えば眼鏡フレームEFのリム)に設けられている。図7Bに示す構成例2では、パターン光PL1と同じ形状(例えば三角形状)の透光性を持つ光源100a(例えばuLED)が、眼鏡フレームEFに取り付けられた透明なガラス又は樹脂(例えば眼鏡フレームEFのリムに嵌め込まれた透明なガラス又は樹脂)に設けられている。図7Cに示す構成例3では、パターン光PL1と同じ形状(例えば三角形状)の光学素子(例えば回折素子)が、眼鏡フレームEFに取り付けられた透明なガラス又は樹脂(例えば眼鏡フレームEFのリムに嵌め込まれた透明なガラス又は樹脂)に設けられ、該光学素子に光源100aからの光が照射される。すなわち、該光学素子が光源100aからの光の形状をパターン光PL1の形状に整形する。なお、図7A~図7Cに示す各構成例において眼鏡フレームがリムレスフレームであってもよい。
 光源駆動部100bは、例えばトランジスタ、コンデンサ、抵抗等の回路素子を含んで構成される。光源駆動部100bは、駆動信号(例えばパルス信号)を生成し、光源100aに印加する。
(撮像系)
 撮像系200は、パターン光PL1が照射された眼球EBを撮像し、その撮像画像を視線検出系300に出力する。撮像系200は、一例として図6に示すように、撮像素子200aを含むカメラである。撮像系200は、撮像素子200aに加えて、パターン光照射系100から眼球EBに照射され該眼球EBで反射されたパターン光PL1を撮像素子200aに集光させる集光素子(例えば集光レンズ、集光ミラー等)と、撮像素子200aの出力信号を処理する信号処理部とを含みうる。さらに、撮像系200は、瞳孔検出用の撮像素子(例えば通常のイメージセンサ)を含みうる。
 撮像素子200aは、一例として、EVS(イベントベースビジョンセンサ)である。EVSは、2次元配置された複数の画素を有している。EVSは、各画素の輝度変化を検出し、輝度変化があった画素のみの輝度値(画素値)を時間情報と組み合わせて出力するビジョンセンサであって、高速動作及び低消費電力を両立するビジョンセンサである。EVSは、一例として、画素毎の光電変換素子(例えば赤外域に感度を持つフォトダイオード)を有する受光回路、アンプ、コンパレータ(比較器)を含む。EVSでは、一例として、入射光が受光回路で電気信号に変換され、アンプで増幅されコンパレータで輝度の閾値によって明転信号(ポジティブイベント)と暗転信号(ネガティブイベント)とに振り分けられて出力される。EVSの出力信号は、信号処理部を介して撮像画像として出力される。EVSは、「イベントセンサ」、「イベントビジョンセンサ」とも呼ばれる。
(視線検出系)
 視線検出系300は、一例として、角膜反射像検出部300aと、瞳孔検出部300bと、視線検出部300cとを含む。視線検出系300は、さらに、記憶部(例えばメモリ)を含みうる。視線検出系300は、例えばCPU、チップセット等のハードウェアで実現される。
 角膜反射像検出部300aは、撮像系200の撮像画像から、パターン光PL1の角膜反射像の特徴点を検出する。詳述すると、角膜反射像検出部300aは、画像処理(例えばエッジ検出、輪郭抽出、濃淡検出等)により撮像系200の撮像画像からパターン光PL1の角膜反射像を検出し、該角膜反射像の特徴点を抽出する。さらに、角膜反射像検出部300aは、基準パターンBPの交点(パターン光PL1の交点)とパターン光PL1の角膜反射像の特徴点とを対応付ける。
 図8は、角膜反射像検出部の機能例1を示すブロック図である。角膜反射像検出部300aは、図8に示すように、特徴点抽出部300a1及び対応付け部300a2を有する。特徴点抽出部300a1は、例えばコーナー検出やDNN(Deep Neural Network)によってパターン光PL1の角膜反射像の特徴点を抽出する。対応付け部300a2は、撮像系200の撮像画像における該特徴点付近の角度及び/又は方向性を示す情報に基づいて、パターン光PL1の角膜反射像の特徴点と基準パターンBPの交点(パターン光PL1の交点)とを対応付け、その対応付けの結果を記憶部(例えばメモリ)に保存及び/又は視線検出部300cに出力する。
 具体的には、図5Aにおいて、眼球EBが例えば水平移動する場合にEVSからパターン光PL1のうち輝度変化があった画素の画素値のみが出力された結果、EVSの撮像画像が図5Bに示すようになる。補足すると、パターン光PL1のうち眼球EBの水平移動に対して輝度変化が生じてEVSの撮像画像に現れるのは、2つの斜辺部からなる逆V字状の角膜反射像PL1i(EVSの出力信号)である。この場合に、特徴点抽出部300a1が、角膜反射像PL1iの2つの斜辺部の交点をパターン光PL1の角膜反射像の特徴点として抽出する。そして、対応付け部300a2が、該特徴点(例えば2つの斜辺部の交点)付近の角度及び/又は方向性を示す情報(例えば鋭角、上向き)から、該特徴点とパターン光PL1の交点とを対応付ける。
 なお、図5Aでは、眼球EBが基準パターンBPの1つの線に平行な方向(例えば水平方向)に移動する場合を例にとって説明したが、眼球EBが基準パターンBPの非平行な3つの線のいずれにも非平行な方向に移動する場合には、EVSの撮像画像には、基準パターンBP(パターン光PL1)の非平行な3つの線が現れることとなる。この場合、基準パターンBPの角膜反射像の特徴点(交点)が3つ検出されうる。
 瞳孔検出部300bは、一例として、画像処理(例えばエッジ検出、輪郭抽出、濃淡検出等)を用いて、瞳孔検出用の撮像素子の撮像画像から瞳孔を抽出し、撮像画像の座標系における瞳孔中心の位置を算出し、その算出結果を記憶部(例えばメモリ)に保存及び/又は視線検出部300cに出力する。
 視線検出部300cは、一例として、撮像系200の撮像画像に基づく瞳孔検出部300bでの検出結果及び角膜反射像検出部300aでの検出結果に基づいて、眼球EBの向きである視線を検出する。
≪視線検出処理1≫
 以下、視線検出装置10等により実施される視線検出処理1について、図9~図13を参照して説明する。図9は、視線検出処理1を説明するためのフローチャートである。
 ステップS1では、キャリブレーション工程が実行される。キャリブレーション工程の詳細は、後述する。
 ステップS2では、視線検出工程が実行される。視線検出工程の詳細は、後述する。ステップS2が実行されるとフローが終了する。
(ステップS1:キャリブレーション工程)
 以下、図9のキャリブレーション工程について図10のフローチャートを参照して説明する。
 最初のステップS1-1では、ユーザの視線を所定方向に向けさせる。具体的には、ユーザに所定の注視点(例えば正面)を見るよう促す通知(例えばHMDによる表示、音声出力装置による音声等)を行い、ユーザの視線を所定方向(例えば正面方向)に向けさせる。
 次のステップS1-2では、パターン光PL1を眼球EBに照射する。具体的には、光源駆動部100bにより光源100aを駆動する。
 次のステップS1-3では、撮像を行う。具体的には、パターン光PL1が照射された眼球EBを瞳孔検出用の撮像素子(例えば通常のイメージセンサ)で撮像する。
 次のステップS1-4では、角膜反射像を検出する。具体的には、角膜反射像検出部300aが、ステップS1-3で撮像された撮像画像から、パターン光PL1の角膜反射像の特徴点を抽出し、該特徴点とパターン光PL1の交点との対応付けを行う。
 次のステップS1-5では、瞳孔を検出する。具体的には、瞳孔検出部300bが、瞳孔検出用の撮像素子の撮像画像から瞳孔PUを抽出し、瞳孔中心の位置を検出する。
 次のステップS1-6では、キャリブレーション値を取得する。具体的には、ステップS1-5で検出された瞳孔中心と、ステップS1-4で検出された、パターン光PL1の交点の角膜反射像との位置関係(図12参照)とを視線方向(例えば正面方向)と紐づけてキャリブレーション値として取得し、記憶部(例えばメモリ)に保存する。
 なお、上記ステップS1-1~S1-6の一連のステップを複数回行ってキャリブレーション値を複数回取得して各回の平均値や中央値を用いることによりキャリブレーション値の精度を高めることができる。この場合、各回のステップS1-1での所定方向を同一方向としてもよいし、異なる方向としてもよい。
(ステップS2:視線検出工程)
 以下、図9の視線検出工程について図13のフローチャートを参照して説明する。
 最初のステップS2-1では、パターン光PL1を眼球EBに照射する。具体的には、光源駆動部100bにより光源100aを駆動する。
 次のステップS2-2では、撮像を行う。具体的には、撮像系200の撮像素子200a(EVS)が、パターン光PL1が照射された眼球EBを撮像し、その撮像画像を出力する(図11B及び図11C参照)。ここで、図11Aは、パターン光PL1が照射された眼球EBを通常の撮像素子NSで撮像した撮像画像を示す。図11Bは、比較的高速で水平移動中にパターン光PL1が照射された眼球をEVSで撮像した画像を示す。図11Cは、比較的低速で水平移動中にパターン光PL1が照射された眼球をEVSで撮像した画像を示す。図11Aでは、パターン光PL1の反射光の画像PL1-NSが明瞭に確認できる。図11Bでは、パターン光PL1の反射光の画像PL1-EVSにおいて2つの斜辺が二重線になって現れ線が太くなるものの、該2つの斜辺とこれらの交点で構成されるコーナーを常時検出できるため、眼球EBの高速移動に対してロバストな検出が可能となる。図11Cでも、パターン光PL1の反射光の画像PL1-EVSにおいて2つの斜辺が二重線になって現れ線が太くなり、さらに水平には輝度変化がほとんど起こらないものの、該2つの斜辺とこれらの交点で構成されるコーナーを常時検出できるため、眼球EBの低速移動に対してロバストな検出が可能となる。
 次のステップS2-3では、角膜反射像を検出する。具体的には、角膜反射像検出部300aがパターン光PL1の角膜反射像の特徴点を抽出し、該特徴点とパターン光PL1の交点との対応付けを行う。
 次のステップS2-4では、瞳孔を検出する。具体的には、瞳孔検出部300bが、瞳孔検出用の撮像素子の撮像画像から瞳孔PUを抽出し、瞳孔中心の位置を検出する。
 次のステップS2-5では、キャリブレーション値に基づいて視線を検出する。具体的には、ステップS2-4で検出された瞳孔中心とステップS2-3で検出された、パターン光PL1の各交点の角膜反射像との位置関係と、キャリブレーション工程(ステップS1)で取得され記憶部に保存されたキャリブレーション値とに基づいて視線方向を求める。
 最後のステップS2-6では、視線検出を終了するか否かを判断する。ここでの判断は、視線検出装置10の電源がオフになったときに肯定され、オンのときは否定され、視線検出(ステップS2-1~S2-5)が再び行われる。
≪視線検出装置の効果≫
 以下、視線検出装置10の効果について説明する。
 本技術の第1実施形態に係る視線検出装置10は、パターン光PL1を眼球EBに照射するパターン光照射系100と、パターン光PL1が照射された眼球EBを撮像する撮像系200と、該撮像系200の撮像画像に基づいて眼球EBの向きである視線を検出する視線検出系300と、を備え、パターン光PL1は、非平行な少なくとも3つの線を有する基準パターンであって、少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンBPに沿う形状を有する。
 この場合、例えば撮像系200の撮像方式がイベントベースビジョン方式である場合に、パターン光PL1が照射された眼球EBがいずれの方向に移動しても、撮像画像においてパターン光PL1の非平行な少なくとも2つの線を検出でき、該少なくとも2つの線が形成する特徴点(例えば交点)を抽出することができる。
 結果として、視線検出装置10によれば、撮像系200の撮像方式によらず検出精度の低下を抑制可能な視線検出装置を提供することができる。なお、視線検出装置10は、撮像系200の撮像方式がイベントベースビジョン方式でない場合(例えば通常のイメージセンサである場合)には、撮像画像においてパターン光PL1の非平行な少なくとも3つの線を検出でき、該少なくとも3つの線が形成する特徴点(例えば交点)を抽出することができる。この場合にも、検出精度の低下を抑制可能な視線検出装置を提供することができる。
 基準パターンBPの少なくとも3つ(例えば3つ)の線の各々は、少なくとも1つ(例えば2つ)の他の線と交差する。これにより、パターン光PL1を撮像方式によらず特徴点を検出可能な極めて簡素な形状とすることができる。この結果、パターン光PL1の生成に用いられる光源や光学素子を極めて簡素な形状とすることができる。
 基準パターンBPの少なくとも3つ(例えば3つ)の線の各々は、少なくとも2つの他の前記線と交差する。これにより、パターン光PL1を撮像方式によらず特徴点を検出可能な簡素な形状とすることができる。この結果、パターン光PL1の生成に用いられる光源や光学素子を簡素な形状とすることができる。
 基準パターンBPは、同一直線上にない少なくとも3つの交点を持つ。これにより、パターン光PL1が照射された眼球EBがいずれの方向に移動しても、撮像画像においてパターン光PL1の少なくとも1つの特徴点(例えば交点)を検出することができ、検出精度を向上することができる。
 視線検出系300は、撮像系200の撮像画像から、パターン光PL1の角膜反射像の特徴点(例えば交点)を検出する角膜反射像検出部300aを含む。これにより、眼球EBの動きに対してロバストな検出が可能となる。
 角膜反射像検出部300aは、撮像系200の撮像画像における基準パターンBPの角膜反射像の特徴点(例えば基準パターンBPの交点)付近の角度及び/又は方向性を示す情報に基づいて、基準パターンBPの交点と特徴点とを対応付ける。これにより、該交点と該特徴点とを精度良く対応付けることができる。
 視線検出系300は、撮像系200の撮像画像及び角膜反射像検出部300aでの検出結果に基づいて視線を検出する。これにより、視線を精度良く検出することができる。
 パターン光照射系100は、パターン光を出射する光源100aを含んでいてもよい。これにより、光源100aを簡素な形状とできるので、光源100aの製造が容易である。
 パターン光照射系100は、光源100aと、光源100aからの光を整形してパターン光PL1を生成する光学素子とを含んでいてもよい。これにより、該光学素子を簡素な形状とできるので、該光学素子の製造が容易である。
 撮像系200は、EVSを含む。これにより、高速及び低消費電力での撮像が可能となる。
<2.本技術の第1実施形態の変形例1に係る視線検出装置>
 図14Aは、本技術の第1実施形態の変形例1に係る視線検出装置からパターン光が照射された眼球を示す図である。図14Bは、該眼球のEVSによる撮像画像を示す図である。
 第1実施形態の変形例1に係る視線検出装置は、図14A及び図14Bに示すように、パターン光照射系100から眼球EBに照射されるパターン光PL2の形状がパターン光PL1の形状と異なる点を除いて、第1実施形態に係る視線検出装置10と同様の構成を有する。
 変形例1では、基準パターンBPは、非平行な少なくとも3つの線(例えば3つの線)が、同一の交点で交差し、且つ、該交点から放射状に延びている。詳述すると、変形例1では、基準パターンBPは、例えばY字を横向きにした形状(Y字を90°回転させた形状)を有する。ここでは、パターン光PL2は、基準パターンBPと完全に一致している。
 変形例1でも、例えば眼球EBが水平方向(横方向)に移動した場合に、EVSによる撮像画像には、パターン光PL2の角膜反射像PL2iには輝度変化のない横線は現れないが、輝度変化のある2つの斜線が現れる。これら2つの斜線の交点を特徴点として抽出することにより、視線を精度良く検出することができる。
 変形例1に係る視線検出装置によれば、第1実施形態に係る視線検出装置10と同様の効果を奏するとともに、基準パターンBPの交点(パターン光PL2の交点)が単一なので、角膜反射像と交点との対応付けが容易であり、より高速での視線検出が可能となる。
<3.本技術の第1実施形態の変形例2に係る視線検出装置>
 図15Aは、本技術の第1実施形態の変形例2に係る視線検出装置からパターン光が照射された眼球を示す図である。図15Bは、該眼球のEVSによる撮像画像を示す図である。
 第1実施形態の変形例2に係る視線検出装置は、図15A及び図15Bに示すように、パターン光照射系100から眼球EBに照射されるパターン光PL3の形状がパターン光PL1の形状と異なる点を除いて、第1実施形態に係る視線検出装置10と同様の構成を有する。
 変形例2では、基準パターンBPは、非平行な少なくとも3つの線が、同一の交点で交差し、且つ、該交点の周りに連続して鋭角を形成している。変形例2では、基準パターンBPは、例えば横向きの矢印の形状を有する。ここでは、パターン光PL3は、基準パターンBPと完全に一致している。
 変形例2でも、例えば眼球EBが水平方向に移動した場合に、EVSによる撮像画像には、パターン光PL3の角膜反射像PL3iには輝度変化のない横線は現れないが、輝度変化のある2つの斜線が現れる。これら2つの斜線の交点を特徴点として抽出することにより、視線を精度良く検出することができる。
 変形例2に係る視線検出装置によれば、第1実施形態に係る視線検出装置10と同様の効果を奏するとともに、基準パターンBPの交点(パターン光PL3の交点)が単一なので、角膜反射像と交点との対応付けが容易であり、より高速での視線検出が可能となる。
<4.本技術の第1実施形態の変形例3に係る視線検出装置>
≪視線検出装置の構成≫
 図16Aは、本技術の第1実施形態の変形例3に係る視線検出装置からパターン光PL5が照射された眼球を示す図である。図16Bは、該眼球のEVSによる撮像画像を示す図である。
 第1実施形態の変形例3に係る視線検出装置は、図16A及び図16Bに示すように、パターン光照射系100から眼球EBに照射されるパターン光PL5の形状がパターン光PL1の形状と異なる点を除いて、第1実施形態に係る視線検出装置10と同様の構成を有する。
 変形例3では、基準パターンBPは、非平行な少なくとも3つ(例えば4つ)の線の各々と少なくとも2つ(例えば2つ)の他の線とが交差している。変形例3では、基準パターンBPは、例えば非平行な四辺を持ち、一辺が水平方向に略平行な四辺形の形状を有する。基準パターンBPの大きさは、一例として瞳孔PUの大きさ以上とされている。
ここでは、パターン光PL5は、基準パターンBPと完全に一致している。
 変形例3では、例えば眼球EBが水平方向に移動した場合に、EVSによる撮像画像には、パターン光PL5の角膜反射像PL5iには輝度変化のない横線は現れないが、輝度変化のある3つの斜線が現れる(図16B参照)。これら3つの斜線が形成する2つの交点を特徴点として抽出することにより、視線を精度良く検出することができる。
 図17は、角膜反射像検出部の機能例2を示すブロック図である。変形例3に係る視線検出装置では、図17に示すように、角膜反射像検出部300aが、特徴点抽出部300a1、対応付け部300a2及び角膜中心推定部300a3を有している。
 図18は、図17の角膜反射像検出部の動作例を示す図である。特徴点抽出部300a1は、EVSの撮像画像から、パターン光PL5の角膜反射像PL5iの複数の特徴点を抽出する。対応付け部300a2は、特徴点抽出部300a1で抽出された各特徴点とパターン光PL5の各交点とを対応付ける。角膜中心推定部300a3は、特徴点抽出部300a1で抽出され対応付け部300a2で複数の交点と対応付けられた複数の特徴点から、パターン光PL5の対応する複数の交点の角膜上の反射点を求め、各反射点を通る法線ベクトルを求め、複数の法線ベクトルの交点を撮像画像の座標系における角膜中心(角膜COの中心)と推定し、その推定結果を視線検出部300cに出力する。
 瞳孔検出部300bは、一例として、画像処理(例えばエッジ検出、輪郭抽出、濃淡等)を用いて、瞳孔検出用の撮像素子の撮像画像から瞳孔を抽出し、撮像画像の座標系における瞳孔中心の位置を算出し、その算出結果を視線検出部300cに出力する。
 視線検出部300cは、角膜中心推定部300a3の推定結果である角膜中心と、瞳孔検出部300bの検出結果である瞳孔中心とに基づいて視線方向を求める。
≪視線検出処理2≫
 以下、変形例3に係る視線検出装置等により実施される視線検出処理2について、図19を参照して説明する。図19は、視線検出処理2を説明するためのフローチャートである。
 最初のステップS11では、パターン光を眼球EBに照射する。具体的には、光源駆動部100bにより光源100aを駆動する。
 次のステップS12では、撮像を行う。具体的には、撮像系200の撮像素子200a(EVS)が、パターン光が照射された眼球EBを撮像し、その撮像画像を出力する。
 次のステップS13では、角膜反射像を検出する。具体的には、角膜反射像検出部300aが撮像画像からパターン光の角膜反射像の複数の特徴点を抽出し、各角膜反射像とパターン光の各交点との対応付けを行う。
 次のステップS14では、角膜中心を推定する。具体的には、角膜反射像検出部300aがパターン光の角膜反射像の複数の特徴点に基づいて、角膜COの角膜中心を算出する。
 次のステップS15は、瞳孔を検出する。具体的には、瞳孔検出部300bが、瞳孔検出用の撮像素子の撮像画像から瞳孔PUを抽出し、瞳孔中心の位置を検出する。
 次のステップS16では、視線を検出する。具体的には、ステップS14で推定された角膜中心と、ステップS15で検出された瞳孔中心とに基づいて視線方向を求める。
 最後のステップS17では、視線検出を終了するか否かを判断する。ここでの判断は、変形例3に係る視線検出装置の電源がオフになったときに肯定され、オンのときは否定され、視線検出(ステップS11~S16)が再び行われる。
≪視線検出装置の効果≫
 変形例3に係る視線検出装置によれば、パターン光PL5の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出できる。また、パターン光PL5が比較的大きいので、角膜反射像の特徴点の検出が容易である。
<5.本技術の第2実施形態に係る視線検出装置>
 図20Aは、本技術の第2実施形態に係る視線検出装置からパターン光PL1が照射された眼球を示す図である。図20Bは、該眼球のEVSによる撮像画像を示す図である。図21は、本技術の第2実施形態に係る視線検出装置20の機能例を示すブロック図である。
 第2実施形態に係る視線検出装置20は、基準パターンBPが、互いに交差する少なくとも2つ(例えば3つ)の線を含むパターン(例えば三角形状のパターン)を複数(例えば2つ)有する点を除いて、第1実施形態に係る視線検出装置10と同様の構成を有する。
 視線検出装置20では、基準パターンBPは、形状が同一(相似形も含む、以下同様)の少なくとも2つ(例えば2つ)のパターンを含み、該少なくとも2つのパターンは、向きが同一である。ここでは、基準パターンBPに対応するパターン光は、基準パターンBPに完全に一致している。すなわち、基準パターンBPに対応するパターン光は、一例として図20Aに示すように、形状及び向きが同一の複数(例えば2つ)の第1及び第2パターン部PL1A、PL1Bを含んでいる。ここでは、基準パターンBPの各パターン及びパターン光の各パターン部は、一辺が略水平の三角形状とされている。
 図20Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL1Aの角膜反射像PL1Ai及び第2パターン部PL1Bの角膜反射像PL1Biが現れる。各角膜反射像は、1つの交点を持つ逆V字である。
 視線検出装置20では、パターン光照射系100が、図21に示すように、第1及び第2光源100a1、100a2を有している。第1光源100a1は、第1パターン部PL1Aの生成に用いられる。第2光源100a2は、第2パターン部PL1Bの生成に用いられる。第1及び第2光源100a1、100a2は、光源駆動部100bにより駆動される。
 視線検出装置20でも、視線検出処理2が実施される。この際、角膜反射像PL1Aiの特徴点(第1パターン部PL1Aの交点)及び角膜反射像PL1Biの特徴点(第2パターン部PL1Bの交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 視線検出装置20によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。
 なお、視線検出装置20において、パターン光照射系100は、基準パターンBPの複数のパターンのうち交点を検出可能なパターンに対応する、パターン光の一部(特徴点が検出可能なパターン部)のみを眼球EBに選択的に照射することとしてもよい。補足すると、光源部の総発光量が一定の場合、パターン光を複数のパターン部に分割して照射すると、パターン部毎の輝度が下がるため、コントラストが低下し、信号が取得しづらくなる。そこで、パターン光の分割数(但し分割しない場合を分割数1とする)を減らすことにより、コントラストを高くし、信号を取得しやすくすることができる。基準パターンBPの複数のパターンのうち交点が検出可能なパターンか否かは、後述する移動情報推定部300dの推定結果(例えば眼球EBの移動方向)により判別可能である。ここで説明したパターン光の選択的照射方法は、他の実施形態及び変形例に係る視線検出装置にも適用可能である。
<6.本技術の第2実施形態の変形例1に係る視線検出装置>
 図22Aは、本技術の第2実施形態の変形例1に係る視線検出装置からパターン光が照射された眼球を示す図である。図22Bは、該眼球のEVSによる撮像画像を示す図である。図22Cは、該撮像画像から交点を検出する方法を説明するための図である。
 第2実施形態の変形例1に係る視線検出装置は、眼球EBに照射されるパターン光がY字を横向きにした形状(Y字を90°回転させた形状)を持つ第1及び第2パターン部PL2A、PL2Bを有している点を除いて、第2実施形態に係る視線検出装置20と同様の構成を有する。
 図22Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL2Aの角膜反射像PL2Ai及び第2パターン部PL2Bの角膜反射像PL2Biが現れる。各角膜反射像は、1つの交点を持つV字を横向きにした形状(V字を90°回転させた形状)である。
 第2実施形態の変形例1に係る視線検出装置でも、視線検出処理2が実施される。この際、角膜反射像検出部300aが、角膜反射像PL2Aiの特徴点(第1パターン部PL2Aの交点)及び角膜反射像PL2Biの特徴点(第2パターン部PL2Bの交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 第2実施形態の変形例1に係る視線検出装置によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。また、各パターン部を比較的小さくしても、鋭角を大きくとることができるので、特徴点(例えば交点)の検出が容易である(図22C参照)。
<7.本技術の第2実施形態の変形例2に係る視線検出装置>
 図23Aは、本技術の第2実施形態の変形例2に係る視線検出装置からパターン光が照射された眼球を示す図である。図23Bは、該眼球のEVSによる撮像画像を示す図である。
 第2実施形態の変形例2に係る視線検出装置は、図23Aに示すように、眼球EBに照射されるパターン光が、互いに異なる形状を持つ第1及び第2パターン部PL1A、PL1’を有している点を除いて、第2実施形態に係る視線検出装置20と同様の構成を有する。第1パターン部PL1Aは、一辺が略水平な三角形状である。第2パターン部PL1’は、第1パターン部PL1Aと非相似の三角形状であって各辺が第1パターン部PL1Aのいずれの辺とも非平行な三角形状である。
 図23Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL1Aの角膜反射像PL1Ai及び第2パターン部PL1’の角膜反射像PL1’iが現れる。角膜反射像PL1Aiは逆V字状であり、角膜反射像PL1’iは三角形状(第2パターン部PL1’と略同一形状)である。
 第2実施形態の変形例2に係る視線検出装置でも、視線検出処理2が実施される。この際、角膜反射像検出部300aが、角膜反射像PL1Aiの特徴点(第1パターン部PL1Aの交点)及び角膜反射像PL1’iの特徴点(第2パターン部PL1’の交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 第2実施形態の変形例2に係る視線検出装置によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。また、角膜反射像の特徴点を多く検出できるため、より高精度に視線を検出することができる。
<8.本技術の第2実施形態の変形例3に係る視線検出装置>
 図24Aは、本技術の第2実施形態の変形例3に係る視線検出装置からパターン光が照射された眼球を示す図である。図24Bは、該眼球のEVSによる撮像画像を示す図である。
 第2実施形態の変形例3に係る視線検出装置は、図24Aに示すように、眼球EBに照射されるパターン光が、形状が同一であり、且つ、向きが異なる第1及び第2パターン部PL2A、PL2Bを有している点を除いて、第2実施形態に係る視線検出装置20と同様の構成を有する。第1パターン部PL2AはY字を鋭角又は鈍角(例えば鈍角)だけ回転させた形状を持つ。第2パターン部PL2BはY字を横向きにした(Y字を90°回転させた)形状を持つ。すなわち、第2パターン部PL2Bは、Y字を構成する3つの直線の各々が、第1パターン部PL2AのY字を構成する3つの直線のいずれとも非平行である。
 図24Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL2Aの角膜反射像PL2Ai及び第2パターン部PL2Bの角膜反射像PL2Biが現れる。角膜反射像PL1AiはY字を鈍角だけ回転させた形状(第1パターン部PL2Aと略同一の形状)を持つ。角膜反射像PL2BiはV字を横向きにした形状(V字を90°回転させた形状)を持つ。
 第2実施形態の変形例3に係る視線検出装置でも、視線検出処理2が実施される。この際、角膜反射像検出部300aが、角膜反射像PL2Aiの特徴点(第1パターン部PL2Aの交点)及び角膜反射像PL2Biの特徴点(第2パターン部PL2Bの交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 第2実施形態の変形例3に係る視線検出装置によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。
<9.本技術の第2実施形態の変形例4に係る視線検出装置>
 図25Aは、本技術の第2実施形態の変形例4に係る視線検出装置からパターン光が照射された眼球を示す図である。図25Bは、該眼球のEVSによる撮像画像を示す図である。
 第2実施形態の変形例4に係る視線検出装置は、図25Aに示すように、眼球EBに照射されるパターン光が、形状が同一であり、且つ、向きが異なる第1及び第2パターン部PL4A、PL4Bを有している点を除いて、第2実施形態に係る視線検出装置20と同様の構成を有する。第1パターン部PL4AはV字を鋭角又は鈍角(例えば鈍角)だけ回転させた形状を持つ。第2パターン部PL4BはV字を鋭角又は鈍角(例えば鈍角)だけ第1パターン部PL4Aとは異なる向きとなるように回転させた形状を持つ。すなわち、第2パターン部PL4Bは、V字を構成する2つの直線の各々が、第1パターン部PL4AのV字を構成する2つの直線のいずれとも非平行である。
 図25Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL4Aの角膜反射像PL4Ai及び第2パターン部PL4Bの角膜反射像PL4Biが現れる。角膜反射像PL4Aiは、第1パターン部PL4Aと略同一の形状を持つ。角膜反射像PL4Biは第2パターン部PL4Bと略同一の形状を持つ。
 第2実施形態の変形例4に係る視線検出装置では、視線検出処理1が実施される。この際、角膜反射像検出部300aが、角膜反射像PL4Aiの特徴点(第1パターン部PL4Aの交点)及び/又は角膜反射像PL4Biの特徴点(第2パターン部PL4Bの交点)を抽出する。
 第2実施形態の変形例4に係る視線検出装置によれば、パターン光を極めて簡素な形状としながらも角膜反射像の少なくとも1つの特徴点を常時抽出でき、ひいては視線を常時検出しうる。
<10.本技術の第2実施形態の変形例5に係る視線検出装置>
 図26Aは、本技術の第2実施形態の変形例5に係る視線検出装置からパターン光が照射された眼球を示す図である。図26Bは、該眼球のEVSによる撮像画像を示す図である。
 第2実施形態の変形例5に係る視線検出装置は、図26Aに示すように、眼球EBに照射されるパターン光が、互いに形状が異なる第1及び第2パターン部PL1A、PL4Aを有している点を除いて、第2実施形態に係る視線検出装置20と同様の構成を有する。第1パターン部PL1Aは一辺が略水平の三角形状を持つ。第2パターン部PL4Aは逆V字の形状を持つ。第2パターン部PL4Aの各線は、第1パターン部PL1Aの三辺のいずれとも非平行である。
 図26Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL1Aの角膜反射像PL1Ai及び第2パターン部PL4Aの角膜反射像PL4Aiが現れる。角膜反射像PL1Aiは、第1パターン部PL1Aの横線が欠けたような形状を持つ。角膜反射像PL4Aiは、第2パターン部PL4Aと略同一の形状を持つ。
 第2実施形態の変形例5に係る視線検出装置でも、視線検出処理2が実施される。この際、角膜反射像検出部300aが、角膜反射像PL1Aiの特徴点(第1パターン部PL1Aの交点)及び角膜反射像PL4Aiの特徴点(第2パターン部PL4Aの交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 第2実施形態の変形例5に係る視線検出装置によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。
<11.本技術の第3実施形態に係る視線検出装置>
 図27Aは、本技術の第3実施形態に係る視線検出装置からパターン光が照射された眼球を示す図である。図27Bは、該眼球のEVSによる撮像画像を示す図である。図28は、本技術の第3実施形態に係る視線検出装置30の機能例を示すブロック図である。
 第3実施形態に係る視線検出装置30は、基準パターンBPが、互いに交差する少なくとも2つ(例えば2つ)の線を含むパターンを複数(例えば3つ)有する点を除いて、第1実施形態に係る視線検出装置10と同様の構成を有する。
 視線検出装置30では、基準パターンBPは、形状が同一の少なくとも2つ(例えば3つ)のパターンを含み、該少なくとも2つのパターンは、向きが異なる。ここでは、基準パターンBPに対応するパターン光は、基準パターンBPに完全に一致している。すなわち、基準パターンBPに対応するパターン光は、一例として図27Aに示すように、形状が同一で向きが異なる複数(例えば3つ)の第1~第3パターン部PL4A、PL4B、PL4Cを含んでいる。ここでは、基準パターンBPの各パターン及びパターン光の各パターン部は、略V字状である。詳述すると、一例として、各パターン部のV字を構成する2つの直線の各々は、他のパターン部のV字を構成する2つの直線のいずれとも非平行である。第3パターン部PL4Cの一辺が略水平である。
 図27Bに示すように、例えば眼球EBが水平移動したときEVSの撮像画像には、第1パターン部PL4Aの角膜反射像PL4Ai、第2パターン部PL4Bの角膜反射像PL4Bi及び第3パターン部PL4Cの角膜反射像PL4Ciが現れる。角膜反射像PL4Ai、PL4Biは、1つの交点を持つV字である。角膜反射像PL4Ciは、1つの直線である。
 視線検出装置30では、パターン光照射系100が、図28に示すように、第1~第3光源100a1、100a2、100a3を有している。第1光源100a1は、第1パターン部PL4Aの生成に用いられる。第2光源100a2は、第2パターン部PL4Bの生成に用いられる。第3光源100a3は、第3パターン部PL4Cの生成に用いられる。第1~第3光源100a1、100a2、100a3は、光源駆動部100bにより駆動される。
 視線検出装置30でも、視線検出処理2が実施される。この際、角膜反射像PL4Aiの特徴点(第1パターン部PL4Aの交点)、角膜反射像PL4Biの特徴点(第2パターン部PL4Bの交点)及び角膜反射像PL4Ciの特徴点(第3パターン部PL4Cの交点)を抽出し、これらの特徴点を用いて角膜中心を算出する。
 視線検出装置30によれば、パターン光の角膜反射像の少なくとも2つの特徴点を常時検出できるので、キャリブレーションを要しない視線検出処理2により視線を検出可能である。
(角膜反射像検出部の検出方法の例)
 上記各実施形態及び各変形例において、角膜反射像検出部300aは、EVSの撮像画像において輝度が上がった画素を特徴点として抽出してもよい。図29は、角膜反射像検出部の機能例3を示すブロック図である。角膜反射像検出部300aの構成例3は、図29に示すように、特徴点抽出部300a1及び対応付け部300a2に加えて、輝度比較部300a4を有している。輝度比較部300a4は、特徴点抽出部300a1で抽出され対応付け部300a2で対応付けされた特徴点を構成する複数の画素の各々の現フレームでの輝度と前フレームでの輝度を比較し、該画素のうち輝度が上がった画素のみを特徴点を構成する画素として抽出する。これにより、より厳密に特徴点を抽出することができる。
<12.本技術の第4実施形態に係る視線検出装置>
図30は、本技術の第4実施形態に係る視線検出装置40の機能例を示すブロック図である。
 第4実施形態に係る視線検出装置40は、図30に示すように、視線検出系300が、移動情報推定部300dを更に有している点を除いて、第1実施形態に係る視線検出装置10と概ね同様の構成を有する。
 移動情報推定部300dは、角膜反射像検出部300aでの検出結果に基づいて、眼球EBの移動量、移動方向及び移動速度の少なくとも1つを推定する。
(移動情報推定部の機能例1)
 図31は、移動情報推定部300dの機能例1を示すブロック図である。図31に示す移動情報推定部300dは、移動量推定部300d1及び移動方向推定部300d2を有する。移動量推定部300d1は、例えば輝度が小さくなった特徴点と輝度が大きくなった特徴点を抽出し、これら2つの特徴点の位置関係から、眼球EBの移動量を推定することができる。移動方向推定部300d2は、該位置関係から眼球EBの移動方向を推定することもできるし、例えば図32に示すように角膜反射像PL4iの特徴点(交点)で交差する2つの直線が成す鋭角の向きやイベントの極性(明転及び暗転の別)から、眼球EBの移動方向を推定することもできる。
 視線検出装置40では、視線検出部300cが、視線検出処理1を実施する。この際、キャリブレーション工程及び/又は視線検出工程において、角膜反射像の特徴点及び瞳孔中心に加えて移動情報推定部300dで推定された眼球EBの移動量及び移動方向を、視線と対応付けることにより、視線をより高精度に求めることができる。
(移動情報推定部の機能例2)
 図33は、移動情報推定部300dの機能例2を示すブロック図である。図33に示す移動情報推定部300dは、移動方向推定部300d2及び移動速度推定部300d3を有する。移動方向推定部300d2は、例えば輝度が小さくなった特徴点と輝度が大きくなった特徴点を抽出し、これら2つの特徴点の位置関係から、眼球EBの移動方向を推定することもできるし、例えば図32に示すように角膜反射像PL4iの特徴点(交点)で交差する2つの直線が成す鋭角の向きやイベントの極性(明転及び暗転の別)から、眼球EBの移動方向を推定することもできる。移動速度推定部300d3は、例えば輝度が小さくなった特徴点と輝度が大きくなった特徴点を抽出し、これら2つの特徴点の位置関係、EVSのフレームレート等から、眼球EBの移動速度を推定してもよい。
 図33に示す移動情報推定部300dの機能例2は、眼球EBの移動方向及び移動速度から眼球EBのターゲットポジション(到達位置)を推定するサッケード推定を行う。図34A及び図34Bは、移動情報推定部300dの機能例2の原理を説明するための図である。図34A及び図34Bは、それぞれ眼球の同じ動きに対する眼球の位置の時間変化及び眼球の速度の時間変化を示す。図34A及び図34Bより、眼球の位置の時間変化及び眼球の最高速度には相関があり、最高速度を検出することで、眼球の到達位置を予測可能である。
(移動情報推定部の機能例3)
 図35は、移動情報推定部300dの機能例3を示すブロック図である。図35に示す移動情報推定部300dは、角膜反射像検出部300aで検出できた(EVSの撮像画像に現れた)、交点に対応する特徴点から角膜反射像検出部300aで検出できなかった(EVSの撮像画像に現れなかった)、交点に対応する特徴点の位置を推定し、その推定結果から眼球EBの移動方向を抽出する。ここでは、移動情報推定部300dは、非検出交点推定部300d4及び移動方向抽出部300d5を含む。例えば図36に示すように、非検出交点推定部300d4は、角膜反射像検出部300aで検出できた、基準パターンBPの交点に対応する特徴点(例えば角膜反射像PL4Biの特徴点)の位置から角膜反射像検出部300aで検出できなかった(EVSの撮像画像に現れなかった)、基準パターンBPの交点に対応する特徴点(例えば角膜反射像PL4Aiの特徴点)の位置を推定し(例えば図36の破線部を推定可能)、その推定結果を出力する。これにより、特徴点を増やすことができ、視線検出処理1を行う上で検出精度を向上でき、視線検出処理2に対応することも可能である。
(瞳孔検出部の機能例)
 図37は、瞳孔検出部300bの機能例を示すブロック図である。図37に示す瞳孔検出部300bは、移動情報取得部300b1及び瞳孔パターン推定部300b2を有する。移動情報取得部300b1は、移動情報推定部300dの推定結果である眼球EBの移動情報(例えば移動量、移動方向及び移動速度の少なくとも1つ)を取得する。瞳孔パターン推定部300b2は、移動情報取得部300b1で取得された眼球EBの移動情報から、瞳孔のパターンを推定し、パターン検出等により、瞳孔を検出する。
 以上説明した視線検出装置40によれば、視線検出系300が移動情報推定部300dを有しているので、視線検出精度の更なる向上が期待できる。
<13.本技術の第2実施形態の変形例6、7に係る視線検出装置>
 図38A及び図38Bは、それぞれ本技術の第2実施形態の変形例6、7に係る視線検出装置からパターン光が照射された眼球を示す図である。
 変形例6に係る視線検出装置では、図38Aに示すように、眼球EBに照射されるパターン光が、形状が同一(相似形も含む)且つ向きが異なる矩形の第1及び第2パターン部PL6A、PL6Bを含む。
 変形例7に係る視線検出装置では、図38Bに示すように、眼球EBに照射されるパターン光が、矩形状の第1パターン部PL6及び三角形状の第2パターン部PL1’を含む。
<14.本技術の第1実施形態の変形例4~8に係る視線検出装置>
 図39A~図39Eは、それぞれ本技術の第1実施形態の変形例4~8に係る視線検出装置からパターン光が照射された眼球を示す図である。図39A~図39Eの例では、パターン光に対応する基準パターンBPがいずれも放射状(例えばY字状)である。
 図39Aに示す変形例4では、パターン光PL2が基準パターンBPに完全に一致している。
 図39Bに示す変形例5では、パターン光PL2は基準パターンBPに沿う形状であって、3つの直線のうち2つの直線が交差し、その交点から1つの直線が幾分(例えば10画素以内)離れた形状を有する。
 図39Cに示す変形例6では、パターン光PL2は、基準パターンBPに沿う形状であって、基準パターンBPの交点に対応する部分が図形(例えば円)で置き換わった形状を有する。
 図39Dに示す変形例7では、パターン光PL2は基準パターンBPに沿う形状であって、基準パターンBPの交点に対応する部分が除去された形状を有する。
 図39Eに示す変形例8では、パターン光PL2は基準パターンBPに沿う形状であって、基準パターンBPの交点に対応する部分が除去され、且つ、その除去された部分に図形(例えば円)が配置された形状を有する。
<15.本技術の第1実施形態の変形例9に係る視線検出装置>
 図40は、本技術の第1実施形態の変形例9に係る視線検出装置からパターン光が照射された眼球を示す図である。図40に示す変形例9では、パターン光PL7は、1点で交差する非平行な3つの直線を有している。該3つの直線の交点から4つの線分が放射状に延びている。
<16.本技術の第1実施形態の変形例10~12に係る視線検出装置>
 図41A~図41Cは、それぞれ本技術の第1実施形態の変形例10~12に係る視線検出装置からパターン光が照射された眼球を示す図である。
 図41Aに示す変形例10では、パターン光PL9が3つの交点を持つA字状の形状を有している。
 図41Bに示す変形例11では、パターン光PL10が3つの交点を持つ、A字の横線を左右に延長した形状を有している。
 図41Cに示す変形例12では、パターン光PL11が3つの交点を持つ、A字の横線を左右に延長し、且つ、A字の2つの斜線を上方に延長した形状を有している。
<17.本技術の第1実施形態の変形例13~15に係る視線検出装置>
 図42A~図42Cは、それぞれ本技術の第1実施形態の変形例13~15に係る視線検出装置からパターン光が照射された眼球を示す図である。
 図42Aに示す変形例13では、パターン光PL12が、1つの曲線と2つの直線とが1点で交差し、その交点から放射状に延びる形状を有している。なお、パターン光PL12は、1つの曲線と2つの直線とが複数の点で交差していてもよい。
 図42Bに示す変形例14では、パターン光PL13が、2つの曲線と1つの直線とが1点で交差する形状を有している。なお、パターン光PL13は、2つの曲線と1つの直線とが複数の点で交差していてもよい。
 図42Cに示す変形例15では、パターン光PL14が、3つの曲線が1点で交差する形状を有している。なお、パターン光PL14は、3つの曲線が複数の点で交差していてもよい。
<18.パターン光のバリエーション1>
 図43は、本技術に係る視線検出装置に好適なパターン光のバリエーション1及び該パターン光の角膜反射像を示す図である。図43には、三角形、五角形、六角形等の多角形の他、星形のパターン光が示されている。図43において、各パターン光の下方には、眼球の移動方向(例えば水平方向、鉛直方向及び斜め方向)毎のEVSによる撮像画像が示されている。図43から、これらいずれの形状のパターン光も、眼球の水平移動、鉛直移動及び斜め移動に対して、少なくとも1つ角膜反射像の特徴点(交点)を検出可能であることが分かる。
<19.パターン光のバリエーション2>
 図44は、本技術に係る視線検出装置に好適なパターン光のバリエーション2及び該パターン光の角膜反射像を示す図である。図44には、三角形枠状、五角形枠状、六角形枠状等の多角形枠状の他、星形枠状のパターン光が示されている。図44において、各パターン光の下方には、眼球の移動方向(例えば水平方向、鉛直方向及び斜め方向)毎のEVSによる撮像画像が示されている。図44から、これらいずれの形状のパターン光も、眼球の水平移動、鉛直移動及び斜め移動に対して、少・BR>ネくとも1つ角膜反射像の特徴点(交点)を検出可能であることが分かる。
<20.本技術のその他の変形例>
 例えば光源及び光学素子の数は、適宜変更可能である。光源及び光学素子の数は、パターン光の分割数(パターン部の数)に応じて決めることができる。具体的には、光源がパターン光のパターン部を出射する場合には、光源の数をパターン部の数と同数に設定してもよい。光源から出射された光を光学素子でパターン部に整形する場合には、光学素子の数をパターン部の数と同数にし、且つ、光源の数をパターン部の数以下に設定してもよい。
 例えば撮像系の撮像素子200aは、EVSに限らず、通常のイメージセンサであってもよい。
 上記各実施形態及び各変形例に係る視線検出装置において、光源及び光学素子の種類、個数、形状、配置等は、適宜変更可能である。
 上記各実施形態及び各変形例に係る視線検出装置の少なくとも一部を矛盾しない範囲で相互に組み合わせてもよい。
 また、本技術は、以下のような構成をとることもできる。
(1)パターン光を眼球に照射するパターン光照射系と、
 前記パターン光が照射された前記眼球を撮像する撮像系と、
 前記撮像系の撮像画像に基づいて前記眼球の向きである視線を検出する視線検出系と、 を備え、
 前記パターン光は、非平行な少なくとも3つの線を有する基準パターンであって、前記少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンに沿う形状を有する、視線検出装置。
(2)前記少なくとも3つの線の各々は、少なくとも1つの他の前記線と交差する、(1)に記載の視線検出装置。
(3)前記少なくとも3つの線の各々は、少なくとも2つの他の前記線と交差する、(1)又は(2)に記載の視線検出装置。
(4)前記基準パターンは、同一直線上にない少なくとも3つの前記交点を持つ、(1)~(3)のいずれか1つに記載に視線検出装置。
(5)前記少なくとも3つの線が、同一の前記交点で交差する、(1)~(4)のいずれか1つに記載の視線検出装置。
(6)前記少なくとも3つの線は、前記交点の周りに連続して鋭角を形成する、(1)~(5)のいずれか1つに記載の視線検出装置。
(7)前記少なくとも3つの線は、前記交点から放射状に延びる、(5)又は(6)に記載の視線検出装置。
(8)前記基準パターンは、互いに交差する前記少なくとも2つの線を含むパターンを複数有する、(1)~(7)のいずれか1つに記載の視線検出装置。
(9)複数の前記パターンは、形状が同一の少なくとも2つの前記パターンを含む、(8)に記載の視線検出装置。
(10)前記複数のパターンは、向きが同一である、(9)に記載の視線検出装置。
(11)前記複数のパターンは、向きが異なる、(9)に記載の視線検出装置。
(12)複数の前記パターンは、形状が異なる少なくとも2つの前記パターンを含む、請(8)に記載の視線検出装置。
(13)前記パターン光照射系は、前記複数のパターンのうち前記交点を検出可能な前記パターンに対応する、前記パターン光の一部を前記眼球に照射する、(8)~(12)のいずれか1つに記載の視線検出装置。
(14)前記視線検出系は、前記撮像画像から、前記パターン光の角膜反射像の特徴点を検出する角膜反射像検出部を含む、(1)~(13)のいずれか1つに記載の視線検出装置。
(15)前記角膜反射像検出部は、前記撮像画像における前記角膜反射像の前記特徴点付近の角度及び/又は方向性を示す情報に基づいて、前記交点と前記特徴点とを対応付ける、(14)に記載の視線検出装置。
(16)前記角膜反射像検出部は、前記撮像画像において輝度が上がった画素を、前記特徴点を構成する画素として抽出する、(14)又は(15)に記載の視線検出装置。
(17)前記視線検出系は、前記角膜反射像検出部での検出結果に基づいて、前記眼球の移動量、移動方向及び移動速度の少なくとも1つを推定する移動情報推定部を含む、(14)~(16)のいずれか1つに記載の視線検出装置。
(18)前記移動情報推定部は、前記角膜反射像検出部で検出できた、前記交点に対応する前記特徴点から前記角膜反射像検出部で検出できなかった、前記交点に対応する前記特徴点の位置を推定し、その推定結果から前記眼球の移動方向を抽出する、(17)に記載の視線検出装置。
(19)前記視線検出系は、少なくとも前記撮像系の撮像画像及び前記角膜反射像検出部での検出結果に基づいて前記視線を検出する、(14)~(18)のいずれか1つに記載の視線検出装置。
(20)前記パターン光照射系は、前記パターン光を出射する光源を含む、(1)~(19)のいずれか1つに記載の視線検出装置。
(21)前記パターン光照射系は、光源と、前記光源からの光を整形して前記パターン光を生成する光学素子と、を含む、(1)~(19)のいずれか1つに記載の視線検出装置。
(22)前記撮像系は、イベントセンサを含む、(1)~(21)のいずれか1つに記載の視線検出装置。
10、20、30、40:視線検出装置
100:パターン光照射系
100a:光源
100a1:第1光源(光源)
100a2:第2光源(光源)
100a3:第3光源(光源)
200:撮像系
300:視線検出系
300a:角膜反射像検出部
300d:移動情報推定部 

Claims (20)

  1.  パターン光を眼球に照射するパターン光照射系と、
     前記パターン光が照射された前記眼球を撮像する撮像系と、
     前記撮像系の撮像画像に基づいて前記眼球の向きである視線を検出する視線検出系と、
     を備え、
     前記パターン光は、非平行な少なくとも3つの線を有する基準パターンであって、前記少なくとも3つの線のうち少なくとも2つの線が交差する交点を持つ基準パターンに沿う形状を有する、視線検出装置。
  2.  前記少なくとも3つの線の各々は、少なくとも1つの他の前記線と交差する、請求項1に記載の視線検出装置。
  3.  前記少なくとも3つの線の各々は、少なくとも2つの他の前記線と交差する、請求項1に記載の視線検出装置。
  4.  前記基準パターンは、同一直線上にない少なくとも3つの前記交点を持つ、請求項1に記載の視線検出装置。
  5.  前記少なくとも3つの線が、同一の前記交点で交差する、請求項1に記載の視線検出装置。
  6.  前記少なくとも3つの線は、前記交点の周りに連続して鋭角を形成する、請求項5に記載の視線検出装置。
  7.  前記少なくとも3つの線は、前記交点から放射状に延びる、請求項5に記載の視線検出装置。
  8.  前記基準パターンは、互いに交差する前記少なくとも2つの線を含むパターンを複数有する、請求項1に記載の視線検出装置。
  9.  複数の前記パターンは、形状が同一の少なくとも2つの前記パターンを含む、請求項8に記載の視線検出装置。
  10.  複数の前記パターンは、形状が異なる少なくとも2つの前記パターンを含む、請求項8に記載の視線検出装置。
  11.  前記パターン光照射系は、複数の前記パターンのうち前記交点を検出可能な前記パターンに対応する、前記パターン光の一部を前記眼球に照射する、請求項8に記載の視線検出装置。
  12.  前記視線検出系は、前記撮像画像から、前記パターン光の角膜反射像の特徴点を検出する角膜反射像検出部を含む、請求項1に記載の視線検出装置。
  13.  前記角膜反射像検出部は、前記撮像画像における前記角膜反射像の前記特徴点付近の角度及び/又は方向性を示す情報に基づいて、前記交点と前記特徴点とを対応付ける、請求項12に記載の視線検出装置。
  14.  前記角膜反射像検出部は、前記撮像画像において輝度が上がった画素を、前記特徴点を構成する画素として抽出する、請求項12に記載の視線検出装置。
  15.  前記視線検出系は、前記角膜反射像検出部での検出結果に基づいて、前記眼球の移動量、移動方向及び移動速度の少なくとも1つを推定する移動情報推定部を含む、請求項12に記載の視線検出装置。
  16.  前記移動情報推定部は、前記角膜反射像検出部で検出できた、前記交点に対応する前記特徴点から前記角膜反射像検出部で検出できなかった、前記交点に対応する前記特徴点の位置を推定し、その推定結果から前記眼球の移動方向を抽出する、請求項15に記載の視線検出装置。
  17.  前記視線検出系は、少なくとも前記撮像系の撮像画像及び前記角膜反射像検出部での検出結果に基づいて前記視線を検出する、請求項12に記載の視線検出装置。
  18.  前記パターン光照射系は、前記パターン光を出射する光源を含む、請求項1に記載の視線検出装置。
  19.  前記パターン光照射系は、
     光源と、
     前記光源からの光を整形して前記パターン光を生成する光学素子と、
     を含む、請求項1に記載の視線検出装置。
  20.  前記撮像系は、イベントセンサを含む、請求項1に記載の視線検出装置。 
PCT/JP2023/018364 2022-06-27 2023-05-17 視線検出装置 WO2024004416A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-102503 2022-06-27
JP2022102503 2022-06-27

Publications (1)

Publication Number Publication Date
WO2024004416A1 true WO2024004416A1 (ja) 2024-01-04

Family

ID=89382613

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018364 WO2024004416A1 (ja) 2022-06-27 2023-05-17 視線検出装置

Country Status (1)

Country Link
WO (1) WO2024004416A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319701A (ja) * 1993-05-11 1994-11-22 Fuji Xerox Co Ltd 視線認識装置
JPH08238222A (ja) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd 視線認識装置
JP2005245598A (ja) * 2004-03-02 2005-09-15 Tokai Univ 眼球運動データ較正係数演算装置、眼球運動データ較正係数演算方法および眼球運動データ較正係数演算プログラム
JP2008517671A (ja) * 2004-10-22 2008-05-29 アキュフォーカス・インコーポレーテッド 光学装置を目の軸に位置合わせするためのシステム及び方法
JP2013528406A (ja) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 観察者の視線を追跡するシステム及び方法
JP2014188322A (ja) * 2013-03-28 2014-10-06 Panasonic Corp 視線検出装置、視線検出方法及びプログラム
JP2018128749A (ja) * 2017-02-06 2018-08-16 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
JP2019128748A (ja) * 2018-01-24 2019-08-01 日本放送協会 視線校正データ生成装置、視線測定装置およびそれらのプログラム
WO2019235148A1 (ja) * 2018-06-04 2019-12-12 株式会社ニデック 眼科測定装置
JP2020536309A (ja) * 2017-09-28 2020-12-10 アップル インコーポレイテッドApple Inc. イベントカメラデータを使用するアイトラッキングの方法及び装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06319701A (ja) * 1993-05-11 1994-11-22 Fuji Xerox Co Ltd 視線認識装置
JPH08238222A (ja) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd 視線認識装置
JP2005245598A (ja) * 2004-03-02 2005-09-15 Tokai Univ 眼球運動データ較正係数演算装置、眼球運動データ較正係数演算方法および眼球運動データ較正係数演算プログラム
JP2008517671A (ja) * 2004-10-22 2008-05-29 アキュフォーカス・インコーポレーテッド 光学装置を目の軸に位置合わせするためのシステム及び方法
JP2013528406A (ja) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 観察者の視線を追跡するシステム及び方法
JP2014188322A (ja) * 2013-03-28 2014-10-06 Panasonic Corp 視線検出装置、視線検出方法及びプログラム
JP2018128749A (ja) * 2017-02-06 2018-08-16 国立大学法人神戸大学 視線計測装置、視線計測方法および視線計測プログラム
JP2020536309A (ja) * 2017-09-28 2020-12-10 アップル インコーポレイテッドApple Inc. イベントカメラデータを使用するアイトラッキングの方法及び装置
JP2019128748A (ja) * 2018-01-24 2019-08-01 日本放送協会 視線校正データ生成装置、視線測定装置およびそれらのプログラム
WO2019235148A1 (ja) * 2018-06-04 2019-12-12 株式会社ニデック 眼科測定装置

Similar Documents

Publication Publication Date Title
US20180160079A1 (en) Pupil detection device
US8398239B2 (en) Wearable eye tracking system
US10698482B2 (en) Gaze tracking using non-circular lights
US20240012478A1 (en) Efficient image capturing based on eyelid position
TWI543745B (zh) 用於以逆反射進行瞳孔追蹤的光學陣列系統及方法
US20130285901A1 (en) System and method for tracking gaze at distance
JP6346525B2 (ja) 視線検出装置
US20190295273A1 (en) Hybrid depth detection and movement detection
JP6327753B2 (ja) 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法
US10789714B2 (en) Apparatus and method for detecting reflection
US20190297316A1 (en) Active stereo matching for depth applications
JP2015194884A (ja) 運転者監視システム
Stoffregen et al. Event-based kilohertz eye tracking using coded differential lighting
US20200064627A1 (en) Illumination assembly with in-field micro devices
JP2018163481A (ja) 顔認識装置
EP4091092A1 (en) Systems and methods for facial expression tracking
WO2018164104A1 (ja) 眼部画像処理装置
US10748301B2 (en) Corneal reflex position detection device, eye-gaze tracking device, and corneal reflex position detection method
WO2022214737A1 (en) Gaze-tracking system and method employing selective glints
WO2024004416A1 (ja) 視線検出装置
JP6011173B2 (ja) 瞳孔検出装置および瞳孔検出方法
JP2016095584A (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP6687195B2 (ja) 眼部画像処理装置
WO2017154370A1 (ja) 視線検出装置および視線検出方法
US20240094811A1 (en) Tracking system using a differential camera with a co-aligned light source assembly

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23830868

Country of ref document: EP

Kind code of ref document: A1