WO2021210235A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2021210235A1
WO2021210235A1 PCT/JP2021/002814 JP2021002814W WO2021210235A1 WO 2021210235 A1 WO2021210235 A1 WO 2021210235A1 JP 2021002814 W JP2021002814 W JP 2021002814W WO 2021210235 A1 WO2021210235 A1 WO 2021210235A1
Authority
WO
WIPO (PCT)
Prior art keywords
eyepiece
line
detection
light
sight
Prior art date
Application number
PCT/JP2021/002814
Other languages
English (en)
French (fr)
Inventor
山本 英明
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202180028226.0A priority Critical patent/CN115427883A/zh
Publication of WO2021210235A1 publication Critical patent/WO2021210235A1/ja
Priority to US17/954,470 priority patent/US20230013134A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Definitions

  • the present invention relates to an electronic device having a line-of-sight detection function.
  • Cameras including video cameras that can detect the user's line of sight (line-of-sight direction) with the line-of-sight detection function and select a focus-finding point based on the line-of-sight detection result have been put into practical use. Further, a camera having an eyepiece detection function has been put into practical use so that the line-of-sight detection function is effective only when the user touches the finder (eyepiece).
  • Patent Document 1 discloses a technique for realizing a line-of-sight detection function and an eyepiece detection function by providing a light-emitting diode for eyepiece detection and an eyepiece detection sensor in addition to a light-emitting diode for line-of-sight detection and a line-of-sight detection sensor.
  • Patent Document 2 discloses a technique for performing line-of-sight detection and eyepiece detection with the same sensor.
  • An object of the present invention is to provide an electronic device that realizes an eyepiece detection function and a line-of-sight detection function with low power consumption at low cost.
  • the electronic device of the present invention is an electronic device capable of performing eyepiece detection for detecting an eyepiece on an eyepiece and eyepiece detection for detecting a user's line of sight, and includes an eyepiece detection sensor that receives light for eyepiece detection.
  • the eyepiece detection sensor is different from the eyepiece detection sensor, and has one or more light sources including a line-of-sight detection sensor that receives light for the line-of-sight detection and a light source that is used for both the eyepiece detection and the line-of-sight detection. ..
  • the present invention it is possible to provide an electronic device that realizes an eyepiece detection function and a line-of-sight detection function with low power consumption at low cost.
  • ⁇ Explanation of configuration> 1 (a) and 1 (b) show the appearance of the camera 1 (digital still camera; interchangeable lens camera) according to the present embodiment.
  • the present invention is also applicable to devices that display information such as images and characters, and arbitrary electronic devices that can detect the line of sight of a user who visually recognizes an optical image through an eyepiece optical system.
  • These electronic devices may include, for example, mobile phones, game consoles, tablet terminals, personal computers, clock-type and eyeglass-type information terminals, head-mounted displays, binoculars, and the like.
  • FIG. 1 (a) is a front perspective view
  • FIG. 1 (b) is a rear perspective view
  • the camera 1 has a photographing lens unit 1A and a camera housing 1B.
  • a release button 34 which is an operating member that receives an imaging operation from a user (photographer), is arranged on the camera housing 1B.
  • an eyepiece window frame 121 is arranged on the back surface of the camera housing 1B for the user to look into the display panel 6 described later included in the camera housing 1B. ..
  • the eyepiece window frame 121 forms a viewing port 12 and projects outward (back side) with respect to the camera housing 1B.
  • the operation member 41 is a touch panel that accepts touch operations
  • the operation member 42 is an operation lever that can be pushed down in each direction
  • the operation member 43 is a four-direction key that can be pushed down in each of the four directions.
  • the operation member 41 includes a display panel such as a liquid crystal panel, and has a function of displaying an image on the display panel.
  • FIG. 2 is a block diagram showing the configuration inside the camera 1.
  • the image pickup element 2 is, for example, an image pickup element such as a CCD or a CMOS sensor.
  • the optical image formed on the image pickup surface of the image pickup element 2 is photoelectrically converted by the optical system of the photographing lens unit 1A, and the obtained analog image signal is obtained.
  • Output to the A / D conversion unit (not shown).
  • the photographing lens unit 1A is composed of an optical system including a zoom lens, a focus lens, an aperture, and the like, and while mounted on the camera housing 1B, guides the light from the subject to the image pickup element 2 and captures the subject image in the image pickup element 2. An image is formed on the imaging surface of the lens.
  • the aperture control unit 118, the focus adjustment unit 119, and the zoom control unit 120 each receive an instruction signal from the CPU 3 via the mount contact 117, and drive and control the aperture, focus lens, and zoom lens according to the instruction signal.
  • the CPU 3 included in the camera housing 1B reads a control program for each block included in the camera housing 1B from the ROM of the memory unit 4, expands it into the RAM of the memory unit 4, and executes it. As a result, the CPU 3 controls the operation of each block included in the camera housing 1B.
  • the line-of-sight detection unit 201, the light measuring unit 202, the automatic focus detection unit 203, the signal input unit 204, the eyepiece detection unit 208, the display device drive unit 210, the light source drive unit 205, and the like are connected to the CPU 3. Further, the CPU 3 transmits a signal to the aperture control unit 118, the focus adjustment unit 119, and the zoom control unit 120 arranged in the photographing lens unit 1A via the mount contact 117.
  • the memory unit 4 has a function of storing an image pickup signal from the image pickup element 2 and the line-of-sight detection sensor 30.
  • the CPU 3 extracts feature points required for line-of-sight detection from the eye image according to a predetermined algorithm described later, and calculates the user's line of sight (viewpoint in the visual recognition image) from the positions of the feature points.
  • the eyepiece detection unit 208 transmits the output of the eyepiece detection sensor 50 to the CPU 3.
  • the CPU 3 calculates whether or not the user has made an eye contact with the eyepiece portion (finder; portion of the viewing port 12) according to a predetermined algorithm described later.
  • the photometric unit 202 performs amplification, logarithmic compression, A / D conversion, and the like of a signal obtained from the image sensor 2 that also serves as a photometric sensor, specifically, a luminance signal corresponding to the brightness of the field of view. The result is sent to the CPU 3 as the photometric brightness information.
  • the CPU 3 calculates the distance from the signals of the plurality of detection elements to the subject corresponding to each focus detection point.
  • This is a known technique known as imaging surface phase-difference AF.
  • the light source driving unit 205 drives infrared LEDs 18, 19, 22 to 27, which will be described later, based on a signal (instruction) from the CPU 3. Specifically, the light source driving unit 205 individually or uniformly controls the emission intensity (emission amount; emission brightness) of the infrared LEDs 18, 19, 22 to 27 based on the signal from the CPU 3.
  • the control of the emission intensity shall include switching between lighting and extinguishing.
  • the image processing unit 206 performs various image processing on the image data stored in the RAM. For example, various image processes for developing, displaying, and recording digital image data, such as pixel defect correction processing due to optical systems and imaging elements, demosaiking processing, white balance correction processing, color interpolation processing, and gamma processing, are performed. Will be done.
  • Switch SW1 and switch SW2 are connected to the signal input unit 204.
  • the switch SW1 is a switch for starting the light measurement, distance measurement, line-of-sight detection operation, etc. of the camera 1, and is turned on by the first stroke of the release button 34.
  • the switch SW2 is a switch for starting a shooting operation, and is turned on by the second stroke of the release button 34.
  • the ON signals from the switches SW1 and SW2 are input to the signal input unit 204 and transmitted to the CPU3.
  • the signal input unit 204 also receives operation inputs from the operation member 41 (touch panel), operation member 42 (operation lever), and operation member 43 (four-direction keys) shown in FIG. 1 (b).
  • the recording / output unit 207 records data including image data on a recording medium such as a removable memory card, or outputs these data to an external device via an external interface.
  • the display device drive unit 210 drives the display device 209 based on the signal from the CPU 3.
  • the display devices 209 are display panels 5 and 6, which will be described later.
  • FIG. 3 is a cross-sectional view of the camera 1 cut along the YZ plane formed by the Y-axis and the Z-axis shown in FIG. 1A, and is a diagram conceptually showing the configuration of the camera 1.
  • the shutter 32 and the image sensor 2 are arranged in order in the optical axis direction of the photographing lens unit 1A.
  • a display panel 5 is provided on the back surface of the camera housing 1B, and the display panel 5 displays menus and images for operating the camera 1 and viewing / editing the image obtained by the camera 1.
  • the display panel 5 is composed of a backlit liquid crystal panel, an organic EL panel, or the like.
  • the EVF provided in the camera housing 1B can display menus and images as a normal EVF like the display panel 5, detects the line of sight of the user looking into the EVF, and controls the detection result of the camera 1. It has a structure that can be reflected in.
  • the display panel 6 displays the same display as the display panel 5 (menu display and image display for operating the camera 1 and viewing / editing the image obtained by the camera 1) when the user is looking through the viewfinder. ..
  • the display panel 6 is composed of a backlit liquid crystal panel, an organic EL panel, or the like.
  • the display panel 6 is a rectangle whose size in the X-axis direction (horizontal direction) such as 3: 2, 4: 3, and 16: 9 is longer than the size in the Y-axis direction (vertical direction), similar to an image captured by a general camera. Consists of.
  • the panel holder 7 is a panel holder that holds the display panel 6, and the display panel 6 and the panel holder 7 are adhesively fixed to form the display panel unit 8.
  • the first optical path dividing prism 9 and the second optical path dividing prism 10 are attached and adhered to form an optical path dividing prism unit 11 (optical path dividing member).
  • the optical path dividing prism unit 11 guides the light from the display panel 6 to the eyepiece window 17 provided in the viewing port 12, and conversely transmits the reflected light from the eyes (pupils) guided from the eyepiece window 17 to the line-of-sight detection sensor 30. Guide.
  • the display panel unit 8 and the optical path dividing prism unit 11 are fixed and integrally formed with the mask 33 interposed therebetween.
  • the eyepiece optical system 16 is composed of a G1 lens 13, a G2 lens 14, and a G3 lens 15.
  • the eyepiece window 17 is a transparent member that transmits visible light.
  • the image displayed on the display panel unit 8 is observed through the optical path dividing prism unit 11, the eyepiece optical system 16, and the eyepiece window 17.
  • the illumination windows 20 and 21 are windows for hiding the infrared LEDs 18, 19, 22 to 27 so that they cannot be seen from the outside, and are made of a resin that absorbs visible light and transmits infrared light.
  • FIG. 4A is a perspective view showing the configuration of the EVF portion of the camera 1
  • FIG. 4B is a cross-sectional view of the optical axis of the EVF portion.
  • the infrared LEDs 18, 19, 22, 23, 24, 25, 26, 27 are arranged at different positions and postures so that each of them irradiates infrared light toward the viewing port 12.
  • Infrared LEDs 18, 19, 23, 25 are infrared LEDs (light sources) for short-range illumination.
  • Infrared LEDs 22, 24, 26, 27 are infrared LEDs (light sources) for long-distance lighting. A light source other than the infrared LED may be used.
  • the line-of-sight detection optical system including the diaphragm 28 and the line-of-sight imaging lens 29 guides the infrared reflected light guided from the eyepiece window 17 by the optical path dividing prism unit 11 to the line-of-sight detection sensor 30.
  • the line-of-sight detection sensor 30 is composed of a solid-state image sensor such as a CCD or CMOS.
  • the infrared LEDs 18, 19, 22 to 27 irradiate the user's eyeball with light, and the line-of-sight detection sensor 30 reflects the reflected light from the user's eyeball (reflection emitted from the infrared LEDs 18, 19, 22 to 27 and reflected by the eyeball). Light) is received.
  • the eyepiece detection sensor 50 is composed of a photodiode or the like that can be driven with lower power than the line-of-sight detection sensor 30.
  • the infrared LED 22 also serves as an infrared LED for eyepiece detection. That is, the infrared LED 22 is used for both the line-of-sight detection and the eyepiece detection.
  • the infrared LED 22 irradiates the user with light, and the eyepiece detection sensor 50 receives the diffusely reflected light from the user (diffuse reflected light emitted from the infrared LED 22 and diffusely reflected by the user).
  • the optical image (eyeball image) of the light-irradiated eyeball passes through the eyepiece window 17, the G3 lens 15, the G2 lens 14, and the G1 lens 13. It enters the second optical path dividing prism 10 from the second surface 10a of the second optical path dividing prism 10.
  • a dichroic film that reflects infrared light is formed on the first surface 10b of the second optical path dividing prism, and as shown by the reflected optical path 31b, the eyeball image that enters the second optical path dividing prism 10 is the first. It is reflected on the side of the second surface 10a on the first surface 10b. Then, as shown by the imaging optical path 31c, the reflected eyeball image is totally reflected by the second surface 10a, and exits from the third surface 10c of the second optical path dividing prism 10 to the outside of the second optical path dividing prism 10. It passes through the aperture 28 and is imaged on the line-of-sight detection sensor 30 by the line-of-sight imaging lens 29. For the line-of-sight detection, a corneal reflection image formed by specularly reflecting the light emitted from the infrared LED on the cornea is used together with such an eyeball image.
  • FIG. 5 shows an example of an optical path in which light emitted from infrared LEDs 18, 19, 23, and 25 for short-range illumination is specularly reflected by the cornea 37 of the eyeball and received by the line-of-sight detection sensor 30.
  • FIG. 6 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic view of an optical system for performing line-of-sight detection. As shown in FIG. 6, the infrared LEDs 51a and 51b irradiate the user's eyeball 140 with infrared light.
  • a part of the infrared light emitted from the infrared LEDs 51a and 51b and reflected by the eyeball 140 is imaged in the vicinity of the line-of-sight detection sensor 30 by the line-of-sight imaging lens 29.
  • the positions of the infrared LEDs 51a and 51b, the line-of-sight imaging lens 29, and the line-of-sight detection sensor 30 are adjusted so that the principle of the line-of-sight detection method can be easily understood.
  • FIG. 7A is a schematic view of an eye image (eyeball image projected on the line-of-sight detection sensor 30) captured by the line-of-sight detection sensor 30, and
  • FIG. 7B is a diagram of the line-of-sight detection sensor 30 (for example, CCD). It is a figure which shows the output intensity.
  • FIG. 8 shows a schematic flowchart of the line-of-sight detection operation.
  • the infrared LEDs 51a and 51b emit infrared light toward the user's eyeball 140 at the emission intensity E2 for line-of-sight detection according to the instruction from the light source driving unit 205. ..
  • the user's eyeball image illuminated by infrared light is imaged on the line-of-sight detection sensor 30 through the line-of-sight imaging lens 29 (light receiving lens), and is photoelectrically converted by the line-of-sight detection sensor 30. As a result, a processable electrical signal of the eye image is obtained.
  • step S802 the line-of-sight detection unit 201 (line-of-sight detection circuit) sends an eye image (eye image signal; electrical signal of the eye image) obtained from the line-of-sight detection sensor 30 to the CPU 3.
  • eye image eye image signal; electrical signal of the eye image
  • step S803 the CPU 3 obtains the coordinates of the points corresponding to the corneal reflex images Pd and Pe of the infrared LEDs 51a and 51b and the pupil center c from the eye image obtained in step S802.
  • the infrared light emitted from the infrared LEDs 51a and 51b illuminates the cornea 142 of the user's eyeball 140.
  • the corneal reflex images Pd and Pe formed by a part of the infrared light reflected on the surface of the cornea 142 are focused by the line-of-sight imaging lens 29 and imaged on the line-of-sight detection sensor 30 to form an eye.
  • the light from the ends a and b of the pupil 141 is also imaged on the line-of-sight detection sensor 30 to become the pupil end images a'and b'in the eye image.
  • FIG. 7 (b) shows the luminance information (luminance distribution) of the region ⁇ 'in the eye image of FIG. 7 (a).
  • the horizontal direction of the eye image is the X-axis direction
  • the vertical direction is the Y-axis direction
  • the brightness distribution in the X-axis direction is shown.
  • the coordinates of the corneal reflex images Pd'and Pe'in the X-axis direction (horizontal direction) are Xd and Xe
  • the coordinates of the pupil end images a'and b'in the X-axis direction are Xa and Xb.
  • a brightness intermediate between the above two types of brightness can be obtained.
  • the X-coordinates Xd and Xe of the corneal reflection images Pd'and Pe'and the X-coordinates Xa and Xb of the pupil end images a'and b' can be obtained.
  • the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd'and Pe'
  • the coordinates with extremely low brightness can be obtained as the coordinates of the pupil end images a'and b'. ..
  • the coordinate Xc (center of the pupil image) can be expressed as Xc ⁇ (Xa + Xb) / 2. That is, the coordinates Xc of the pupil center image c'can be calculated from the X coordinates Xa and Xb of the pupil edge images a'and b'. In this way, the coordinates of the corneal reflex images Pd'and Pe'and the coordinates of the pupil center image c'can be estimated.
  • step S804 the CPU 3 calculates the imaging magnification ⁇ of the eyeball image.
  • the imaging magnification ⁇ is a magnification determined by the position of the eyeball 140 with respect to the line-of-sight imaging lens 29, and can be obtained by using a function of the interval (Xd-Xe) between the corneal reflection images Pd'and Pe'.
  • step S805 the CPU 3 calculates the rotation angle of the optical axis of the eyeball 140 with respect to the optical axis of the line-of-sight imaging lens 29.
  • the X coordinate of the midpoint of the corneal reflex image Pd and the corneal reflex image Pe and the X coordinate of the center of curvature O of the cornea 142 substantially coincide with each other. Therefore, assuming that the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Occ, the rotation angle ⁇ x of the eyeball 140 in the ZX plane (plane perpendicular to the Y axis) is as follows. It can be calculated by the formula 1 of.
  • the rotation angle ⁇ y of the eyeball 140 in the ZZ plane can also be calculated by the same method as the calculation method of the rotation angle ⁇ x.
  • step S806 the CPU 3 uses the rotation angles ⁇ x and ⁇ y calculated in step S805 to display the user's viewpoint (the position where the line of sight is poured; the position where the user is looking) in the visual image displayed on the display panel 6. ) Is obtained (estimated).
  • the coordinates of the viewpoint (Hx, Hy) are the coordinates corresponding to the center of the pupil c
  • the coordinates of the viewpoint (Hx, Hy) can be calculated by the following equations 2 and 3.
  • Hx m ⁇ (Ax ⁇ ⁇ x + Bx) ⁇ ⁇ ⁇ (Equation 2)
  • Hy m ⁇ (Ay ⁇ ⁇ y + By) ⁇ ⁇ ⁇ (Equation 3)
  • the parameters m of equations 2 and 3 are constants determined by the configuration of the finder optical system (line-of-sight imaging lens 29, etc.) of the camera 1, and the rotation angles ⁇ x and ⁇ y are converted into the coordinates corresponding to the pupil center c in the visual recognition image. It is assumed that the conversion coefficient is determined in advance and stored in the memory unit 4.
  • the parameters Ax, Bx, Ay, and By are line-of-sight correction parameters that correct individual differences in the line of sight, are acquired by performing a known calibration operation, and are stored in the memory unit 4 before the line-of-sight detection operation starts. And.
  • step S807 the CPU 3 stores the coordinates (Hx, Hy) of the viewpoint in the memory unit 4, and finishes the line-of-sight detection operation.
  • the line-of-sight detection method is not limited to the above method.
  • the number of infrared LEDs used for line-of-sight detection may be more than or less than two, and line-of-sight detection is performed using one or more infrared LEDs including an infrared LED 22 that is used for both line-of-sight detection and eyepiece detection. Is done.
  • the number of infrared LEDs used for both eye-gaze detection and eyepiece detection may be more than or less than two. All infrared LEDs used for line-of-sight detection may also be used for eyepiece detection.
  • FIG. 9 shows a schematic flowchart of the operation of the camera 1 including eyepiece detection.
  • the infrared LED 22 lights up at the light emission intensity E1 for eyepiece detection according to the instruction from the light source driving unit 205.
  • the infrared LEDs 18, 19, 23 to 27 are preferably turned off from the viewpoint of reducing power consumption, but may be turned on.
  • the light emission intensity E1 for eyepiece detection and the light emission intensity E2 for line-of-sight detection may be the same, but may be different. In the present embodiment, it is assumed that the emission intensity E1 is set stronger than the emission intensity E2.
  • the infrared light from the infrared LED 22 is applied to the user, and the diffuse reflected light from the user is received by the eyepiece detection sensor 50.
  • step S902 the CPU 3 determines whether or not the amount of reflected light received by the eyepiece detection sensor 50, that is, the amount of light received by the eyepiece detection sensor 50 (light intensity; light receiving brightness) exceeds the eyepiece determination threshold Th1.
  • the eyepiece determination threshold Th1 is stored in the memory unit 4 in advance.
  • the amount of received light exceeds the eyepiece determination threshold Th1 it is determined that the user has eyepieced the eyepiece portion (finder; portion of the viewing opening 12), and the process proceeds to step S903.
  • the received light amount does not exceed the eyepiece determination threshold Th1
  • step S902 continues until the received amount exceeds the eyepiece determination threshold Th1. Repeat the process.
  • step S903 the line-of-sight detection operation as described in FIG. 8 is performed.
  • the emission intensity of the infrared LED 22 is controlled from the emission intensity E1 for eyepiece detection to the emission intensity E2 for line-of-sight detection.
  • At least one of the infrared LEDs 18, 19, 23 to 27 may be lit.
  • the emission intensity E1 is stronger than the emission intensity E2. That is, the emission intensity of the infrared LED 22 is weakened after the eyepiece is detected.
  • step S904 the CPU 3 determines whether or not the light receiving amount (light receiving intensity; light receiving brightness) of the eyepiece detection sensor 50 exceeds the eyepiece determination threshold Th2.
  • the eyepiece determination threshold Th2 is stored in the memory unit 4 in advance.
  • the eyepiece determination thresholds Th1 and Th2 are determined based on the emission intensity of the infrared LED 22, and since the emission intensity E2 is weaker than the emission intensity E1 in the present embodiment, the eyepiece determination threshold Th2 is set smaller than the eyepiece determination threshold Th1. Will be done. That is, the eyepiece determination threshold is reduced after the eyepiece is detected.
  • step S903 If the amount of received light exceeds the eyepiece determination threshold Th2, it is determined that the user has eyepieced the eyepiece portion (finder; portion of the viewing opening 12), and the process proceeds to step S903. On the other hand, when the amount of received light does not exceed the eyepiece determination threshold Th2, it is determined that the user has taken his / her eyes away from the eyepiece (eyes have been taken off), and the operation of FIG. 9 ends. Alternatively, the process returns to step S901.
  • the infrared LED 22 also serves as an infrared LED for eyepiece detection.
  • the eyepiece detection function and the eyepiece detection function can be realized with a smaller number of light sources as compared with the configuration in which the light source for eyepiece detection and the light source for eyepiece detection are separately provided.
  • the line-of-sight detection sensor 30 Since a two-dimensional eyeball image is used for line-of-sight detection, it is necessary to use a solid-state image sensor such as a CCD or CMOS as the line-of-sight detection sensor 30. On the other hand, in eyepiece detection, it is sufficient to determine whether or not the amount of reflected light from the user has reached a predetermined amount. Therefore, as the eyepiece detection sensor 50, a sensor that can be driven with low power such as a photodiode can be used. .. In the present embodiment, the power consumption of the electronic device is further reduced by using a sensor that can be driven with lower power than the line-of-sight detection sensor 30 as the eyepiece detection sensor 50.
  • the number, arrangement, and type of infrared LEDs are not particularly limited, but in the present embodiment, the eyeballs are in contact with each other by providing an infrared LED that illuminates a short distance and an infrared LED that illuminates a long distance. Highly accurate line-of-sight detection is possible regardless of whether it is near or far from the eye. Further, by providing a plurality of infrared LEDs, the line of sight can be detected more reliably. Specifically, even if the light from one of the infrared LEDs is blocked by an eyelid or the like and the cornea is not irradiated, the line of sight can be detected by illuminating the cornea with the other infrared LED.
  • the diffused light from the user is used for eyepiece detection, while the specularly reflected light from the cornea is used for eyeline detection. Therefore, the light source for eyepiece detection can be arranged with a high degree of freedom, but there are many restrictions on the arrangement of the light source for line-of-sight detection. As an example, consider a case where a light source for detecting the line of sight is arranged on the right side of the eyepiece optical system 16 (the positive direction side of the X axis perpendicular to the optical axis of the eyepiece optical system 16) or on the left side (the negative direction side of the X axis). ..
  • the eyepiece optical system 16 since the eyepiece optical system 16 has a shape longer in the X-axis direction than in the Y-axis direction, the light source is arranged at a position far away from the optical axis of the eyepiece optical system 16. Then, the specularly reflected light outside the eyeball is focused on the line-of-sight detection sensor 30, but the light from the light source is easily vignetted (easily blocked) by the eyelids. In particular, the above-mentioned vignetting is likely to occur when the user rotates the camera 1 by 90 ° around the Z axis to look into the eyepiece optical system 16 and takes a picture in a vertical position.
  • the infrared LED 22 used for both eyepiece detection and line-of-sight detection is arranged on the upper side of the eyepiece optical system 16 (on the positive direction side of the Y axis perpendicular to the optical axis of the eyepiece optical system 16).
  • the occurrence of vignetting is suppressed without impairing the comfort of the eyepiece.
  • the same effect can be obtained by arranging the infrared LED 22 on the lower side (negative direction side of the Y axis) of the eyepiece optical system 16. The same applies to the infrared LEDs 18, 19, 23 to 27.
  • the period during which the line-of-sight detection sensor 30 receives light is not particularly limited, but it is preferable that the line-of-sight detection sensor 30 starts receiving light (operation) after eyepiece detection. By doing so, the line-of-sight detection sensor 30 is not driven until the eyepiece is detected, so that the power consumption of the electronic device can be further reduced.
  • the emission intensity of the infrared LEDs 18, 19, 22 to 27 is not particularly limited, but in the present embodiment, the emission intensity of the infrared LEDs 18, 19, 22 to 27 can be controlled. Therefore, it is possible to light the infrared LEDs 18, 19, 22 to 27 with light emission intensities suitable for each of the line-of-sight detection and the eyepiece detection. Specifically, the emission intensity of the infrared LED 22, which is used for both eyepiece detection and eyepiece detection, is controlled to be weakened after eyepiece detection. As a result, when the eyepiece is detected, the eyepiece can be detected even when the eye is farther away, and when the line of sight is detected, the line of sight can be detected with less power consumption.
  • the emission intensity of the infrared LED 22 may be controlled to increase after the eyepiece detection. By doing so, the eyepiece detection can be performed with less power consumption during the eyepiece detection, and the intensity of the corneal reflex image is strengthened during the eyepiece detection, so that the eyepiece detection that is more resistant to disturbance becomes possible. It is preferable to set the light emission intensity for eyepiece detection and the light emission intensity for line-of-sight detection according to the performance required for the electronic device.
  • the emission intensity of the infrared LEDs 18, 19, 23 to 27 may also be appropriately controlled.
  • the infrared LEDs 18, 19, 23 to 27 are turned off during eyepiece detection (before eyepiece detection), and the emission intensity of infrared LEDs 18, 19, 23 to 27 is set to infrared LED 22 during eyepiece detection (after eyepiece detection). It may be controlled to the same emission intensity as.
  • the eyepiece determination threshold is not particularly limited, but in the present embodiment, the eyepiece determination threshold is controlled according to the control of the emission intensity of the light source (infrared LED). Specifically, since the emission intensity of the infrared LED 22 is weakened after the eyepiece detection, the eyepiece determination threshold value is also reduced after the eyepiece detection. As a result, the eyepiece detection can be suitably (highly accurate) before or after the eyepiece detection.
  • the emission intensity of the infrared LED 22 may be increased after the eyepiece detection, and in that case, it is preferable that the eyepiece determination threshold value is also increased after the eyepiece detection.
  • the above-described embodiment (including modified examples) is merely an example, and the present invention also includes a configuration obtained by appropriately modifying or changing the above-described configuration within the scope of the gist of the present invention. ..
  • the present invention also includes a configuration obtained by appropriately combining the above-described configurations.
  • the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a circuit for example, ASIC
  • Camera 30 Line-of-sight detection sensor 50: Eyepiece detection sensor 18, 19, 22-27: Infrared LED

Abstract

本発明の電子機器は、接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、前記接眼検知のために受光する接眼検知センサーと、前記接眼検知センサーとは別の、前記視線検出のために受光する視線検出センサーと、前記接眼検知と前記視線検出で兼用される光源を含む1つ以上の光源とを有することを特徴とする。

Description

電子機器
 本発明は、視線検出機能を有する電子機器に関する。
 視線検出機能でユーザーの視線(視線方向)を検出し、視線の検出結果に基づいて測距点選択などを行うことが可能なカメラ(ビデオカメラを含む)が実用化されている。さらに、ユーザーがファインダー(接眼部)に接眼したときのみ視線検出機能が有効となるように、接眼検知機能を有するカメラも実用化されている。
 特許文献1には、視線検出のための発光ダイオード、視線検出センサーとは別に、接眼検知のための発光ダイオード、接眼検知センサーを設けることで、視線検出機能と接眼検知機能を実現する技術が開示されている。特許文献2には、視線検出と接眼検知を同一のセンサーで実施する技術が開示されている。
特開平7-199047号公報 特開平9-262209号公報
 しかしながら、特許文献1に開示された従来技術では、視線検出のための部材と接眼検知のための部材とが別々に設られるため、構成が複雑化し、コストが増してしまう。特許文献2に開示された従来技術では、視線検出と接眼検知が同一のセンサーで行われるため、接眼検知の消費電力が増してしまう。
 本発明は、接眼検知機能と視線検出機能を少ない消費電力で実現する電子機器を低コストで提供することを目的とする。
 本発明の電子機器は、接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、前記接眼検知のために受光する接眼検知センサーと、前記接眼検知センサーとは別の、前記視線検出のために受光する視線検出センサーと、前記接眼検知と前記視線検出で兼用される光源を含む1つ以上の光源とを有することを特徴とする。
 本発明によれば、接眼検知機能と視線検出機能を少ない消費電力で実現する電子機器を低コストで提供できる。
本実施形態に係るカメラの外観図である。 本実施形態に係るカメラのブロック図である。 本実施形態に係るカメラの断面図である。 本実施形態に係るカメラのEVF部分を示す図である。 本実施形態に係る赤外LEDから発せられた光の光路を示す図である。 本実施形態に係る視線検出方法の原理を説明するための図である。 本実施形態に係る眼画像を示す図である。 本実施形態に係る視線検出動作のフローチャートである。 本実施形態に係る接眼検知を含む動作のフローチャートである。
 以下、添付の図面を参照して本発明の好適な実施形態を説明する。
 <構成の説明>
 図1(a),1(b)は、本実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。なお、本発明は、画像、文字等の情報を表示するデバイスや、接眼光学系を通して光学像を視認するユーザーの視線を検出することが可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、ヘッドマウントディスプレイ、双眼鏡などが含まれてよい。
 図1(a)は正面斜視図であり、図1(b)は背面斜視図である。図1(a)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン34が配置されている。図1(b)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示パネル6をユーザーが覗き込むための接眼窓枠121が配置されている。接眼窓枠121は覗き口12を形成し、カメラ筐体1Bに対しては外側(背面側)に突出している。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
 図2は、カメラ1内の構成を示すブロック図である。
 撮像素子2は例えばCCDやCMOSセンサー等の撮像素子であり、撮影レンズユニット1Aの光学系により撮像素子2の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部(不図示)に出力する。A/D変換部は、撮像素子2により得られたアナログ画像信号をA/D変換し、画像データとして出力する。
 撮影レンズユニット1Aは、ズームレンズ、フォーカスレンズ、絞り等を含む光学系で構成され、カメラ筐体1Bに装着された状態で、被写体からの光を撮像素子2に導き、被写体像を撮像素子2の撮像面上に結像する。絞り制御部118、焦点調節部119、ズーム制御部120は、それぞれマウント接点117を介してCPU3からの指示信号を受信し、該指示信号に従い、絞り、フォーカスレンズ、ズームレンズを駆動制御する。
 カメラ筐体1Bが備えるCPU3は、カメラ筐体1Bが備える各ブロックに対する制御プログラムをメモリ部4の有するROMより読み出し、メモリ部4の有するRAMに展開して実行する。これによりCPU3は、カメラ筐体1Bが備える各ブロックの動作を制御する。CPU3には、視線検出部201、測光部202、自動焦点検出部203、信号入力部204、接眼検知部208、表示デバイス駆動部210、光源駆動部205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された絞り制御部118、焦点調節部119、ズーム制御部120に、マウント接点117を介して信号を伝達する。本実施形態では、メモリ部4は、撮像素子2および視線検出センサー30からの撮像信号の記憶機能を備える。
 視線検出部201は、視線検出センサー30上に眼球像が結像した状態での視線検出センサー30の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視点)を算出する。
 接眼検知部208は、接眼検知センサー50の出力をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従ってユーザーが接眼部(ファインダー;覗き口12の部分)に対して接眼したか否かを算出する。
 測光部202は、測光センサーの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報としてCPU3に送る。
 自動焦点検出部203は、撮像素子2(例えばCCD)の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、ファインダー内の視野像(視認用画像)を分割し、撮像面上の分割された180か所のそれぞれに、焦点検出ポイントがあるとする。
 光源駆動部205は、CPU3からの信号(指示)に基づいて、後述する赤外LED18,19,22~27を駆動する。具体的には、光源駆動部205は、CPU3からの信号に基づいて、赤外LED18,19,22~27の発光強度(発光量;発光輝度)を個別または一律に制御する。発光強度の制御は、点灯/消灯の切り替えを含むものとする。
 画像処理部206は、RAMに格納されている画像データに対して、各種画像処理を行う。例えば、光学系や撮像素子に起因する画素欠陥の補正処理、デモザイキング処理、ホワイトバランス補正処理、色補間処理、ガンマ処理など、デジタル画像データを現像し表示・記録するための様々な画像処理が行われる。
 信号入力部204には、スイッチSW1とスイッチSW2が接続されている。スイッチSW1は、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチであり、レリーズボタン34の第1ストロークでONする。スイッチSW2は、撮影動作を開始するためのスイッチであり、レリーズボタン34の第2ストロークでONする。スイッチSW1,SW2からのON信号は信号入力部204に入力され、CPU3に送信される。また信号入力部204は、図1(b)の操作部材41(タッチパネル)、操作部材42(操作レバー)、操作部材43(4方向キー)からの操作入力も受け付ける。
 記録/出力部207は、着脱可能なメモリカード等の記録媒体に画像データを含むデータを記録、またはこれらのデータを外部インターフェースを介して外部装置に出力する。
 表示デバイス駆動部210は、CPU3からの信号に基づいて、表示デバイス209を駆動する。表示デバイス209は、後述する表示パネル5,6である。
 図3は、図1(a)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の構成を概念的に示した図である。
 シャッター32と撮像素子2は撮影レンズユニット1Aの光軸方向に順に並ぶ。
 カメラ筐体1Bの背面には表示パネル5が設けられ、表示パネル5は、カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のために、メニュー表示や画像表示を行う。表示パネル5は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。
 カメラ筐体1Bに設けられたEVFは、通常のEVFとして表示パネル5のようにメニューや画像の表示が行えることに加えて、EVFを覗くユーザーの視線を検出し、検出結果をカメラ1の制御に反映することが可能な構成となっている。
 表示パネル6は、ユーザーがファインダーを覗いているときに、表示パネル5と同様の表示(カメラ1の操作やカメラ1で得られた画像の鑑賞・編集のためのメニュー表示や画像表示)を行う。表示パネル6は、バックライト付きの液晶パネルや、有機ELパネル等で構成される。表示パネル6は一般的なカメラにおける撮影画像と同様に、3:2や4:3、16:9といったX軸方向(水平方向)のサイズがY軸方向(垂直方向)のサイズよりも長い長方形で構成される。
 パネルホルダー7は表示パネル6を保持するパネルホルダーで、表示パネル6とパネルホルダー7は接着固定され、表示パネルユニット8を構成している。
 第一光路分割プリズム9、第二光路分割プリズム10は貼り付け接着されて光路分割プリズムユニット11(光路分割部材)を構成している。光路分割プリズムユニット11は、表示パネル6からの光を覗き口12に設けられたアイピース窓17に導き、逆にアイピース窓17から導かれる目(瞳)からの反射光などを視線検出センサー30に導く。
 表示パネルユニット8と光路分割プリズムユニット11は、マスク33を挟んで固定され、一体形成されている。
 接眼光学系16は、G1レンズ13、G2レンズ14、G3レンズ15により構成される。
 アイピース窓17は、可視光を透過する透明な部材である。表示パネルユニット8に表示された画像は、光路分割プリズムユニット11と接眼光学系16とアイピース窓17を通して観察される。
 照明窓20,21は、赤外LED18,19,22~27が外から視認できないように隠すための窓で、可視光を吸収し赤外光を透過する樹脂で構成されている。
 図4(a)は、カメラ1のEVF部分の構成を示す斜視図、図4(b)はEVF部分の光軸の横断面図である。
 赤外LED18,19,22,23,24,25,26,27は、各々が覗き口12に向けて赤外光を照射するように、互いに異なる位置・姿勢で配置されている。赤外LED18,19,23,25は近距離照明用の赤外LED(光源)である。赤外LED22,24,26,27は遠距離照明用の赤外LED(光源)である。なお、赤外LED以外の光源が使用されてもよい。
 絞り28、視線結像レンズ29を含む視線検出光学系は、光路分割プリズムユニット11によってアイピース窓17から導かれた赤外反射光を、視線検出センサー30に導く。
 視線検出センサー30は、CCDやCMOSなどの固体撮像素子で構成される。赤外LED18,19,22~27はユーザーの眼球に光を照射し、視線検出センサー30は、ユーザーの眼球からの反射光(赤外LED18,19,22~27から発せられ眼球で反射した反射光)を受光する。
 接眼検知センサー50は、視線検出センサー30よりも低電力で駆動可能なフォトダイオードなどで構成される。視線検出用の赤外LED18,19,22~27のうち、赤外LED22は、接眼検知用の赤外LEDも兼ねている。つまり、赤外LED22は、視線検出と接眼検知とで兼用される。赤外LED22はユーザーに光を照射し、接眼検知センサー50は、ユーザーからの拡散反射光(赤外LED22から発せられユーザーで拡散反射した拡散反射光)を受光する。
 ここで、赤外LED18,19,22~27の少なくともいずれかから、ファインダーを覗いているユーザーの眼球に光が照射された場合を考える。この場合は、図4(b)の光路31aで示すように、光が照射された眼球の光学像(眼球像)が、アイピース窓17、G3レンズ15、G2レンズ14、G1レンズ13を通り、第二光路分割プリズム10の第2面10aから第二光路分割プリズム10内に入る。第二光路分割プリズムの第1面10bには、赤外光を反射するダイクロイック膜が形成されており、反射光路31bで示すように、第二光路分割プリズム10内に入った眼球像は、第1面10bで、第2面10aの側に反射される。そして、結像光路31cで示すように、反射された眼球像は、第2面10aで全反射され、第二光路分割プリズム10の第3面10cから第二光路分割プリズム10外へ出て、絞り28を通り、視線結像レンズ29により視線検出センサー30に結像される。視線検出には、このような眼球像と共に、赤外LEDから発せられた光が角膜で正反射して形成された角膜反射像が用いられる。
 図5は、近距離照明用の赤外LED18,19,23,25から発せられた光が眼球の角膜37で正反射し、視線検出センサー30で受光されるまでの光路の例を示す。
 <視線検出動作の説明>
 図6,7(a),7(b),8を用いて、視線検出方法について説明する。ここでは、赤外LED18,19,22~27のうちの2つ(図6の赤外LED51a,51b)を用いた例について説明する。図6は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図6に示すように、赤外LED51a,51bはユーザーの眼球140に赤外光を照射する。赤外LED51a,51bから発せられて眼球140で反射した赤外光の一部は、視線結像レンズ29によって、視線検出センサー30近傍に結像される。図6では、視線検出方法の原理が理解しやすいよう、赤外LED51a,51b、視線結像レンズ29、視線検出センサー30の位置が調整されている。
 図7(a)は、視線検出センサー30で撮像された眼画像(視線検出センサー30に投影された眼球像)の概略図であり、図7(b)は視線検出センサー30(例えばCCD)の出力強度を示す図である。図8は、視線検出動作の概略フローチャートを表す。
 視線検出動作が開始すると、図8のステップS801で、赤外LED51a,51bは、光源駆動部205からの指示に従って、ユーザーの眼球140に向けて視線検出用の発光強度E2で赤外光を発する。赤外光によって照明されたユーザーの眼球像は、視線結像レンズ29(受光レンズ)を通して視線検出センサー30上に結像され、視線検出センサー30により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
 ステップS802では、視線検出部201(視線検出回路)は、視線検出センサー30から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
 ステップS803では、CPU3は、ステップS802で得られた眼画像から、赤外LED51a,51bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
 赤外LED51a,51bより発せられた赤外光は、ユーザーの眼球140の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、視線結像レンズ29により集光され、視線検出センサー30上に結像して、眼画像における角膜反射像Pd',Pe'となる。同様に瞳孔141の端部a,bからの光も視線検出センサー30上に結像して、眼画像における瞳孔端像a',b'となる。
 図7(b)は、図7(a)の眼画像における領域α'の輝度情報(輝度分布)を示す。図7(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd',Pe'のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a',b'のX軸方向の座標をXa,Xbとする。図7(b)に示すように、角膜反射像Pd',Pe'の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光が視線検出センサー30上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
 図7(b)に示すような輝度分布から、角膜反射像Pd',Pe'のX座標Xd,Xeと、瞳孔端像a',b'のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd',Pe'の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a',b'の座標として得ることができる。また、視線結像レンズ29の光軸に対する眼球140の光軸の回転角θxが小さい場合には、瞳孔中心cからの光が視線検出センサー30上に結像して得られる瞳孔中心像c'(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a',b'のX座標Xa,Xbから、瞳孔中心像c'の座標Xcを算出できる。このようにして、角膜反射像Pd',Pe'の座標と、瞳孔中心像c'の座標とを見積もることができる。
 ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、視線結像レンズ29に対する眼球140の位置により決まる倍率で、角膜反射像Pd',Pe'の間隔(Xd-Xe)の関数を用いて求めることができる。
 ステップS805では、CPU3は、視線結像レンズ29の光軸に対する眼球140の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球140の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
  β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
 ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、表示パネル6に表示された視認用画像におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
  Hx=m×(Ax×θx+Bx)・・・(式2)
  Hy=m×(Ay×θy+By)・・・(式3)
 式2,3のパラメータmは、カメラ1のファインダー光学系(視線結像レンズ29等)の構成で定まる定数であり、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数であり、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、公知のキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部4に格納されるとする。
 ステップS807では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
 なお、視線検出の方法は上記方法に限られない。視線検出に用いられる赤外LEDの数は2つより多くても少なくてもよく、視線検出と接眼検知とで兼用される赤外LED22を含む1つ以上の赤外LEDを用いて、視線検出が行われる。視線検出と接眼検知とで兼用される赤外LEDの数も、2つより多くても少なくてもよい。視線検出に用いられる全ての赤外LEDが接眼検知でも用いられるようにしてもよい。
 <接眼検知を含んだカメラ1の動作の説明>
 図9は、接眼検知を含んだカメラ1の動作の概略フローチャートを表す。
 図9のステップS901で、赤外LED22は、光源駆動部205からの指示に従って、接眼検知用の発光強度E1で点灯する。このとき、赤外LED18,19,23~27は、消費電力低減の観点から消灯することが好ましいが、点灯してもよい。接眼検知用の発光強度E1と視線検出用の発光強度E2とを同じとしてもよいが、異ならせてもよい。本実施形態では、発光強度E1は発光強度E2よりも強く設定されているとする。赤外LED22からの赤外光はユーザーに照射され、ユーザーからの拡散反射光は接眼検知センサー50で受光される。
 ステップS902では、CPU3は、接眼検知センサー50が受光する反射光量、つまり接眼検知センサー50の受光量(受光強度;受光輝度)が接眼判定閾値Th1を超えているか否かを判定する。接眼判定閾値Th1はメモリ部4に予め格納されている。受光量が接眼判定閾値Th1を超えている場合は、ユーザーが接眼部(ファインダー;覗き口12の部分)に対して接眼したと判断し、ステップS903に進む。一方、受光量が接眼判定閾値Th1を超えていない場合は、ユーザーが接眼部に対して接眼していないと判断し、ステップS902に戻り、受光量が接眼判定閾値Th1を超えるまでステップS902の処理を繰り返す。
 ステップS903では、図8で説明したような視線検出動作が行われる。このとき、光源駆動部205からの指示に従って、赤外LED22の発光強度は、接眼検知用の発光強度E1から視線検出用の発光強度E2に制御される。赤外LED18,19,23~27の少なくともいずれかも点灯してよい。上述したように、本実施形態では、発光強度E1は発光強度E2よりも強い。つまり、赤外LED22の発光強度は、接眼が検知された後に弱められる。
 ステップS904では、CPU3は、接眼検知センサー50の受光量(受光強度;受光輝度)が接眼判定閾値Th2を超えているか否かを判定する。接眼判定閾値Th2はメモリ部4に予め格納されている。接眼判定閾値Th1,Th2は、赤外LED22の発光強度に基づいて決められ、本実施形態では発光強度E2は発光強度E1のよりも弱いため、接眼判定閾値Th2は接眼判定閾値Th1よりも小さく設定される。つまり、接眼判定閾値は、接眼が検知された後に低減される。受光量が接眼判定閾値Th2を超えている場合は、ユーザーが接眼部(ファインダー;覗き口12の部分)に対して接眼したと判断し、ステップS903に進む。一方、受光量が接眼判定閾値Th2を超えていない場合は、ユーザーが接眼部から眼を離した(離眼した)と判断し、図9の動作を終了する。若しくは、ステップS901に戻る。
 以上説明したように、本実施形態によれば、1つ以上の光源の少なくとも一部が接眼検知と視線検出で兼用される。具体的には、視線検出用の赤外LED18,19,22~27のうち、赤外LED22は、接眼検知用の赤外LEDも兼ねている。これにより、視線検出用の光源と接眼検知用の光源とを別々に設ける構成と比較して、より少ない光源で接眼検知機能と視線検出機能を実現できる。その結果、構成の複雑化や装置の大型化を抑制でき、接眼検知機能と視線検出機能を少ない消費電力で実現する電子機器を低コストで提供できる。
 視線検出では2次元の眼球像が使用されるため、視線検出センサー30としてCCDやCMOSなどの固体撮像素子を用いる必要がある。一方、接眼検知では、ユーザーからの反射光の光量が所定量に達したか否かを判定できればよいため、接眼検知センサー50として、フォトダイオードなどの低電力で駆動可能なセンサーを用いることができる。本実施形態では、接眼検知センサー50として、視線検出センサー30よりも低電力で駆動可能なセンサーを用いることで、電子機器の消費電力がより低減されている。
 赤外LED(光源)の数や配置、種類は特に限定されないが、本実施形態では、近距離を照明する赤外LEDと、遠距離を照明する赤外LEDとを設けることで、眼球が接眼部に近い状態でも遠い状態でも高精度な視線検出が可能にされている。さらに、複数の赤外LEDを設けることで、視線がより確実に検出できるようにされている。具体的には、いずれかの赤外LEDから光が瞼などで遮られて角膜に照射されなくても、他の赤外LEDが角膜を照明することで、視線を検出することができる。
 上述のとおり、接眼検知にはユーザーからの拡散光が用いられるのに対して、視線検出には角膜からの正反射光が用いられる。そのため、接眼検知用の光源は高い自由度で配置できるが、視線検出用の光源の配置には制約が多い。一例として、接眼光学系16の右側(接眼光学系16の光軸に垂直なX軸の正方向側)や、左側(X軸の負方向側)に視線検出用の光源を配置する場合を考える。この場合は、接眼光学系16がY軸方向よりもX軸方向に長い形状を有するため、接眼光学系16の光軸から大きく離れた位置に光源が配置されることになる。そうすると、眼球のより外側での正反射光が視線検出センサー30に集光することになるが、光源からの光が瞼でケラレやすく(遮られやすく)なってしまう。特に、ユーザーがカメラ1をZ軸周りに90°回転させて接眼光学系16を覗く、縦位置撮影の際に、上記ケラレは発生しやすい。接眼光学系16をX軸方向に狭めて光源を接眼光学系16の光軸に近づければ、上記ケラレを抑制することができるが、ユーザーの快適性が損なわれる。本実施形態では、接眼検知と視線検出で兼用される赤外LED22を、接眼光学系16の上側(接眼光学系16の光軸に垂直なY軸の正方向側)に配置することで、ユーザーの快適性を損なわず、上記ケラレの発生が抑制されている。なお、赤外LED22を接眼光学系16の下側(Y軸の負方向側)に配置しても同様の効果が得られる。赤外LED18,19,23~27についても同様である。
 視線検出センサー30が受光を行う期間は特に限定されないが、視線検出センサー30は、接眼検知後に受光(動作)を開始することが好ましい。そうすることで、接眼が検知されるまではが視線検出センサー30が駆動されないため、電子機器の消費電力をより低減することができる。
 赤外LED18,19,22~27の発光強度は特に限定されないが、本実施形態では、赤外LED18,19,22~27の発光強度が制御可能である。このため、視線検出と接眼検知のそれぞれに好適な発光強度で、赤外LED18,19,22~27を点灯させることが可能である。具体的には、視線検出と接眼検知で兼用される赤外LED22の発光強度は、接眼検知後に弱くなるよう制御される。これにより、接眼検知時は、より遠くに眼がある状態でも接眼を検知でき、視線検出時はより少ない消費電力で視線検出が実行可能となる。なお、赤外LED22の発光強度は、接眼検知後に強くなるよう制御してもよい。そうすることで、接眼検知時はより少ない消費電力で接眼検知が実行可能となり、視線検出時は角膜反射像の強度が強められることで、より外乱に強い視線検出が可能となる。電子機器に求められる性能に応じて、接眼検知用の発光強度と視線検出用の発光強度を設定することが好ましい。赤外LED18,19,23~27の発光強度も適宜制御してよい。例えば、接眼検知時(視線検出前)に赤外LED18,19,23~27を消灯したり、視線検出時(接眼検知後)に赤外LED18,19,23~27の発光強度を赤外LED22と同じ発光強度に制御したりしてもよい。
 接眼判定閾値は特に限定されないが、本実施形態では、光源(赤外LED)の発光強度の制御に応じて、接眼判定閾値が制御される。具体的には、赤外LED22の発光強度が接眼検知後に弱められるため、それに合わせて、接眼判定閾値も接眼検知後に低減される。これにより、接眼検知前でも後でも、好適に(高精度に)接眼検知を行うことができる。なお、赤外LED22の発光強度は接眼検知後に強められてもよく、その場合には、接眼判定閾値も接眼検知後に高められることが好ましい。
 なお、上述した実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上述した構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上述した構成を適宜組み合わせて得られる構成も、本発明に含まれる。
 <その他の実施形態>
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2020年4月14日提出の日本国特許出願特願2020-072186を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。
 1:カメラ 30:視線検出センサー 50:接眼検知センサー
 18,19,22~27:赤外LED

Claims (7)

  1.  接眼部に対する接眼を検知する接眼検知と、ユーザーの視線を検出する視線検出とを実行可能な電子機器であって、
     前記接眼検知のために受光する接眼検知センサーと、
     前記接眼検知センサーとは別の、前記視線検出のために受光する視線検出センサーと、
     前記接眼検知と前記視線検出で兼用される光源を含む1つ以上の光源と
    を有することを特徴とする電子機器。
  2.  前記接眼検知センサーは、前記視線検出センサーよりも低電力で駆動可能である
    ことを特徴とする請求項1に記載の電子機器。
  3.  前記1つ以上の光源は複数の光源である
    ことを特徴とする請求項1または2に記載の電子機器。
  4.  前記接眼部に設けられた接眼光学系は、前記接眼光学系の光軸に垂直な第1方向に比べ、前記光軸に垂直な第2方向に長い形状を有し、
     少なくとも前記兼用される光源は、前記接眼光学系から前記第1方向の側に配置される
    ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。
  5.  前記視線検出センサーは、前記接眼検知により前記接眼が検知された後に、受光を開始する
    ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。
  6.  少なくとも前記兼用される光源の発光強度を制御する制御手段をさらに有し、
     前記制御手段は、前記接眼検知により前記接眼が検知された後に、前記発光強度を制御する
    ことを特徴とする請求項1~5のいずれか1項に記載の電子機器。
  7.  前記接眼検知では、前記接眼検知センサーの受光量が閾値を超えた状態が、前記接眼として検知され、
     前記制御手段は、前記発光強度の制御に応じて、前記閾値を制御する
    ことを特徴とする請求項6に記載の電子機器。
PCT/JP2021/002814 2020-04-14 2021-01-27 電子機器 WO2021210235A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180028226.0A CN115427883A (zh) 2020-04-14 2021-01-27 电子装置
US17/954,470 US20230013134A1 (en) 2020-04-14 2022-09-28 Electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-072186 2020-04-14
JP2020072186A JP2021170699A (ja) 2020-04-14 2020-04-14 電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/954,470 Continuation US20230013134A1 (en) 2020-04-14 2022-09-28 Electronic device

Publications (1)

Publication Number Publication Date
WO2021210235A1 true WO2021210235A1 (ja) 2021-10-21

Family

ID=78084105

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/002814 WO2021210235A1 (ja) 2020-04-14 2021-01-27 電子機器

Country Status (4)

Country Link
US (1) US20230013134A1 (ja)
JP (1) JP2021170699A (ja)
CN (1) CN115427883A (ja)
WO (1) WO2021210235A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023062979A1 (ja) * 2021-10-14 2023-04-20 キヤノン株式会社 電子機器および撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257059A (ja) * 1992-03-13 1993-10-08 Olympus Optical Co Ltd 視線検出装置
JPH07199047A (ja) * 1993-12-30 1995-08-04 Canon Inc 視線検出機能付カメラ
JPH09253050A (ja) * 1996-03-26 1997-09-30 Canon Inc 視線検出装置及び視線検出機能付撮像装置
JPH09262209A (ja) * 1996-03-28 1997-10-07 Canon Inc 視線検出手段,接眼検出手段を備えた撮像装置
JP2004012503A (ja) * 2002-06-03 2004-01-15 Canon Inc カメラ
JP2004215062A (ja) * 2003-01-07 2004-07-29 Minolta Co Ltd 撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257059A (ja) * 1992-03-13 1993-10-08 Olympus Optical Co Ltd 視線検出装置
JPH07199047A (ja) * 1993-12-30 1995-08-04 Canon Inc 視線検出機能付カメラ
JPH09253050A (ja) * 1996-03-26 1997-09-30 Canon Inc 視線検出装置及び視線検出機能付撮像装置
JPH09262209A (ja) * 1996-03-28 1997-10-07 Canon Inc 視線検出手段,接眼検出手段を備えた撮像装置
JP2004012503A (ja) * 2002-06-03 2004-01-15 Canon Inc カメラ
JP2004215062A (ja) * 2003-01-07 2004-07-29 Minolta Co Ltd 撮像装置

Also Published As

Publication number Publication date
US20230013134A1 (en) 2023-01-19
JP2021170699A (ja) 2021-10-28
CN115427883A (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
JP2004326118A (ja) アイスタート能力を組み込んだ機器
WO2021210235A1 (ja) 電子機器
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
WO2021210225A1 (ja) 電子機器
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
JP2021182736A (ja) 電子機器
JP2022124778A (ja) 電子機器
WO2021085541A1 (ja) 撮像装置、電子機器、ファインダーユニット
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20220108658A1 (en) Display device, photoelectric conversion device, electronic device, moving body, and wearable device
JP2021076832A (ja) 撮像装置、電子機器、ファインダーユニット
JP2023083695A (ja) 電子機器
JP2008083078A (ja) カメラ
JP2024003432A (ja) 電子機器
JP2023087377A (ja) 視線検出装置
JP2023063023A (ja) 電子機器及び電子機器の制御方法
JP2022096819A (ja) 視線検出装置
JP2022187913A (ja) 表示装置、撮像装置、表示装置の制御方法、プログラム、および記録媒体
JP3437343B2 (ja) 視線検出装置
JPH0990200A (ja) 視線検出手段を有するカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21788071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21788071

Country of ref document: EP

Kind code of ref document: A1