WO2021085541A1 - 撮像装置、電子機器、ファインダーユニット - Google Patents

撮像装置、電子機器、ファインダーユニット Download PDF

Info

Publication number
WO2021085541A1
WO2021085541A1 PCT/JP2020/040662 JP2020040662W WO2021085541A1 WO 2021085541 A1 WO2021085541 A1 WO 2021085541A1 JP 2020040662 W JP2020040662 W JP 2020040662W WO 2021085541 A1 WO2021085541 A1 WO 2021085541A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
sensor
line
light
display panel
Prior art date
Application number
PCT/JP2020/040662
Other languages
English (en)
French (fr)
Inventor
吉彦 今野
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020176363A external-priority patent/JP2021076832A/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202080076281.2A priority Critical patent/CN114631304A/zh
Priority to EP20881105.9A priority patent/EP4054169A4/en
Publication of WO2021085541A1 publication Critical patent/WO2021085541A1/ja
Priority to US17/725,343 priority patent/US11831975B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof

Definitions

  • the present invention relates to an image pickup device, an electronic device, and a finder unit having a line-of-sight detection function.
  • an EVF ELECTRONIC VIEW FINDER
  • a user can visually recognize a displayed image by eyepiece of his / her own eye
  • cameras and video cameras having a line-of-sight detection function that realizes functions such as AF point selection by detecting the line-of-sight direction of the user have been put into practical use.
  • the EVF display optical path and the optical path of the line-of-sight input sensor are set as a common optical path, and an optical path dividing mirror is provided in the middle to detect the line-of-sight direction (position) of the eye looking at the EVF display.
  • an optical path dividing mirror is provided in the middle to detect the line-of-sight direction (position) of the eye looking at the EVF display.
  • Patent Document 1 does not mention the optimum arrangement of the EVF in the image pickup apparatus while having the line-of-sight input function.
  • an appropriate configuration for preventing the influence of dust in the finder and a relative arrangement between the operating member or built-in member of the image pickup device and the finder or the line-of-sight detection mechanism have not been considered.
  • an object of the present invention is to propose an optimum arrangement of the EVF in the image pickup apparatus, which is provided with the EVF and can suppress the deterioration of the operability of the image pickup apparatus having the line-of-sight input function.
  • the present invention is an EVF having a line-of-sight detection function, in which a display unit (19) having a display means (18) is fixed to an optical path dividing means (16) that divides an optical path into a line-of-sight detection sensor. It is characterized by doing.
  • the present invention it is possible to suppress a decrease in operability of an imaging device provided with an EVF and having a line-of-sight input function.
  • FIG. 1 It is a figure exemplifying the arrangement of a user's eyeball and a reflection image. It is a figure for exemplifying the principle of the line-of-sight detection method. It is a figure for exemplifying the eye image in the line-of-sight detection sensor.
  • the schematic flowchart of the line-of-sight detection operation which concerns on 1st Embodiment of this invention is shown. It is a figure which illustrates the structure of the optical path division prism unit 16 which concerns on 1st Embodiment of this invention. It is a figure which illustrates the structure of the optical path division prism unit 16 which concerns on 1st Embodiment of this invention.
  • FIG. 5 is an exploded perspective view of an optical path dividing prism unit 216 and a display panel 218 according to a second embodiment of the present invention. It is an exploded perspective view of the optical path dividing prism 315 and the semiconductor chip 318a for display which concerns on 3rd Embodiment of this invention. It is an external perspective view of the camera body 400 which is an electronic device which concerns on 4th Embodiment of this invention. It is a perspective view which illustrates the internal structure of the camera body 400 which concerns on 4th Embodiment of this invention. It is an upper external view which illustrates the internal structure of the camera body 400 which concerns on 4th Embodiment of this invention.
  • FIG. 1 is a diagram schematically illustrating the appearance of the camera body 101, which is an electronic device according to the first embodiment of the present invention.
  • the camera body 101 and the lens unit 102 which will be described later, are collectively referred to as the image pickup apparatus 100.
  • the electronic device referred to in the present invention can be applied to a device that displays information such as images and characters and any electronic device that can detect the line of sight of a user who views the display information of the device.
  • These electronic devices may include, for example, mobile phones, game consoles, tablet terminals, personal computers, clock-type or eyeglass-type information terminals, head-mounted displays, and the like.
  • FIG. 1A is a front perspective view
  • FIG. 1B is a rear perspective view
  • a release button 103 which is an operating member that receives an imaging operation from a user (photographer) is arranged on the camera body 101.
  • an eyepiece 107 for a user to look into the EVF unit 1 described later included in the camera body 101 is arranged on the back surface of the camera body 101.
  • the eyepiece 107 forms a viewing port and projects outward (backward side) with respect to the camera body 101.
  • An operation member 106 that receives various operations from the user is also arranged on the back surface of the camera body 101.
  • the first operating member 106A is an operating lever that can be pushed down in each direction
  • the second operating member 106B is a four-direction key that can be pushed down in each of the four directions.
  • the display monitor 104 touch panel
  • FIG. 2 is a block diagram illustrating an example of a configuration according to the present invention in the camera body 101.
  • the image sensor 105 is, for example, an image sensor such as a CCD or a CMOS sensor.
  • the optical system of the lens unit 102 converts the optical image formed on the image pickup surface of the image sensor 105 by photoelectric conversion, and the obtained analog image signal is A. Output to the / D conversion unit and output as image data.
  • the lens unit 102 is composed of an optical system including a zoom lens (not shown), a focus lens, an aperture, and the like, and is mounted on the camera body 101 to guide a light beam from the subject to the image sensor 105 and capture the subject image. An image is formed on the imaging surface of 105.
  • the aperture control unit 118, the focus adjustment unit 119, and the zoom control unit 120 each receive an instruction signal from the CPU 111 via the mount contact unit 108B provided on the mount unit 108, and the aperture and focus lens follow the instruction signal. , Drive control of the zoom lens.
  • the CPU 111 which is a control means included in the camera body 101, reads a control program for each block included in the camera body 101 from the ROM included in the memory unit 112, expands the control program into the RAM included in the memory unit 112, and executes the control program. As a result, the CPU 111 controls the operation of each block included in the camera body 101, and can comprehensively control the camera body 101 and the lens unit 102.
  • the line-of-sight detection unit 4, the photometric unit 113, the automatic focus detection unit 114, the signal input unit 115, the EVF drive unit 2, the light source drive unit 3, and the like are connected to the CPU 111.
  • the CPU 111 transmits a signal to the focus adjustment unit 119 and the aperture control unit 118 arranged in the lens unit 102 via the mount contact unit 108B.
  • the memory unit 112 has a function of storing an image pickup signal from the image pickup element 105 and the line-of-sight detection sensor 53.
  • the CPU 111 extracts feature points required for line-of-sight detection from the eye image according to a predetermined algorithm described later, and calculates the user's line of sight (viewpoint in the visual recognition image) from the positions of the feature points.
  • the photometric unit 113 performs amplification, logarithmic compression, A / D conversion, and the like of a signal obtained from the image sensor 105 that also serves as a photometric sensor, specifically, a luminance signal corresponding to the brightness of the field of view. The result can be acquired as the photometric brightness information.
  • This is a known technique known as imaging surface phase-difference AF.
  • the image processing unit 116 performs various image processing on the image data stored in the RAM. Specifically, for example, various methods for developing, displaying, and recording digital image data such as pixel defect correction processing, demosaiking processing, white balance correction processing, color interpolation processing, and gamma processing caused by an optical system or an image sensor. Image processing is applied.
  • the signal input unit 115 is connected to a switch SW1 that is turned on by the first stroke of the release button 103 and a switch SW2 that is turned on by the second stroke of the release button 103.
  • the switch SW1 is instructed to start the light measurement, distance measurement, line-of-sight detection operation, etc. of the camera body 101, and the switch SW2 is instructed to start the shooting operation.
  • the ON signals from the switches SW1 and SW2 are input to the signal input unit 115 and transmitted to the CPU 111.
  • the signal input unit 115 also accepts operation inputs from the operation members 106A and B of FIG. 1B, the display monitor 104, and the like.
  • the recording / output unit 117 records data including image data on a recording medium such as a removable memory card, or outputs these data to an external device via an external interface.
  • a recording medium such as a removable memory card
  • FIG. 3 is a cross-sectional view of the camera body 101 according to the first embodiment of the present invention, which is a cross-sectional view of the camera body 101 cut along a YZ plane formed by the Y-axis and the Z-axis shown in FIG. 1A.
  • the shutter 109 is a focal plane type mechanical shutter, and the shutter 109 and the image sensor 105 are arranged in this order from the side where the lens unit 102 is arranged.
  • a main substrate (not shown) or the like is arranged between the image sensor 105 and the display monitor 104.
  • the lens unit 102 is removable from the camera body 101 via the mount 108A, and is attached to the camera body 101 in the state shown in FIG.
  • the EVF (ELECTRONIC VIEW FINDER) 1 is a display means provided on the upper part of the camera body 101, and has a line-of-sight detection function described later.
  • the upper part of the camera body 101 is the side where the EVF unit 1 is provided inside the exterior cover 110, and the lower part of the camera body 101 is the display monitor 104 and the image sensor 105 with respect to the EVF unit 1. Is the side on which.
  • the EVF unit (finder unit) 1 has a line-of-sight detection function that detects the line of sight of a user looking into the EVF, in addition to being able to display menus and images as a normal EVF like a display monitor 104.
  • the EVF unit 1 has a configuration capable of reflecting the line-of-sight detection result in the control of the camera body 101. The details of the line-of-sight detection function will be described later.
  • the user can look into the EVF unit 1 through the eyepiece 107 including the removable eyecup 9 attached to the eyecup mounting frame 8.
  • FIG. 4 is a cross-sectional view of the EVF unit 1 according to the first embodiment of the present invention, showing a vertical cross section of the EVF unit 1 with respect to the optical axis (that is, the photographing optical axis of the EVF lens unit 29).
  • the position of the EVF lens unit 29 shown in FIG. 4 shows a case where the diopter is -1.
  • An optical path dividing prism unit 16 is adhesively fixed to the fixed lens barrel 12 with a prism mask 13 interposed therebetween.
  • the optical path dividing prism unit 16 is an optical path dividing means configured by attaching and adhering a first optical path dividing prism 14 and a second optical path dividing prism 15.
  • the panel holder 17 is a holding mechanism for holding the display panel.
  • the display panel 18 and the panel holder 17 are adhesively fixed to form the display panel unit 19 in the EVF unit 1.
  • the display panel unit 19 and the optical path dividing prism unit 16 are fixed with the panel mask 20, which is a mask means, interposed therebetween.
  • the EVF lens unit (eyepiece optical system) 29 constituting the EVF unit 1 includes a G1 lens 21, a G2 lens 25, and a finder lens (G3 lens) 26.
  • the G1 lens 21 is held in the G1 lens holder 22.
  • the G1-G2 mask 23 is also held in the G1 lens holder 22.
  • the G2-G3 holder 24 holds the G2 lens 25 and the G3 lens, which is the finder lens 26.
  • the G1 lens holder 22 is fixed to the G2-G3 holder 24 with a screw (not shown).
  • the G3 mask 27 is fixed to the G2-G3 holder 24 with double-sided tape 28 for masks.
  • the above-mentioned members 21 to 28 are collectively referred to as an EVF lens unit 29.
  • FIG. 5 is a diagram illustrating an example of the eyepiece window 32 according to the first embodiment of the present invention, showing a state in which the eyepiece window 32 is viewed from the EVF lens unit 29 side (inside the camera).
  • the eyepiece window 32 is an optical member having an R1 surface on the inside of the camera and an R2 surface on the opposite side (outside of the camera), and the base material is transparent flat glass.
  • the transparent region 32a is a plain region, and the visible light cut mask 32b shown in the crosshatch region is arranged around the transparent region. That is, the transparent region 32a is located in the portion corresponding to the photographing optical path in the EVF unit 1, and the visible light cut mask 32b is arranged in the region avoiding the photographing optical path.
  • the visible light cut mask 32b is a printed matter printed with a material (ink) that absorbs visible light and transmits infrared light, and the apparent color in visible wavelength light is black.
  • the visible light cut mask 32b may have a configuration in which the transmittance of light having a visible wavelength is lower than the transmittance of light having an infrared wavelength.
  • FIG. 6 is a cross-sectional view of the eyepiece window 32 according to the present invention, which is shown by the AA cross section of FIG.
  • the flat glass 32c is the base material of the eyepiece window 32.
  • the antireflection coat 32d is a coating arranged inside the camera of the eyepiece window 32 to prevent reflection of unnecessary light.
  • an AR film 32e having a hard coat, an antireflection coat, and an anti-scattering function is provided on the opposite side of the antireflection coat 32d with the plate glass 32c interposed therebetween.
  • the display image displayed on the display panel unit 19 can be observed by the user via the optical path dividing prism unit 16, the EVF lens unit 29, and the transparent region 32a of the eyepiece window 32.
  • FIG. 7 shows a configuration diagram of the EVF unit 1 in a state where the EVF unit 1 is viewed with the eyepiece window 32 removed from the eyepiece portion 107 side. That is, FIG. 7 is a detailed explanatory view of the EVF unit 1 when the camera body 101 is viewed from the rear side.
  • a horizontally long display opening mask 31a corresponding to the aspect ratio of the EVF is provided in the center of the eyepiece window holder 31, and is formed to have substantially the same shape as the transparent region 32a of the eyepiece window 32. ing.
  • a diopter adjustment dial 33 is rotatably held by a shaft screw 34 on the side surface (right side surface) of the EVF unit 1.
  • the diopter adjustment dial is a diopter adjustment means capable of adjusting the diopter when the user looks into the EVF unit 1 by moving the lens group constituting the EVF lens unit 29 in a direction parallel to the optical axis. Is.
  • the right side of the camera body 101 is the side on which the release button 103, the first operating member 106A, and the second operating member 106B are located in a direction parallel to the X-axis direction shown in FIG. 1A.
  • the fixing screw 35 fixes the eyepiece window holder 31 and the LED holder 30 to the fixed lens barrel 12 by tightening together.
  • the line-of-sight infrared LEDs 36, 37, 38, and 39 are mainly line-of-sight lighting means for short-distance lighting, and are inside the LED opening masks 31b, 31c, 31d, and 31e provided in the eyepiece window holder 31. Each is arranged.
  • the line-of-sight infrared LEDs 40, 41, 42, 43 are mainly line-of-sight lighting means for long-distance lighting, and are the LED opening masks 31f, 31g, 31h, 31i provided in the eyepiece window holder 31. They are arranged inside each.
  • the eight line-of-sight infrared LEDs described above are arranged so that the illumination light flux is narrowed down by the aperture mask for each LED and infrared light is irradiated to different positions (irradiation directions).
  • the proximity detection infrared LED 44 is a lighting means included in the proximity detection means for detecting the presence or absence of an object (mainly a user) approaching the EVF unit 1 together with the proximity detection sensor 45 described later.
  • the proximity detection infrared LED 44 is arranged inside the LED aperture mask 31j.
  • the proximity detection sensor 45 is a detection means that receives a light beam reflected from an object in a predetermined irradiation direction from the proximity detection infrared LED, and is arranged inside the sensor opening mask 31k. ..
  • four line-of-sight infrared LEDs (a total of eight) are arranged on the upper and lower sides of the long side position of the display aperture mask 31a, and the proximity detection infrared LED / proximity is arranged at the short side position. Place a detection sensor and diopter adjustment mechanism. With this configuration, it is possible to reduce the size of the EVF unit 1 on the two-dimensional projection surface while providing the line-of-sight detection function and the diopter adjustment function.
  • each of the above-mentioned lighting means and detecting means is arranged in the region where the visible cut mask 32b of the eyepiece window 32 is located (overlapping on the two-dimensional projection plane) when the EVF unit 1 is viewed from the back side of the camera body 101. Therefore, it is not easily visible to the user. Due to this configuration, it is invisible from the outside.
  • FIG. 1 A total of eight line-of-sight infrared LEDs 36 to 39, a proximity detection infrared LED 44, and a proximity detection sensor 45 are based on the optical axis of the EVF unit 1 rather than the display aperture mask 31a, as shown in FIG. It is located on the outside. Therefore, each of the above-mentioned lighting means and detecting means is arranged in the region where the visible cut mask 32b of the eyepiece window 32 is located (overlapping on the two-dimensional projection plane) when the EVF unit 1 is viewed from the back side of the camera body 101. Therefore, it is not easily visible to the user. Due to this configuration, it is invisible from
  • FIG. 8 is a cross-sectional view of a main part of the EVF unit 1, which is a vertical cross-sectional view in a direction parallel to the optical axis of the EVF unit 1 at a position including a line-of-sight infrared LED 39 mainly for short-distance illumination.
  • the state shown in FIG. 8 indicates a case where the diopter of the EVF unit 1 is +2.0 as the position of the EVF lens unit 29.
  • the line-of-sight infrared LED 39 for short-distance illumination is pressed against the eyepiece window holder 31 by the first cushion member 46 attached to the LED holder 30, and is pressed against the LED opening mask 31e. It is fixed.
  • the light-shielding wall 31m is a light-shielding member for preventing infrared light emitted from a line-of-sight infrared LED 39 or the like for short-distance lighting from directly incident on the finder lens 26.
  • the finder lens 26 includes an R2 surface 26a which is a convex lens, and the distance between the finder lens 26 and the eyepiece window 32 increases from the center of the lens to the periphery. Since the light-shielding wall 31 m can be arranged in this widened area, for example, the illumination light of the line-of-sight infrared LED 39 for short-distance illumination can illuminate the area close to the eyepiece window 32.
  • the eyepiece window 32 is provided with the visible cut mask 32b as the same member continuous with the transparent region 32a, it is not necessary to separately provide a connecting portion for connecting the two. Therefore, the light beam is not eclipsed by the connecting portion, and the light distribution characteristic of the EVF unit 1 in the short distance region can be improved.
  • the infrared LED 39 for the line of sight has been mainly described, the same configuration is adopted for the other infrared LEDs 36, 37, 38 for the line of sight and the infrared LEDs 40, 41, 42, 43 for the line of sight, which are described above. Can produce the desired effect.
  • the proximity detection infrared LED 44 and the proximity detection sensor 45 are packaged as the same unit to form the proximity detection unit 47.
  • FIG. 9 is a cross-sectional view (horizontal cross-section) of a main part of the EVF unit 1 at a position including the infrared LED 44 for proximity detection according to the first embodiment of the present invention.
  • FIG. 10 is a cross-sectional view (horizontal cross section) of a main part of the EVF unit 1 at a position including the proximity detection sensor 45 according to the first embodiment of the present invention.
  • the proximity detection infrared LED 44 is positioned in the EVF unit 1 as the proximity detection unit 47 together with the proximity detection sensor 45. Specifically, the proximity detection unit 47 is pressed against the eyepiece window holder 31 via the second cushion member 48 to determine the position in the EVF unit 1. Then, as shown in FIG. 9, the proximity detection unit 47 is arranged so that the irradiation surface of the proximity detection infrared LED 44 is tilted by 10 ° with respect to the line parallel to the optical axis of the EVF unit 1. There is. Similarly
  • the sensor surface of the proximity detection sensor 45 is also oriented at an angle of 10 ° with respect to the line parallel to the optical axis of the EVF unit 1.
  • FIG. 11 is a cross-sectional view at a position including the proximity detection unit 47, which includes the proximity detection infrared LED 44 and the proximity detection sensor 45, and is a cross-sectional view in a direction parallel to the optical axis of the EVF unit 1. is there.
  • FIG. 12 is a graph illustrating the light emitting / receiving characteristics of the proximity detection unit 47.
  • the horizontal axis represents the angle of the proximity detection unit 47 from the normal direction
  • the vertical axis represents the intensity of the light emitting / receiving characteristic when the normal direction is used as a reference.
  • crosstalk which is one of the causes of the detection error of the proximity detection unit 47, will be described with reference to FIGS. 9 to 12.
  • the inner wall portion of the eyecup mounting frame 8 and the detachable eyecup 9 is illuminated with the region indicated by the crosshatch portion 49 in the drawing of the infrared light emitted from the proximity detection infrared LED 44. ..
  • the infrared LED 44 for proximity detection is tilted by 10 ° (region of 16 ° to 30 °) and in the vertical direction without tilt (since it is not tilted by 10 °, it is equivalent to 6 ° to 20 °).
  • the ratio of the integrated values of the infrared light intensity of the crosshatch portion 49 is as follows. 10 ° tilt: vertical ⁇ 0.6: 1.
  • the proximity detection sensor 45 captures light in the region indicated by the crosshatch portion 50 in the drawing.
  • the proximity detection sensor 45 is tilted by 10 ° (region of 16 ° to 30 °), it faces the vertical direction without tilt (since it is not tilted by 10 °, it corresponds to 6 ° to 20 °).
  • the ratio of the integrated values of the detection sensitivities of the crosshatch portion 50 is as follows. 10 ° tilt: vertical ⁇ 0.6: 1.
  • Crosstalk due to the influence of the inner wall of the removable eyecup 9 is reduced by about 64%.
  • the signal level for detection in the front direction has no harmful effect because the detection direction is directed in the direction parallel to the optical axis of the EVF unit 1.
  • one optical path 51 is such that infrared light emitted from the proximity detection infrared LED 44 passes through the R1 surface of the eyepiece window 32, is reflected by the R2 surface, and reaches the proximity detection sensor 45 again through R1. It is an optical path reached by circumflex. There are multiple reflections, but since the reflectance of the R2 surface is approximately 2%, the intensity is 2% for the first reflection, 0.04% for the second reflection, and 0.0008% for the third reflection. Since the intensity decreases significantly depending on the number of reflections, only one reflection is considered here.
  • the infrared light intensity in the direction of 29 ° shown in FIG. 11 is about the light emitted from the center of the proximity detection infrared LED 44. It will be 25%.
  • FIG. 13 is a cross-sectional view (normal cross section) of a main part of the proximity detection unit 47 according to the first embodiment of the present invention, and is a proximity detection unit 47 passing through the center of the proximity detection infrared LED 44 and the point P. The cross section in the normal direction is shown.
  • the angle formed by the normal line of the infrared LED 44 for proximity detection and the line passing through the point P changes to 31 ° by one reflection.
  • the proximity detection unit 47 by arranging the proximity detection unit 47 at an angle with respect to the eyepiece window 32, the wall crosstalk of the eyecup mounting frame 8 and the in-plane reflection crosstalk by the eyepiece window 32 are effective. Can be reduced to.
  • the line-of-sight detection unit 4 of the present embodiment includes at least a line-of-sight imaging lens 52, a line-of-sight detection sensor 53, and a line-of-sight detection diaphragm 56, but includes infrared LEDs 36 to 43 for line-of-sight and an optical path dividing prism unit 16. It may be configured.
  • FIG. 14 is a diagram illustrating an exemplary perspective view of a portion mainly related to the line-of-sight detection function in the EVF unit 1 according to the first embodiment of the present invention.
  • FIG. 15 is a cross-sectional view showing a portion mainly related to the line-of-sight detection function in the EVF unit 1 according to the first embodiment of the present invention, and is a cross-sectional view in a direction parallel to the optical axis of the EVF unit 1. is there.
  • FIG. 16 is a diagram illustrating an optical path for detecting a line of sight according to the EVF unit 1 of the present invention with respect to the perspective view shown in FIG.
  • the infrared LEDs 36 to 43 for the line of sight are provided at different positions and postures so that the direction in which the infrared light is irradiated to the user's eyeball is different.
  • the line-of-sight infrared LEDs 36 to 43 are arranged in different and different postures with respect to the glass surface of the plate glass 32c of the eyepiece window 32.
  • the line-of-sight infrared LEDs 36, 37, 38, and 39 are lighting devices capable of irradiating light in the infrared wavelength range mainly for short-range illumination, and employ LEDs (LIGHT EMITTING DIODE) as a light source.
  • the line-of-sight infrared LEDs 40, 41, 42, and 43 are lighting devices capable of irradiating light in the infrared wavelength region mainly for long-distance illumination, and employ LEDs as a light source.
  • the line-of-sight imaging lens 52 is an optical system for line-of-sight detection, and can form an image of light emitted from each of the line-of-sight infrared LEDs and reflected by the user's eye on the line-of-sight detection sensor 53.
  • the line-of-sight detection sensor 53 is a sensor for line-of-sight detection using a solid-state image sensor such as a CCD, and is a detection means capable of detecting the line-of-sight of a user's eye close to the eyepiece 107.
  • the line-of-sight detection sensor 53 captures the reflected light in the infrared wavelength region for line-of-sight detection, it may be configured to be capable of acquiring either a color image or a monochrome image.
  • the diaphragm 56 for detecting the line of sight adjusts the amount of light incident on the line-of-sight detection sensor 53 and adjusts the aperture diameter of the diaphragm so as to have a depth of field so that the user's eyeball image is not blurred.
  • the infrared light emitted from the predetermined line-of-sight infrared LED passes through the eyepiece window 32, the finder lens 26, the G2 lens 25, and the G1 lens 21 as an eyeball image reflected on the user's eyeball. It is incident on the second surface 14a of the first optical path dividing prism 14.
  • the incident light path of the incident light is shown as an optical path 54 in FIG.
  • a dichroic film that reflects infrared light is formed on the first surface 14b of the first optical path dividing prism 14. Therefore, the user's eyeball image incident on the EVF unit 1 is reflected on the first surface 14b and heads in the direction of the second surface 14a.
  • the optical path of the reflected light is shown in FIG. 15 as the reflected light path 55a.
  • the reflected light passing through the reflected optical path 55a is totally reflected by the second surface 14a, passes through the imaging optical path 55b, and is imaged on the line-of-sight detection sensor 53 by the line-of-sight imaging lens 52 through the diaphragm 56.
  • the cornea 142 of the user's eyeball is illuminated by the illumination of the eyeball infrared LED together with the pupil image of the eyeball.
  • the corneal reflection image formed by the specular reflection of is used.
  • FIG. 17 is a diagram schematically illustrating the arrangement of the user's eyeball and the reflected image. Note that FIG. 17 shows a case where the eyeball distance between the eyeball image and the corneal reflex image is short.
  • the user's eyeball includes a pupil 141 and a glow 143, and corneal reflex images by light emitted from each of the line-of-sight infrared LEDs are corneal reflex images 144 to 147.
  • the reflection image corresponding to the line-of-sight infrared LED 36 is the corneal reflex image 144
  • the reflection image corresponding to the line-of-sight infrared LED 37 is the corneal reflex image 145
  • the reflection image corresponding to the line-of-sight infrared LED 38 is the corneal reflex image 146
  • the reflection image corresponding to the line-of-sight infrared LED 39 is the corneal reflection image 147.
  • the line-of-sight detection detects from the relative relationship between the center of the pupil and the corneal reflex image.
  • the line-of-sight detection method for example, Japanese Patent No. 3186072 may be adopted, and detailed description of the line-of-sight detection method will be omitted.
  • FIG. 18 is a diagram for exemplifying the principle of the line-of-sight detection method, and is a schematic view of an optical system for performing line-of-sight detection.
  • the virtual light source 131 the light sources 131a and 131b are arranged substantially symmetrically with respect to the optical axis of the light receiving lens 130 and illuminate the user's eyeball 140.
  • FIG. 19 is a diagram illustrating an eye image in the line-of-sight detection sensor as an example.
  • FIG. 19A is a schematic view of an eye image (eyeball image projected on the line-of-sight detection sensor 53) captured by the line-of-sight detection sensor 53
  • FIG. 19B is an output intensity of the CCD in the line-of-sight detection sensor 53. It is a figure which shows.
  • FIG. 20 shows a schematic flowchart of the line-of-sight detection operation according to the first embodiment of the present invention.
  • the light sources 131a and 131b emit infrared light toward the user's eyeball 140 in step S801 of FIG.
  • the user's eyeball image illuminated by infrared light is imaged on the line-of-sight detection sensor 53 through the light receiving lens 130, and is photoelectrically converted by the line-of-sight detection sensor 53. As a result, an electric signal of a processable eye image is obtained.
  • step S802 the line-of-sight detection unit 4 sends an eye image (eye image signal; electrical signal of the eye image) obtained from the line-of-sight detection sensor 53 to the CPU 111.
  • eye image signal electrical signal of the eye image
  • step S803 the CPU 111 obtains the coordinates of the points corresponding to the corneal reflex images Pd and Pe of the light sources 131a and 131b and the pupil center c from the eye image obtained in step S802.
  • Infrared light emitted from the light sources 131a and 131b illuminates the cornea 142 of the user's eyeball 140.
  • the corneal reflex images Pd and Pe formed by a part of the infrared light reflected on the surface of the cornea 142 are condensed by the light receiving lens 130 and imaged on the line-of-sight detection sensor 53 to be formed in the eye image.
  • the corneal reflection images are Pd'and Pe'.
  • the luminous flux from the ends a and b of the pupil 141 is also imaged on the line-of-sight detection sensor 53 to become the pupil end images a'and b'in the eye image.
  • FIG. 19 (b) shows the luminance information (luminance distribution) of the region ⁇ 'in the eye image of FIG. 19 (a).
  • the horizontal direction of the eye image is the X-axis direction
  • the vertical direction is the Y-axis direction
  • the brightness distribution in the X-axis direction is shown.
  • the coordinates of the corneal reflex images Pd'and Pe'in the X-axis direction (horizontal direction) are Xd and Xe
  • the coordinates of the pupil end images a'and b'in the X-axis direction are Xa and Xb.
  • a brightness intermediate between the above two types of brightness can be obtained.
  • the X-coordinates Xd and Xe of the corneal reflection images Pd'and Pe'and the X-coordinates Xa and Xb of the pupil end images a'and b' can be obtained.
  • the coordinates with extremely high brightness can be obtained as the coordinates of the corneal reflection images Pd'and Pe'
  • the coordinates with extremely low brightness can be obtained as the coordinates of the pupil end images a'and b'. ..
  • the coordinates Xc (center of the pupil image) can be expressed as Xc ⁇ (Xa + Xb) / 2. That is, the coordinates Xc of the pupil center image c'can be calculated from the X coordinates Xa and Xb of the pupil edge images a'and b'. In this way, the coordinates of the corneal reflex images Pd'and Pe'and the coordinates of the pupil center image c'can be estimated.
  • the CPU 111 calculates the imaging magnification ⁇ of the eyeball image.
  • the imaging magnification ⁇ is a magnification determined by the position of the eyeball 140 with respect to the light receiving lens 130, and can be obtained by using a function of the interval (Xd—Xe) between the corneal reflection images Pd ′ and Pe ′.
  • step S805 the CPU 111 calculates the rotation angle of the optical axis of the eyeball 140 with respect to the optical axis of the light receiving lens 130.
  • the X coordinate of the midpoint of the corneal reflex image Pd and the corneal reflex image Pe and the X coordinate of the center of curvature O of the cornea 142 substantially coincide with each other. Therefore, assuming that the standard distance from the center of curvature O of the cornea 142 to the center c of the pupil 141 is Occ, the angle of rotation ⁇ X of the eyeball 140 in the ZX plane (plane perpendicular to the Y axis) is It can be calculated by the following equation 1.
  • the rotation angle ⁇ y of the eyeball 140 in the ZZ plane can also be calculated by the same method as the calculation method of the rotation angle ⁇ x.
  • step S806 the CPU 111 uses the rotation angles ⁇ x and ⁇ y calculated in step S805 to view the user's viewpoint (the position where the line of sight is poured; the position where the user is looking) in the visual image displayed on the EVF unit 1. ) Is obtained (estimated).
  • the coordinates of the viewpoint (Hx, Hy) are the coordinates corresponding to the center of the pupil c
  • the coordinates of the viewpoint (Hx, Hy) can be calculated by the following equations 2 and 3.
  • Hx m ⁇ (Ax ⁇ ⁇ x + Bx) ⁇ ⁇ ⁇ (Equation 2)
  • Hy m ⁇ (Ay ⁇ ⁇ y + By) ⁇ ⁇ ⁇ (Equation 3)
  • the parameters m of equations 2 and 3 are constants determined by the configuration of the finder optical system (light receiving lens 130, etc.) of the camera body 101. Further, it is a conversion coefficient that converts the rotation angles ⁇ x and ⁇ y into the coordinates corresponding to the pupil center c in the visual image. These are predetermined and stored in the memory unit 112.
  • the parameters Ax, Bx, Ay, and By are line-of-sight correction parameters that correct individual differences in the line of sight, are acquired by performing the calibration work described later, and are stored in the memory unit 112 before the line-of-sight detection operation starts. And.
  • step S807 the CPU 111 stores the coordinates (Hx, Hy) of the viewpoint in the memory unit 112, and ends the line-of-sight detection operation.
  • FIG. 21 is a diagram schematically illustrating the structure of the optical path dividing prism unit 16 according to the first embodiment of the present invention.
  • FIG. 21A is a cross-sectional view showing the details of the portion C shown in FIG.
  • the display panel 18 is composed of an organic EL element, a semiconductor chip 18a and a glass plate 18b in which a circuit for operating the organic EL element (display surface) is formed.
  • the display panel 18 is abutted against the display panel abutting surface 17a of the panel holder 17 and is adhesively fixed with an adhesive or the like.
  • the panel holder 17 is made of resin.
  • a prism attachment surface 17b is formed on the opposite side of the display panel abutting surface 17a of the panel holder 17.
  • An optical path dividing prism unit 16 is arranged on the prism sticking surface 17b with the first double-sided tape 57, the panel mask 20, and the second double-sided tape 58 interposed therebetween, and each is adhesively fixed by the double-sided tape.
  • an adhesive or the like may be used as the bonding method.
  • the optical path dividing prism unit 16 is substantially sealed and attached without a protective member for preventing dust from entering the inside of the display panel 18 (display panel unit 19). It is characterized by.
  • a protective glass for preventing the intrusion of dust is provided on the front surface of the display panel unit 19 so that the dust cannot be seen when the screen of the display panel is visually recognized.
  • dust may adhere to the outside of the protective glass here, and if the protective glass is too close to the display surface of the display panel, dust adhering to the outside of the protective glass may be imaged and reflected.
  • the protective glass is provided at a distance of a certain distance or more on the optical axis of the display panel.
  • the thickness of the optical path dividing prism unit 16 in the optical axis direction secures a distance for preventing dust adhering to the outside of the optical path dividing prism unit 16 from forming an image on the display surface of the display panel. ing. Therefore, while providing a space for providing the line-of-sight detection function, the space of the entire finder can be made more compact than simply arranging the conventional display panel unit and the optical system for line-of-sight detection.
  • the panel mask 20 transmits the light from the display panel 18 and the luminous flux from the viewing port (reflected light from the user's pupil, etc.) through the second opening 20a, and the optical path dividing prism is transmitted in a portion other than the second opening 20a. It cuts stray light incident from the end of the unit 16.
  • the panel mask 20 is made of a material having high heat resistance so as to withstand the heat when the light flux from the viewing port is imaged in the vicinity, and in the present embodiment, the panel mask 20 is made of a metal plated with black. Since the opening 7c is provided in the panel holder 17, the light from the display panel 18 and the light flux from the viewing port (including the reflected light from the user's pupil) are transmitted, and the portion other than the first opening 17c is transmitted.
  • the present invention is not limited to this.
  • FIG. 21B is an exploded perspective view of the display panel unit 19 and the optical path dividing prism unit 16, and the parts corresponding to those in FIG. 21A are numbered the same.
  • the panel mask 20 and the optical path dividing prism unit 16 are positioned and attached to the display panel 18 with a jig.
  • the panel holder 17 is provided with horizontal and Y dimensions based on the Y direction reference 17d and 17e, and is provided with the X dimension based on the X direction reference 17f.
  • a panel mask 20 and an optical path dividing prism unit 16 are attached as reference to the 17d, 17e, and 17f.
  • the optical path dividing prism unit 16 is substantially sealed without a protective member for preventing dust from entering the inside of the display panel unit 19. And paste it. That is, the EVF unit 1 of the present embodiment has a configuration in which the display panel unit 19 and the optical path dividing prism unit 16 are attached and integrally formed. As a result, it is not necessary to separately provide the display panel unit 8 with a protective glass for preventing dust from entering. Therefore, the optical path length from the viewing port of the finder to the display surface of the display panel can be shortened, and a wide viewing angle with respect to the display panel 18 can be secured while making the overall configuration (space) of the EVF compact.
  • the optical axis of the display surface of the display panel unit 19 there are three optical axes: the optical axis of the optical path dividing prism unit 16, and the optical axis of the EVF lens unit 29. It is possible to easily perform the positioning of the lens.
  • the distance (space, optical path length) between the display panel 18 and the optical path dividing prism unit 16 is secured wider than a predetermined value.
  • the EVF unit in this embodiment can be applied to the camera body 101, which is an electronic device similar to the first embodiment described above, and is a light path dividing prism unit with respect to the EVF unit 1 described in the first embodiment.
  • the composition of is different.
  • FIG. 22 is an exploded perspective view of the optical path dividing prism unit 216 and the display panel 218 according to the second embodiment of the present invention.
  • the optical path dividing prism unit 216 of the present embodiment includes a first optical path dividing prism 214, a second optical path dividing prism 215, and a black mask 201, and two prisms are attached as in the first embodiment.
  • a dichroic film is formed on the attached surface.
  • a black mask 201 is attached to the incident surface of the second optical path dividing prism 215 on the display unit side by sputtering or the like.
  • the black mask 201 is shown by the shaded area in FIG.
  • the black mask 201 is provided with an opening 201a.
  • the display panel 218 includes a semiconductor chip 218a and a glass plate 218b in which an organic EL element (display surface) and a circuit for operating the organic EL element are configured.
  • the display panel 218 is directly attached to the second optical path dividing prism 15 by the double-sided tape 202. That is, when the user looks into the eyepiece 107 of the camera body 101, the black mask 201 is provided so that unnecessary objects cannot be seen in the field of view.
  • the optical path length can be shortened.
  • the EVF unit in the present embodiment can be applied to the camera body 101, which is an electronic device similar to the first embodiment described above, and has an optical path dividing prism with respect to the EVF unit 1 described in the first embodiment.
  • the unit configuration is different.
  • FIG. 23 is an exploded perspective view of the optical path dividing prism 315 and the semiconductor chip 318a for display according to the third embodiment of the present invention.
  • the same prism as the second optical path dividing prism 15 of the first embodiment described above is directly attached to the semiconductor chip 318a constituting the organic EL. It is a composition.
  • a black mask 301 is attached to the optical path dividing prism 315 by sputtering or the like, as in the second embodiment described above.
  • the black mask 301 is shown by a shaded area in FIG. 23.
  • the black mask 301 is provided with an opening 301a.
  • the semiconductor chip 318a is directly attached to the second optical path dividing prism 215 by an adhesive for maintaining airtightness.
  • the optical path dividing prism 315 is directly attached to the semiconductor chip 318a in which the organic EL element (display surface) and the circuit for operating the organic EL element are configured.
  • the display panel semiconductor chip 318a
  • the optical path length to the surface can be shortened.
  • FIG. 24 is an external perspective view of the camera body 400, which is an electronic device according to the fourth embodiment of the present invention.
  • the EVF unit 401 included in the camera body 400 of the present embodiment is substantially the same as the EVF unit 1 according to the first embodiment described above. Therefore, in the present embodiment, the arrangement of each part and the arrangement of the EVF unit 401 in the electronic device And the configuration will be described. Further, the camera main body 400 of the present embodiment and the camera main body 101 according to the first embodiment described above have basically the same arrangement of each part in the camera main body.
  • the positional relationship between the EVF unit 401 and the diopter adjusting unit 416 of the present embodiment and the release button 405 is substantially the same as that of the camera body 101 of the first embodiment. Therefore, in the following description, the arrangement of each part included in the camera body 400 will be described in more detail.
  • the camera body 400 has a mount 402 arranged on the front surface, and camera accessories such as an interchangeable lens can be attached and detached.
  • the accessory shoe 403 is arranged on the upper part of the camera body 400 and is a connection portion to which an external device such as a flash or a microphone can be attached and detached.
  • the eyepiece 404 is the back surface of the camera body 400 and is arranged above the camera body 400.
  • a grip part 419 that can be grasped by the user is arranged on the right side of the camera body 400.
  • operating means that can be manually operated while the user holds the camera body 400 are concentrated on the right side portion of the camera body 400.
  • a release button 405 On the right side and upper part of the camera body 400, there is a release button 405, a first operation dial 407 that can adjust various parameters and modes related to imaging conditions, a second operation dial 408, and a first setting button. 409, the second setting button 410, and the like are located.
  • the camera body 400 of the present embodiment is an upper part of the camera body 400, and an information display unit 406 is arranged on the right side of the EVF unit 401 (eyepiece unit 404).
  • the information display unit 406 is a display means capable of displaying various information such as a shutter speed and an aperture value related to an exposure condition, a current shooting mode, and the presence or absence of continuous shooting.
  • FIG. 25 is a perspective view schematically illustrating the internal configuration of the camera body 400 according to the fourth embodiment of the present invention.
  • FIG. 26 is an upper external view illustrating an example of the internal configuration of the camera body 400 according to the fourth embodiment of the present invention.
  • the diopter adjusting unit 416 is arranged on the right side of the EVF unit 401.
  • the grip unit 419, various operating means (406 to 410), and the diopter adjusting unit 416 are mainly concentrated on the right side of the camera body 400. This is a configuration for improving the operability of the camera body 400 when the user grips the camera body 400 in most cases with the right hand.
  • the line-of-sight detection sensor unit 415 for line-of-sight detection is arranged on the right side of the camera body 400.
  • the line-of-sight detection sensor unit 415 is arranged on the camera body 400 on a side different from the side gripped by the user with respect to the optical path (or optical axis) of the EVF unit 401. ..
  • the EVF unit 401 arranges the line-of-sight detection sensor unit 415 on the side opposite to the grip unit 419, various operating means, the diopter adjusting unit 416, etc. with respect to the lens unit of the EVF unit 401. ..
  • a shutter 411 an image sensor unit 412 including an image sensor, and a display monitor 414 are provided below the EVF unit 401.
  • the EVF unit 401 and the display monitor 414 described above are used on a plane (two-dimensional plane) perpendicular to the shooting optical axis of the camera body 400. Arrange each part so that some parts overlap.
  • the EVF unit 401 is arranged at a position overlapping the central axis of the mount 402 on a plane perpendicular to the central axis (photographing optical axis).
  • the EVF unit 401 is arranged at a position overlapping the camera body 400 and the shooting optical axis of the lens unit that can be attached to and detached from the camera body 400 in a two-dimensional plane perpendicular to the shooting optical axis of the lens unit of the EVF unit 401. Has been done.
  • a positioning means of the camera body 400 such as the GPS unit 417 and a measuring means for detecting the posture and movement of the camera body 400 such as the measuring unit 418 are arranged.
  • the above-mentioned accessory shoe 403 is arranged on the upper part of the EVF unit 401.
  • Each of these units is also connected to the main board 413 in the same manner as the various operating means described above. Therefore, if the line-of-sight detection sensor unit 415 is arranged between each unit and the EVF unit 401, the size of the camera body 400 may be increased and the wiring from the main board 413 to each unit may be complicated.
  • the layout of the EVF unit 401 for arranging the line-of-sight detection mechanism while suppressing the increase in size of the camera body 400 includes the gripping area of the camera body 400, which is a place where other members are unlikely to be arranged. It is preferable to avoid the vicinity.
  • the line-of-sight detection sensor unit 415 is placed on the side opposite to the grip area on the right side of the camera body 400 in which the grip portion 419 and various operating means are arranged. It is preferable to arrange them.
  • the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.
  • a so-called interchangeable lens type image pickup device in which the camera body has a detachable lens unit has been described, but the present invention is not limited thereto.
  • the lens unit and the camera body may be integrally provided.
  • the imaging device has been exemplified as an electronic device for carrying out the present invention, but the present invention is not limited thereto.
  • the device has a line-of-sight detection function such as a head-mounted display and controls by feeding back the line-of-sight detection function, each of the above-described embodiments can be applied.
  • the present invention is not limited to this.
  • a (computer) program according to the flow illustrated in FIG. 20 described above is stored in advance in a memory unit or the like of the camera body. Then, the program may be configured to control the operation related to the entire imaging system by executing the program in conjunction with each unit constituting the camera body 101 as shown in FIG. Further, as long as it has a program function, the form of the program such as object code, a program executed by an interpreter, script data supplied to the OS, etc. does not matter.
  • the recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, or an optical / optical magnetic recording medium.
  • the present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • ASIC application specific integrated circuit

Abstract

第1のレンズユニットを介して入射した被写体の光学像を撮像できる第1のセンサーを備えた撮像装置であって、表示パネルと、接眼部と、接眼部を覗くことで表示パネルを見るユーザーの眼を撮像可能であって、第1のセンサーとは異なる第2のセンサーと、表示パネルからの光を撮像装置の外部に導き、外部からの光を第2のセンサーへと導く光路分割手段と、光路分割手段と接眼部との間に配された第2のレンズユニットと、を有し、第2のセンサーは、第2のレンズユニットの光軸に対して、撮像装置の把持領域とは異なる側に配されていることを特徴とする構成とした。

Description

撮像装置、電子機器、ファインダーユニット
 本発明は、視線検出機能を備えた撮像装置、電子機器、ファインダーユニットに関するものである。
 従来、デジタルカメラの表示装置として、ユーザーが自身の眼を接眼して表示画像を視認可能なEVF(ELECTRONIC VIEW FINDER)が知られている。
 またカメラやビデオカメラでは、使用者の視線方向を検出することで、測距点選択などの機能を実現した視線検出機能を有するカメラが実用化されている。
 例えば特開平5-130463号公報では、EVF表示光路と視線入力センサーの光路を共通光路とし、途中に光路分割ミラーを設けることでEVF表示を視る目の視線方向(位置)を検出する技術の開示がある。
特開平5-130463号公報
 しかしながら、特許文献1では、視線入力機能を備えつつ、撮像装置におけるEVFの最適な配置については言及されていない。例えば、ファインダー内のゴミの影響を防止する適切な構成や、撮像装置が備える操作部材や内蔵部材とファインダーや視線検出機構との相対的な配置については考えられていなかった。
 そこで本発明の目的は、EVFを備え、視線入力機能を備えた撮像装置の操作性の低下を抑制できるような、撮像装置におけるEVFの最適な配置について提案することである。
 上記目的を達成するために、本発明は、視線検出機能を有するEVFで、視線検出センサーに光路を分割する光路分割手段(16)に、表示手段(18)を有する表示ユニット(19)を固定することを特徴とする。
 本発明によれば、EVFを備え、視線入力機能を備えた撮像装置の操作性の低下を抑制することができる。
本発明の第1実施形態に係る電子機器であるカメラ本体101の外観を例示的に説明した図である。 本発明の第1実施形態に係る電子機器であるカメラ本体101の外観を例示的に説明した図である。 カメラ本体101内の本発明に係る構成を例示的に説明するブロック図である。 本発明の第1実施形態に係るカメラ本体101の断面図である。 本発明の第1実施形態に係るEVFユニット1の断面図である。 本発明の第1実施形態に係るアイピース窓32を例示的に説明する図である。 本発明に係るアイピース窓32の断面図である。 本発明に係るEVFユニット1の構成図である。 本発明に係るEVFユニット1の要部断面図である。 本発明の第1実施形態に係る近接検知用赤外LED44を含む位置でのEVFユニット1の要部断面(水平断面)図である。 本発明の第1実施形態に係る近接検知用センサー45を含む位置でのEVFユニット1の要部断面(水平断面)図である。 本発明に係るEVFユニット1の近接検知ユニット47を含む位置における断面図である。 近接検知ユニット47の投受光特性を例示的に説明するグラフである。 本発明の第1実施形態に係る近接検知ユニット47の要部断面(法線断面)図である。 本発明の第1実施形態に係るEVFユニット1における主に視線検出機能に係る部分の斜視図を例示的に説明する図である。 本発明の第1実施形態に係るEVFユニット1における主に視線検出機能に係る部分を示す断面図である。 本発明のEVFユニット1に係る視線検出用の光路を例示的に説明する図である。 ユーザーの眼球と反射像の配置を例示的に説明する図である。 視線検出方法の原理を例示的に説明するための図である。 視線検出センサーにおける眼画像を例示的に説明する図である。 本発明の第1実施形態に係る視線検出動作の概略フローチャートを表す。 本発明の第1実施形態に係る光路分割プリズムユニット16の構造について例示的に説明する図である。 本発明の第1実施形態に係る光路分割プリズムユニット16の構造について例示的に説明する図である。 本発明の第2実施形態に係る光路分割プリズムユニット216と表示パネル218の分解斜視図である。 本発明の第3実施形態に係る光路分割プリズム315と表示用の半導体チップ318aの分解斜視図である。 本発明の第4実施形態に係る電子機器であるカメラ本体400の外観斜視図である。 本発明の第4の実施形態に係るカメラ本体400の内部構成を例示的に説明する斜視図である。 本発明の第4の実施形態に係るカメラ本体400の内部構成を例示的に説明する上部外観図である。
 (第1実施形態)
 以下、添付の図面を参照して本発明の好適な実施形態を説明する。
 <撮像装置100の基本構成>
 図1は、本発明の第1実施形態に係る電子機器であるカメラ本体101の外観を例示的に説明した図である。なお、本実施形態では、カメラ本体101と後述するレンズユニット102を総称して撮像装置100とする。また、本発明でいう電子機器は、画像、文字等の情報を表示するデバイスと当該デバイスの表示情報を視聴するユーザーの視線を検出することが可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、ヘッドマウントディスプレイなどが含まれてよい。
 図1Aは正面斜視図であり、図1Bは背面斜視図である。カメラ本体101には、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン103が配置されている。図1Bに示すように、カメラ本体101の背面には、カメラ本体101内に含まれている後述のEVFユニット1をユーザーが覗き込むための接眼部107が配置されている。接眼部107は覗き口を形成し、カメラ本体101に対しては外側(背面側)に突出している。カメラ本体101の背面には、ユーザーからの各種操作を受け付ける操作部材106も配置されている。例えば、第1操作部材106Aは各方向に押し倒し可能な操作レバーであり、第2操作部材106Bは4方向のそれぞれに押し込み可能な4方向キーである。表示モニタ104(タッチパネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
 図2は、カメラ本体101内の本発明に係る構成を例示的に説明するブロック図である。撮像素子105は例えばCCDやCMOSセンサー等の撮像素子であり、レンズユニット102の光学系により撮像素子105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部に出力し、画像データとして出力する。
 レンズユニット102は、不図示のズームレンズ、フォーカスレンズ、絞り等を含む光学系で構成され、カメラ本体101に装着された状態で、被写体からの光束を撮像素子105に導き、被写体像を撮像素子105の撮像面上に結像する。絞り制御部118、焦点調節部119、ズーム制御部120は、それぞれ、マウント部108に設けられたマウント接点部108Bを介してCPU111からの指示信号を受信し、該指示信号に従い、絞り、フォーカスレンズ、ズームレンズを駆動制御する。
 カメラ本体101が備える制御手段であるCPU111は、カメラ本体101が備える各ブロックに対する制御プログラムをメモリ部112の有するROMより読み出し、メモリ部112の有するRAMに展開して実行する。これによりCPU111は、カメラ本体101が備える各ブロックの動作を制御し、カメラ本体101およびレンズユニット102の統括的な制御が可能となる。CPU111には、視線検出部4、測光部113、自動焦点検出部114、信号入力部115、EVF駆動部2、光源駆動部3等が接続されている。また、CPU111は、レンズユニット102内に配置された焦点調節部119と絞り制御部118とに、マウント接点部108Bを介して信号を伝達する。本実施形態では、メモリ部112は、撮像素子105および視線検出センサー53からの撮像信号の記憶機能を備える。
 視線検出部4は、後述する視線検出センサー53(CCD-EYE)上に眼球像が結像した状態で、視線検出センサー53の出力(眼を撮像した眼画像)をA/D変換し、その結果を取得する。CPU111は、後述する所定のアルゴリズムに従って、眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視点)を算出する。
 測光部113は、測光センサーの役割を兼ねた撮像素子105から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報として取得することができる。
 自動焦点検出部114は、撮像素子105を構成する画素に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換する。そして、CPU111は、当該変換後の複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、ファインダー内の視野像(視認用画像)を分割し、撮像面上の分割された180か所のそれぞれに、焦点検出ポイントがあるものとする。
 画像処理部116は、RAMに記憶されている画像データに対して、各種画像処理を行う。具体的には、例えば光学系や撮像素子に起因する画素の欠陥補正処理、デモザイキング処理、ホワイトバランス補正処理、色補間処理、ガンマ処理など、デジタル画像データを現像し表示・記録するための様々な画像処理を適用する。
 信号入力部115には、レリーズボタン103の第1ストロークでオンするスイッチSW1と、レリーズボタン103の第2ストロークでオンするスイッチSW2が接続されている。スイッチSW1で、カメラ本体101の測光、測距、視線検出動作等の開始が指示され、スイッチSW2で、撮影動作の開始が指示される。スイッチSW1,SW2からのオン信号が信号入力部115に入力され、CPU111に伝達される。また、信号入力部115は、図1Bの操作部材106A、Bや表示モニタ104などからの操作入力も受け付ける。
 記録/出力部117は、着脱可能なメモリカード等の記録媒体に画像データを含むデータを記録、またはこれらのデータは外部インターフェースを介して外部装置に出力される。以上が、カメラ本体101およびレンズユニット102を備えた、撮像装置100の基本構成についての説明である。
 <EVFユニット1の構成>
 図3は、本発明の第1実施形態に係るカメラ本体101の断面図であって、図1Aに示したY軸とZ軸が成すYZ平面でカメラ本体101を切断した断面図である。
 図3に図示するように、シャッター109は、フォーカルプレーン式のメカニカルシャッターであって、レンズユニット102が配された側から、シャッター109、撮像素子105が順に並んでいる。なお、図3に示す断面図において、撮像素子105と表示モニタ104の間には、メイン基板(不図示)などが配さえている。レンズユニット102は、マウント108Aを介してカメラ本体101に対して着脱可能であって、図3に図示する状態では、カメラ本体101に装着されている。
 EVF(ELECTRONIC VIEW FINDER)1は、カメラ本体101の上部に設けられた表示手段であって、後述する視線検出機能を有している。なお、カメラ本体101の上部は、外装カバー110の内部において、EVFユニット1が設けられている側であって、カメラ本体101の下部は、EVFユニット1に対して、表示モニタ104や撮像素子105が設けられている側である。
 EVFユニット(ファインダーユニット)1は、通常のEVFとして表示モニタ104のようにメニューや画像の表示が行えることに加えて、EVFを覗くユーザーの視線を検出する視線検出機能を有する。そして、EVFユニット1は、視線検出結果をカメラ本体101の制御に反映することが可能な構成となっている。視線検出機能の詳細については後述する。
 なお、ユーザーは、アイカップ取付枠8に取り付けられた着脱式のアイカップ9を含む接眼部107を介して、EVFユニット1を覗き込むことができる。
 次に、図4を参照して、EVFユニット1の構成について詳細を説明する。図4は、本発明の第1実施形態に係るEVFユニット1の断面図であって、EVFユニット1の光軸(すなわち、EVFレンズユニット29の撮影光軸)に対する縦断面を示している。なお、図4で示すEVFレンズユニット29の位置は視度が-1である場合を示す。
 固定鏡筒12には、プリズムマスク13を挟んで、光路分割プリズムユニット16が接着固定されている。
 光路分割プリズムユニット16は、第一光路分割プリズム14と第二光路分割プリズム15が貼り付け接着されて構成された光路分割手段である。
 パネルホルダー17は、表示パネルを保持する保持機構である。表示パネル18とパネルホルダー17が接着固定され、EVFユニット1における表示パネルユニット19を構成している。
 表示パネルユニット19と光路分割プリズムユニット16は、マスク手段であるところのパネルマスク20を挟んで固定されている。
 EVFユニット1を構成するEVFレンズユニット(接眼光学系)29は、G1レンズ21、G2レンズ25、ファインダーレンズ(G3レンズ)26を含んでいる。G1レンズ21は、G1レンズホルダー22に保持されている。また、G1-G2マスク23も、G1レンズホルダー22に保持されている。G2-G3ホルダー24により、G2レンズ25とファインダーレンズ26であるところのG3レンズが保持されている。G1レンズホルダー22は不図示のビスでG2-G3ホルダー24に対して固定されている。G3マスク27は、マスク用両面テープ28でG2-G3ホルダー24に固定されている。なお、上述した部材21~28を総称してEVFレンズユニット29とする。
 EVFユニット1のうち、前述した接眼部107の内側には、LEDホルダー30、アイピース窓ホルダー31、アイピース窓32が設けられている。次に、アイピース窓32の構成について、図5を参照して詳細を説明する。図5は、本発明の第1実施形態に係るアイピース窓32を例示的に説明する図であって、アイピース窓32をEVFレンズユニット29側(カメラ内側)から見た状態を示している。
 アイピース窓32はカメラ内側がR1面、その反対側(カメラ外側)をR2面とする光学部材であって、透明な板ガラスが基材である。透明領域32aは無地の領域であって、クロスハッチ領域で示す可視光カットマスク32bが透明領域の周囲に配されている。すなわち、EVFユニット1における撮影光路に該当する箇所は透明領域32aが位置し、可視光カットマスク32bは当該撮影光路を避けた領域に配されている。
 可視光カットマスク32bは、可視光を吸収し、赤外光を透過する材料(インキ)で印刷された印刷物ており、可視波長の光における見た目の色は黒色である。なお、可視光カットマスク32bとしては、赤外波長の光の透過率よりも可視波長の光の透過率が低い構成であればよい。
 図6は、図5のA-A断面が示す、本発明に係るアイピース窓32の断面図である。前述したように、板ガラス32cは、アイピース窓32の基材である。反射防止コート32dは、アイピース窓32のカメラ内側に配された不要光の反射を防止するためのコーティングである。さらに、板ガラス32cを挟んで反射防止コート32dの反対側に、ハードコート・反射防止コート・飛散防止の機能を持つARフィルム32eが設けられている。アイピース窓32におけるカメラ外側に、飛散防止機能を有するARフィルム32eを備えることで、アイピース窓32が破損した際の安全性を向上させている。
 以上説明したように、表示パネルユニット19に表示された表示画像は、光路分割プリズムユニット16とEVFレンズユニット29およびアイピース窓32の透明領域32aを介して、ユーザーが観察可能となる。
 次に、図7は、接眼部107側からアイピース窓32を外した状態でEVFユニット1を見た状態の、EVFユニット1の構成図を示している。すなわち、図7は、カメラ本体101を背面側から見たEVFユニット1の詳細説明図である。
 図7に図示するように、アイピース窓ホルダー31の中央には、EVFのアスペクト比に対応した横長の表示開口マスク31aが設けられており、アイピース窓32の透明領域32aと略同一形状に形成されている。
 EVFユニット1の側面(右側面)には、視度調整ダイヤル33が軸ビス34により回転可能に保持されている。視度調整ダイヤルは、EVFレンズユニット29を構成するレンズ群を光軸と平行な方向に移動させることで、ユーザーがEVFユニット1を覗き込む際の視度を調整することができる視度調整手段である。なお、カメラ本体101の右側は図1Aで図示したX軸方向と平行な方向において、レリーズボタン103や第1操作部材106A、第2操作部材106Bが位置する側である。
 固定ビス35は、アイピース窓ホルダー31とLEDホルダー30とを共締めで固定鏡筒12に固定している。
 視線用赤外LED36、37、38、39は、主に近距離照明用の視線用照明手段であって、アイピース窓ホルダー31に設けられたLED用開口マスク31b、31c、31d、31eの内部にそれぞれ配置されている。
 また、視線用赤外LED40、41、42、43は、主に遠距離照明用の視線用照明手段であって、アイピース窓ホルダー31に設けられたLED用開口マスク31f、31g、31h、31iの内部にそれぞれ配置されている。上述した8つの視線用赤外LEDは、各LED用開口マスクにより照明光束が絞られ、それぞれ異なる位置(照射方向)に向けて赤外光を照射する配置になっている。
 近接検知用赤外LED44は、後述する近接検知用センサー45と合わせて、EVFユニット1への物体(主にユーザー)の接近の有無を検出する近接検知手段に含まれる照明手段である。近接検知用赤外LED44は、LED用開口マスク31jの内部に配置されている。
 近接検知用センサー45は、近接検知用赤外LEDから所定の照射方向に照射され、物体を介して反射した光束を受光する検出手段であって、センサー用開口マスク31kの内部に配置されている。
 図7に図示するように、表示開口マスク31aの長辺位置の上下側でそれぞれ4つ(計8つ)の視線用赤外LEDを配置し、短辺位置に近接検知用赤外LED・近接検知用センサー・視度調整機構を配置する。この構成により、視線検出機能および視度調整機能を備えつつ、EVFユニット1の2次元投影面上の寸法を小型化することができる。
 また、計8つの視線用赤外LED36~39と、近接検知用赤外LED44および近接検知用センサー45は、図7に図示するように、表示開口マスク31aよりもEVFユニット1の光軸を基準とした外側に配置されている。したがって、上述した各照明手段および検出手段は、EVFユニット1をカメラ本体101の背面側から見て、アイピース窓32の可視カットマスク32bが位置する領域に配される(2次元投影面で重なる)ため、ユーザーから容易に視認することがない。この構成により、外部からは見えなくなっている。図8は、EVFユニット1の要部断面図であって、主に近距離照明用の視線用赤外LED39を含む位置でのEVFユニット1の光軸と平行な方向における縦断面である。なお、図8で図示する状態は、EVFレンズユニット29の位置として、EVFユニット1の視度が+2.0である場合を示す。
 図8に図示するように、近距離照明用の視線用赤外LED39は、LEDホルダー30に取り付けられた第1クッション部材46によりアイピース窓ホルダー31に対し押し付けられ、LED用開口マスク31eに対して固定されている。
 遮光壁31mは、近距離照明用の視線用赤外LED39などから出た赤外光がファインダーレンズ26に直接入射する事を防ぐための遮光部材である。
 ファインダーレンズ26は、凸のレンズであるR2面26aを備えており、ファインダーレンズ26とアイピース窓32の間隔が、レンズの中心から周辺に行くに従って広がっている。この広がった領域に遮光壁31mを配置する事が出来るので、例えば、近距離照明用の視線用赤外LED39の照明光は、アイピース窓32からの距離が近い領域まで照明することができる。
 更に、アイピース窓32は、透明領域32aと連続した同一部材として可視カットマスク32bを備えているので、双方を接続する接続部分を別途設ける必要が無い。そのため、接続部分による光線のけられが発生せず、EVFユニット1の近距離領域への配光特性を向上させることができる。
 なお、主に視線用赤外LED39について説明したが、他の視線用赤外LED36、37、38や視線用赤外LED40、41、42、43についても、同様の構成を採用しており、上述した効果を奏することができる。
 次に、近接検知用赤外LED44と近接検知用センサー45の相対的な配置について詳細を説明する。なお、本実施形態では、近接検知用赤外LED44と近接検知用センサー45を同一のユニットとしてパッケージ化し、近接検知ユニット47として構成している。
 図9は、本発明の第1実施形態に係る近接検知用赤外LED44を含む位置でのEVFユニット1の要部断面(水平断面)図である。また、図10は、本発明の第1実施形態に係る近接検知用センサー45を含む位置でのEVFユニット1の要部断面(水平断面)図である。
 近接検知用赤外LED44は、近接検知用センサー45と合わせて、近接検知ユニット47としてEVFユニット1における位置が決められている。具体的に、近接検知ユニット47は第2クッション部材48を介してアイピース窓ホルダー31に対して押し付けられて、EVFユニット1における位置が決められている。そして、図9に示されている様に、近接検知ユニット47は、近接検知用赤外LED44の照射面が、EVFユニット1の光軸と平行な線に対して10°傾くように配されている。同様に、
 近接検知用センサー45のセンサー面も、EVFユニット1の光軸と平行な線に対して10°傾いた方向を向いている。
 次に、図11は、近接検知ユニット47を含む位置における断面図であって、近接検知用赤外LED44と近接検知用センサー45を含み、EVFユニット1の光軸と平行な方向における断面図である。また、図12は、近接検知ユニット47の投受光特性を例示的に説明するグラフである。図12において、横軸は近接検知ユニット47の法線方向からの角度を示し、縦軸は法線方向を基準とした時の投受光特性の強度を表している。
 以下、図9~図12を参照して、近接検知ユニット47の検出誤差の原因の一つであるクロストークについて説明する。図9において、アイカップ取付枠8と着脱式のアイカップ9の内壁部分は、近接検知用赤外LED44から出た赤外光のうち、図中のクロスハッチ部分49が示す領域が照明される。この時、近接検知用赤外LED44が10°傾いている場合(16°~30°の領域)と、傾きがない垂直方向(10°傾いていないので、6°~20°相当となる)を向く場合とで、クロスハッチ部分49の赤外光の強度の積分値の比率は以下のようになる。10°傾斜 : 垂直 ≒ 0.6 : 1。
 図10に図示するように、アイカップ取付枠8と着脱式のアイカップ9の内壁部分のうち、近接検知用センサー45では、図中のクロスハッチ部分50で示す領域の光が取り込まれる。この時、近接検知用センサー45が10°傾いている場合(16°~30°の領域)と、傾きがない垂直方向(10°傾いていないので、6°~20°相当となる)を向く場合とで、クロスハッチ部分50の検知感度の積分値の比率は以下のようになる。10°傾斜 : 垂直 ≒ 0.6 : 1。
 すなわち、図9に図示する投光側と、図10に図示する受光側を合わせて、10°傾斜 : 垂直 ≒ 0.6 : 1 = 0.36 : 1、となり、アイカップ取付枠8と着脱式のアイカップ9の内壁の影響によるクロストークは、約64%軽減される。この時、正面方向に対する検出の為の信号レベルは、検知方向をEVFユニット1の光軸と平行な方向に向けているので有害な影響はない。
 次に、図11を参照して、アイピース窓32内の面内反射によるクロストークについて説明する。クロストーク光路は、近接検知用赤外LED44から出た赤外光がアイピース窓32のR1面を通り、R2面で反射し、再びR1を通って近接検知用センサー45に到達する光路51が一回反射で到達する光路である。複数回反射も存在するが、R2面の反射率が略2%である為、1回反射で強度2%、2回反射で強度0.04%、3回反射で強度0.0008%となり、反射回数に応じて強度が大幅に減少するため、ここでは1回反射のみ考慮する。
 近接検知ユニット47がアイピース窓32と正対している場合は、図11に図示する、29°の方向の赤外光強度は、近接検知用赤外LED44の中心から照射される光に対して約25%となる。
 以下、近接検知ユニット47が図9に図示するように略10°傾斜している場合における、法線に対する角度の算出方法について説明する。図13は、本発明の第1実施形態に係る近接検知ユニット47の要部断面(法線断面)図であって、近接検知用赤外LED44の中心と点Pを通る、近接検知ユニット47の法線方向断面を示す。
 図13に図示するように、反射前に29°であった近接検知用赤外LED44の法線と点Pを通る線のなす角度は、1回反射により31°に変化する。上述した場合の赤外光強度は、図12を参照すると、図示する投受光特性グラフに基づくと、近接検知用赤外LED44の中心に対して約22%(10°傾斜 : 垂直 ≒ 0.22 : 0.25 = 0.88 : 1)となる。
 なお、近接検知ユニット47をトータルで見ると、10°傾斜 : 垂直 ≒ 0.88 : 1 = 0.77 : 1、となり、アイピース窓の面内反射の影響によるクロストークは、約23%軽減される。
 以上説明したように、アイピース窓32に対して近接検知ユニット47を所定角度だけ傾斜して配置する事で、アイカップ取付枠8の壁面クロストークやアイピース窓32による面内反射クロストークを効果的に低減することができる。
 次に、EVFユニット1における光路分割プリズムユニット16と視線検出部4の構成について説明する。なお、本実施形態の視線検出部4は、少なくとも、視線結像レンズ52、視線検出センサー53、視線検出用の絞り56を含むが、視線用赤外LED36~43や光路分割プリズムユニット16を含む構成としてもよい。
 図14は、本発明の第1実施形態に係るEVFユニット1における主に視線検出機能に係る部分の斜視図を例示的に説明する図である。また、図15は、本発明の第1実施形態に係るEVFユニット1における主に視線検出機能に係る部分を示す断面図であって、EVFユニット1の光軸と平行な方向に対する横断面図である。また、図16は、図14に図示する斜視図に対し、本発明のEVFユニット1に係る視線検出用の光路を例示的に説明する図である。
 視線用赤外LED36~43は、ユーザーの眼球に対して赤外光が照射される向きが異なるように、それぞれ異なる位置・姿勢で設けている。例えば、視線用赤外LED36~43は、アイピース窓32の板ガラス32cのガラス面に対して、異なる、且つ、異なる姿勢で配されている。
 視線用赤外LED36、37、38、39は、主に近距離照明用に赤外波長域の光を照射可能な照明装置であって、光源にLED(LIGHT EMITTING DIODE)を採用している。視線用赤外LED40、41、42、43は、主に遠距離照明用に赤外波長域の光を照射可能な照明装置であって、光源にLEDを採用している。
 視線結像レンズ52は、視線検出用の光学系であって、視線用赤外LEDの各々から照射されユーザーの眼で反射した光を視線検出センサー53に結像させることができる。視線検出センサー53は、CCDなどの固体撮像素子を用いた視線検出用のセンサーであって、接眼部107に近接したユーザーの眼の視線検出が可能な検出手段である。なお、視線検出センサー53としては、視線検出用に赤外波長域の反射光を撮像するため、カラー画像またはモノクローム画像のどちらを取得可能な構成でもよい。視線検出用の絞り56は、視線検出センサー53に入射する光量の調整および、ユーザーの眼球画像が不鮮明とならないような被写界深度となるように、絞りの開口径が調整される。
 図15に図示するように、所定の視線用赤外LEDから照射された赤外光はユーザーの眼球に反射した眼球像として、アイピース窓32、ファインダーレンズ26、G2レンズ25、G1レンズ21を通し第一光路分割プリズム14の第2面14aへと入射する。なお、当該入射光の入射光路を光路54として図15に図示する。
 第一光路分割プリズム14の第1面14bは、赤外光を反射するダイクロ膜が形成されている。したがって、EVFユニット1に入射したユーザーの眼球像は、第1面14bに反射し、第2面14aの方向に向かう。なお、当該反射光の光路を反射光路55aとして図15に図示する。
 反射光路55aを通る反射光は第2面14aで全反射し、結像光路55bを通り、絞り56を介して、視線結像レンズ52により視線検出センサー53に結像する。
 なお、図16に図示するように、本実施形態に係るカメラ本体101では、視線検出の為に、眼球の瞳孔像と合わせて、視線用赤外LEDの照明により、ユーザーの眼球の角膜142での正反射で形成される角膜反射像を用いる。
 図17は、ユーザーの眼球と反射像の配置を例示的に説明する図である。なお、図17では、眼球像と角膜反射像の眼球距離が近距離の場合を示す。図17において、ユーザーの眼球としては、瞳孔141と光彩143を備え、視線用赤外LEDのそれぞれから照射された光による角膜反射像を角膜反射像144~147とする。
 なお、視線用赤外LED36に対応する反射像が角膜反射像144、視線用赤外LED37に対応する反射像が角膜反射像145、視線用赤外LED38に対応する反射像が角膜反射像146、視線用赤外LED39に対応する反射像が角膜反射像147である。
 本実施形態に係る視線検出(視線の方向の検出)は、瞳孔の中心と角膜反射像の相対的な関係から検出をする。視線検出の方法としては、例えば、特許第3186072号公報を採用すればよく、視線検出の方法についての詳細説明は省略する。
 <視線検出動作の説明>
 図18,図19(a),図19(b),図20を用いて、視線検出方法について説明する。図18は、視線検出方法の原理を例示的に説明するための図であり、視線検出を行うための光学系の概略図である。図18に示すように、仮想光源131としては光源131a,131bは受光レンズ130の光軸に対して略対称に配置され、ユーザーの眼球140を照らす。光源131a,131bから発せられて眼球140で反射した光の一部は、受光レンズ130によって、視線検出センサー53に集光する。図19は、視線検出センサーにおける眼画像を例示的に説明する図である。図19(a)は、視線検出センサー53で撮像された眼画像(視線検出センサー53に投影された眼球像)の概略図であり、図19(b)は視線検出センサー53におけるCCDの出力強度を示す図である。図20は、本発明の第1実施形態に係る視線検出動作の概略フローチャートを表す。
 視線検出動作が開始すると、図20のステップS801で、光源131a,131bは、ユーザーの眼球140に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ130を通して視線検出センサー53上に結像され、視線検出センサー53により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
 ステップS802では、視線検出部4は、視線検出センサー53から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU111に送る。
 ステップS803では、CPU111は、ステップS802で得られた眼画像から、光源131a,131bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
 光源131a,131bより発せられた赤外光は、ユーザーの眼球140の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ130により集光され、視線検出センサー53上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も視線検出センサー53上に結像して、眼画像における瞳孔端像a’,b’となる。
 図19(b)は、図19(a)の眼画像における領域α’の輝度情報(輝度分布)を示す。図19(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図19(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が視線検出センサー53上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
 図19(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、仮想の受光レンズ130の光軸に対する眼球140の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が視線検出センサー53上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
 ステップS804では、CPU111は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ130に対する眼球140の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて求めることができる。
 ステップS805では、CPU111は、受光レンズ130の光軸に対する眼球140の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球140の回転角θは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
 β×Oc×SINθ≒{(Xd+Xe)/2}-Xc・・・(式1)
 ステップS806では、CPU111は、ステップS805で算出した回転角θx,θyを用いて、EVFユニット1に表示された視認用画像におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。
 Hx=m×(Ax×θx+Bx)・・・(式2)
 Hy=m×(Ay×θy+By)・・・(式3)
 式2,3のパラメータmは、カメラ本体101のファインダー光学系(受光レンズ130等)の構成で定まる定数である。また、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数である。これらは、予め決定されてメモリ部112に格納される。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部112に格納されるとする。
 ステップS807では、CPU111は、視点の座標(Hx,Hy)をメモリ部112に格納し、視線検出動作を終える。
 次に、図21を参照して、光路分割プリズムユニット16の詳細な構成について説明する。図21は、本発明の第1実施形態に係る光路分割プリズムユニット16の構造について例示的に説明する図である。図21Aは、図15に示すC部の詳細を示す断面図である。表示パネル18は、有機EL素子と有機EL素子(表示面)を動作させるための回路が構成された半導体チップ18aとガラス板18bにより構成されている。表示パネル18は、パネルホルダー17の表示パネル突き当て面17aに突き当てられて接着剤等で接着固定される。パネルホルダー17は樹脂でできている。パネルホルダー17の表示パネル突き当て面17aの反対側にプリズム貼り付け面17bが形成されている。プリズム貼り付け面17bには、第1の両面テープ57、パネルマスク20、第2の両面テープ58を挟んで光路分割プリズムユニット16が並び、それぞれ両面テープによって接着固定される。接着方法としては接着剤等でも構わない。
 このように、本実施形態では、表示パネル18(表示パネルユニット19)内部にゴミが侵入することを防止するための保護部材を介さずに、光路分割プリズムユニット16を略密閉して貼り付ける構成とすることを特徴としている。ここで、従来のEVFでは、表示パネルの画面を視認する際にゴミが見えないように、ゴミの侵入を防ぐ保護ガラスが表示パネルユニット19の前面に設けられている。しかしここで保護ガラスの外側にゴミが付着することもあり、保護ガラスが表示パネルの表示面に近過ぎると、保護ガラスの外側に付着したゴミが結像して映り込む可能性があるので、保護ガラスは表示パネルの光軸上一定以上の距離を取って設けられる。それに対して本実施形態では、光路分割プリズムユニット16の光軸方向の厚みが光路分割プリズムユニット16の外側に付着したゴミが表示パネルの表示面に結像するのを防ぐための距離を確保している。従って視線検出機能を備えるための空間を取りながらも、単に従来の表示パネルユニットと視線検出のための光学系を配するのに比べてファインダー全体の空間をコンパクトにすることができる。
 パネルマスク20は、第2開口部20aにより、表示パネル18からの光と覗き口からの光束(ユーザーの瞳からの反射光など)を透過し、第2開口部20a以外の部分で光路分割プリズムユニット16の端部などから入射される迷光をカットする。パネルマスク20は、覗き口からの光束が近辺で結像した際の熱に耐えられるように耐熱性の高い材料で構成され、本実施形態では金属に黒色メッキをしたもので構成されている。開口部7cはパネルホルダー17に設けられていることで、表示パネル18からの光と覗き口からの光束(ユーザーの瞳からの反射光を含む)を透過し、第1開口部17c以外の部分で覗き口側から半導体チップ18aの回路部分が見えないようにマスクする。本実施形態では結果的に、EVFレンズユニット29側から見たときに第1開口部17cは第2開口部20aより外側になるように開口しているが、本発明はこれに限らない。
 図21Bは、表示パネルユニット19と光路分割プリズムユニット16の分解斜視図であり、図21Aと対応する部分に同じ番号をつけてある。
 本実施形態では、光路分割プリズムユニット16に表示パネルユニットを張り付けるときに、表示パネル18に対してパネルマスク20と光路分割プリズムユニット16を治具で位置決めして張り付けている。位置決めの為に、パネルホルダー17にはY方向基準17d、17eで水平とY寸法を出し、X方向基準17fでX寸法を出している。この17d、17e、17f基準としてパネルマスク20と光路分割プリズムユニット16を張り付けている。
 以上説明したように、本実施形態では視線検出機能を有するEVFユニット1において、表示パネルユニット19内部にゴミが侵入することを防止するための保護部材を介さずに光路分割プリズムユニット16を略密閉して貼り付ける構成とした。すなわち、本実施形態のEVFユニット1は、表示パネルユニット19と光路分割プリズムユニット16とを貼り付けし一体形成する構成とした。これにより表示パネルユニット8にゴミ侵入防止のための保護ガラスを別途設ける必要が無い。従って、ファインダーの覗き口から表示パネルの表示面までの光路長を短縮でき、EVF全体の構成(空間)をコンパクトにしつつ、表示パネル18に対する広い視野角を確保することができる。また、上述した構成を採用することで、EVFユニット1の組み立て時に、表示パネルユニット19の表示面の光軸、光路分割プリズムユニット16の光軸、EVFレンズユニット29の光軸の3つの光軸の位置決めを、容易に行うことを可能としている。
 また本実施形態の光路分割プリズムユニット16は、表示パネ18と光路分割プリズムユニット16の間隔(空間、光路長)を所定値よりも広く確保している。この構成により、光路分割プリズムユニット16自体に存在する異物などがユーザーに視認されることも防止することができる。
 (第2実施形態)
 以下、図22を参照して、本発明の第2実施形態による、視線検出機能を有するEVFユニットについて説明する。なお、本実施形態におけるEVFユニットは前述した第1実施形態と同様の電子機器であるカメラ本体101に適用可能であって、第1実施形態に記載のEVFユニット1に対して、光路分割プリズムユニットの構成が異なる。
 したがって、本実施形態では、前述した第1実施形態に記載のEVFユニット1と同一の構成については説明を省略し、光路分割プリズムユニットについて詳細を説明する。
 図22は、本発明の第2実施形態に係る光路分割プリズムユニット216と表示パネル218の分解斜視図である。図22に図示するように、本実施形態の光路分割プリズムユニット216は、第一光路分割プリズム214、第二光路分割プリズム215、黒色マスク201を備え、第1実施形態と同じく二つのプリズムの貼り付け面にダイクロイック膜が構成されている。
 第二光路分割プリズム215の表示ユニット側の入射面には、黒色マスク201がスパッタ等によりつけられている。当該黒色マスク201は、図22の斜線部で示す。黒色マスク201には開口部201aが設けられている。
 表示パネル218は、第1実施形態と同様に、有機EL素子(表示面)と有機EL素子を動作させるための回路が構成された半導体チップ218aとガラス板218bを備えている。
 以上説明したように、本実施形態では、表示パネル218を第二光路分割プリズム15に両面テープ202により直接貼り付ける構成とする。すなわち、ユーザーがカメラ本体101の接眼部107を覗き込んだ際に、視野に不要なものが見えないようにするために、黒色マスク201が設けられていることを特徴とする。
 本構成により、表示パネル218に第二光路分割プリズム215を直接貼り、表示パネル218にゴミ侵入防止のための保護ガラスを別途設ける必要が無いので、ファインダーの覗き口から表示パネルの表示面までの光路長を短縮することができる。
 (第3実施形態)
 以下、図23を参照して、本発明の第3実施形態による、視線検出機能を有するEVFユニットについて説明する。なお、本実施形態におけるEVFユニットは、前述した第1実施形態と同様の電子機器であるカメラ本体101に適用可能であって、に第1実施形態に記載のEVFユニット1に対して光路分割プリズムユニットの構成が異なる。
 したがって、本実施形態では、前述した第1実施形態に記載のEVFユニット1と同一の構成については説明を省略し、光路分割プリズムユニットについて詳細を説明する。図23は、本発明の第3実施形態に係る光路分割プリズム315と表示用の半導体チップ318aの分解斜視図である。図23に図示するように、本実施形態の光路分割プリズム315は、前述した第1実施形態における第二光路分割プリズム15と同一のプリズムが、有機ELを構成する半導体チップ318aに直接貼り付けられる構成である。
 なお、光路分割プリズム315には、前述した第2実施形態と同様に、黒色マスク301がスパッタ等によりつけられている。当該黒色マスク301は、図23の斜線部で示す。黒色マスク301には開口部301aが設けられている。
 半導体チップ318aは、密閉性を保つための接着剤により、直接第二光路分割プリズム215に直接張り付けられている。
 以上説明したように、本実施形態では、有機EL素子(表示面)と有機EL素子を動作させるための回路が構成された半導体チップ318aに光路分割プリズム315を直接貼りつける構成である。
 本構成により、半導体チップ318aに素子保護のためのガラスやゴミ侵入防止のための保護ガラスを別途設ける必要が無く、前述した実施形態よりも接眼部107から表示パネル(半導体チップ318a)の表示面までの光路長を短縮できる。
 (第4実施形態)
 以下、図24~図26を参照して、本発明の第4実施形態に係るEVFユニットを備えた電子機器であるカメラ本体の構成について説明する。図24は、本発明の第4実施形態に係る電子機器であるカメラ本体400の外観斜視図である。なお、本実施形態のカメラ本体400が備えるEVFユニット401としては、前述した第1実施形態に係るEVFユニット1と略同一なので、本実施形態では、電子機器における各部の配置とEVFユニット401の配置および構成について説明する。また、本実施形態のカメラ本体400と前述した第1実施形態に係るカメラ本体101とは、カメラ本体における各部の配置が基本的に同一である。例えば、本実施形態のEVFユニット401および視度調整部416とレリーズボタン405との位置関係は、第1実施形態のカメラ本体101とほぼ同一である。したがって、以降の説明では、カメラ本体400が備える各部の配置についてより詳細に説明する。
 図24に図示するように、カメラ本体400は、前面にマウント402が配されており、交換レンズなどのカメラアクセサリーを着脱可能である。また、アクセサリシュー403は、カメラ本体400の上部に配され、フラッシュやマイクなどの外部機器を着脱可能な接続部である。接眼部404は、カメラ本体400の背面であって、カメラ本体400の上部に配されている。
 カメラ本体400をEVFユニット401の接眼部404を覗くことが可能な背面側から見た場合に、カメラ本体400の右側には、ユーザーが手で把持することができるグリップ部419が配されている。したがって、本実施形態のカメラ本体400は、カメラ本体400の右側部分に、ユーザーがカメラ本体400を把持した状態で手動操作可能な操作手段が集中している。例えば、カメラ本体400の右側かつ上部には、レリーズボタン405、撮像条件に係る種々のパラメータやモードなどの調整が可能な第1の操作ダイヤル407、第2の操作ダイヤル408、第1の設定ボタン409、第2の設定ボタン410などが位置する。また、本実施形態のカメラ本体400は、カメラ本体400の上部であって、EVFユニット401(接眼部404)に対して右側に情報表示部406が配されている。情報表示部406は、例えば、露出条件に係るシャッター速度や絞り値や、現在の撮影モード、連写有無などの種々の情報を表示可能な表示手段である。
 ここで、図25は、本発明の第4の実施形態に係るカメラ本体400の内部構成を例示的に説明する斜視図である。また、図26は、本発明の第4の実施形態に係るカメラ本体400の内部構成を例示的に説明する上部外観図である。図25、26に図示するように、EVFユニット401に対して、右側に視度調整部416が配されている。
 以上説明したように、グリップ部419や各種操作手段(406~410)や視度調整部416は、主にカメラ本体400の右側に集約されている。これは、ユーザーが右手でカメラ本体400を把持する場合が最も多く、ユーザーがカメラ本体400を把持した際のカメラ本体400の操作性を向上させるための構成である。
 以上説明したように、カメラ本体400の右側には、各種の操作手段や視度調整部などが集まっており、例えば、視線検出用の視線検出センサーユニット415などをカメラ本体400の右側に配すると、カメラ本体400が大型化してしまう虞がある。そこで、本実施形態に係るEVFユニット401は、カメラ本体400において、EVFユニット401の光路(または光軸)に対して、ユーザーによって把持される側とは異なる側に視線検出センサーユニット415を配する。具体的に、EVFユニット401は、EVFユニット401のレンズユニットに対して、グリップ部419、または、各種の操作手段、または視度調整部416などとは反対側に視線検出センサーユニット415を配する。
 ここで、図25、26に図示するように、カメラ本体400において、EVFユニット401の下部には、シャッター411、撮像素子を備える撮像素子ユニット412、表示モニタ414が設けられている。本実施形態では、カメラ本体400を小型化、薄型化するために、カメラ本体400の撮影光軸に対して垂直な面(二次元平面)において、EVFユニット401と、上述した表示モニタ414などの一部が重なるように各部を配する。
 また、一般的に、カメラ本体400の撮影光軸であるところのマウント402の径の中心を通る中心軸の直上にファインダーを配することで、被写体をフレーミングする際にユーザーに与える違和感を低減することができることが知られている。したがって、本実施形態では、EVFユニット401は、マウント402の中心軸(撮影光軸)と垂直な面において、当該中心軸と重なる位置に配されている。換言すると、EVFユニット401は、EVFユニット401のレンズユニットの撮影光軸に対して垂直な2次元平面において、カメラ本体400およびカメラ本体400に着脱可能なレンズユニットの撮影光軸と重なる位置に配されている。
 また、EVFユニット401の前側には、GPSユニット417などのカメラ本体400の測位手段や、測定ユニット418などのカメラ本体400の姿勢や動きを検出するための測定手段を配している。また、EVFユニット401の上部には、前述したアクセサリシュー403が配されている。これらの各ユニットは、前述した各種の操作手段と同様にメイン基板413にも接続されている。したがって、各ユニットとEVFユニット401との間に視線検出センサーユニット415を配すると、カメラ本体400のサイズの大型化と、メイン基板413から各ユニットへの配線が複雑化する虞がある。
 したがって、カメラ本体400の大型化を抑制しつつ視線検出機構を配するためのEVFユニット401のレイアウトとしては、他の部材が配される可能性が低い場所である、カメラ本体400の把持領域とその近傍を避けるのが好ましい。例えば、前述したように、EVFユニット401の光軸に対して、グリップ部419や各種の操作手段などが配されたカメラ本体400の右側の把持領域とは反対側に、視線検出センサーユニット415を配するのが好ましい。
 以上、本発明の好ましい実施の形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、前述した実施形態では、例えば、カメラ本体がレンズユニットを着脱可能な、所謂レンズ交換式の撮像装置について説明したが、これに限定されるものではない。例えば、レンズユニットとカメラ本体とが一体的に設けられている構成であってもよい。
 また、前述した実施形態では、本発明を実施する電子機器として撮像装置を例示的に説明したが、これに限定されるものではない。例えば、ヘッドマウントディスプレイなど、視線検出機能を備え、当該視線検出機能をフィードバックした制御を行い機器であれば、前述した各実施形態をそれぞれ適用可能である。
 また、前述した実施形態では、CPU111により、カメラ本体およびレンズユニットの統括的な制御が行われる構成について説明したが、これに限定されるものではない。例えば、前述した図20で図示したフローに従った(コンピュータ)プログラムを予めカメラ本体のメモリ部などに記憶しておく。そして、当該プログラムを、図2で図示したようなカメラ本体101を構成する各部が連動して実行することで、撮像システム全体に係る動作を制御するような構成であってもよい。また、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。また、プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記録媒体でもあってもよい。
 (その他の実施形態)
 また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2019年10月31日提出の日本国特許出願特願2019-199104と2020年10月20日提出の日本国特許出願特願2020-176363を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (18)

  1.  第1のレンズユニットを介して入射した被写体の光学像を撮像できる第1のセンサーを備えた撮像装置であって、
     表示パネルと、
     接眼部と、
     前記接眼部を覗くことで前記表示パネルを見るユーザーの眼を撮像でき、前記第1のセンサーとは異なる第2のセンサーと、
     前記表示パネルからの光を前記撮像装置の外部に導き、外部からの光を前記第2のセンサーへと導く光路分割手段と、
     前記光路分割手段と前記接眼部との間に配された第2のレンズユニットと、
     を有し、
     前記第2のセンサーは、前記第2のレンズユニットの光軸に対して、前記撮像装置の把持領域とは異なる側に配されていることを特徴とする撮像装置。
  2.  ユーザーが前記撮像装置を把持する際のグリップ部を有し、
     前記撮像装置の把持領域は、前記グリップ部を含むことを特徴とする請求項1に記載の撮像装置。
  3.  ユーザーが前記撮像装置を把持した状態で手動操作が可能な操作手段を有し、
     前記撮像装置の把持領域は、前記第2のレンズユニットの光軸に対して、前記操作手段が配されている側に位置し、
     前記第2のセンサーは、前記第2のレンズユニットの光軸に対して、前記操作手段が配されている側とは反対側に配されていることを特徴とする請求項1に記載の撮像装置。
  4.  前記操作手段は、撮像の開始を指示するためのレリーズボタンを含むことを特徴とする請求項3に記載の撮像装置。
  5.  前記操作手段は、撮像条件の調整が可能な操作ダイヤルまたは設定ボタンを含むことを特徴とする請求項3に記載の撮像装置。
  6.  前記第2のレンズユニットを移動させることで視度を調整できる視度調整部を有し、
     前記撮像装置の把持領域は、前記第2のレンズユニットの光軸に対して、前記視度調整部が配されている側に位置し、
     前記第2のセンサーは、前記第2のレンズユニットの光軸に対して、前記視度調整部が配されている側とは反対側に配されていることを特徴とする請求項1に記載の撮像装置。
  7.  前記第1のセンサーを含む撮像素子ユニットと、
     前記第1のセンサーを用いて取得された画像データを表示可能であって、前記表示パネルとは異なる表示モニタと、
     前記撮像素子ユニットおよび前記表示モニタに接続された基板と、を有し、
     少なくとも、前記表示パネルと前記第2のセンサーと前記光路分割手段と前記第2のレンズユニットとを含むファインダーユニットは、前記第2のレンズユニットの光軸に対して垂直な2次元平面において、前記撮像素子ユニット、前記表示モニタ、および前記基板の少なくとも1つと重なることを特徴とする請求項1に記載の撮像装置。
  8.  前記ファインダーユニットは、前記第2のレンズユニットの光軸に対して垂直な2次元平面において、前記第1のレンズユニットの撮影光軸と重なることを特徴とする請求項7に記載の撮像装置。
  9.  表示パネルと、該表示パネルの表示を見るユーザーの視線を検出する視線検出機能を有する電子機器であって、
     前記表示パネルと前記表示パネルを保持する枠とを有する表示ユニットと、
     前記ユーザーの瞳からの光を受光する視線検出センサーと、
    前記表示パネルからの光を外部に導き、外部からの光を前記視線検出センサーに導く光路分割手段と、を有し、
     前記光路分割手段は、前記表示ユニットに固定され一体形成されることを特徴とする電子機器。
  10.  前記外部からの光を前記光路分割手段に導くレンズユニットを有することを特徴とする請求項9に記載の電子機器。
  11.  前記外部に前記ユーザーの視線を検出するための光を照射する光源を有することを特徴とする請求項9に記載の電子機器。
  12.  前記光源からの光は赤外光を含み、
     前記視線検出センサーは、前記外部からの赤外光の反射光を受光することを特徴とする請求項11に記載の電子機器。
  13.  前記視線検出センサーからの信号に基づいて前記ユーザーの視線を検出する検出手段を有することを特徴とする請求項9に記載の電子機器。
  14.  表示パネルと、
     前記表示パネルを見るユーザーの眼を撮像できるセンサーと、
     前記表示パネルからの光を外部に導き、外部からの光を前記センサーへと導く光路分割手段と、
     前記光路分割手段に面する位置に配されたレンズユニットと、
     前記表示パネルをユーザーが見る際に、ユーザーの眼と前記レンズユニットとの間に位置する光学部材と、
     前記レンズユニットの光軸と平行な方向において、前記光学部材と前記レンズユニットとの間に配され、前記光学部材を挟んで反対側に向けて赤外波長の光を照射する照明手段と、
     前記レンズユニットの光軸と平行な方向において、赤外波長の光の透過率よりも可視波長の光の透過率が低いマスクと、を有し、
     前記マスクは、前記表示パネルから前記光学部材までの光路とは異なる位置であって、前記表示パネルをユーザーが見る際に、前記照明手段よりもユーザー側に配されていることを特徴とするファインダーユニット。
  15.  前記マスクは、前記光学部材と一体的に設けられており、赤外波長の光を透過する材料で印刷された印刷物であることを特徴とする請求項14に記載のファインダーユニット。
  16.  視線検出手段を有し、
     前記センサーは、前記照明手段により照射された赤外波長の光がユーザーの眼で反射した際の光学像を撮像し、
     前記視線検出手段は、前記センサーで撮像された光学像に対応する画像データに基づいて、ユーザーの視線を検出することを特徴とする請求項14に記載のファインダーユニット。
  17.  物体の接近を検知する近接検知手段と、前記レンズユニットを移動させることで視度を調整する視度調整手段と、を有し、
     前記表示パネルから前記光学部材までの光路に対して、長辺位置に前記照明手段が配され、短辺位置に前記近接検知手段と、前記視度調整手段とが配され、
     前記近接検知手段は、前記レンズユニットの光軸に対して、前記視度調整手段とは反対側に位置することを特徴とする請求項14に記載のファインダーユニット。
  18.  前記近接検知手段は、前記照明手段とは異なる第2の照明手段を備え、
     前記第2の照明手段の光の照射方向が、前記光学部材に対して前記レンズユニットの光軸に向けて傾いていることを特徴とする請求項17に記載のファインダーユニット。
PCT/JP2020/040662 2019-10-31 2020-10-29 撮像装置、電子機器、ファインダーユニット WO2021085541A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080076281.2A CN114631304A (zh) 2019-10-31 2020-10-29 摄像设备、电子装置、取景器单元
EP20881105.9A EP4054169A4 (en) 2019-10-31 2020-10-29 IMAGING DEVICE, ELECTRONIC APPARATUS AND RESEARCH UNIT
US17/725,343 US11831975B2 (en) 2019-10-31 2022-04-20 Imaging apparatus, electronic device, finder unit

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-199104 2019-10-31
JP2019199104 2019-10-31
JP2020-176363 2020-10-20
JP2020176363A JP2021076832A (ja) 2019-10-31 2020-10-20 撮像装置、電子機器、ファインダーユニット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/725,343 Continuation US11831975B2 (en) 2019-10-31 2022-04-20 Imaging apparatus, electronic device, finder unit

Publications (1)

Publication Number Publication Date
WO2021085541A1 true WO2021085541A1 (ja) 2021-05-06

Family

ID=75716360

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040662 WO2021085541A1 (ja) 2019-10-31 2020-10-29 撮像装置、電子機器、ファインダーユニット

Country Status (4)

Country Link
US (1) US11831975B2 (ja)
EP (1) EP4054169A4 (ja)
CN (1) CN114631304A (ja)
WO (1) WO2021085541A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05130463A (ja) 1991-11-06 1993-05-25 Canon Inc 磁気記録撮影装置
JPH06138369A (ja) * 1992-10-29 1994-05-20 Canon Inc 視線検出装置
JPH07191382A (ja) * 1993-12-27 1995-07-28 Asahi Optical Co Ltd カメラのファインダー装置
JPH07299038A (ja) * 1994-05-06 1995-11-14 Nikon Corp 視線検出機能を有するカメラ
JP3186072B2 (ja) 1991-01-08 2001-07-11 キヤノン株式会社 視線検出装置を有する機器
JP2019199104A (ja) 2018-05-14 2019-11-21 ヤマハ発動機株式会社 船外機
JP2020176363A (ja) 2019-04-22 2020-10-29 青島龍凹医療器械有限公司 メガネレンズ曇り止めマスク

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761543A (en) * 1992-10-29 1998-06-02 Canon Kabushiki Kaisha Apparatus for measuring anterior eye portion
JPH06148505A (ja) * 1992-10-30 1994-05-27 Nikon Corp 視線検知装置付きカメラ
JPH11237562A (ja) * 1998-02-24 1999-08-31 Olympus Optical Co Ltd 一眼レフレックス方式のデジタルカメラ用ファインダー
JP4910989B2 (ja) * 2007-10-26 2012-04-04 ソニー株式会社 撮像装置
JP6175945B2 (ja) * 2013-07-05 2017-08-09 ソニー株式会社 視線検出装置及び視線検出方法
JP6586991B2 (ja) * 2015-02-23 2019-10-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3186072B2 (ja) 1991-01-08 2001-07-11 キヤノン株式会社 視線検出装置を有する機器
JPH05130463A (ja) 1991-11-06 1993-05-25 Canon Inc 磁気記録撮影装置
JPH06138369A (ja) * 1992-10-29 1994-05-20 Canon Inc 視線検出装置
JPH07191382A (ja) * 1993-12-27 1995-07-28 Asahi Optical Co Ltd カメラのファインダー装置
JPH07299038A (ja) * 1994-05-06 1995-11-14 Nikon Corp 視線検出機能を有するカメラ
JP2019199104A (ja) 2018-05-14 2019-11-21 ヤマハ発動機株式会社 船外機
JP2020176363A (ja) 2019-04-22 2020-10-29 青島龍凹医療器械有限公司 メガネレンズ曇り止めマスク

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4054169A4

Also Published As

Publication number Publication date
US11831975B2 (en) 2023-11-28
CN114631304A (zh) 2022-06-14
EP4054169A4 (en) 2024-03-13
EP4054169A1 (en) 2022-09-07
US20220247933A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
TW200815891A (en) Imaging device and light shielding member
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
US20230013134A1 (en) Electronic device
WO2021085541A1 (ja) 撮像装置、電子機器、ファインダーユニット
JP2011059582A (ja) 撮像装置
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
JP2021076832A (ja) 撮像装置、電子機器、ファインダーユニット
JP7446898B2 (ja) 電子機器
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20230148300A1 (en) Electronic device, method of controlling the same, and storage medium
EP4215979A1 (en) Display apparatus, finder apparatus, and imaging apparatus
JP4315773B2 (ja) カメラ及びアクセサリ
JP7404157B2 (ja) 表示装置およびその制御方法、撮像装置およびその制御方法
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
JP3225628B2 (ja) 視線検出装置
JP2022124778A (ja) 電子機器
JP2021182736A (ja) 電子機器
JP2022119697A (ja) 視線検出機能を備えたファインダーユニット、撮像装置及び装着ユニット
JP2021064928A (ja) 電子機器
JP2024003432A (ja) 電子機器
JP2023083695A (ja) 電子機器
JP2023074878A (ja) 視線検出装置、視線検出装置の制御方法およびプログラム
JP2002131805A (ja) カメラの電子ビューファインダ装置
JP2006010782A (ja) ファインダーの表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20881105

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020881105

Country of ref document: EP

Effective date: 20220531