WO2017073059A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2017073059A1
WO2017073059A1 PCT/JP2016/004712 JP2016004712W WO2017073059A1 WO 2017073059 A1 WO2017073059 A1 WO 2017073059A1 JP 2016004712 W JP2016004712 W JP 2016004712W WO 2017073059 A1 WO2017073059 A1 WO 2017073059A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
subject
optical system
light
Prior art date
Application number
PCT/JP2016/004712
Other languages
English (en)
French (fr)
Inventor
知文 小石
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP16859297.0A priority Critical patent/EP3370410B1/en
Priority to JP2017547620A priority patent/JP6431210B2/ja
Priority to US15/769,975 priority patent/US10376199B2/en
Publication of WO2017073059A1 publication Critical patent/WO2017073059A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • G02B1/113Anti-reflection coatings using inorganic layer materials only
    • G02B1/115Multilayers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Definitions

  • the embodiment of the present disclosure relates to an imaging apparatus for monitoring the state of a subject such as a vehicle driver.
  • Patent Document 1 discloses an infrared LED that illuminates the driver's face with near infrared rays, a CCD camera that captures the driver's face, and a blink that detects the open / closed state of the subject's eyes based on the face image.
  • a doze alarm device is disclosed that includes a detection circuit and a wakefulness reduction detection circuit that detects a decrease in the wakefulness of a subject.
  • An imaging apparatus includes: An imaging optical system that forms an optical image of the face of the subject in the vehicle; An image sensor that captures the imaged optical image to generate a captured image; An image processing unit that determines the state of the subject based on the captured image, When the F value of the imaging optical system is F, the focal length is f, and the pixel pitch of the imaging element is p, F ⁇ 0.0003f 2 / p is satisfied.
  • FIG. 1 It is a block diagram which shows schematic structure of the subject monitoring system which concerns on one Embodiment. It is the figure which looked at the vehicle provided with the subject monitoring system of FIG. 1 from the left side. It is sectional drawing along the optical axis which shows schematic structure of the lens contained in an imaging optical system. It is a figure which shows the relationship between a focal distance and F value. It is a figure which shows the relationship between the square of a focal distance / tolerance circle diameter, and F value. It is a figure which shows the transmittance
  • a target person monitoring system 10 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the subject monitoring system 10 includes a lighting device 11, an imaging device 12, and a warning device 13. Each component of the target person monitoring system 10 can transmit and receive information via the network 14.
  • the network 14 may include, for example, wireless, wired, or CAN (Controller Area Network). In other embodiments, some or all of the components of the subject monitoring system 10 may be integrally configured as one device.
  • the lighting device 11 is in an arbitrary position where the face of the subject 15 can be irradiated with light.
  • the subject 15 may include a driver of the vehicle 16, for example.
  • the lighting device 11 may be disposed on a dashboard 17 of the vehicle 16.
  • the light emitted from the illumination device 11 is also referred to as illumination light.
  • the imaging device 12 is in an arbitrary position where the face of the subject 15 can be imaged.
  • the imaging device 12 may be disposed on the dashboard 17 of the vehicle 16, for example.
  • the imaging device 12 generates a captured image in which the pupil of the eye of the subject 15 on the image is bright.
  • a captured image with a bright pupil is also referred to as a bright pupil image.
  • the imaging device 12 may generate a bright pupil image by arranging the illumination device 11 and the imaging device 12 close to each other.
  • the imaging device 12 generates a captured image in which the pupil of the eye of the subject 15 on the image is dark.
  • a captured image with a dark pupil is also referred to as a dark pupil image.
  • the dark device image may be generated by the imaging device 12 by arranging the illumination device 11 and the imaging device 12 apart from each other.
  • the warning device 13 issues a warning to the target person 15.
  • the warning device 13 may be arranged at an arbitrary position in the vehicle 16.
  • the warning device 13 may be arranged at an arbitrary position where the vibration is transmitted to the subject 15.
  • the warning device 13 may be disposed on a driver's seat, a steering wheel, a shift knob, or a footrest in the vehicle 16.
  • the imaging device 12 will be described. As shown in FIG. 1, the imaging device 12 includes an imaging optical system 22, an imaging element 23, an AFE (Analog Front End) 24, an image processing unit 25, a communication unit 26, and a camera control unit 27. Prepare.
  • AFE Analog Front End
  • the imaging optical system 22 may include a diaphragm, one or more lenses, and a lens barrel that holds them.
  • the imaging optical system 22 forms a subject image by light passing through the imaging optical system 22.
  • the imaging optical system 22 transmits light of at least a predetermined wavelength band.
  • the predetermined wavelength band may include the wavelength of illumination light emitted from the illumination device 11 as described later.
  • the predetermined wavelength band may be a band including the wavelength of the infrared light.
  • the imaging optical system 22 may further include a filter that passes light in the predetermined wavelength band.
  • the imaging optical system 22 is at an arbitrary position at which reflected light from the irradiation destination of the illumination light emitted from the illumination device 11 can be taken.
  • the imaging optical system 22 can form a subject image including the face of the subject 15 irradiated with the illumination light emitted from the illumination device 11.
  • an AR (Anti-Reflective) coating layer is formed on each of the two or more lens surfaces.
  • the AR coating layer may be formed by multi-coating, for example.
  • the transmittance of light in an arbitrary band can be controlled by the AR coating layer.
  • the transmittance of light in the visible light band may be controlled.
  • the transmittance of light in an arbitrary band may be controlled by forming an AR coating layer having different characteristics for each lens surface.
  • an AR coating layer is formed on each of the two or more lens surfaces so that the transmittance of illumination light emitted from the illumination device 11 is greater than the transmittance of visible light. Details of the light transmittance of the AR coating layer will be described later.
  • the F value of the lens included in the imaging optical system 22 is determined according to the pixel pitch of the imaging element 23. Details of the method for determining the F value of the lens will be described later.
  • the image sensor 23 may include, for example, a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. A plurality of pixels may be arranged on the light receiving surface of the image sensor 23 at an arbitrary pixel pitch.
  • the image sensor 23 captures a subject image formed by the imaging optical system 22 and generates a captured image.
  • the image pickup device 23 may have each function described later of the AFE 24.
  • the AFE 24 may include, for example, CDS (Correlated Double Sampling), AGC (Auto Gain Control), and ADC (Analog-to-Digital Converter).
  • the AFE 24 performs predetermined pre-stage image processing on the analog captured image generated by the image sensor 23.
  • the pre-stage image processing may include correlated double sampling, gain adjustment, A / D conversion, and the like.
  • the image processing unit 25 includes one or more processors.
  • the processor may include a dedicated processor specialized for a specific process and a general-purpose processor that executes a specific function by reading a specific program.
  • the dedicated processor may include a DSP (Digital Signal Processor) and an application specific IC (ASIC; Application Specific Integrated Circuit).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the illuminating device control unit 21 may be one of SoC (System-on-a-Chip) and SiP (System-In-a-Package) in which one or a plurality of processors cooperate.
  • the image processing unit 25 performs predetermined subsequent image processing on the captured image that has been subjected to the previous image processing by the AFE 24.
  • the post-stage image processing may include, for example, exposure adjustment processing.
  • the post-stage image processing may include a restoration process for reducing blurring of the captured image.
  • the lens included in the imaging optical system 22 has an F value of an appropriate size in order to obtain performance substantially equal to the diffraction limit in the entire region of the captured image.
  • the response of the lens to the point source is a rotationally symmetric zinc function distribution.
  • the response of the lens to the point light source may be indicated by, for example, a point spread function (PSF).
  • PSF point spread function
  • the deconvolution filter may include, for example, a Wiener filter.
  • the image processing unit 25 performs restoration processing on the captured image using a single deconvolution filter corresponding to the point spread function.
  • the restoration process may include a deconvolution process.
  • the image processing unit 25 detects the eye or pupil of the subject 15 on the captured image on which the subsequent image processing has been performed. Any method can be adopted for detecting the eye or the pupil. For example, a method using pattern matching or a method of extracting feature points on the captured image (for example, feature points corresponding to the contour of the face, eyes, nose, mouth, etc.) can be employed.
  • the feature points on the captured image may include, for example, points corresponding to the face outline, eyes, pupils, nose, mouth, and the like of the subject 15.
  • the image processing unit 25 determines the state of the subject 15 based on the detection result of the eye or pupil of the subject 15 on the captured image. For example, when the subject 15 is looking away or drowsy, the image processing unit 25 may not be able to detect the eye or pupil of the subject 15 on the captured image over a plurality of consecutive frames.
  • the state in which the target person 15 is looking away or driving asleep is also referred to as a driving inappropriate state.
  • the image processing unit 25 may determine that the subject 15 is in a driving inappropriate state when the eye or pupil of the subject 15 on the captured image is not detected over a predetermined number of consecutive frames.
  • the image processing unit 25 may generate a control signal for causing the warning device 13 to issue a warning according to the determination result of the state of the subject 15.
  • the image processing unit 25 may output the control signal to the warning device 13 via the communication unit 26.
  • the image processing unit 25 generates and outputs the control signal when it is determined that the subject 15 is in a driving inappropriate state.
  • the communication unit 26 may include an interface for inputting and outputting information via the network 14.
  • input of information is also referred to as acquisition or reception of information.
  • the output of information is also called information transmission.
  • the camera control unit 27 includes one or more processors.
  • the processor may include a dedicated processor specialized for a specific process and a general-purpose processor that executes a specific function by reading a specific program.
  • the dedicated processor may include an ASIC.
  • the processor may include a PLD.
  • the PLD may include an FPGA.
  • the lighting device control unit 21 may be any of SoC and SiP in which one or more processors cooperate.
  • the camera control unit 27 controls the entire operation of the imaging device 12. For example, the camera control unit 27 generates a synchronization signal indicating the imaging timing, controls the operation of the communication unit 26, and causes the illumination device 11 to output the synchronization signal. When the synchronization signal is output, the camera control unit 27 controls the operation of the image sensor 23 to capture a subject image.
  • the synchronization signal may be generated by a device other than the imaging device 12 among the devices provided in the vehicle 16.
  • the synchronization signal may be generated by an ECU (Electronic Control Unit) mounted on the lighting device 11, the warning device 13, or the vehicle 16.
  • the generated synchronization signal may be input to the imaging device 12 and the illumination device 11, respectively.
  • the illumination device 11 includes one or more light sources 18, an illumination optical system 19, an illumination device communication unit 20, and an illumination device control unit 21.
  • the light source 18 includes, for example, an LED.
  • the light source 18 emits light of at least a predetermined wavelength band.
  • the light emitted from the light source 18 may be continuous light emission or pulse light emission.
  • the light in the predetermined wavelength band is light that can be photoelectrically converted by the image sensor 23 of the imaging device 12.
  • the light source 18 may be an infrared LED that emits diffused light in the infrared band.
  • the illumination optical system 19 includes a lens whose angle of view is adjusted, for example.
  • the illumination optical system 19 irradiates light that passes through the illumination optical system 19.
  • the illumination light emitted from the light source 18 and transmitted through the illumination optical system 19 is applied to the entire face of the subject 15.
  • the lighting device communication unit 20 includes an interface for inputting and outputting information via the network 14.
  • the lighting device control unit 21 includes one or more processors.
  • the processor may include a dedicated processor specialized for a specific process and a general-purpose processor that executes a specific function by reading a specific program.
  • the dedicated processor may include an ASIC.
  • the processor may include a PLD.
  • the PLD may include an FPGA.
  • the lighting device control unit 21 may be any of SoC and SiP in which one or more processors cooperate.
  • the lighting device control unit 21 controls the operation of each part of the lighting device 11. For example, the illumination device control unit 21 causes the light source 18 to emit light in synchronization with the imaging timing of the imaging device 12.
  • the illuminating device control unit 21 causes the light source 18 to emit light in the infrared band for a predetermined time periodically according to the synchronization signal acquired via the illuminating device communication unit 20.
  • the imaging device 12 performs imaging according to the synchronization signal. For this reason, the light emission timing of the illuminating device 11 and the imaging timing of the imaging device 12 are synchronized.
  • the warning device 13 will be described.
  • the warning device 13 may include, for example, a speaker and a vibrator.
  • the warning device 13 receives the control signal described above from the imaging device 12, the warning device 13 issues a warning to the subject 15.
  • the warning may be performed by, for example, at least one of sound and vibration. By warning, for example, it is possible to alert the subject 15 who is performing a look-ahead driving or a drowsy driving to the driving.
  • the lens 28 included in the imaging optical system 22 of the imaging device 12 and a method for determining the F value of the lens 28 will be specifically described.
  • the lens 28 forms an image of light incident from the object side on the light receiving surface position of the image sensor 23.
  • the focal length of the lens 28 is f [mm]
  • the F value is F
  • the rear depth of field is D n [mm]
  • the front depth of field is D f [mm]
  • the shooting distance is S [mm]
  • the depth of field (rear depth of field D n + forward depth of field D f ) is expressed by the following equation (1).
  • the imaging distance between the imaging device 12 and the subject 15 can change according to individual differences or postures of the subject 15.
  • predetermined system requirements may be imposed on the imaging device 12 so that a shooting range that can be taken by the shooting distance is within the depth of field.
  • the system requirements may be determined according to, for example, the vehicle constant of the vehicle 16 and the arrangement of the imaging device 12 in the vehicle 16.
  • four system requirements are considered, for example, shooting range, horizontal field angle ⁇ , pixel pitch p, and allowable circle of confusion diameter ⁇ .
  • An example of each system requirement value is shown below.
  • Pixel pitch p 0.003mm to 0.006mm
  • Allowable confusion circle diameter ⁇ : ⁇ 2p
  • the focal length f that satisfies the above system requirements will be described.
  • the focal length f is calculated for various combinations in which the numerical values of the system requirements are different.
  • a plurality of focal lengths f are calculated by changing the pixel pitch p, the number of horizontal pixels of the image sensor 23, and the horizontal angle of view ⁇ .
  • the pixel pitch p may be changed within a range of 0.003 mm to 0.006 mm, for example.
  • the number of horizontal pixels may be changed, for example, in the range of 640 pixels to 1920 pixels.
  • the horizontal angle of view ⁇ may be changed in the range of 30 ° to 60 °, for example.
  • a part of the calculated focal length f is shown in Table 1 below.
  • Table 1 shows that the pixel pitch p is 0.006 mm or 0.003 mm, the number of horizontal pixels of the image sensor 23 is 640 pixels, 1280 pixels, or 1920 pixels, and the horizontal angle of view ⁇ is 30 °, 50 °, or 60 °.
  • the focal length f calculated so as to satisfy the above system requirements is illustrated for 10 combinations of
  • the lower limit value of the F value that satisfies the above system requirements is calculated.
  • the lower limit value of the F value is calculated using the above equation (1). For example, each focal length f when the pixel pitch p is 0.006 mm or 0.003 mm, the number of horizontal pixels is 640 pixels, 1280 pixels, or 1920 pixels, and the horizontal angle of view ⁇ is changed from 30 ° to 60 °.
  • the lower limit value of the F value is calculated for.
  • FIG. 4 is a graph in which the calculated F value is plotted with the horizontal axis representing the focal length f and the vertical axis representing the F value.
  • FIG. 5 is a graph obtained by re-plotting the lower limit value of the F value shown in FIG. 4 with the horizontal axis being f 2 / ⁇ .
  • the slope of the straight line passing through each plot shown in FIG. 5 is 0.0006, and the intercept is 0. Therefore, the range of the F value that satisfies the system requirements is expressed by the following equation (3).
  • the imaging device 12 that satisfies the above system requirements can be realized.
  • the captured image may become dark unless the illumination light output from the illumination device 11 is increased, for example. In such a case, the detection accuracy of the state of the subject 15 may be reduced or may not be detected. On the other hand, for example, from the viewpoint of heat generation or power consumption, the output of illumination light from the illumination device 11 may not be increased. Therefore, an appropriate upper limit value of the F value may be determined.
  • the lens 28 having a large F value can be easily corrected for aberrations by design and has low tolerance sensitivity. Therefore, the imaging optical system 22 including the lens 28 having a large F value can obtain performance substantially equal to the diffraction limit in the entire region of the captured image.
  • the entire area of the captured image may correspond to the entire light receiving surface of the image sensor 23.
  • the resolution performance may be resolution. Therefore, the minimum F value that can obtain performance substantially equal to the diffraction limit may be determined, and the determined value may be set as the upper limit value of the F value.
  • a method for determining the upper limit value of the F value will be specifically described.
  • 2.44 ⁇ F (4)
  • is the wavelength of light.
  • is the center wavelength of the illumination light in the infrared band by the illumination device 11.
  • the optical member includes a lens 28.
  • Four configurations will be described in the case where the number of AR coating layers formed on one lens surface is one or two and the number of lens surfaces on which the AR coating layer is formed is four or six.
  • FIG. 6 is a graph showing the light wavelength ⁇ [nm] on the horizontal axis and the light transmittance [%] on the vertical axis.
  • FIG. 6 shows configuration A in which the number of AR coating layers is one and the number of lens surfaces is four, configuration B in which the number of AR coating layers is one and the number of lens surfaces is six, and the AR coating layer The relationship between wavelength and transmittance is shown for the configuration C in which the number is 2 and the number of lens surfaces is 4, and the configuration D in which the number of AR coating layers is 2 and the number of lens surfaces is 6 ing.
  • the solid line in the figure corresponds to configuration A.
  • a broken line in the figure corresponds to the configuration B.
  • a one-dot chain line in the figure corresponds to the configuration C.
  • a two-dot chain line in the figure corresponds to the configuration D.
  • the AR coating layer reduces the transmittance of light in the visible light band while maintaining the transmittance of light in the infrared band from the lighting device 11 at a relatively high value.
  • the visible light band may include a wavelength band of 360 nm to 760 nm, for example.
  • the infrared band may include a wavelength band of 850 nm to 940 nm, for example.
  • magnesium fluoride (MgF 2 ) is used for the AR coating layer.
  • MgF 2 is a low refractive index material that transmits light from deep ultraviolet to near infrared.
  • MgF 2 is used for the first layer and zirconium dioxide (ZrO 2 ) is used for the second layer.
  • ZrO 2 is a highly refractive material that transmits light from 340 nm to 8 ⁇ m.
  • MgF 2 is used for the first layer and titanium oxide (TiO 2 ) is used for the second layer.
  • TiO 2 is a highly refractive material that absorbs light in the ultraviolet band.
  • the transmittance is about 80% near 420 nm, and the transmittance in the visible light band is relatively high.
  • the transmittance in the visible light band is relatively high in the configurations A and B. The rate has been reduced.
  • the transmittance is about 10% near 480 nm, for example, and the transmittance in the visible light band is even lower than the configuration C.
  • the transmittance near 400 nm is about 85% in the configuration C, and is about 25% in the configuration D.
  • the transmittance near 700 nm is about 80% in the configuration C and about 55% in the configuration D.
  • the transmittance of the configuration D is further reduced over the visible light band as compared with the configuration C.
  • the configuration of the imaging optical system 22 according to the present embodiment is not limited to the configuration C and the configuration D described above.
  • the type of the AR coating layer may include, for example, the material included in the AR coating layer and the number of layers formed.
  • TiO at any lens surface AR coating layer ZrO 2 is used for the MgF 2 and the second layer is subjected to a first layer, in other lens surface, the MgF 2 and the second layer to the first layer
  • An AR coating layer using 2 may be formed.
  • a desired wavelength characteristic can be realized by adjusting the type of the AR coating layer formed on each of two or more lens surfaces.
  • the F value of the lens 28 is relatively large. For this reason, the intensity of light in the visible light band of outside light becomes relatively small when passing through the lens 28. For example, when the intensity of illumination light from the illumination device 11 is sufficiently large compared to outside light, a practically good captured image can be obtained if the outside light is reduced to a certain extent by a plurality of AR coating layers as described above. . Therefore, for example, the visible light cut filter can be omitted and the configuration of the imaging optical system 22 can be simplified and downsized as compared with a configuration in which the imaging optical system includes a visible light cut filter.
  • the lens 28 of the image pickup apparatus 12 uses the F value, the focal length f, and the pixel pitch p of the image pickup device 23 to satisfy F ⁇ 0. It may be determined to satisfy 0003 f 2 / p. With such a configuration, it is possible to realize the imaging device 12 that is installed in the vehicle 16 and can be used in a special usage environment in which the subject 15 is imaged.
  • an imaging device other than the imaging device 12 according to an embodiment is used.
  • the space in the vehicle is limited and the imaging distance from the imaging device to the subject is short, so that the depth of field of the imaging device becomes shallow.
  • the shooting distance can vary depending on individual differences or postures of the subject. For this reason, if the depth of field is shallow, the subject is not necessarily focused and the captured image may be blurred. The captured image in which the blur has occurred may cause a decrease in detection accuracy of the state of the subject.
  • the imaging device 12 for example, the imaging device 12 that secures a sufficient depth of field to capture the subject 15 whose posture can change in the vehicle 16 can be realized. It is. Therefore, the occurrence of blur in the captured image is suppressed, and the detection accuracy of the state of the subject 15 is improved.
  • the F value can be increased.
  • the aperture of the lens 28 can be reduced.
  • the lens barrel of the imaging optical system 22 can be reduced in size, and the entire imaging apparatus 12 can be reduced in size.
  • Aberration correction is facilitated by increasing the F value. Therefore, for example, the number of lenses included in the imaging optical system 22 can be reduced as compared with a configuration using a lens that satisfies F ⁇ 0.0003 f 2 / p that does not satisfy the above-described formula (1), and the imaging apparatus 12 as a whole further. Miniaturization is possible. Increasing the F value increases the depth of focus.
  • the F value of the lens 28 may be determined using the central wavelength ⁇ of the illumination light that illuminates the subject 15 so as to satisfy F ⁇ 1.64p / ⁇ , which is the above-described equation (6). With this configuration, it is possible to realize the imaging device 12 having a good balance between the resolution performance due to the diffraction limit and the brightness of the captured image.
  • an imaging device other than the imaging device 12 according to an embodiment In order to increase the depth of field, it is conceivable to increase the F value of the imaging device. However, when the F value is increased, the brightness of the captured image becomes darker. For this reason, the detection accuracy of the state of the subject may be reduced or cannot be detected.
  • the imaging device 12 may perform a restoration process on the captured image using a single deconvolution filter. As described above, by determining the F value of the lens 28 so as to satisfy the expression (3) and sufficiently deepening the depth of field, the distribution of the zinc function having a substantially uniform point spread function in the entire region of the captured image. It becomes. In other words, by using the lens 28 having a deep depth of field, the imaging device 12 can be designed so that the spread of the point image over the entire photographing distance has a constant distribution. Specifically, the illumination light from the illumination device 11 is infrared band light having a predetermined center wavelength, and chromatic aberration can be ignored in practice.
  • the spread of the point image becomes a substantially uniform distribution in the entire region of the captured image.
  • the lens 28 having a large F value has low tolerance sensitivity. For this reason, performance close to the design value can be obtained. Therefore, the blur of the captured image can be reduced using a single deconvolution filter corresponding to the point spread function. For this reason, for example, the processing load is reduced compared to a configuration in which the point spread function is nonuniform in the entire region of the captured image and the restoration process is performed using a plurality of filters. When the performance is close to the diffraction limit, the filter size can be reduced.
  • Different types of coating layers may be formed on two or more lens surfaces of one or more lenses included in the imaging optical system 22.
  • desired wavelength characteristics can be obtained. For example, it is possible to increase the transmittance in the infrared band while reducing the transmittance in the visible light band and the ultraviolet band.
  • the visible light cut filter can be omitted as compared with a configuration in which the imaging optical system has a visible light cut filter. For this reason, the configuration of the imaging optical system 22 can be simplified and downsized.
  • the imaging device 12 or the like may be realized as a communication device such as a mobile phone, and may be connected to other components of the target person monitoring system 10 by wire or wirelessly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Inorganic Chemistry (AREA)
  • Combustion & Propulsion (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Vascular Medicine (AREA)
  • Signal Processing (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Studio Devices (AREA)
  • Surface Treatment Of Optical Elements (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

対象者の状態の検出精度を向上させた撮像装置を提供する。 撮像装置12は、車両内の対象者の顔の光学像を結像させる撮像光学系22と、結像された光学像を撮像して撮像画像を生成する撮像素子23と、撮像画像に基づいて対象者の状態を判定する画像処理部25と、を備える。撮像光学系22のF値をF、焦点距離をf、および撮像素子23の画素ピッチをpとしたとき、F≧0.0003f2/pが満たされる。

Description

撮像装置 関連出願の相互参照
 本出願は、2015年10月26日に日本国に特許出願された特願2015-210095の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示の実施形態は、車両の運転者などの対象者の状態を監視するための撮像装置に関する。
 従来、例えば車両の運転者などの対象者の状態を監視する装置が知られている。例えば特許文献1には、運転者の顔を近赤外線で照明する赤外線LEDと、運転者の顔を撮影するCCDカメラと、顔画像をもとに対象者の眼の開閉状態を検出する瞬目検出回路と、対象者の覚醒度の低下を検出する覚醒度低下検出回路と、を備える居眠り警報装置が開示されている。
特開平8-290726号公報
 本開示の実施形態に係る撮像装置は、
 車両内の対象者の顔の光学像を結像させる撮像光学系と、
 結像された前記光学像を撮像して撮像画像を生成する撮像素子と、
 前記撮像画像に基づいて前記対象者の状態を判定する画像処理部と、を備え、
 前記撮像光学系のF値をF、焦点距離をf、および前記撮像素子の画素ピッチをpとしたとき、F≧0.0003f2/pを満たす。
一実施形態に係る対象者監視システムの概略構成を示すブロック図である。 図1の対象者監視システムを備える車両を左側方から見た図である。 撮像光学系に含まれるレンズの概略構成を示す光軸に沿った断面図である。 焦点距離とF値との関係を示す図である。 焦点距離の2乗/許容錯乱円直径とF値との関係を示す図である。 撮像光学系に含まれるレンズの被コーティング面数およびARコーティング層数に応じた、波長に対する撮像光学系の光の透過率を示す図である。
 以下、本開示の実施形態について、図面を参照して説明する。
 図1を参照して、本開示の一実施形態に係る対象者監視システム10について説明する。
 図1に示すように、対象者監視システム10は、照明装置11と、撮像装置12と、警告装置13と、を備える。対象者監視システム10の各構成要素は、ネットワーク14を介して情報を送受信可能である。ネットワーク14には、例えば無線、有線、またはCAN(Controller Area Network)などが含まれてよい。他の実施形態において、対象者監視システム10の一部または全部の構成要素が、1つの装置として一体的に構成されてよい。
 照明装置11は、対象者15の顔に光を照射可能な任意の位置にある。対象者15は、例えば車両16の運転者を含んでよい。例えば図2に示すように、照明装置11は、車両16のダッシュボード17に配置されてよい。以下、照明装置11から出る光を照明光ともいう。
 撮像装置12は、対象者15の顔を撮像可能な任意の位置にある。撮像装置12は、例えば車両16のダッシュボード17に配置されてよい。一実施形態において、撮像装置12は、画像上の対象者15の眼の瞳孔が明るい撮像画像を生成する。以下、瞳孔が明るい撮像画像を、明瞳孔画像ともいう。例えば、照明装置11および撮像装置12が近接して配置されることによって、撮像装置12に明瞳孔画像を生成させてよい。他の実施形態において、撮像装置12は、画像上の対象者15の眼の瞳孔が暗い撮像画像を生成する。以下、瞳孔が暗い撮像画像を、暗瞳孔画像ともいう。例えば、照明装置11および撮像装置12が離れて配置されることによって、撮像装置12に暗瞳孔画像を生成させてよい。
 警告装置13は、対象者15に対する警告を行う。例えば、音によって警告が行われる場合には、警告装置13は、車両16内の任意の位置に配置されてよい。例えば、振動によって警告が行われる場合には、警告装置13は、振動が対象者15に伝わるような任意の位置に配置されてよい。例えば、警告装置13は、車両16内の運転者用座席、ステアリングホイール、シフトノブ、またはフットレストなどに配置されてよい。
 対象者監視システム10の各構成要素について説明する。
 撮像装置12について説明する。図1に示すように、撮像装置12は、撮像光学系22と、撮像素子23と、AFE(Analog Front End)24と、画像処理部25と、通信部26と、カメラ制御部27と、を備える。
 撮像光学系22は、絞り、1以上のレンズ、およびこれらを保持する鏡筒を含んでよい。撮像光学系22は、撮像光学系22を通過する光による被写体像を結像させる。撮像光学系22は、少なくとも所定の波長帯域の光を通過させる。所定の波長帯域は、後述するように照明装置11から出る照明光の波長を含んでよい。例えば、照明光が赤外光を含む場合、所定の波長帯域は、当該赤外光の波長が含まれる帯域であってよい。一実施形態において、撮像光学系22は、当該所定の波長帯域の光を通過させるフィルタをさらに含んでよい。撮像光学系22は、照明装置11から出る照明光の照射先からの反射光を取込可能となる任意の位置にある。一実施形態において、撮像光学系22は、照明装置11から出る照明光が照射された対象者15の顔を含む被写体像を結像可能である。
 撮像光学系22に含まれる1以上のレンズにおいて、2以上のレンズ面それぞれには、AR(Anti-Reflective)コーティング層が形成される。ARコーティング層は、例えばマルチコーティングによって形成されてよい。ARコーティング層によって、任意の帯域の光の透過率が制御可能である。例えば、可視光帯域の光の透過率が制御されてよい。例えば、レンズ面毎に特性が異なるARコーティング層が形成されることによって、任意の帯域の光の透過率が制御されてよい。一実施形態において、照明装置11から出る照明光の透過率が可視光の透過率よりも大きくなるように、2以上のレンズ面それぞれにARコーティング層が形成される。ARコーティング層による光の透過率の詳細については後述する。
 一実施形態において、撮像光学系22に含まれるレンズのF値は、撮像素子23の画素ピッチに応じて決定される。レンズのF値の決定手法の詳細については後述する。
 撮像素子23は、例えばCCD(Charge-Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像素子23の受光面に複数の画素が任意の画素ピッチで配列されてよい。撮像素子23は、撮像光学系22によって結像される被写体像を撮像して、撮像画像を生成する。撮像素子23がCMOS撮像素子を含む場合には、AFE24の後述する各機能を撮像素子23が有する構成であってよい。
 AFE24は、例えばCDS(Correlated Double Sampling)、AGC(Auto Gain Control)、およびADC(Analog-to-Digital Converter)を含んでよい。AFE24は、撮像素子23によって生成されたアナログの撮像画像に対し、所定の前段画像処理を施す。前段画像処理には、例えば相関二重サンプリング、ゲイン調整、およびA/D変換などが含まれてよい。
 画像処理部25は、1以上のプロセッサを含む。プロセッサには、特定の処理に特化した専用のプロセッサ、および特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサが含まれてよい。専用のプロセッサには、DSP(Digital Signal Processor)および特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれてよい。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれてよい。PLDには、FPGA(Field-Programmable Gate Array)が含まれてよい。照明装置制御部21は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。画像処理部25は、AFE24によって前段画像処理が施された撮像画像に対して、所定の後段画像処理を施す。
 後段画像処理には、例えば露出調整処理などが含まれてよい。後段画像処理には、撮像画像のボケを低減する復元処理が含まれてよい。後述するように、撮像光学系22に含まれるレンズは、撮像画像の全領域で回折限界に略等しい性能を得るために適切な大きさのF値を有する。回折限界において、レンズの点光源に対する応答は、回転対称のジンク関数の分布となる。レンズの点光源に対する応答は、例えば点拡がり関数(PSF:Point Spread Function)で示されてよい。撮像画像の全領域で点拡がり関数が略均一なジンク関数の分布となる場合、当該点拡がり関数に対応する単一のデコンボリューションフィルタを用いることによって、撮像画像のボケが低減可能である。デコンボリューションフィルタには、例えばウィナーフィルタが含まれてよい。画像処理部25は、当該点拡がり関数に対応する単一のデコンボリューションフィルタを用いて、撮像画像に対して復元処理を施す。復元処理には、デコンボリューション処理が含まれてよい。
 画像処理部25は、後段画像処理が施された撮像画像上の対象者15の眼または瞳孔を検出する。眼または瞳孔の検出には、任意の手法が採用可能である。例えば、パターンマッチングを用いる手法、または撮像画像上の特徴点(例えば、顔の輪郭、眼、鼻、および口などに対応する特徴点)を抽出する手法などが採用可能である。撮像画像上の特徴点は、例えば対象者15の顔の輪郭、眼、瞳孔、鼻、および口などに対応する点を含んでよい。
 画像処理部25は、撮像画像上の対象者15の眼または瞳孔の検出結果に基づいて対象者15の状態を判定する。例えば、対象者15がよそ見運転または居眠り運転をしていると、画像処理部25は、撮像画像上の対象者15の眼または瞳孔を、連続する複数のフレームに亘って検出できない場合がある。以下、対象者15がよそ見運転または居眠り運転をしている状態を、運転不適状態ともいう。画像処理部25は、連続する所定数のフレームに亘って撮像画像上の対象者15の眼または瞳孔が検出されない場合、対象者15が運転不適状態であると判定してよい。
 画像処理部25は、対象者15の状態の判定結果に応じて、警告装置13に警告を行わせるための制御信号を生成してよい。画像処理部25は、通信部26を介して警告装置13へ当該制御信号を出力してよい。一実施形態において、画像処理部25は、対象者15が運転不適状態であると判定された場合に、当該制御信号を生成し出力する。
 通信部26は、ネットワーク14を介して情報の入力および出力を行うインターフェースを含んでよい。以下、情報の入力を、情報の取得または受信ともいう。情報の出力を、情報の送信ともいう。
 カメラ制御部27は、1以上のプロセッサを含む。プロセッサには、特定の処理に特化した専用のプロセッサ、および特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサが含まれてよい。専用のプロセッサには、ASICが含まれてよい。プロセッサには、PLDが含まれてよい。PLDには、FPGAが含まれてよい。照明装置制御部21は、1つまたは複数のプロセッサが協働するSoC、およびSiPのいずれかであってよい。カメラ制御部27は、撮像装置12全体の動作を制御する。例えば、カメラ制御部27は、撮像のタイミングを示す同期信号を生成し、通信部26の動作を制御して当該同期信号を照明装置11へ出力させる。カメラ制御部27は、同期信号が出力されると、撮像素子23の動作を制御して、被写体像を撮像させる。他の実施形態において、同期信号は、車両16に備えられた装置のうち、撮像装置12以外の装置によって生成されてよい。例えば、照明装置11、警告装置13、または車両16に搭載されたECU(Electronic Control Unit)などによって、同期信号が生成されてよい。生成された同期信号は、撮像装置12および照明装置11にそれぞれ入力されてよい。
 照明装置11について説明する。照明装置11は、1以上の光源18と、照明光学系19と、照明装置通信部20と、照明装置制御部21と、を備える。
 光源18は、例えばLEDなどを含む。光源18は、少なくとも所定の波長帯域の光を発する。光源18の発光は、連続発光またはパルス発光であってよい。所定の波長帯域の光は、撮像装置12の撮像素子23が光電変換可能な光である。一実施形態において、光源18は赤外帯域の拡散光を発する赤外LEDであってよい。
 照明光学系19は、例えば画角が調整されたレンズを含む。照明光学系19は、照明光学系19を透過する光を照射する。一実施形態において、光源18によって発せられ照明光学系19を透過した照明光は、対象者15の顔全体に照射される。
 照明装置通信部20は、ネットワーク14を介して情報の入力および出力を行うインターフェースを含む。
 照明装置制御部21は、1以上のプロセッサを含む。プロセッサには、特定の処理に特化した専用のプロセッサ、および特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサが含まれてよい。専用のプロセッサには、ASICが含まれてよい。プロセッサには、PLDが含まれてよい。PLDには、FPGAが含まれてよい。照明装置制御部21は、1つまたは複数のプロセッサが協働するSoC、およびSiPのいずれかであってよい。照明装置制御部21は、照明装置11の各部位の動作を制御する。例えば、照明装置制御部21は、撮像装置12の撮像タイミングと同期して、光源18を発光させる。一実施形態において、照明装置制御部21は、照明装置通信部20を介して取得する同期信号に応じて周期的に、光源18に赤外帯域の光を所定の時間発光させる。上述したように、撮像装置12は、同期信号に応じて撮像を行う。このため、照明装置11の発光タイミングと、撮像装置12の撮像タイミングと、が同期される。
 警告装置13について説明する。警告装置13は、例えばスピーカおよびバイブレータなどを備えてよい。警告装置13は、撮像装置12から上述した制御信号を受信すると、対象者15に対して警告を行う。警告は、例えば音および振動の少なくとも一方によって行われてよい。警告によって、例えばよそ見運転または居眠り運転などを行う対象者15に対する運転への注意喚起が可能である。
 図3を参照して、撮像装置12の撮像光学系22に含まれるレンズ28およびレンズ28のF値の決定手法について具体的に説明する。レンズ28は、物体側から入射した光を、撮像素子23の受光面位置に結像させる。以下、レンズ28の焦点距離をf[mm]、F値をF、後方被写界深度をDn[mm]、前方被写界深度をDf[mm]、撮影距離をS[mm]、許容錯乱円直径をδ[mm]、および撮像素子23の画素ピッチをp[mm]とおく。
 被写界深度(後方被写界深度Dn+前方被写界深度Df)は、次式(1)で示される。
Figure JPOXMLDOC01-appb-M000001
 撮像装置12と対象者15との間の撮像距離は、対象者15の個人差または姿勢に応じて変化し得る。対象者監視システム10において、撮影距離が取り得ると想定される撮影範囲が被写界深度内に収まるように、撮像装置12に所定のシステム要件が課されてよい。システム要件は、例えば車両16の車両定数および車両16における撮像装置12の配置に応じて定められてよい。一実施形態において、例えば撮影範囲、水平画角θ、画素ピッチp、および許容錯乱円直径δの4つのシステム要件が考慮される。各システム要件の値の一例を以下に示す。
・撮影範囲:400mm~1000mm
・水平画角θ:30°~60°
・画素ピッチp:0.003mm~0.006mm
・許容錯乱円直径δ:δ=2p
 上記のシステム要件を満たす焦点距離fについて説明する。各システム要件の数値を異ならせた多様な組み合わせについて、焦点距離fを算出する。各焦点距離fは、像高をh[mm]として、次式(2)を用いて算出される。
 h=f×tan(θ/2)           (2)
 画素ピッチp、撮像素子23の水平画素数、および水平画角θをそれぞれ変化させて、複数の焦点距離fを算出する。画素ピッチpを、例えば0.003mm~0.006mmの範囲で変化させてよい。水平画素数を、例えば640ピクセル~1920ピクセルの範囲で変化させてよい。水平画角θを、例えば30°~60°の範囲で変化させてよい。算出された焦点距離fの一部を、次の表1に示す。表1は、画素ピッチpを0.006mmまたは0.003mmとし、撮像素子23の水平画素数を640ピクセル、1280ピクセル、または1920ピクセルとし、水平画角θを30°、50°、または60°とした場合の10通りの組み合わせについて、上記のシステム要件を満たすように算出された焦点距離fを例示している。
Figure JPOXMLDOC01-appb-T000001
 算出された焦点距離fを用いて、上記のシステム要件を満たすF値の下限値を算出する。F値の下限値は、上述の式(1)を用いて算出される。例えば、画素ピッチpを0.006mmまたは0.003mmとし、水平画素数を640ピクセル、1280ピクセル、または1920ピクセルとし、水平画角θを30°から60°まで変化させたときの各焦点距離fについてF値の下限値が算出される。
 図4は、横軸を焦点距離f、および縦軸をF値とし、算出されたF値をプロットしたグラフである。図4は、画素ピッチp=0.003mmとした場合のF値の下限値と、画素ピッチp=0.006mmとした場合のF値の下限値と、を例示している。画素ピッチp=0.003mmとした場合、許容錯乱円直径δ=2p=0.006mmである。画素ピッチp=0.006mmとした場合、許容錯乱円直径δ=2p=0.012mmである。
 図5は、横軸をf2/δとして、図4に示すF値の下限値をプロットし直したグラフである。図5に示す各プロットを通る直線の傾きは0.0006、切片は0である。したがって、上記のシステム要件を満たすF値の範囲は、次式(3)で示される。
 F≧0.0003f2/p           (3)
 上述の式(3)を満たすようにレンズ28のF値を決定することによって、上記のシステム要件を満たす撮像装置12が実現可能である。
 しかしながら、単純にF値を大きくすると、例えば照明装置11による照明光の出力を上げない限り、撮像画像が暗くなる場合がある。かかる場合、対象者15の状態の検出精度が低下し、または検出できない場合がある。一方、例えば発熱または消費電力の観点から、照明装置11による照明光の出力を上げることができない場合がある。したがって、F値の適切な上限値を決定してもよい。
 F値が大きいレンズ28は、設計上収差補正が容易であり、公差感度が低い。したがって、F値が大きいレンズ28を含む撮像光学系22によって、撮像画像の全領域で回折限界に略等しい性能を得ることができる。撮像画像の全領域は、撮像素子23の受光面の全面に対応してよい。一方、F値を必要以上に大きくしても、回折限界によって解像性能が制限される。解像性能は、分解能であってよい。したがって、回折限界に略等しい性能を得ることができる最小のF値を決定し、決定された値をF値の上限値に定めてもよい。以下、F値の上限値の決定手法について、具体的に説明する。
 回折限界におけるエアリーディスクの直径φは、次式(4)で示される。
 φ=2.44λF               (4)
ここで、λは光の波長である。一実施形態において、λは、照明装置11による赤外帯域の照明光の中心波長である。
 本実施形態において、エアリーディスクの直径φと画素ピッチpとの関係が次式(5)を満たす場合に、実用上で回折限界に略等しい性能を得られることが実験で明らかになった。
 φ≦4p                   (5)
 上述した式(4)および式(5)から、F値の範囲は次式(6)で示される。
 F≦1.64p/λ              (6)
 上述の式(6)を満たすようにレンズ28のF値を決定することによって、撮像画像の全領域で回折限界に略等しい性能が得られる撮像装置12が実現可能である。
 図6を参照して、撮像光学系22に含まれる少なくとも1つの光学部材に形成されたARコーティング層による光の透過率の詳細について説明する。一実施形態において、当該光学部材には、レンズ28が含まれる。1つのレンズ面に形成されるARコーティング層の数を1層または2層とし、ARコーティング層が形成されるレンズ面の数を4面または6面とした場合の4通りの構成について説明する。
 図6は、横軸を光の波長λ[nm]、縦軸を光の透過率[%]を示すグラフである。図6は、ARコーティング層の数が1層かつレンズ面の数が4面である構成A、ARコーティング層の数が1層かつレンズ面の数が6面である構成B、ARコーティング層の数が2層かつレンズ面の数が4面である構成C、およびARコーティング層の数が2層かつレンズ面の数が6面である構成Dについて、それぞれ波長と透過率との関係を示している。図中の実線は、構成Aに対応する。図中の破線は、構成Bに対応する。図中の一点鎖線は、構成Cに対応する。図中の二点鎖線は、構成Dに対応する。
 一実施形態では、ARコーティング層によって、可視光帯域の光の透過率を低減させる一方、照明装置11からの赤外帯域の光の透過率を比較的高い値に維持する。可視光帯域は、例えば360nm~760nmの波長帯域を含んでよい。赤外帯域は、例えば、850nm~940nmの波長帯域を含んでよい。ARコーティング層数が1層である構成Aおよび構成Bにおいて、ARコーティング層にはフッ化マグネシウム(MgF2)が用いられている。MgF2は、深紫外から近赤外までの光を透過する低屈折率材料である。ARコーティング層数が2層である構成Cにおいて、第1層にはMgF2、第2層には二酸化ジルコニウム(ZrO2)が用いられている。ZrO2は、340nmから8μmまでの光を透過する高屈折材料である。ARコーティング層数が2層である構成Dにおいて、第1層にはMgF2、第2層には酸化チタン(TiO2)が用いられている。TiO2は、紫外帯域の光を吸収する高屈折材料である。
 図6に示すように、ARコーティング層数が1層である構成Aおよび構成Bでは、例えば420nm付近で透過率が約80%であり、可視光帯域における透過率は比較的高い。一方、ARコーティング層数が2層かつレンズ面の数が4面である構成Cでは、例えば530nm付近で透過率が約55%であり、構成Aおよび構成Bと比較して可視光帯域における透過率が低減されている。
 また、ARコーティング総数が2層かつレンズ面の数が6面である構成Dでは、例えば480nm付近で透過率が約10%であり、可視光帯域における透過率が構成Cよりもさらに低い。また、例えば400nm付近の透過率は、構成Cで約85%であるのに対し、構成Dで約25%である。同様に、例えば700nm付近の透過率は、構成Cで約80%であるのに対し、構成Dで約55%である。このように、構成Dは、構成Cと比較して可視光帯域に亘って透過率がさらに低減されている。本実施形態に係る撮像光学系22の構成は、上述した構成Cおよび構成Dに限られない。2以上のレンズ面に異なる種類のARコーティング層が形成されてもよい。ARコーティング層の種類には、例えばARコーティング層に含まれる材質および形成される層の数が含まれてよい。例えば、任意のレンズ面において、第1層にMgF2および第2層にZrO2が用いられたARコーティング層が施され、他のレンズ面において、第1層にMgF2および第2層にTiO2が用いられたARコーティング層が形成されてよい。2以上のレンズ面にそれぞれ形成させるARコーティング層の種類を調整することによって、所望の波長特性を実現し得る。
 上述したように、一実施形態においてレンズ28のF値は比較的大きい。このため、外光のうち可視光帯域の光の強度は、レンズ28を通過すると比較的小さくなる。例えば照明装置11による照明光の強度が外光と比較して十分大きい場合には、上述したように複数のARコーティング層によって外光を一定程度低減すれば、実用上良好な撮像画像が得られる。したがって、例えば撮像光学系が可視光カットフィルタを有する構成と比較して、可視光カットフィルタが省略可能であり、撮像光学系22の構成が簡素化および小型化できる。
 以上述べたように、一実施形態に係る撮像装置12のレンズ28は、F値、焦点距離f、および撮像素子23の画素ピッチpを用いて、上述した式(1)であるF≧0.0003f2/pを満たすように決定されてよい。かかる構成によって、車両16内に設置され対象者15を撮像するという特殊な使用環境にも利用できる撮像装置12が実現可能である。
 一実施形態に係る撮像装置12以外の撮像装置が用いられる例について説明する。例えば、車両内空間の広さは限られており、撮像装置から対象者までの撮影距離が短いため、撮像装置の被写界深度が浅くなる。撮影距離は、対象者の個人差または姿勢などによって変化し得る。このため、被写界深度が浅いと必ずしも対象者にピントが合わず、撮像画像にボケが発生する場合がある。ボケが発生した撮像画像は、対象者の状態の検出精度の低下を引き起こし得る。
 これに対して、一実施形態に係る撮像装置12によれば、例えば車両16内で姿勢が変化し得る対象者15を撮像するのに十分な被写界深度を確保した撮像装置12が実現可能である。したがって、撮像画像のボケの発生が抑制され、対象者15の状態の検出精度が向上する。
 F=0.0003f2/pとした場合には、被写界深度を確保しつつ比較的明るい撮像画像が生成される。このため、撮像画像の明るさの観点から対象者15の状態の検出精度がさらに向上する。
 上述した式(1)によれば、F値を大きくすることができる。F値を大きくすることによって、レンズ28の口径を小さくできる。このため、撮像光学系22の鏡筒を小型化でき、撮像装置12全体として小型化が可能である。F値を大きくすることによって、収差補正が容易になる。このため、例えば上述した式(1)を満たさないF<0.0003f2/pであるレンズを用いる構成と比較して、撮像光学系22が有するレンズ枚数を削減でき、撮像装置12全体としてさらに小型化が可能である。F値を大きくすることによって、焦点深度が深くなる。したがって、例えば上述した式(1)を満たさないF<0.0003f2/pであるレンズを用いる構成と比較してデフォーカス特性に余裕があるある。このため、例えばガラスレンズに比べて線膨張係数が大きい樹脂レンズの積極的な採用が可能である。したがって、採用可能なレンズの選択肢が多様化する。多様な性質を有する樹脂レンズの採用が可能であり、撮像装置12全体としてさらに小型化が可能である。
 レンズ28のF値は、対象者15を照らす照明光の中心波長λを用いて、上述した式(6)であるF≦1.64p/λを満たすように決定されてよい。かかる構成によって、回折限界による解像性能と、撮像画像の明るさと、の良好なバランスを有する撮像装置12が実現可能である。
 一実施形態に係る撮像装置12以外の撮像装置が用いられる例について説明する。被写界深度を深くするために、撮像装置のF値を大きくすることが考えられる。しかしながら、F値を大きくすると、撮像画像の明るさが暗くなる。このため、対象者の状態の検出精度が低下し、または検出できない場合がある。
 これに対して、一実施形態に係る撮像装置12によれば、F=1.64p/λであるレンズ28を有する撮像光学系22によって、撮像画像の全領域で回折限界に略等しい性能を得ることができ、解像性能が向上する。F<1.64p/λであるレンズ28を有する撮像光学系22によって、レンズ28のF値をF=1.64p/λとした場合よりも解像性能は低下し得る一方、撮像画像が明るくなる。このため、例えば発熱または消費電力の観点から照明装置11の出力を上げることができない場合にも利用できる撮像装置12が実現可能である。一方、式(6)を満たさないF>1.64p/λであるレンズが採用される構成であっても、回折限界によって解像性能は変化しない。しかしながら、撮像画像が暗くなる場合がある。このため、式(6)を満たす場合と比較して、対象者15の状態の検出精度が低下する場合がある。
 撮像装置12は、単一のデコンボリューションフィルタを用いて、撮像画像に対して復元処理を施してよい。上述したように、式(3)を満たすようにレンズ28のF値を決定して被写界深度を十分深くすることによって、撮像画像の全領域で点拡がり関数が略均一なジンク関数の分布となる。換言すると、被写界深度が深いレンズ28を用いることによって、撮影距離全域の点像の広がりが一定の分布となるように撮像装置12が設計可能である。具体的には、照明装置11による照明光は所定の中心波長を有する赤外帯域の光であり、色収差が実用上無視できる。このため、レンズ28の口径を小さくすることで、撮像画像の全領域で点像の広がりが略均一の分布となる。さらに、上述したようにF値が大きいレンズ28は公差感度が低い。このため、設計値に近い性能が得られる。したがって、点拡がり関数に対応する単一のデコンボリューションフィルタを用いて撮像画像のボケが低減可能である。このため、例えば撮像画像の全領域で点拡がり関数が不均一であって複数のフィルタを用いて復元処理を行う構成と比較して、処理負担が軽減される。回折限界に近い性能である場合には、フィルタサイズを小さくすることができる。
 撮像光学系22に含まれる1以上のレンズの2以上のレンズ面に異なる種類のコーティング層が形成されてよい。かかる構成によって、所望の波長特性を得ることができる。例えば、可視光帯域および紫外帯域の透過率を低減しつつ、赤外帯域の透過率を増大させることができる。例えば撮像光学系が可視光カットフィルタを有する構成と比較して、可視光カットフィルタが省略可能である。このため、撮像光学系22の構成が簡素化および小型化できる。
 本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段やステップなどを1つに組み合わせたり、あるいは分割したりすることが可能である。
 上述の実施形態に係る対象者監視システム10の構成要素の一部は、車両16の外部に設けられてもよい。例えば、撮像装置12などは、携帯電話などの通信機器として実現され、対象者監視システム10の他の構成要素と有線または無線によって接続されてもよい。
10  対象者監視システム
11  照明装置
12  撮像装置
13  警告装置
14  ネットワーク
15  対象者
16  車両
17  ダッシュボード
18  光源
19  照明光学系
20  照明装置通信部
21  照明装置制御部
22  撮像光学系
23  撮像素子
24  AFE
25  画像処理部
26  通信部
27  カメラ制御部
28  レンズ

Claims (5)

  1.  車両内の対象者の顔の光学像を結像させる撮像光学系と、
     結像された前記光学像を撮像して撮像画像を生成する撮像素子と、
     前記撮像画像に基づいて前記対象者の状態を判定する画像処理部と、を備え、
     前記撮像光学系のF値をF、焦点距離をf、および前記撮像素子の画素ピッチをpとしたとき、以下の式を満たす、撮像装置。
     F≧0.0003f2/p
  2.  請求項1に記載の撮像装置であって、
     前記対象者を照らす照明光の波長をλとしたとき、以下の式を満たす、撮像装置。
     F≦1.64p/λ
  3.  請求項1または2に記載の撮像装置であって、
     前記画像処理部は、単一のデコンボリューションフィルタを用いて、前記撮像画像に対して復元処理を施す、撮像装置。
  4.  請求項3に記載の撮像装置であって、
     前記デコンボリューションフィルタは、回転対称のジンク関数の分布を示す点拡がり関数に対応するフィルタである、撮像装置。
  5.  請求項1乃至4の何れか一項に記載の撮像装置であって、
     前記撮像光学系は、1以上のレンズを含み、2以上のレンズ面に異なる種類のコーティング層が形成され、前記対象者を照らす照明光の透過率が可視光の透過率よりも大きい、撮像装置。
PCT/JP2016/004712 2015-10-26 2016-10-26 撮像装置 WO2017073059A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16859297.0A EP3370410B1 (en) 2015-10-26 2016-10-26 Imaging device
JP2017547620A JP6431210B2 (ja) 2015-10-26 2016-10-26 撮像装置
US15/769,975 US10376199B2 (en) 2015-10-26 2016-10-26 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015210095 2015-10-26
JP2015-210095 2015-10-26

Publications (1)

Publication Number Publication Date
WO2017073059A1 true WO2017073059A1 (ja) 2017-05-04

Family

ID=58630190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/004712 WO2017073059A1 (ja) 2015-10-26 2016-10-26 撮像装置

Country Status (4)

Country Link
US (1) US10376199B2 (ja)
EP (1) EP3370410B1 (ja)
JP (1) JP6431210B2 (ja)
WO (1) WO2017073059A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107346416A (zh) * 2017-06-09 2017-11-14 湖北天业云商网络科技有限公司 一种基于人体拓扑结构的身体运动状态检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252094A (ja) * 2008-04-09 2009-10-29 Toyota Motor Corp 顔画像検出装置
JP2009282551A (ja) * 2009-08-31 2009-12-03 Canon Inc 撮像装置および撮像システム
WO2015093004A1 (ja) * 2013-12-18 2015-06-25 株式会社デンソー 顔画像撮影装置、および運転者状態判定装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08290726A (ja) 1995-04-21 1996-11-05 Mitsubishi Electric Corp 居眠り警報装置
JP4290935B2 (ja) * 2002-07-18 2009-07-08 オリンパス株式会社 電子撮像装置
EP2430826A1 (en) * 2009-05-12 2012-03-21 Koninklijke Philips Electronics N.V. Camera, system comprising a camera, method of operating a camera and method for deconvoluting a recorded image
JP5897769B2 (ja) * 2013-04-16 2016-03-30 富士フイルム株式会社 撮像装置、キャリブレーションシステム、及びプログラム
CN203535250U (zh) 2013-11-11 2014-04-09 成都市晶林电子技术有限公司 一种红外镀膜镜片
DE102014203444A1 (de) * 2014-02-26 2015-08-27 Application Solutions (Electronics and Vision) Ltd. Vorrichtung und Verfahrung zur Ermittlung eines Augenzustands eines Fahrzeuginsassen
CN106165390B (zh) * 2014-03-28 2019-06-28 富士胶片株式会社 图像处理装置、摄影装置、图像处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009252094A (ja) * 2008-04-09 2009-10-29 Toyota Motor Corp 顔画像検出装置
JP2009282551A (ja) * 2009-08-31 2009-12-03 Canon Inc 撮像装置および撮像システム
WO2015093004A1 (ja) * 2013-12-18 2015-06-25 株式会社デンソー 顔画像撮影装置、および運転者状態判定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3370410A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107346416A (zh) * 2017-06-09 2017-11-14 湖北天业云商网络科技有限公司 一种基于人体拓扑结构的身体运动状态检测方法及系统

Also Published As

Publication number Publication date
US10376199B2 (en) 2019-08-13
EP3370410A1 (en) 2018-09-05
EP3370410B1 (en) 2020-11-25
JPWO2017073059A1 (ja) 2018-07-05
JP6431210B2 (ja) 2018-11-28
US20180310868A1 (en) 2018-11-01
EP3370410A4 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US10097752B2 (en) Lens barrel, imaging device body, and imaging device with apodization filters
US10132971B2 (en) Vehicle camera with multiple spectral filters
JP2008268868A (ja) 撮像装置
EP2490060A1 (en) Focusing device and focusing method
WO2004063989A3 (en) Camera with image enhancement functions
JP2010213274A (ja) 拡張された被写界深度の監視用撮像システム
JP2008246004A (ja) 瞳孔検出方法
KR20140068042A (ko) 촬상 장치 및 필터
US11675174B2 (en) Single optic for low light and high light level imaging
JP6431210B2 (ja) 撮像装置
CN105430310B (zh) 图像处理方法、摄像装置以及图像处理装置
JP6330474B2 (ja) 画像処理装置、画像処理装置の制御方法、撮像装置
JP2010175713A (ja) 撮像光学系および撮像装置
JP2008132160A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2021021892A (ja) 撮像装置及び撮像システム
US20140016188A1 (en) Lens System
JP2003102029A (ja) カラー撮像装置、カラー撮像装置の光学フィルタ、及びカラー撮像装置の交換レンズ
JP6463975B2 (ja) 眼の開閉状態の判定方法、画像処理装置、および判定システム
WO2023181630A1 (ja) 画像処理装置、および撮像システム
JP2016177215A (ja) 撮像装置
JP5286495B2 (ja) レンズ装置及び撮像装置
JP2015087494A (ja) 撮像装置
JP6632314B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2017068385A (ja) 撮像装置、および監視システム
JP2017220811A (ja) 撮像装置およびカメラシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16859297

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017547620

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15769975

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016859297

Country of ref document: EP