WO2021171696A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2021171696A1
WO2021171696A1 PCT/JP2020/040101 JP2020040101W WO2021171696A1 WO 2021171696 A1 WO2021171696 A1 WO 2021171696A1 JP 2020040101 W JP2020040101 W JP 2020040101W WO 2021171696 A1 WO2021171696 A1 WO 2021171696A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical system
wavelength region
light source
subject
Prior art date
Application number
PCT/JP2020/040101
Other languages
English (en)
French (fr)
Inventor
敏浩 青井
杉本 雅彦
臣一 下津
哲也 藤川
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022503084A priority Critical patent/JP7358611B2/ja
Publication of WO2021171696A1 publication Critical patent/WO2021171696A1/ja
Priority to US17/892,112 priority patent/US20220404579A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/287Systems for automatic generation of focusing signals including a sight line detecting device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/281Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for attenuating light intensity, e.g. comprising rotatable polarising elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3083Birefringent or phase retarding elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/02Colour photography, other than mere exposure or projection of a colour film by two-colour separation records, e.g. red-aspect and white complete records; using Land effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes

Definitions

  • the technology of the present disclosure relates to an imaging device.
  • Japanese Patent Publication No. 11-508371 is a device that creates an image that represents the distance to an object in the scene, and the irradiation light is applied to the scene so that a part of the irradiation light is reflected from the scene and reaches the device.
  • a modulated irradiation light source a telecentric optical system that collimates the reflected irradiation light from the scene, and a device that depends on the distance of different parts of the scene from the device.
  • a modulator that modulates the irradiation light collimated so that a part of the arriving irradiation light is transmitted, a detector that detects an image formed by the modulated and collimated irradiation light, and a detected image.
  • a device comprising a processor that forms an image having an intensity value distribution representing the distance of an object from the device according to the intensity distribution of light sources is disclosed.
  • Japanese Patent Application Laid-Open No. 2002-318104 describes an infrared light source that emits infrared light, an infrared light emitted from the infrared light source, modulated and emitted toward the subject, and reflected infrared light from the subject.
  • a modulation means that modulates the light
  • a photographing lens that receives visible light and infrared light from the subject
  • a visible / infrared light separating means that is arranged behind the imaging lens and separates the visible light and the infrared light. Red that receives visible light from the means and detects the visible light image of the subject on the imaging surface.
  • An optical imaging device including an external light image detecting means is disclosed.
  • Japanese Patent Laying-Open No. 2012-145722 describes a polarizer that polarizes light from a light source and a subject along the light receiving axis direction of a camera capable of reflecting and connecting a part of the light that has passed through the polarizer. It is possible to separate a light transmitting member that guides an object and allows a part of the reflected light from the object to pass through, and the light reflected by the light transmitting member into light in two polarization axis directions that are orthogonal to each other, and attach / detach the light.
  • a possible double refraction optical member an objective lens that collects light that has passed through the double refraction optical member and irradiates the object, a polarization conversion member that converts the polarization state of the light that has passed through the objective lens, and light. It has an analyzer that polarizes a part of the reflected light from the object that has passed through the transmissive member, and the polarizer and the analyzer are arranged so that the polarization axis directions are substantially parallel to each other.
  • the members are arranged so that the two polarization axis directions are approximately 45 degrees with respect to the polarization axis direction of the polarizer, and the polarization conversion member has either a high-speed axis or a low-speed axis.
  • a lens module is disclosed, wherein the axis is arranged so as to be approximately 45 degrees with respect to the polarization axis direction of the polarizer.
  • One embodiment according to the technique of the present disclosure is a case where the optical axis of the imaging system of the first wavelength region light and the second wavelength region light and the optical axis of the light projection system of the first wavelength region light are separate. In comparison, it is possible to image the first wavelength region light and the second wavelength region light included in the subject light in a state where the irradiation range of the first wavelength region light and the imaging range for imaging the subject light are accurately superimposed.
  • An imaging device capable of providing an image pickup device is provided.
  • a first aspect according to the technique of the present disclosure is a first optical system that transmits light including light in the first wavelength region and light in the second wavelength region, and light transmitted through the first optical system in the first wavelength region.
  • a first separation optical system that separates light and second wavelength region light
  • a second optical system that transmits the first wavelength region light obtained by separating light by the first separation optical system
  • a first A third optical system that transmits light in the second wavelength region obtained by separating light by a separation optical system
  • a first image sensor that receives light in the first wavelength region emitted from the second optical system, and a first image sensor.
  • a second image sensor that receives light in the second wavelength region emitted from the third optical system and a first light source that emits light in the first wavelength region are provided, and the first optical system is emitted from the first light source.
  • This is an imaging device that emits light in the first wavelength region to a subject and transmits the light in the first wavelength region including the reflected light in the first wavelength region reflected by the subject.
  • a second aspect of the technique of the present disclosure is that the first optical system is a fixed optical system in which the optical element is immovable in the optical axis direction of the first optical system and the subject light is guided to the first separation optical system.
  • the first optical system allows the first wavelength region light emitted from the first light source to pass through at least a part of the optical path of the first wavelength region reflected light passing through the fixed optical system toward the first image sensor.
  • This is an image pickup apparatus according to the first aspect of emitting light onto a subject.
  • a third aspect according to the technique of the present disclosure includes a zoom optical system in which the first optical system is provided on the subject side of the fixed optical system and has an optical element that can move along the optical axis direction.
  • the first optical system transmits the first wavelength region light emitted from the first light source, and the first wavelength region reflected light passes through at least a part of the optical path toward the first image sensor via the zoom optical system and the fixed optical system.
  • This is an imaging device according to a second aspect of passing through and emitting light to a subject.
  • the first separation optical system and the first optical system are the first wavelength region light emitted from the first light source, and the first wavelength region reflected light is the first optical system and the first optical system.
  • the imaging device according to any one of the first to third aspects, which passes through at least a part of the optical path toward the first image sensor via the first separation optical system and emits light to the subject. ..
  • the first separation optical system transmits light in the first wavelength region along the first direction along the optical axis direction of the first optical system, and the second wavelength region.
  • the imaging device according to any one of the first to fourth aspects, which reflects light in a second direction intersecting the first direction.
  • the second optical system further includes a second separation optical system, and the second separation optical system reflects the light in the first wavelength region emitted from the first light source.
  • the image pickup apparatus according to any one of the first to fifth aspects, wherein the reflected light in the first wavelength region passes through a part of the optical path toward the first image sensor and is guided to the first separation optical system. be.
  • the first optical system includes a phase plate that polarizes light in the first wavelength region
  • the second optical system is a first polarizing plate that allows light in the first polarization direction to pass through.
  • the phase plate transmits the light in the first wavelength region emitted from the first light source to emit the light to the subject, and the reflected light in the first wavelength region is incident on the subject, so that the reflected light in the first wavelength region is incident. Is polarized in the first polarization direction, and the first polarizing plate leads to the first image sensor by passing the reflected light in the first wavelength region polarized in the first polarization direction by the phase plate, from the first aspect to the sixth. It is an image pickup apparatus which concerns on any one aspect of the above-mentioned aspect.
  • An eighth aspect according to the technique of the present disclosure is an image pickup apparatus according to a seventh aspect in which the first polarization direction is orthogonal to the polarization direction of the first wavelength region light emitted from the first light source.
  • the phase plate is a 1/4 phase plate, and the phase plate transmits light in the first wavelength region emitted from the first light source to emit light to the subject.
  • the polarization direction of the light in the first wavelength region is changed by 90 degrees with respect to the polarization direction of the light in the first wavelength region before the light in the first wavelength region is transmitted.
  • the first light source is a non-polarized light source
  • the second optical system further includes a second polarizing plate
  • the second polarizing plate is emitted from the first light source.
  • the light in the first wavelength region is polarized in the second polarization direction
  • the light in the first wavelength region polarized in the second polarization direction becomes light in the first polarization direction by passing through the phase plate. It is an image pickup apparatus which concerns on any one aspect.
  • the eleventh aspect according to the technique of the present disclosure is any one of the first to tenth aspects, further comprising a range finder that detects the reflected light in the first wavelength region and measures the distance to the subject based on the detection result.
  • a range finder that detects the reflected light in the first wavelength region and measures the distance to the subject based on the detection result.
  • a twelfth aspect according to the technique of the present disclosure includes a first processor, in which the first processor emits the light in the first wavelength region from the first light source and the reflected light in the first wavelength region is the first image.
  • the imaging device according to any one of the first to eleventh aspects, which measures the distance to the subject based on the light receiving timing received by the sensor.
  • a thirteenth aspect according to the technique of the present disclosure includes a second processor, in which the second processor emits the light in the first wavelength region from the first light source and the reflected light in the first wavelength region is the first image.
  • the imaging device according to any one of the first to twelfth aspects, which generates image data about the subject light based on the light receiving timing received by the sensor.
  • the fourteenth aspect according to the technique of the present disclosure is the first to thirteenth aspects in which the second wavelength region light is visible light and the first wavelength region light is light having a wavelength longer than that of visible light. It is an image pickup apparatus which concerns on any one aspect of.
  • the fifteenth aspect according to the technique of the present disclosure is the image pickup apparatus according to the fourteenth aspect in which the long wavelength light is light in the infrared light wavelength range having a wavelength range of 1400 nm or more and 2600 nm or less.
  • the sixteenth aspect according to the technique of the present disclosure is the image pickup apparatus according to the fifteenth aspect in which the infrared light wavelength region is a near infrared light wavelength region including 1550 nm.
  • the seventeenth aspect according to the technique of the present disclosure is the image pickup apparatus according to the fourteenth aspect, wherein the long wavelength light is light in the near infrared light wavelength range having a wavelength range of 750 nm or more and 1000 nm or less.
  • An eighteenth aspect according to the technique of the present disclosure is further provided with a first diaphragm provided between the first light source and the first optical system and limiting the amount of light in the first wavelength region emitted from the first light source.
  • the imaging device according to any one of the first to the seventeenth aspects.
  • a nineteenth aspect according to the technique of the present disclosure is that the first optical system has a plurality of lenses, and the light receiving surface of at least one of the plurality of lenses has a first wavelength region light and a second wavelength.
  • the imaging apparatus according to any one of the first to eighteenth aspects, wherein an antireflection film having a reflectance lower than the reflectance for light in another wavelength region is formed.
  • the first optical system includes a second diaphragm having an aperture and an outer peripheral region forming the aperture, and the aperture provides light in the first wavelength region and light in the second wavelength region.
  • the image pickup apparatus according to any one of the first to nineteenth aspects, which transmits light in the first wavelength region and limits the transmission of light in the second wavelength region.
  • a twenty-first aspect according to the technique of the present disclosure is the first to twentieth aspects in which the second optical system further includes a focus adjusting optical system including a lens capable of adjusting the focus of the first wavelength region reflected light. It is an image pickup apparatus which concerns on any one aspect of.
  • the light distribution of the first wavelength region light emitted from the first light source can be adjusted between the first light source and the optical path through which the first wavelength region reflected light passes.
  • the imaging apparatus according to any one of the first to twenty-first aspects, further comprising a light distribution adjusting optical system including a lens.
  • the beam diameter of the first wavelength region light emitted from the first light source can be adjusted between the first light source and the optical path through which the first wavelength region reflected light passes.
  • An image pickup apparatus according to any one of the first to 22nd aspects, further including a beam expander optical system.
  • the first light source has a Brewster window, and the first light source emits light in the first wavelength region through the Brewster window from the first aspect to the 23rd aspect. It is an image pickup apparatus which concerns on any one aspect of the above-mentioned aspect.
  • a twenty-fifth aspect according to the technique of the present disclosure is an imaging according to any one of the first to twenty-four aspects, wherein the first light source is a light source capable of changing the emission direction of the first wavelength region light. It is a device.
  • CPU is an abbreviation for "Central Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • ROM is an abbreviation for "Read Only Memory”.
  • SSD is an abbreviation for “Solid State Drive”.
  • HDD is an abbreviation for “Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • ASIC refers to the abbreviation of "Application Specific Integrated Circuit”.
  • PLD refers to the abbreviation of "Programmable Logic Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor".
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • UI refers to the abbreviation of "User Interface”.
  • GPU refers to the abbreviation of "Graphics Processing Unit”.
  • AF is an abbreviation for "Auto Focus”.
  • SWIR is an abbreviation for "Short-wavelength infrared”.
  • LED refers to the abbreviation of "Light Emitting Diode”.
  • TOF is an abbreviation for "Time of Flight”.
  • Consisting of in the present specification includes a lens having substantially no refractive power, an optical element other than the lens such as an aperture, a filter, and a cover glass, and an optical element other than the lens.
  • an optical element other than the lens such as an aperture, a filter, and a cover glass
  • an optical element other than the lens such as an aperture, a filter, and a cover glass
  • a lens flange, a lens barrel, an image pickup element, and mechanical parts such as an image stabilization mechanism, etc. are intended to be included.
  • the meaning of “identical” includes not only the completely identical meaning but also substantially the same meaning including errors allowed in design and manufacturing.
  • the meaning of “orthogonal” includes not only the meaning of perfect orthogonality but also the meaning of substantially orthogonality including errors allowed in design and manufacturing.
  • the image pickup apparatus 10 is an apparatus for imaging the subject S.
  • the image pickup device 10 includes a light separation device 12, a light source 13, a first image sensor 14, a second image sensor 16, a position detection device 18, a power application device 20, a UI system device 22, and a control device 24.
  • the optical separation device 12 includes a first optical system 28, a first separation prism 30, a second optical system 32, and a third optical system 34.
  • the subject light indicating the subject S includes visible light, which is light in the visible wavelength range, and light having a wavelength longer than that of visible light, as light in different wavelength ranges.
  • the first image sensor 14 captures the long-wavelength light imaged on the light receiving surface 14A after the subject light is separated by the light separation device 12.
  • the second image sensor 16 the subject light is separated by the light separation device 12, and the visible light imaged on the light receiving surface 16A is imaged.
  • the long wavelength light is an example of the "first wavelength region light” according to the technique of the present disclosure, and the long wavelength light included in the subject light is the "first wavelength region reflected light” according to the present disclosure technology.
  • visible light is an example of “second wavelength region light” according to the technique of the present disclosure. Further, in the following, for convenience of explanation, long-wavelength light will be described as infrared light.
  • the optical separation device 12 is provided with an optical path for infrared light and an optical path for visible light.
  • the first optical system 28, the first separation prism 30, and the second optical system 32 are arranged in order from the subject side (object side) along the optical axis L1.
  • the first optical system 28 transmits infrared light and visible light contained in the subject light.
  • the first separation prism 30 separates the subject light into infrared light and visible light, and guides the infrared light and visible light to the second optical system 32 and the third optical system 34, respectively.
  • a first image sensor 14 is arranged after the second optical system 32. That is, the first image sensor 14 is located on the image side of the second optical system 32 and receives infrared light emitted from the second optical system 32.
  • the first image sensor 14 is an infrared light two-dimensional image sensor and captures infrared light.
  • the first image sensor 14 has a light receiving surface 14A.
  • the light receiving surface 14A is formed by a plurality of photosensitive pixels (not shown) arranged in a matrix, each photosensitive pixel is exposed, and photoelectric conversion is performed for each photosensitive pixel.
  • a plurality of photoelectric conversion elements having sensitivity to infrared light are adopted as the plurality of photosensitive pixels.
  • the photoelectric conversion element includes an InGaAs photodiode in which an infrared light transmission filter is arranged and a CMOS read circuit.
  • the InGaAs photodiode is illustrated here, the InGaAs photodiode is not limited to this, and a type 2 quantum well (T2SL; Simulation of Type-II Quantum Well) photodiode may be applied instead of the InGaAs photodiode.
  • the first image sensor 14 is an example of the "first image sensor" according to the technique of the present disclosure.
  • the optical path for visible light has an optical axis L1 and an optical axis L2.
  • the optical axis L2 is an optical axis that intersects the optical axis L1.
  • the first optical system 28 and the first separation prism 30 are arranged in order from the subject side along the optical axis L1.
  • the optical axis L1 is branched into the optical axis L2 by the first separation prism 30.
  • the third optical system 34 is arranged along the optical axis L2 on the image side of the first separation prism 30.
  • the second image sensor 16 is arranged after the third optical system 34, that is, on the image side of the third optical system 34. In other words, the third optical system 34 is provided between the first separation prism 30 and the second image sensor 16.
  • the second image sensor 16 receives visible light emitted from the third optical system 34.
  • the second image sensor 16 is a visible light two-dimensional image sensor and captures visible light.
  • the second image sensor 16 has a light receiving surface 16A.
  • the light receiving surface 16A is formed by a plurality of photosensitive pixels (not shown) arranged in a matrix, each photosensitive pixel is exposed, and photoelectric conversion is performed for each photosensitive pixel.
  • a plurality of photoelectric conversion elements having sensitivity to visible light are adopted as the plurality of photosensitive pixels.
  • the photoelectric conversion element has a Si photodiode in which a color filter is arranged and a CMOS read circuit.
  • the color filters are a filter corresponding to R (red), a filter corresponding to G (green), and a filter corresponding to B (blue), and are arranged on the light receiving surface 16A in a specific arrangement pattern.
  • the X-Trans (registered trademark) sequence is adopted as a specific sequence pattern.
  • the arrangement pattern is not limited to this, and may be another type of arrangement pattern such as a Bayer arrangement or a honeycomb arrangement.
  • the second image sensor 16 is an example of the "second image sensor" according to the technique of the present disclosure.
  • the first optical system 28 transmits infrared light emitted from the light source 13 and emits it to the subject S. Further, the subject light is incident on the first optical system 28 from the first lens group 28A, and the first optical system 28 guides the incident subject light to the first separation prism 30. That is, the first optical system 28 transmits the subject light including the infrared light reflected by the subject by the infrared light emitted from the light source 13 and guides the infrared light to the first separation prism 30.
  • the first optical system 28 has a first lens group 28A, a second lens group 28B, a third lens group 28C, and a fourth lens group 28D in order from the subject S side.
  • the first lens group 28A is a lens group having a positive refractive power
  • the second lens group 28B is a lens group having a negative refractive power
  • the third lens group 28C is a lens group having a positive refractive power
  • the fourth lens group 28D is a lens group having a positive refractive power.
  • the first optical system 28 has a first lens group 28A as a focus lens. Further, the first optical system 28 has a second lens group 28B and a third lens group 28C as zoom lenses.
  • the second lens group 28B and the third lens group 28C are examples of the "zoom optical system" according to the technique of the present disclosure.
  • Each of the first lens group 28A, the second lens group 28B, the third lens group 28C, the fourth lens group 28D, and the fifth lens group 28F is composed of a plurality of lenses.
  • the first lens group 28A, the second lens group 28B, the third lens group 28C, the fourth lens group 28D, and the fifth lens group 28F are arranged in order from the subject side along the optical axis L1.
  • the third lens group 28C has an exit surface 28C1
  • the fourth lens group 28D has an incident surface 28D1 and an exit surface 28D2.
  • the exit surface 28C1 is the surface of the third lens group 28C located on the image side most
  • the incident surface 28D1 is the surface of the fourth lens group 28D located on the subject side most
  • the exit surface 28D2 is.
  • the diaphragm 28E is arranged between the exit surface 28C1 and the entrance surface 28D1.
  • the diaphragm 28E is located on the subject side of the fourth lens group 28D in the direction of the optical axis L1 and adjacent to the fourth lens group 28D (for example, between the exit surface 28C1 and the incident surface 28D1). ) Is placed. Note that this is only an example, and the aperture 28E may be arranged in the fourth lens group 28D.
  • Each of the first lens group 28A and the fourth lens group 28D is a fixed lens group.
  • the fixed lens group is a lens group fixed to the image plane at the time of scaling.
  • Each of the second lens group 28B and the third lens group 28C is a moving lens group.
  • the moving lens group is a lens group in which the distance from the adjacent lens group is changed by moving along the optical axis L1 direction at the time of scaling.
  • Each of the first lens group 28A, the third lens group 28C, the fourth lens group 28D, and the fifth lens group 28F is a lens group having a positive power, and the second lens group 28B has a negative power. It is a lens group.
  • first lens group 28A, the second lens group 28B, the third lens group 28C, the fourth lens group 28D, the fifth lens group 28F, and the like are illustrated here, the techniques of the present disclosure are illustrated. Is not limited to this.
  • at least one of the first lens group 28A, the second lens group 28B, the third lens group 28C, the fourth lens group 28D, and the fifth lens group 28F may be one lens.
  • the focus position is adjusted by the first optical system 28.
  • the adjustment of the focus position is realized by, for example, the front lens focus method.
  • the front lens focus method the first lens group 28A moves along the optical axis L1 direction, so that infrared light is imaged on the light receiving surface 14A at the focusing position according to the subject distance.
  • the "focus position" referred to here refers to the position of the first lens group 28A on the optical axis L1 in a state of being in focus.
  • the front focus method is adopted, but the technique of the present disclosure is not limited to this, and the whole group extension method, the inner focus method, or the rear focus method is adopted. May be good.
  • the "focus position" in the case of the all-group extension method, the inner focus method, or the rear focus method is a lens or a lens group that is moved along the optical axis L1 in order to adjust the focus position on the optical axis L1. Refers to the position in the in-focus state.
  • the aperture 28E has an opening 28E1, and the subject light passes through the opening 28E1.
  • the opening 28E1 is arranged at a position where the peripheral light rays of the subject light pass through the optical axis L1.
  • the diaphragm 28E is a movable diaphragm whose diameter of the opening 28E1 can be changed. That is, the amount of the subject light indicating the subject S can be changed by the aperture 28E. Details of the aperture 28E will be described later.
  • the diaphragm 28E is an example of the "second diaphragm" according to the technique of the present disclosure.
  • the first optical system 28 forms an intermediate image S1 on the optical axis L1.
  • the intermediate image S1 is formed between the diaphragm 28E and the first separation prism 30 by the first optical system 28. More specifically, the intermediate image S1 is formed by the first optical system 28 on the exit surface 28D2, which is the most image-side surface of the fourth lens group 28D, and the most subject-side surface of the fifth lens group 28F. It is formed between the surface and the incident surface 28F1.
  • the fifth lens group 28F is arranged between the intermediate image S1 and the first separation prism 30 on the optical axis L1.
  • the fifth lens group 28F Since the fifth lens group 28F has a positive power, the luminous flux of the subject light is collected by the first separation prism 30 by giving a converging action to the subject light incident on the fifth lens group 28F as divergent light. To be incident on. That is, the fifth lens group 28F accommodates the peripheral light rays of the incident subject light in the first separation prism 30 by a positive refractive power.
  • the fifth lens group 28F is a fixed lens group that is immovable in the direction of the optical axis L1. Further, the fifth lens group 28F guides the subject light transmitted through the first optical system 28 to the first separation prism 30.
  • the fifth lens group 28F is an example of the "fixed optical system" according to the technique of the present disclosure.
  • the first optical system 28 not only functions as an optical system into which the subject light is incident, but also transmits infrared light emitted from the light source 13 and emits it to the subject S. Also works as. As an example, as shown in FIG. 1, in the first optical system 28, the infrared light emitted from the light source 13 passes through the fifth lens group 28F, which is a fixed lens group, among the first optical systems 28. Then, it passes through the optical path toward the first image sensor 14 and emits light to the subject S.
  • the fifth lens group 28F which is a fixed lens group
  • the subject light is the infrared light emitted from the light source 13, the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D.
  • the first separation prism 30 and the first optical system 28 send infrared light emitted from the light source 13 to the first image sensor 14 via the first optical system 28 and the first separation prism 30. It passes through a part of the light path to be directed and emits light to the subject S.
  • the first optical system 28 emits the infrared light emitted from the light source 13 to the subject S by utilizing a part of the optical path in which the subject light goes to the first image sensor 14. That is, in the image pickup apparatus 10, the optical system for imaging infrared light and visible light and the optical system for emitting infrared light from the light source 13 are coaxial in a part of the optical path of the first optical system 28. ing.
  • the first optical system 28 has a phase plate 15.
  • the phase plate 15 is provided on the subject S side of the first lens group 28A in the first optical system 28 as an example.
  • the phase plate 15 changes the phase of the infrared light emitted from the light source 13 to change the polarization direction. That is, the phase plate 15 polarizes infrared light.
  • the phase plate 15 transmits infrared light emitted from the light source 13 to emit infrared light to the subject S, and the infrared light reflected by the subject S is the phase plate 15.
  • the infrared light is polarized when it is incident on the light source.
  • the polarization direction of the infrared light after being polarized by the phase plate 15 is a direction intersecting the polarization direction of the infrared light emitted from the light source 13.
  • An example of the intersecting directions is an orthogonal direction.
  • the phase plate 15 is an example of a "phase plate" according to the technique of the present disclosure.
  • the phase plate 15 is a 1/4 phase plate.
  • the 1/4 phase plate as the phase plate 15 transmits infrared light emitted from the light source 13 to emit infrared light to the subject S, and the infrared light reflected by the subject S has a phase.
  • the polarization direction of the infrared light is changed by 90 degrees with respect to the polarization direction of the infrared light before being transmitted through the phase plate 15.
  • the first optical system 28 emits the incident subject light to the first separation prism 30.
  • the first separation prism 30 is an example of the "first separation optical system" according to the technique of the present disclosure.
  • the first separation prism 30 separates the subject light transmitted through the first optical system 28 into near-infrared light and visible light by the selective reflection surface 30A.
  • the first separation prism 30 transmits infrared light and reflects visible light. That is, the first separation prism 30 guides infrared light to the second optical system 32 along the optical axis L1 and guides visible light to the third optical system 34 along the optical axis L2.
  • the infrared light obtained by separating the subject light by the first separation prism 30 is, for example, light having a longer wavelength than the visible light among the subject lights, and here, 1400 nanometers (nm) or more and 2600 nm. Light having the following infrared wavelength range is adopted. Visible light is light having a short wavelength of 700 nanometers or less.
  • the infrared light of the subject light passes through the first separation prism 30 with a transmittance of about 90% (percentage), and the visible light of the subject light has a reflectance of more than about 90% and is a selective reflecting surface. It reflects at 30A.
  • the technique of the present disclosure is not limited to this, and the subject light is infrared light by a dichroic mirror and / or a half mirror instead of the first separation prism 30. And visible light may be separated. However, when a half mirror is used, it is preferable that the light in an unnecessary wavelength range is removed by the filter from the infrared light and the visible light obtained by separating the subject light.
  • the second optical system 32 is arranged on the image side of the first separation prism 30 along the optical axis L1 direction. In other words, the second optical system 32 is arranged on the side where infrared light is emitted from the first separation prism 30.
  • the second optical system 32 includes a relay lens 32A.
  • the relay lens 32A is a lens having a positive power. Infrared light emitted from the first separation prism 30 is incident on the relay lens 32A, and the relay lens 32A forms an image of the incident infrared light on the light receiving surface 14A.
  • the second optical system 32 has a focus adjustment lens group 32B and a second separation prism 40 in order from the subject side on the optical axis L1.
  • the focus adjustment lens group 32B is provided between the first separation prism 30 and the second separation prism 40, and moves along the optical axis L1 to form an image on the light receiving surface 14A of the first image sensor 14. Adjust the focus of infrared light.
  • the focus adjustment lens group 32B is an example of the "focus adjustment optical system" according to the technique of the present disclosure.
  • the second separation prism 40 is provided after the focus adjustment lens group 32B. That is, the second separation prism 40 is provided on the image side of the focus adjustment lens group 32B.
  • the second separation prism 40 is an example of the “second separation optical system” according to the technique of the present disclosure.
  • the second separation prism 40 transmits infrared light contained in the subject light and guides it to the relay lens 32A. Further, the second separation prism 40 reflects the infrared light emitted from the light source 13 along the optical axis L3 on the selective reflection surface 40A, and guides the infrared light to the first optical system 28 along the optical axis L1. ..
  • the second separation prism 40 reflects the infrared light emitted from the light source 13 and allows the infrared light contained in the subject light to pass through a part of the optical path toward the first image sensor 14. It leads to the first separation prism 30.
  • the second optical system 32 has a polarizing plate 17.
  • the polarizing plate 17 is provided between the relay lens 32A and the first image sensor 14 on the optical axis L1.
  • the polarizing plate 17 transmits infrared light in a predetermined polarization direction among the infrared light emitted from the relay lens 32A.
  • the polarizing plate 17 passes only infrared light in the polarization direction after being polarized by the phase plate 15.
  • the polarizing plate 17 guides the infrared light in the predetermined polarization direction to the first image sensor 14 among the infrared light contained in the subject light.
  • the polarizing plate 17 is an example of the "first polarizing plate" according to the technique of the present disclosure.
  • the second optical system 32 includes a light source optical system 32C that transmits light in the first wavelength region emitted from the light source 13.
  • the light source optical system 32C includes a light distribution adjustment lens group 32C1, a light source aperture 32D, and a beam expander optical system 32E in order from the subject side on the optical axis L3 between the second separation prism 40 and the light source 13. doing.
  • the light distribution adjustment lens group 32C1 adjusts the light distribution and / or the light distribution angle of the infrared light emitted from the light source 13 by moving along the optical axis L3.
  • the light distribution adjustment lens group 32C1 is provided between the light source 13 and the optical axis L1 on the optical axis L3.
  • the light distribution adjustment lens group 32C1 is an example of the "light distribution adjustment optical system" according to the technique of the present disclosure.
  • the light source diaphragm 32D is provided between the light source 13 and the first optical system 28 on the optical axis L3, and limits the amount of infrared light emitted from the light source 13 along the optical axis L3. Specifically, the light source diaphragm 32D is provided between the light source 13 and the second separation prism 40 on the optical axis L3. Therefore, the amount of infrared light emitted from the light source 13 along the optical axis L3 is limited by the light source diaphragm 32D between the light source 13 and the second separation prism 40.
  • the light source diaphragm 32D has an opening 32D1 and is a movable diaphragm in which the aperture of the opening 32D1 can be changed. That is, the amount of infrared light emitted from the light source 13 can be changed by the light source diaphragm 32D.
  • the light source diaphragm 32D is an example of the "first diaphragm" according to the technique of the present disclosure.
  • the beam expander optical system 32E is an optical system capable of changing the beam diameter of infrared light emitted from the light source 13.
  • the beam expander optical system 32E is provided between the light source 13 and the optical axis L1 on the optical axis L3.
  • the beam expander optical system 32E has a sixth lens group 32E1 which is a lens group having a positive power and a seventh lens group 32E2 which is a lens group having a negative power.
  • the beam expander optical system 32E makes it possible to change the beam diameter by changing the positions of the sixth lens group 32E1 and the seventh lens group 32E2.
  • the beam expander optical system 32E is an example of the "beam expander optical system" according to the technique of the present disclosure.
  • the light source 13 is a light source capable of emitting infrared light.
  • the light source 13 is, for example, a polarized light source capable of emitting infrared light polarized in a predetermined polarization direction.
  • Examples of the default polarization direction include a polarization direction that becomes the same as the polarization direction of the polarizing plate 17 after passing through the phase plate 15.
  • a laser light source is adopted as an example of a polarized light source.
  • the light source 13 has a brewster window 13A, and infrared light can be emitted through the brewster window 13A.
  • the Brewster window 13A is an example of a "Brewster window" according to the technique of the present disclosure.
  • the third optical system 34 transmits the separated visible light and guides it to the second image sensor 16.
  • the third optical system 34 is arranged on the image side of the first separation prism 30 along the optical axis L2 direction, and includes a relay lens 34A and an aperture 34B.
  • the diaphragm 34B and the relay lens 34A are arranged in order from the subject side along the optical axis L2. That is, the diaphragm 34B is arranged at a position adjacent to the relay lens 34A on the subject side of the relay lens 34A in the optical axis L2 direction.
  • the diaphragm 34B has an opening 34B1 on the optical axis L2.
  • the opening 34B1 is in a conjugate positional relationship with the opening 28E1 on the optical axis L1.
  • the diaphragm 34B is a movable diaphragm in which the diameter of the opening 34B1 can be changed. That is, the amount of visible light can be changed by the aperture 34B.
  • Each of the diaphragm 28E and the diaphragm 34B is a diaphragm that can be controlled independently.
  • the relay lens 34A is a lens having positive power.
  • the relay lens 34A forms an image of visible light incident on the light receiving surface 16A through the diaphragm 34B. In this way, visible light is incident on the third optical system 34 through the diaphragm 34B, and the third optical system 34 emits the incident visible light to the light receiving surface 16A.
  • the position detection device 18 and the power application device 20 are connected to the optical separation device 12.
  • the position detection device 18 is a device that detects the position of a lens group or a relay lens or the like constituting the optical separation device 12, the aperture of the aperture, or the like.
  • the power applying device 20 is a device that applies power to a lens group, a relay lens, or an aperture that constitutes the light separation device 12.
  • the UI device 22 is a device that receives instructions from the user of the image pickup device 10 (hereinafter, simply referred to as "user") and presents various information to the user.
  • Devices that receive instructions from the user include a touch panel and hard keys.
  • Devices that present various information to the user include a display and a speaker.
  • the first image sensor 14, the second image sensor 16, the position detection device 18, the power applying device 20, and the UI system device 22 are connected to the control device 24.
  • the first image sensor 14, the second image sensor 16, the position detection device 18, the power applying device 20, and the UI system device 22 are controlled by the control device 24.
  • the diaphragm 28E has a main body portion 28E2 and a diaphragm blade 28E3 attached to the main body portion 28E2.
  • the size (opening diameter) of the opening 28E1 changes as the diaphragm blade 28E3 moves relative to the main body 28E2. That is, the aperture 28E1 is formed by the diaphragm blades 28E3.
  • the opening 28E1 formed in the aperture 28E allows both infrared light and visible light to pass through. That is, the opening 28E1 allows both the subject light and the infrared light emitted from the light source 13 to pass through.
  • the diaphragm blade 28E3 transmits only infrared light and limits the transmission of visible light. That is, the diaphragm blade 28E3 transmits infrared light included in the subject light and infrared light emitted from the light source 13 to limit the transmission of visible light.
  • the diaphragm blade 28E3 is made of a material whose transparency to infrared light is higher than that of visible light. As a result, as shown in FIG.
  • the opening 28E1 formed by the diaphragm blades 28E3 becomes a total transmission portion that transmits visible light and infrared light, and the outer peripheral region where the diaphragm blades 28E3 exists is infrared light. It is an infrared light transmitting part that only transmits light.
  • an antireflection film 19 is formed on the lens group constituting the first optical system 28.
  • the antireflection film 19 is formed on the light receiving surface 28A1 and the emitting surface 28A2 of the first lens group 28A.
  • the technique of the present disclosure is not limited to this.
  • the antireflection film 19 replaces the first lens group 28A, or together with the first lens group 28A, the second lens group 28B, the third lens group 28C, the fourth lens group 28D, and / or the fifth lens. It may be formed in the group 28F.
  • the antireflection film 19 lowers the reflectance of infrared light and visible light to light in the wavelength range with respect to the reflectance of light in other wavelength ranges.
  • the transparency of infrared light and visible light to the antireflection film 19 is set to be higher than that of other wavelength ranges.
  • the antireflection film 19 is an example of the "antireflection film" according to the technique of the present disclosure.
  • the control device 24 includes a CPU 24A, a storage 24B, and a memory 24C, and the CPU 24A, the storage 24B, and the memory 24C are connected to the bus 44.
  • bus 44 In the example shown in FIG. 5, one bus is shown as the bus 44 for convenience of illustration, but a plurality of buses may be used.
  • the bus 44 may be a serial bus or a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the storage 24B stores various parameters and various programs.
  • the storage 24B is a non-volatile storage device.
  • EEPROM is adopted as an example of the storage 24B.
  • the EEPROM is merely an example, and an HDD and / or SSD or the like may be applied as the storage 24B instead of or together with the EEPROM.
  • the memory 24C temporarily stores various information and is used as a work memory.
  • An example of the memory 24C is RAM, but the memory 24C is not limited to this, and other types of storage devices may be used.
  • the position detection device 18 includes a first position sensor 18A, a second position sensor 18B, a third position sensor 18C, a fourth position sensor 18D, a fifth position sensor 18E, and a sixth position sensor. It includes a position sensor 18F, a 7th position sensor 18G, an 8th position sensor 18H, a 9th position sensor 18I, a 10th position sensor 18J, an 11th position sensor 18K, a 12th position sensor 18L, and a 13th position sensor 18M. ..
  • the position sensor 18I, the tenth position sensor 18J, the eleventh position sensor 18K, the twelfth position sensor 18L, and the thirteenth position sensor 18M are connected to the control device 24.
  • the 9th position sensor 18I, the 10th position sensor 18J, the 11th position sensor 18K, the 12th position sensor 18L, and the 13th position sensor 18M, respectively, an potentiometer is adopted.
  • the first position sensor 18A, the second position sensor 18B, the third position sensor 18C, the fourth position sensor 18D, and the fifth position sensor 18E are used in the first optical system 28.
  • the first position sensor 18A detects the position of the first lens group 28A on the optical axis L1.
  • the second position sensor 18B detects the position of the second lens group 28B on the optical axis L1.
  • the third position sensor 18C detects the position of the third lens group 28C on the optical axis L1.
  • the fourth position sensor 18D detects the diameter of the opening 28E1.
  • the fifth position sensor 18E and the sixth position sensor 18F are used for the second optical system 32.
  • the fifth position sensor 18E detects the position of the focus adjustment lens group 32B on the optical axis L1.
  • the sixth position sensor 18F detects the position of the relay lens 32A on the optical axis L1.
  • the 7th position sensor 18G and the 8th position sensor 18H are used in the third optical system 34.
  • the seventh position sensor 18G detects the diameter of the opening 34B1.
  • the eighth position sensor 18H detects the position of the relay lens 34A on the optical axis L3.
  • the 9th position sensor 18I, the 10th position sensor 18J, the 11th position sensor 18K, the 12th position sensor 18L, and the 13th position sensor 18M are used for the optical system 32C for a light source.
  • the ninth position sensor 18I detects the position of the light distribution adjustment lens group 32C1 on the optical axis L3.
  • the tenth position sensor 18J detects the diameter of the opening 32D1.
  • the eleventh position sensor 18K detects the position of the sixth lens group 32E1.
  • the twelfth position sensor 18L detects the position of the seventh lens group 32E2.
  • the thirteenth position sensor 18M detects the position of the light source 13.
  • the power applying device 20 includes the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, the fourth motor driver 20D1, and the fifth motor driver 20E1. Equipped with 6th motor driver 20F1, 7th motor driver 20G1, 8th motor driver 20H1, 9th motor driver 20I1, 10th motor driver 20J1, 11th motor driver 20K1, 12th motor driver 20L1, and 13th motor driver 20M1. ing. Further, the power applying device 20 includes a first moving mechanism 20A2 including a first motor (not shown), a second moving mechanism 20B2 including a second motor (not shown), and a third moving including a third motor (not shown).
  • Mechanism 20C2 4th moving mechanism 20D2 including a 4th motor (not shown), 5th moving mechanism 20E2 including a 5th motor (not shown), 6th moving mechanism 20F2 including a 6th motor (not shown), 7th 7th moving mechanism 20G2 including a motor (not shown), 8th moving mechanism 20H2 including an 8th motor (not shown), 9th moving mechanism 20I2 including a 9th motor (not shown), 10th motor (not shown)
  • the motor driver 20I1, the tenth motor driver 20J1, the eleventh motor driver 20K1, the twelfth motor driver 20L1, and the thirteenth motor driver 20M1 are connected to the control device 24 and controlled by the control device 24. Each motor driver is connected to a corresponding motor and controls the motor according to an instruction from the control device 24.
  • the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, the fourth motor driver 20D1, the first moving mechanism 20A2, the second moving mechanism 20B2, the third moving mechanism 20C2, and the fourth moving mechanism 20D2 are It is used for the first optical system 28.
  • the first lens group 28A is connected to the first moving mechanism 20A2.
  • the first moving mechanism 20A2 operates by receiving the power generated by the first motor under the control of the first motor driver 20A1 to move the first lens group 28A in the optical axis L1 direction.
  • a second lens group 28B is connected to the second moving mechanism 20B2.
  • the second moving mechanism 20B2 operates by receiving the power generated by the second motor under the control of the second motor driver 20B1 to move the second lens group 28B in the optical axis L1 direction.
  • a third lens group 28C is connected to the third moving mechanism 20C2.
  • the third moving mechanism 20C2 operates by receiving the power generated by the third motor under the control of the third motor driver 20C1 to move the third lens group 28C in the optical axis L1 direction.
  • a diaphragm 28E is connected to the fourth moving mechanism 20D2.
  • the fourth moving mechanism 20D2 adjusts the opening degrees of the diaphragm 28E and the opening 28E1 by operating under the control of the fourth motor driver 20D1 by receiving the power generated by the fourth motor.
  • the fifth motor driver 20E1, the sixth motor driver 20F1, the fifth moving mechanism 20E2, and the sixth moving mechanism 20F2 are used for the second optical system 32.
  • the focus adjustment lens group 32B is connected to the fifth moving mechanism 20E2.
  • the fifth moving mechanism 20E2 operates by receiving the power generated by the fifth motor under the control of the fifth motor driver 20E1 to move the focus adjusting lens group 32B in the optical axis L1 direction.
  • a relay lens 32A is connected to the sixth moving mechanism 20F2.
  • the sixth moving mechanism 20F2 operates by receiving the power generated by the sixth motor under the control of the sixth motor driver 20F1 to move the relay lens 32A in the optical axis L1 direction.
  • the 7th motor driver 20G1, the 8th motor driver 20H1, the 7th moving mechanism 20G2, and the 8th moving mechanism 20H2 are used in the third optical system 34.
  • a diaphragm 34B is connected to the 7th moving mechanism 20G2.
  • the seventh moving mechanism 20G2 adjusts the opening degrees of the diaphragm 34B and the opening 34B1 by operating under the control of the seventh motor driver 20G1 by receiving the power generated by the seventh motor.
  • a relay lens 34A is connected to the eighth moving mechanism 20H2.
  • the eighth moving mechanism 20H2 operates by receiving the power generated by the eighth motor under the control of the eighth motor driver 20H1 to move the relay lens 34A in the optical axis L2 direction.
  • the light distribution adjustment lens group 32C1 is connected to the ninth moving mechanism 20I2.
  • the ninth moving mechanism 20I2 operates by receiving the power generated by the ninth motor under the control of the ninth motor driver 20I1 to move the light distribution adjusting lens group 32C1 in the direction of the optical axis L3.
  • a light source diaphragm 32D is connected to the tenth moving mechanism 20J2.
  • the tenth moving mechanism 20J2 adjusts the opening degree of the light source diaphragm 32D and the opening 32D1 by operating under the control of the tenth motor driver 20J1 by receiving the power generated by the tenth motor.
  • a sixth lens group 32E1 is connected to the eleventh moving mechanism 20K2.
  • the eleventh moving mechanism 20K2 operates by receiving the power generated by the eleventh motor under the control of the eleventh motor driver 20K1 to move the sixth lens group 32E1 in the optical axis L3 direction.
  • a seventh lens group 32E2 is connected to the twelfth moving mechanism 20L2.
  • the twelfth moving mechanism 20L2 operates by receiving the power generated by the twelfth motor under the control of the twelfth motor driver 20L1 to move the seventh lens group 32E2 in the direction of the optical axis L3.
  • a light source 13 is connected to the thirteenth moving mechanism 20M2.
  • the thirteenth moving mechanism 20M2 operates by receiving the power generated by the thirteenth motor under the control of the thirteenth motor driver 20M1 to change the emission angle of infrared light.
  • the thirteenth moving mechanism 20M2 is a so-called pan / tilt mechanism, and by receiving power from the thirteenth motor, the light source 13 is selectively swung in the vertical and horizontal directions to adjust the emission angle of infrared light. change.
  • the subject light is separated by the first separation prism 30, and infrared light and visible light are visible by using the first image sensor 14 and the second image sensor 16. It realizes imaging with both light. Further, the image pickup apparatus 10 can irradiate the subject S with infrared light from the light source 13 to secure the amount of light in imaging the infrared light. For example, when the amount of infrared light cannot be sufficiently secured, such as when imaging at night or when the optical system of the imaging device 10 is provided with a bandpass filter, the light source 13 irradiates the subject S with infrared light. Therefore, the amount of light can be secured.
  • the infrared light emitted from the light source 13 may be partially reflected by an optical element (for example, a lens or a prism) in the image pickup apparatus 10 to generate stray light.
  • an optical element for example, a lens or a prism
  • Such stray light is imaged by the first image sensor 14, and causes noise or the like to be generated in the image data obtained by the image.
  • the image pickup apparatus 10 includes a phase plate 15 and a polarizing plate 17 in order to remove stray light caused by infrared light emitted from the light source 13. have. Specifically, first, infrared light polarized in a predetermined polarization direction is emitted from the light source 13. The infrared light emitted from the light source 13 along the optical axis L3 is reflected by the second separation prism 40 so as to pass on the optical axis L1 of the first optical system 28. After that, the infrared light is emitted from the first optical system 28 to the subject S.
  • the phase of the infrared light is converted by the phase plate 15 provided on the subject S side of the first optical system 28.
  • the phase plate 15 is a 1/4 phase plate
  • the phase changes by 1/4 wavelength.
  • the polarization state of the infrared light emitted from the first optical system 28 changes.
  • the infrared light emitted from the first optical system 28 is reflected by the subject S and is incident on the first optical system 28 again. Further, as the subject light indicating the subject S, visible light is incident on the first optical system 28 together with infrared light. At this time, the subject light passes through the phase plate 15. Of the light contained in the subject light, the infrared light emitted from the light source 13 passes through the phase plate 15 when emitted from the first optical system 28, so that the phase is converted again. Become. As an example, when the phase plate 15 is a 1/4 phase plate, the phase changes again by 1/4 wavelength, and the infrared light that was circularly polarized light becomes linearly polarized light. At this time, the infrared light emitted from the light source 13 changes its polarization direction by 90 degrees with respect to the polarization direction when it is emitted from the light source 13.
  • the subject light that has passed through the first optical system 28 is separated into visible light and infrared light by the first separation prism 30.
  • Infrared light travels along the optical axis L1 and passes through the second optical system 32.
  • a polarizing plate 17 is provided in the subsequent stage of the second optical system 32.
  • the polarizing plate 17 allows only light in a predetermined polarization direction to pass through. Specifically, as a predetermined polarization direction, the polarization direction of the infrared light after the infrared light emitted from the light source 13 is emitted from the phase plate 15 and is incident on the phase plate 15 can be mentioned.
  • the infrared light emitted from the light source 13 and reflected by the subject S that is, the infrared light indicating the subject S passes through the polarizing plate 17, and is the second. 1 Light is received by the image sensor 14.
  • stray light which is infrared light emitted from the light source 13 but not emitted from the first optical system 28 and has not passed through the phase plate 15 twice, is polarized because it is not in the predetermined polarization direction. Passing through the plate 17 is suppressed. As a result, it becomes possible to image infrared light in which the amount of light is secured by the light source 13 while reducing the influence of stray light.
  • the visible light contained in the subject light is separated by the first separation prism 30, travels along the optical axis L2, and is received by the second image sensor 16.
  • the second image sensor 16 has no sensitivity in the infrared wavelength region, there is no influence on the imaging by the visible light.
  • a scattering substance such as fine particles (for example, steam and dust) exists in the atmosphere as a substance that causes scattering, and the subject light passing through the atmosphere is a subject light. It is affected by the scattering of light by scattering substances (hereinafter, also simply referred to as "scattering").
  • scattering the scattering of light by scattering substances
  • visible light has a shorter wavelength than infrared light, and is therefore more affected by scattering in the atmosphere than infrared light. Therefore, it is known that the amount of visible light among the subject light received by the second image sensor 16 of the image pickup apparatus 10 decreases as the distance from the image pickup apparatus 10 increases.
  • infrared light has higher transparency to scattered substances than visible light, and therefore, if infrared light is used, longer-distance imaging is possible.
  • the near-infrared light has excellent transparency to scattered substances, it is imaged in a single color, and it is difficult to identify the subject using the color.
  • the CPU 24A operates as the image generation unit 24A1 by reading the image pickup program 24B1 from the storage 24B and executing it on the memory 24C.
  • the CPU 24A is an example of the "first processor" according to the technique of the present disclosure.
  • the image generation unit 24A1 acquires the infrared light image data 60 obtained by being imaged by the first image sensor 14 and the visible light image data 62 obtained by being imaged by the second image sensor 16. ..
  • the image generation unit 24A1 synthesizes the infrared light image data 60 and the visible light image data 62 by superimposing the other on one of the infrared light image data 60 and the visible light image data 62, and synthesizes the composite image data. 64 is generated. Then, the image generation unit 24A1 causes the display of the UI system device 22 to display the subject image (the image showing the subject S) indicated by the composite image data 64. As described above, in addition to the information by infrared light having high transparency to the scattered substance, the synthetic image data 64 obtained by the image pickup apparatus 10 can also obtain the information by visible light capable of identifying the subject S by color. The user can visually recognize the subject S via the display.
  • the image generation unit 24A1 further performs noise removal processing due to stray light or the like on the composite image data 64 based on the light reception timing signal and the emission timing signal. That is, the stray light is received or the subject light is received based on the flight time, which is the time required from the irradiation of the infrared light by the light source 13 to the reception of the infrared light by the first image sensor 14. It is judged whether or not it is. Specifically, first, the image generation unit 24A1 acquires the light reception timing signal and the emission timing signal, and calculates the flight time.
  • the image generation unit 24A1 acquires a threshold value for determining the flight time stored in the storage 24B in advance, compares the threshold value with the flight time, and receives infrared light received by the first image sensor 14. It is determined whether the light is stray light or infrared light contained in the subject light. Then, the image generation unit 24A1 removes the image data shown in the stray light from the infrared light image data 60 obtained by being imaged by the first image sensor 14 when the stray light is received, based on the determination result. Perform the processing to be performed.
  • the subject light incident on the first optical system 28 is separated into infrared light and visible light by the first separation prism 30, and the infrared light and visible light are each second. Since the image is taken by the 1 image sensor 14 and the 2nd image sensor 16, both infrared light and visible light can be imaged. Further, a light source 13 that emits infrared light is provided to compensate for the insufficient amount of infrared light, and the infrared light from the light source 13 is emitted from the first optical system 28, so that an optical system for imaging is provided. The optical axis of the light source and the optical axis of the optical system for projecting light are coaxial in the first optical system 28.
  • the irradiation range of infrared light and the imaging range for imaging infrared light and visible light are more accurately superimposed.
  • the subject light can be imaged in the state.
  • the light emitted to the subject is infrared light, it is difficult to visually recognize the irradiation range, and therefore it is difficult to make adjustments with the naked eye.
  • the imaging device 10 since the optical system for imaging and the optical system for projecting light are coaxial optical systems, the irradiation range of infrared light and the imaging range for imaging infrared light and visible light are accurate. The subject light can be captured in a well-superposed state.
  • the first optical system 28 has a fifth lens group 28F which is immovable along the optical axis direction. Even in this case, the infrared light emitted from the light source 13 is emitted from the first optical system 28 by passing the reflected light from the subject S through the optical path passing through the fifth lens group 28F, so that it is red.
  • the subject light can be imaged in a state where the irradiation range of the external light and the imaging range are overlapped.
  • the first optical system 28 includes a zoom optical system including a second lens group 28B and a third lens group 28C that can move along the optical axis direction. Even when the zoom optical system is operating, the infrared light emitted from the light source 13 and the reflected light from the subject S are the zoom optical system composed of the second lens group 28B and the third lens group 28C. Since the light is emitted from the first optical system 28 after passing through an optical path that passes through the fifth lens group 28F, which is immovable in the optical axis direction, the infrared light irradiation range and the imaging range are overlapped. The subject light can be captured with.
  • the first separation prism 30 and the first optical system 28 provide infrared light emitted from the light source 13, and the reflected light from the subject S provides the first optical system 28 and the first separation prism 30. It passes through at least a part of the optical path toward the first image sensor 14 and emits light from the first optical system 28. Therefore, the infrared light can be imaged in a state where the irradiation range of the infrared light and the imaging range are overlapped.
  • the first separation prism 30 allows infrared light included in the reflected light from the subject S to pass along the optical axis of the first optical system 28, and becomes the optical axis of the first optical system 28. Since the visible light is reflected in the intersecting direction, the reflection characteristics required for the first separation prism 30 are controlled with high accuracy (for example, as compared with the case where the infrared light is reflected and the image is taken by the first image sensor 14. It is not necessary to control the film thickness), and the manufacturing cost of the image pickup apparatus 10 can be reduced.
  • the second separation prism 40 reflects the infrared light emitted from the light source 13 so that the reflected light from the subject S passes through a part of the optical path toward the first image sensor 14. , Leads to the first separation prism 30. Therefore, as compared with the case where the second separation prism 40 is not used, the infrared light emitted from the light source 13 can be guided to the optical path through which the reflected light from the subject S passes with a simple configuration.
  • the infrared light whose polarization direction has changed after passing through the phase plate 15 passes through the polarizing plate 17 and is imaged by the first image sensor 14, so that the infrared light is polarized and the infrared light is polarized.
  • the stray light generated by the infrared light emitted from the light source 13 being incident on the optical system is the first. Image capture by 1 image sensor 14 is suppressed.
  • the polarization direction of the infrared light emitted from the light source 13 changes in the direction intersecting with that before the passage due to the passage of the phase plate 15. Therefore, light other than the polarization direction is easily blocked by the polarizing plate, and the stray light generated by the infrared light emitted from the light source 13 being incident on the optical system is imaged by the first image sensor 14. Can be suppressed.
  • the phase plate 15 is a 1/4 phase plate, and infrared light enters and exits the 1/4 phase plate and passes through the 1/4 phase plate twice.
  • the polarization direction of infrared light changes by 90 degrees. Therefore, as compared with the case where the infrared light is polarized at 90 degrees by a method other than the infrared light entering and exiting the 1/4 phase plate, the infrared light emitted from the light source 13 is transferred to the optical system. It is possible to easily prevent the stray light generated by being incident from being imaged by the first image sensor 14.
  • the image generation unit 24A1 receives the emission timing at which the infrared light is emitted from the light source 13 and the infrared light included in the reflected light from the subject S received by the first image sensor 14. Since the image data about the subject light is generated based on the timing, the image data based on the information about the distance from the subject S can be obtained.
  • the subject light is separated into visible light and light having a wavelength longer than that of visible light by the first separation prism 30, and the subject S is imaged with respect to visible light by the second image sensor 16.
  • the subject S is imaged by the first image sensor 14 for light having a wavelength longer than that of visible light. Therefore, it is possible to obtain an image showing the subject S for visible light and an image showing the subject S for light having a wavelength longer than that of visible light.
  • long-wavelength light which is infrared light
  • the output of infrared light can be increased as compared with the case of using infrared light in the region.
  • the image pickup apparatus 10 as compared with the configuration which is provided between the light source 13 and the first optical system 28 and does not have the light source diaphragm 32D which limits the amount of infrared light emitted from the light source 13.
  • the spot diameter of the infrared light emitted from the light source 13 can be changed.
  • the first optical system 28 has a plurality of lenses, and at least one lens is an antireflection film that lowers the reflectance for infrared light and visible light with respect to other wavelength regions. Therefore, the number of antireflection films can be reduced and the manufacturing cost can be reduced as compared with the configuration in which the antireflection film for reducing the reflectance in all wavelength ranges is formed on the lens.
  • the transmittance of infrared light is higher than that of visible light as compared with the configuration in which the aperture 28E of the first optical system 28 has the same transmission in all wavelength ranges. Therefore, it is possible to secure the amount of infrared light while limiting the amount of visible light.
  • the imaging position of the infrared light with respect to the first image sensor 14 can be adjusted.
  • the image pickup apparatus 10 has a light distribution adjustment lens group 32C1 capable of adjusting the light distribution of the infrared light emitted from the light source 13 between the light source 13 and the optical path through which the subject light passes, the light source 13 can be used. The spot diameter of the emitted infrared light can be adjusted.
  • the image pickup apparatus 10 has a beam expander optical system 32E capable of adjusting the beam diameter of the infrared light emitted from the light source 13, the beam diameter of the infrared light emitted from the light source 13 is adjusted. be able to.
  • the infrared light emitted from the light source 13 is purified as compared with the configuration in which the light source 13 does not have the Brewster window 13A. Can be highly linearly polarized.
  • the light source 13 since the light source 13 can change the emission direction of infrared light, the light source 13 emits light from the light source 13 as compared with a configuration in which the emission direction of infrared light cannot be changed.
  • the irradiation range of infrared light can be changed.
  • light having an infrared wavelength range of 1400 nm or more and 2600 nm or less has been described as an example of infrared light, but this is merely an example and is more than the wavelength range of visible light. Any light having a long wavelength may be used, and for example, light in a near-infrared wavelength region including 1550 nm may be applied. In this way, the image pickup apparatus 10 performs imaging using light in the near-infrared light wavelength range including 1550 nm and visible light, so that both light in the near-infrared light wavelength range including 1550 nm and visible light can be imaged.
  • Visual information can be obtained, and it is possible to perform imaging that is less susceptible to the effects of scattered substances in the atmosphere, etc., compared to the case where light on the shorter wavelength side than the near-infrared light wavelength range including 1550 nm is captured as infrared light. ..
  • light in the near infrared wavelength range of 750 nm or more and 1000 nm or less may be applied as light having a wavelength longer than that of visible light.
  • the image pickup apparatus 10 performs imaging using light in the near infrared wavelength range of 750 nm or more and 1000 nm or less and visible light, so that light in the first wavelength range can be detected without using an InGaAs photodiode. It becomes possible to do.
  • the wavelength range defined as the wavelength range of near-infrared light may be determined according to the application of the imaging device 10 and the like. .. The same applies to the wavelength range of visible light.
  • the image generation unit 24A1 has described the example in which the composite image data 64 or the composite image data 64 in which the influence of stray light is reduced is generated. Not limited.
  • the image generation unit 24A1 may generate composite image data 64 including information on the distance to the subject S.
  • the image pickup apparatus 10 it is based on the time required from the irradiation of infrared light by the light source 13 to the reception of infrared light contained in the subject light by the first image sensor 14 and the speed of light.
  • the distance from the image pickup device 10 to the subject S is measured.
  • the distance to the subject S which is the object of distance measurement, is set to "L”
  • the speed of light is set to "c”
  • the first image sensor 14 is a so-called TOF image sensor.
  • the image generation unit 24A1 derives information on the acquired emission timing signal, the light receiving timing signal, and the distance to the subject S based on the above calculation formula.
  • the CPU 24A that functions as the image generation unit 24A1 is an example of the "second processor" according to the technique of the present disclosure.
  • the image generation unit 24A1 reaches the subject S based on the emission timing at which infrared light is emitted from the light source 13 and the light reception timing at which the reflected light from the subject S is received by the first image sensor 14. Measure the distance of. Therefore, the distance to the subject S can be measured by using the infrared light used as the illumination light for imaging, and it is not necessary to newly install an illumination device dedicated to distance measurement. As a result, the distance to the subject S can be measured with a simple configuration as compared with the case where a lighting device dedicated to distance measurement is newly installed separately from the light source 13.
  • the image pickup apparatus 10 can irradiate infrared light for distance measurement coaxially with the optical system for imaging, an illumination device dedicated to distance measurement having an optical axis different from the optical axis for imaging is provided.
  • the measurement accuracy of the distance to the subject S is improved as compared with the case of providing the subject S.
  • the lens group in the first optical system 28, the lens group is provided with the antireflection film 19, or the diaphragm blade 28E3 of the diaphragm 28E has higher transparency to infrared light as compared with visible light.
  • the second optical system 32 includes a focus adjustment lens group 32B, a light distribution adjustment lens group 32C1, a light source aperture 32D, or a beam expander optical system 32E.
  • the technique of the present disclosure is not limited to this, and the technique of the present disclosure is established without the focus adjustment lens group 32B, the light distribution adjustment lens group 32C1, the light source aperture 32D, or the beam expander optical system 32E.
  • the embodiment in which the light source 13 has the Brewster window 13A is illustrated, but the technique of the present disclosure is established even without the Brewster window 13A.
  • the optical system for imaging infrared light and visible light and the optical system for emitting infrared light from the light source 13 are one of the first optical systems 28.
  • the technique of the present disclosure is not limited to this, and an optical system for imaging infrared light and visible light in all the optical paths of the first optical system.
  • the optical system that emits infrared light from the light source 13 may be coaxial.
  • the first optical system 28 passes the infrared light emitted from the light source 13 via the fifth lens group 28F, which is a fixed lens group, in the first optical system 28.
  • the present invention has been described with reference to an example of a form in which the light path toward the first image sensor 14 is passed through the entire optical path and is emitted to the subject S, but the technique of the present disclosure is not limited to this.
  • the infrared light emitted from the light source 13 is passed through the fifth lens group 28F, which is a fixed lens group, of the subject light in the first optical system 28, and the first image sensor 14 is used. It may be passed through a part of the optical path toward.
  • the first optical system 28 uses the infrared light emitted from the light source 13 as the subject light in the zoom lens and the fixed lens group composed of the four group lenses of the first optical system 28.
  • the present invention has been described with reference to an example of a form in which the entire optical path toward the first image sensor 14 is passed through a fifth lens group 28F and is emitted to the subject S, the technique of the present disclosure is not limited to this.
  • the infrared light emitted from the light source 13 is passed through the fifth lens group 28F, which is a fixed lens group, of the subject light in the first optical system 28, and the first image sensor 14 is used. It may be allowed to pass through an optical path toward.
  • the infrared light emitted from the light source 13 is configured to be guided to the optical axis L1 on the image side of the fifth lens group 28F, which is a fixed lens group.
  • the optical axis L4 of the second optical system 32 intersects the optical axis L1 of the first optical system 28.
  • the second optical system 32 is arranged on the image side of the first separation prism 30 along the optical axis L4 direction.
  • the second optical system 32 is arranged outside the first separation prism 30 on the side where infrared light is emitted from the first separation prism 30.
  • the third optical system 34 is arranged along the optical axis L1 on the image side of the first separation prism 30.
  • the third optical system 34 transmits visible light along the optical axis L1.
  • the first separation prism 30 transmits visible light and reflects infrared light. That is, the first separation prism 30 guides visible light to the third optical system 34 along the optical axis L1 and guides infrared light to the second optical system 32 along the optical axis L4.
  • the optical axis L4 of the second optical system 32 that transmits infrared light separated from the subject light by the first separation prism 30 becomes the optical axis L1 of the first optical system 28.
  • the second optical system 32 can be arranged so as to intersect with each other. Therefore, as compared with the case where the optical axis of the second optical system 32 cannot intersect with the optical axis L1 of the first optical system 28, the degree of freedom in arranging the optical element or the light source 13 is improved, and the image pickup apparatus.
  • the degree of freedom in designing 10 is improved.
  • the distance between the subject S and the image pickup apparatus 10 is measured based on the emission timing of near-infrared light from the light source 13 and the light reception timing by the first image sensor 14.
  • An example of the form to be used has been described.
  • the image pickup device 10 includes a range finder 50 for measuring the distance between the subject S and the image pickup device 10 will be described.
  • components different from the components described in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the image pickup device 10 has a range finder 50.
  • the range finder 50 is a range finder capable of detecting infrared light emitted from the light source 13.
  • the rangefinder 50 is a laser rangefinder.
  • the rangefinder 50 is connected to the control device 24 and outputs information regarding the reception timing of infrared light to the control device.
  • the infrared light emitted from the light source 13 is emitted from the first optical system 28 toward the subject S side. A part of the infrared light reflected by the subject S is detected by the range finder 50. At this time, the light receiving timing signal is output to the control device 24.
  • the distance measurement program 24B2 is stored in the storage 24B, and the CPU 24A executes the distance image generation process according to the distance measurement program 24B2.
  • the CPU 24A calculates information on the distance to the subject S based on the light receiving timing output from the rangefinder 50 and the infrared light emission timing from the light source 13. .. Then, the CPU 24A generates distance image data indicating the distance image based on the information regarding the distance, and displays the distance image indicated by the generated distance image data on the display.
  • the CPU 24A may generate image data obtained by synthesizing the distance image data and the above-mentioned composite image data 64, and display an image based on the generated image data on the display.
  • the image pickup apparatus 10 has a range finder 50, and the range finder 50 makes it possible to obtain information on the distance to the subject S. Further, the image pickup apparatus 10 can not only image the subject S for each of infrared light and visible light, but also can measure the distance to the subject S.
  • the light source 13 is a polarized light source, and the infrared light emitted from the light source 13 is polarized.
  • the fourth embodiment a embodiment in which the light source 13 is a non-polarized light source and the image pickup apparatus 10 includes a polarizing plate 21 for a light source that polarizes the infrared light emitted from the light source 13 will be described.
  • components different from the components described in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the light source optical system 32C of the second optical system 32 has a light source polarizing plate 21.
  • the light source polarizing plate 21 is provided between the seventh lens group 32E2 of the beam expander optical system 32E and the light source 13.
  • the light source polarizing plate 21 polarizes the infrared light emitted from the light source 13 which is a non-polarizing light source in a predetermined polarization direction.
  • the light source polarizing plate 21 is an example of the "second polarizing plate" according to the technique of the present disclosure.
  • the light source 13 is a non-polarized light source capable of emitting infrared light that is not polarized in a predetermined direction.
  • An example of a non-polarized light source is an LED light source.
  • the infrared light emitted from the light source 13 passes through the polarizing plate 21 for a light source, and at this time, is polarized in the second predetermined polarization direction.
  • the second predetermined polarization direction there is a polarization direction such that infrared light is emitted from the phase plate 15 and is incident on the phase plate 15 and then coincides with the first default polarization direction of the polarizing plate 17. Be done.
  • the infrared light emitted from the light source 13 and passing through the polarizing plate 21 for the light source passes through the phase plate 15 twice, at the time of emission and at the time of incidence, and then becomes the first predetermined polarization direction. That is, the infrared light polarized in the second predetermined polarization direction is polarized in the first predetermined polarization direction by passing through the phase plate 15. After that, the infrared light passes through the polarizing plate 17 and is received by the first image sensor 14.
  • the first predetermined polarization direction is the "first polarization direction" according to the technique of the present disclosure
  • the second default polarization direction is an example of the "second polarization direction" according to the technique of the present disclosure.
  • the image pickup apparatus 10 has a light source 13 which is a non-polarized light source, and has a light source polarizing plate 21 which polarizes the infrared light emitted from the non-polarized light source.
  • a non-polarized light source such as an inexpensive LED light source can be used as compared with a polarized light source such as a relatively expensive laser light source, and the manufacturing cost of the image pickup apparatus 10 can be reduced.
  • the imaging system 1 includes an imaging device 10 and a wide-angle imaging device 70.
  • the wide-angle image pickup device 70 is a device capable of taking an image in a wider range than the image pickup device 10.
  • the wide-angle image pickup device 70 includes a wide-angle lens 70A, a seventh lens group 70B, and a third image sensor 70C.
  • the wide-angle lens 70A is a lens that has an imaging range including the subject S and can realize imaging in a range wider than the imaging range of the imaging device 10.
  • An example of the wide-angle lens 70A is a fisheye lens.
  • the seventh lens group 70B guides the subject light transmitted through the wide-angle lens 70A to the third image sensor 70C and forms an image on the light receiving surface 70C1 of the third image sensor 70C.
  • the third image sensor 70C receives the subject light.
  • an image sensor having sensitivity in the near infrared wavelength region can be used, and the third image sensor 70C captures infrared light as the subject light.
  • the third image sensor 70C is connected to the control device 24 of the image pickup device 10 as an example.
  • the control device 24 acquires wide-angle image data obtained by being imaged by the third image sensor 70C of the wide-angle image pickup device 70.
  • the control device 24 acquires infrared light image data and visible light image data obtained by being imaged by the image pickup device 10.
  • the control device 24 performs collation processing between the imaging range of the imaging device 10 and the imaging range of the wide-angle imaging device 70 based on the imaging results of the wide-angle imaging device 70 and the imaging device 10.
  • control device 24 performs image recognition processing, detects a portion that matches the imaging result of the imaging device 10 from the imaging result of the wide-angle imaging device 70, and sets such a portion in the imaging range of the imaging device 10. Judge that it is the corresponding part.
  • the control device 24 captures the wide-angle image data obtained by being imaged by the wide-angle imaging device 70 and an imaging range narrower than the imaging range of the wide-angle imaging device 70. Narrow-angle image data obtained by being imaged by the device 10 is generated.
  • the narrow-angle image data is infrared light image data.
  • the control device 24 causes the display to display the wide-angle image 71 indicated by the wide-angle image data and the narrow-angle image 72 indicated by the narrow-angle image data in a state of being associated with each other.
  • the infrared light image data is illustrated as the narrow-angle image data, but this is only an example, and the visible light image data may be used as the narrow-angle image data, or the narrow-angle image data may be used. , Infrared light image data and visible light image data may be used.
  • the image pickup system 1 includes the wide-angle image pickup device 70 and the image pickup device 10, it is possible to take an image in a wider angle range as compared with the image pickup by the image pickup device 10 alone. Further, the image pickup system 1 provides the user with a wide angle image 71 obtained by being imaged by the wide angle image pickup device 70 and a narrow angle image 72 obtained by being imaged by the image pickup device 10 via a display. Can be visually recognized.
  • the imaging range of the imaging device 10 is included in the imaging range of the wide-angle imaging device 70. Therefore, the narrow-angle image 72 is an image corresponding to the partial image included in the wide-angle image 71.
  • the narrow-angle image 72 is displayed on the display in association with the wide-angle image 71 in a state in which it is possible to specify which portion of the wide-angle image 71 corresponds to.
  • the imaging by the imaging device 10 is performed in what range or direction as compared with the case where the imaging range of the imaging device 10 is not indicated with respect to the wider imaging range. It becomes easy to grasp whether it is damaged.
  • the first optical system 28 has been described by giving an example of a form composed of a four-group lens, but this is merely an example, and the technique of the present disclosure is not limited to this.
  • it may consist of a negative, positive, and positive three-group lens in order from the subject side, or it may be a four-group lens having a positive, negative, negative, and positive refractive power in order from the subject side, or the subject.
  • a 5-group lens having a positive, negative, positive, positive, or positive refractive power may be used in this order from the side.
  • control device 24 has been described with reference to an example of a form realized by a computer having a CPU 24A, a storage 24B, and a memory 24C, but the technique of the present disclosure is not limited thereto.
  • control device 24 may be a device including an ASIC, FPGA, and / or PLD.
  • control device 24 may be realized by a combination of a hardware configuration and a software configuration.
  • the image pickup program 24B1 and the distance measurement program 24B2 are stored in the storage 24B.
  • the technique of the present disclosure is not limited to this, and the program may be stored in the storage medium 100 as shown in FIG. 17 as an example.
  • the storage medium 100 is a non-temporary storage medium.
  • An example of the storage medium 100 is any portable storage medium such as an SSD or a USB memory.
  • the program stored in the storage medium 100 is installed in the control device 24.
  • the CPU 24A executes an imaging process according to the imaging program 24B1, and the CPU 24A executes a distance image generation process according to the distance measuring program 24B2.
  • the program is stored in a storage unit of another computer or server device connected to the control device 24 via a communication network (not shown), and the program is stored in the control device 24 in response to a request from the image pickup device 10. It may be downloaded and installed in the control device 24. In this case, the control device 24 executes the process based on the program installed in the control device 24.
  • control device 24 is built in the image pickup device 10
  • the technique of the present disclosure is not limited to this, and for example, the control device 24 is outside the image pickup device 10. It may be provided in.
  • control device 24 is exemplified in each of the above embodiments, the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD may be applied as the control device 24. Alternatively, a combination of hardware configuration and software configuration may be used.
  • the CPU 24A has been illustrated, but the technique of the present disclosure is not limited to this, and a plurality of CPUs may be adopted or a GPU may be adopted.
  • the hardware resource for executing the above-mentioned various processes (here, as an example, the imaging process and / or the distance image generation process), the following various processors can be used.
  • the processor include, as described above, software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing various processes by executing a program.
  • examples of the processor include a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC.
  • a memory is built in or connected to each processor, and each processor executes various processes by using the memory.
  • the hardware resource that executes various processes may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a CPU). And FPGA). Further, the hardware resource for executing various processes may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor performs various processes.
  • a hardware resource There is a form that functions as a hardware resource to execute.
  • SoC there is a form in which a processor that realizes the functions of the entire system including a plurality of hardware resources for executing various processes with one IC chip is used.
  • various processes are realized by using one or more of the above-mentioned various processors as hardware resources.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Lenses (AREA)

Abstract

撮像装置は、第1光学系と、第1光学系を透過した光を、第1波長域光と第2波長域光とに分離する第1分離光学系と、第1分離光学系によって得られた第1波長域光を透過する第2光学系と、第1分離光学系によって得られた第2波長域光を透過する第3光学系と、第1波長域光を受光する第1イメージセンサと、第2波長域光を受光する第2イメージセンサと、第1波長域光を射出する第1光源と、を備え、第1光学系は、第1光源から射出された第1波長域光を被写体に射出し、かつ第1波長域光が被写体で反射された第1波長域反射光を含む被写体光を透過する。

Description

撮像装置
 本開示の技術は、撮像装置に関する。
 特表平11-508371号公報には、情景における物体までの距離をあらわす像を創り出す装置であって、照射光の一部が情景から反射されて装置に到達するように、情景へと照射光を仕向ける変調照射光源と、情景からの反射照射光が入射するようになっていて、当該反射照射光をコリメートするテレセントリック光学系と、装置からの情景の異なった部分の距離に依存する、装置に到達する照射光の一部の部分が透過するようにコリメートされた照射光を変調する変調器と、変調されてコリメートされた照射光で形成された像を検出する検出器と、検出された像の強度分布に応じて装置からの物体の距離をあらわす強度値分布を有する像を形成するプロセッサとからなる装置が開示されている。
 特開2002-318104号公報には、赤外光を放射する赤外光源と、赤外光源から射出される赤外光を変調して被写体へ向けて射出すると共に、被写体からの反射赤外光を変調する変調手段と、被写体からの可視光及び赤外光を受ける撮影レンズと、撮像レンズの後方に配置され、可視光と赤外光とを分離する可視光・赤外光分離手段と分離手段からの可視光を受け被写体の可視光像を結像面上で検出する可視光像検出手段と分離手段からの赤外光を受け被写体の赤外光像を結像面上で検出する赤外光像検出手段とを有する光学撮像装置が開示されている。
 特開2012-145722号公報には、光源からの光を偏光する偏光子と、該偏光子を通過した光の一部を反射させ、連結することが可能なカメラの受光軸方向に沿って対象物へ誘導し、対象物からの反射光の一部を通過させる光透過部材と、該光透過部材で反射した光を、互いに直交する2つの偏光軸方向の光に分離し、着脱することが可能な複屈折光学部材と、該複屈折光学部材を通過した光を集光し、対象物に照射する対物レンズと、該対物レンズを通過した光の偏光状態を変換する偏光変換部材と、光透過部材を通過した対象物からの反射光の一部を偏光する検光子とを有し、偏光子及び検光子は、偏光軸方向が互いに略平行となるように配置してあり、複屈折光学部材は、偏光子の偏光軸方向に対して、2つの偏光軸方向がいずれも略45度となるように配置してあり、偏光変換部材は、高速軸又は低速軸を有し、いずれかの軸が偏光子の偏光軸方向と略45度となるように配置してあることを特徴とするレンズモジュールが開示されている。
 本開示の技術に係る一つの実施形態は、第1波長域光及び第2波長域光の撮像系の光軸と、第1波長域光の投光系の光軸とが別々である場合と比較して、第1波長域光の照射範囲と被写体光を撮像する撮像範囲とを精度良く重ね合わせた状態で被写体光に含まれる第1波長域光及び第2波長域光を撮像することができる撮像装置を提供する。
 本開示の技術に係る第1の態様は、第1波長域光と第2波長域光とを含む光を透過する第1光学系と、第1光学系を透過した光を、第1波長域光と第2波長域光とに分離する第1分離光学系と、第1分離光学系によって光が分離されることで得られた第1波長域光を透過する第2光学系と、第1分離光学系によって光が分離されることで得られた第2波長域光を透過する第3光学系と、第2光学系から射出された第1波長域光を受光する第1イメージセンサと、第3光学系から射出された第2波長域光を受光する第2イメージセンサと、第1波長域光を射出する第1光源と、を備え、第1光学系が、第1光源から射出された第1波長域光を被写体に射出し、かつ第1波長域光が被写体で反射された第1波長域反射光を含む被写体光を透過する、撮像装置である。
 本開示の技術に係る第2の態様は、第1光学系が、光学素子が第1光学系の光軸方向に非可動とされ、かつ被写体光を第1分離光学系に導く固定光学系を含み、第1光学系が、第1光源から射出された第1波長域光を、第1波長域反射光が固定光学系を経由して第1イメージセンサに向かう光路の少なくとも一部を通過させて、被写体に射出する第1の態様に係る撮像装置である。
 本開示の技術に係る第3の態様は、第1光学系が、固定光学系よりも被写体側に設けられ、かつ、光軸方向に沿って移動可能な光学素子を有するズーム光学系を含み、第1光学系が、第1光源から射出された第1波長域光を、第1波長域反射光がズーム光学系及び固定光学系を経由して第1イメージセンサに向かう光路の少なくとも一部を通過させて、被写体に射出する第2の態様に係る撮像装置である。
 本開示の技術に係る第4の態様は、第1分離光学系及び第1光学系が、第1光源から射出された第1波長域光を、第1波長域反射光が第1光学系及び第1分離光学系を経由して第1イメージセンサに向かう光路の少なくとも一部を通過させて、被写体に射出する第1の態様から第3の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第5の態様は、第1分離光学系が、第1光学系の光軸方向に沿う第1方向に沿って第1波長域光を透過させ、かつ、第2波長域光を、第1方向と交差する第2方向に反射させる第1の態様から第4の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第6の態様は、第2光学系が、第2分離光学系を更に備え、第2分離光学系が、第1光源から射出された第1波長域光を反射させ、かつ、第1波長域反射光が第1イメージセンサに向かう光路の一部を通過させて第1分離光学系に導く第1の態様から第5の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第7の態様は、第1光学系が、第1波長域光を偏光させる位相板を含み、第2光学系は、第1偏光方向の光を通過させる第1偏光板を含み、位相板が、第1光源から射出された第1波長域光を透過させることで被写体に射出し、かつ、第1波長域反射光が入射されることで、第1波長域反射光を第1偏光方向に偏光し、第1偏光板が、位相板によって第1偏光方向に偏光された第1波長域反射光を通過させることで第1イメージセンサに導く第1の態様から第6の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第8の態様は、第1偏光方向が、第1光源から射出された第1波長域光の偏光方向と直交する方向である第7の態様に係る撮像装置である。
 本開示の技術に係る第9の態様は、位相板が、1/4位相板であり、位相板が、第1光源から射出された第1波長域光を透過させることで被写体に射出し、かつ、第1波長域反射光が入射されることで、第1波長域光の偏光方向を、第1波長域光を透過させる前の第1波長域光の偏光方向に対して90度変化させる第7の態様又は第8の態様に係る撮像装置である。
 本開示の技術に係る第10の態様は、第1光源が、非偏光光源であり、第2光学系は、第2偏光板を更に備え、第2偏光板は、第1光源から射出された第1波長域光を第2偏光方向に偏光し、第2偏光方向に偏光された第1波長域光は、位相板の通過によって第1偏光方向の光となる第7の態様から第9の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第11の態様は、第1波長域反射光を検出し、検出結果に基づいて被写体までの距離を測定する測距器を更に備える第1から第10の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第12の態様は、第1プロセッサを備え、第1プロセッサが、第1光源から第1波長域光が射出された射出タイミングと、第1波長域反射光が第1イメージセンサによって受光された受光タイミングとに基づいて、被写体までの距離を測定する第1の態様から第11の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第13の態様は、第2プロセッサを備え、第2プロセッサが、第1光源から第1波長域光が射出された射出タイミングと、第1波長域反射光が第1イメージセンサによって受光された受光タイミングとに基づいて、被写体光についての画像データを生成する第1の態様から第12の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第14の態様は、第2波長域光が、可視光であり、第1波長域光が、可視光よりも長波長の光である第1の態様から第13の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第15の態様は、長波長の光が、1400nm以上2600nm以下の波長域を有する赤外光波長域の光である第14の態様に係る撮像装置である。
 本開示の技術に係る第16の態様は、赤外光波長域が、1550nmを含む近赤外光波長域である第15の態様に係る撮像装置である。
 本開示の技術に係る第17の態様は、長波長の光が、750nm以上1000nm以下の波長域を有する近赤外光波長域の光である第14の態様に係る撮像装置である。
 本開示の技術に係る第18の態様は、第1光源と第1光学系との間に設けられ、第1光源から射出された第1波長域光の光量を制限する第1絞りを更に備えた第1の態様から第17の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第19の態様は、第1光学系が、複数のレンズを有し、複数のレンズのうちの少なくとも1つのレンズの受光面には、第1波長域光及び第2波長域光に対する反射率を他の波長域の光に対する反射率よりも低くする反射防止膜が形成されている第1の態様から第18の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第20の態様は、第1光学系が、開口と開口を形成する外周領域とを有する第2絞りを含み、開口が、第1波長域光及び第2波長域光を透過させ、外周領域は、第1波長域光を透過させ、かつ、第2波長域光の透過を制限する第1の態様から第19の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第21の態様は、第2光学系が、第1波長域反射光のピントを調整可能なレンズを含むピント調整光学系を更に備えた第1の態様から第20の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第22の態様は、第1光源と第1波長域反射光が通過する光路との間に、第1光源から射出された第1波長域光の配光を調整可能なレンズを含む配光調整光学系を更に備えた第1の態様から第21の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第23の態様は、第1光源及び第1波長域反射光が通過する光路との間に、第1光源から射出された第1波長域光のビーム径を調整可能なビームエキスパンダー光学系を更に備えた第1の態様から第22の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第24の態様は、第1光源は、ブリュースターウィンドウを有し、第1光源が、ブリュースターウィンドウを介して第1波長域光を射出する第1の態様から第23の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第25の態様は、第1光源が、第1波長域光の射出方向を変更可能な光源である第1の態様から第24の態様の何れか一つの態様に係る撮像装置である。
第1実施形態に係る撮像装置の構成の一例を示す概略構成図である。 第1実施形態に係る撮像装置に含まれる絞りの構成例を示す概念図である。 第1実施形態に係る撮像装置に含まれる絞りの構成例を示す概念図である。 第1実施形態に係る撮像装置に含まれるレンズ群に設けられる反射防止膜の一例を示す側面図である。 第1実施形態に係る撮像装置に含まれる第1光学系、及び第1光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 第1実施形態に係る撮像装置に含まれる第2光学系、及び第2光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 第1実施形態に係る撮像装置に含まれる第3光学系、及び第3光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 第1実施形態に係る撮像装置に含まれる光源用光学系、及び光源用光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 第1実施形態に係る撮像装置における迷光の除去の説明の用に供する概念図である。 第1実施形態に係る撮像装置の機能の一例を示す概念図である。 第1実施形態に係る撮像装置の機能の一例を示す概念図である。 第2実施形態に係る撮像装置の構成の一例を示す概略構成図である。 第3実施形態に係る撮像装置の構成の一例を示す概略構成図である。 第4実施形態に係る撮像装置の構成の一例を示す概略構成図である。 第5実施形態に係る撮像装置の構成の一例を示す概略構成図である。 第5実施形態に係る撮像装置の機能の一例を示す概念図である。 実施形態に係る撮像処理プログラム、及び測距プログラムが記憶された記憶媒体から、撮像処理プログラム、及び測距プログラムが撮像装置内の制御装置にインストールされる態様の一例を示す概念図である。
 添付図面に従って本開示の技術に係る実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。UIとは、“User Interface”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。AFとは、“Auto Focus”の略称を指す。SWIRとは、“Short-wavelength infrared”の略称を指す。LEDとは、“Light Emitting Diode”の略称を指す。TOFとは、“Time of Flight”の略称を指す。
 なお、本明細書の「~からなる」は、挙げられた構成要素以外に、実質的に屈折力を有さないレンズ、並びに、絞り、フィルタ、およびカバーガラス等のレンズ以外の光学要素、並びに、レンズフランジ、レンズバレル、撮像素子、および手振れ補正機構等の機構部分、等が含まれていてもよいことを意図する。
 また、本明細書の技術的な説明において、「同一」の意味には、完全な同一の意味の他に、設計上及び製造上において許容される誤差を含む略同一の意味も含まれる。また、本明細書の説明において、「直交」の意味には、完全な直交の意味の他に、設計上及び製造上において許容される誤差を含む略直交の意味も含まれる。
 [第1実施形態]一例として図1に示すように、撮像装置10は、被写体Sを撮像する装置である。撮像装置10は、光分離装置12、光源13、第1イメージセンサ14、第2イメージセンサ16、位置検出装置18、動力付与装置20、UI系装置22、及び制御装置24を備えている。
 光分離装置12は、第1光学系28、第1分離プリズム30、第2光学系32、及び第3光学系34を備えている。
 被写体Sを示す被写体光には、異なる波長域の光として、可視波長域の光である可視光と、可視光よりも長波長の光とが含まれる。第1イメージセンサ14は、被写体光が光分離装置12により分離され、受光面14Aにおいて結像された長波長の光について撮像を行う。第2イメージセンサ16は、被写体光が光分離装置12により分離され、受光面16Aにおいて結像された可視光について撮像を行う。なお、長波長の光は、本開示の技術に係る「第1波長域光」の一例であり、被写体光に含まれる長波長の光は、本開示の技術に係る「第1波長域反射光」の一例であり、可視光は、本開示の技術に係る「第2波長域光」の一例である。また、以下においては、説明の便宜上、長波長の光を赤外光として説明を行う。
 光分離装置12には、赤外光用光路と可視光用光路が設けられている。赤外光用光路には、光軸L1に沿って被写体側(物体側)から順に第1光学系28、第1分離プリズム30、及び第2光学系32が配置されている。第1光学系28は、被写体光に含まれる赤外光と可視光を透過させる。第1分離プリズム30は、被写体光を赤外光と可視光とに分離し、赤外光と可視光とを、それぞれ第2光学系32と第3光学系34とに導く。第2光学系32の後段には、第1イメージセンサ14が配置されている。すなわち、第1イメージセンサ14は、第2光学系32よりも像側に位置しており、第2光学系32から射出された赤外光を受光する。
 第1イメージセンサ14は、赤外光2次元イメージセンサであり、赤外光を撮像する。第1イメージセンサ14は、受光面14Aを有する。受光面14Aは、マトリクス状に配置された複数の感光画素(図示省略)によって形成されており、各感光画素が露光され、感光画素毎に光電変換が行われる。第1イメージセンサ14では、複数の感光画素として、赤外光に感度を有する複数の光電変換素子が採用されている。第1イメージセンサ14において、光電変換素子は、赤外光透過フィルタが配置されたInGaAsフォトダイオードとCMOS読出回路とを有する。ここでは、InGaAsフォトダイオードを例示しているが、これに限らず、InGaAsフォトダイオードに代えてタイプ2型量子井戸(T2SL;Simulation of Type-II Quantum Well)フォトダイオードを適用してもよい。なお、第1イメージセンサ14は、本開示の技術に係る「第1イメージセンサ」の一例である。
 可視光用光路は、光軸L1と光軸L2とを有する。光軸L2は、光軸L1に対して交差する光軸である。可視光用光路には、光軸L1に沿って被写体側から順に第1光学系28、及び第1分離プリズム30が配置されている。光軸L1は、第1分離プリズム30によって光軸L2に分岐される。可視光用光路において、第1分離プリズム30よりも像側には、光軸L2に沿って第3光学系34が配置されている。第3光学系34の後段、すなわち、第3光学系34よりも像側には、第2イメージセンサ16が配置されている。換言すると、第3光学系34は、第1分離プリズム30と第2イメージセンサ16との間に設けられている。第2イメージセンサ16は、第3光学系34から射出された可視光を受光する。
 第2イメージセンサ16は、可視光2次元イメージセンサであり、可視光を撮像する。第2イメージセンサ16は、受光面16Aを有する。受光面16Aは、マトリクス状に配置された複数の感光画素(図示省略)によって形成されており、各感光画素が露光され、感光画素毎に光電変換が行われる。第2イメージセンサ16では、複数の感光画素として、可視光に感度を有する複数の光電変換素子が採用されている。第2イメージセンサ16において、光電変換素子は、カラーフィルタが配置されたSiフォトダイオードとCMOS読出回路とを有する。カラーフィルタは、R(赤)に対応するフィルタ、G(緑)に対応するフィルタ、及びB(青)に対応するフィルタであり、受光面16Aに特定の配列パターンで配置されている。ここでは、特定の配列パターンとして、X-Trans(登録商標)配列が採用されている。配列パターンは、これに限定されず、ベイヤ配列又はハニカム配列等の他種類の配列パターンであってもよい。なお、第2イメージセンサ16は、本開示の技術に係る「第2イメージセンサ」の一例である。
 第1光学系28は、光源13から射出された赤外光を透過させ、被写体Sに射出する。また、第1光学系28には、被写体光が第1レンズ群28Aから入射され、第1光学系28は、入射された被写体光を第1分離プリズム30に導く。すなわち、第1光学系28は、光源13から射出された赤外光が被写体によって反射された赤外光を含む被写体光を透過させ、第1分離プリズム30に導く。
 第1光学系28は、被写体S側から順に、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dを有する。第1レンズ群28Aは、屈折力が正のレンズ群であり、第2レンズ群28Bは屈折力が負のレンズ群であり、第3レンズ群28Cは、屈折力が正のレンズ群であり、第4レンズ群28Dは、屈折力が正のレンズ群である。第1光学系28は、フォーカスレンズとして第1レンズ群28Aを有する。また、第1光学系28は、ズームレンズとして第2レンズ群28B及び第3レンズ群28Cを有する。なお、第2レンズ群28B及び第3レンズ群28Cは、本開示の技術に係る「ズーム光学系」の一例である。第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28Fの各々は、複数のレンズからなる。
 第1光学系28では、光軸L1に沿って被写体側から順に第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28Fが配置されている。第3レンズ群28Cは、出射面28C1を有し、第4レンズ群28Dは、入射面28D1及び出射面28D2を有する。出射面28C1は、第3レンズ群28Cのうちの最も像側に位置する面であり、入射面28D1は、第4レンズ群28Dのうちの最も被写体側に位置する面であり、出射面28D2は、第4レンズ群28Dのうちの最も像側に位置する面である。絞り28Eは、出射面28C1と入射面28D1との間に配置されている。図1に示す例では、絞り28Eは、光軸L1方向において、第4レンズ群28Dよりも被写体側で、第4レンズ群28Dに隣接した箇所(例えば、出射面28C1と入射面28D1との間)に配置されている。なお、これはあくまでも一例に過ぎず、絞り28Eは、第4レンズ群28D内に配置されていてもよい。
 第1レンズ群28A及び第4レンズ群28Dの各々は、何れも固定レンズ群である。固定レンズ群は、変倍の際に像面に対して固定されたレンズ群である。第2レンズ群28B及び第3レンズ群28Cの各々は、何れも移動レンズ群である。移動レンズ群は、変倍の際に光軸L1方向に沿って移動することで、隣接するレンズ群との間隔が変わるレンズ群である。第1レンズ群28A、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28Fの各々は、正のパワーを有するレンズ群であり、第2レンズ群28Bは、負のパワーを有するレンズ群である。なお、ここでは、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28F等のレンズ群を例示しているが、本開示の技術はこれに限定されない。例えば、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28Fのうちの少なくとも1つは1枚のレンズであってもよい。
 撮像装置10では、第1光学系28によってピント位置の調整が実現される。ピント位置の調整は、例えば、前玉フォーカス方式によって実現される。前玉フォーカス方式では、第1レンズ群28Aが光軸L1方向に沿って移動することで、被写体距離に応じた合焦位置で受光面14Aに赤外光が結像される。ここで言う「合焦位置」とは、ピントが合っている状態での第1レンズ群28Aの光軸L1上での位置を指す。
 なお、第1実施形態では、前玉フォーカス方式が採用されているが、本開示の技術はこれに限定されず、全群繰り出し方式、インナーフォーカス方式、又はリアフォーカス方式が採用されるようにしてもよい。全群繰り出し方式、インナーフォーカス方式、又はリアフォーカス方式の場合の「合焦位置」とは、ピント位置の調整のために光軸L1方向に沿って移動させるレンズ又はレンズ群の光軸L1上の位置のうちのピントが合っている状態での位置を指す。
 絞り28Eは、開口28E1を有しており、被写体光は開口28E1を通過する。開口28E1は、被写体光の周辺光線が光軸L1を通る箇所に配置されている。絞り28Eは、開口28E1の口径を変更可能な可動式の絞りである。すなわち、被写体Sを示す被写体光の光量は、絞り28Eによって変更可能とされている。絞り28Eの詳細は、後述する。絞り28Eは、本開示の技術に係る「第2絞り」の一例である。
 第1光学系28は、光軸L1上に中間像S1を形成する。具体的には、中間像S1は、第1光学系28によって、絞り28Eと第1分離プリズム30との間に形成される。より具体的には、中間像S1は、第1光学系28によって、第4レンズ群28Dのうちの最も像側の面である出射面28D2と、第5レンズ群28Fのうちの最も被写体側の面である入射面28F1との間に形成される。第5レンズ群28Fは、光軸L1上において、中間像S1と第1分離プリズム30との間に配置されている。第5レンズ群28Fは、正のパワーを有しているので、第5レンズ群28Fに発散光として入射した被写体光に対して収束作用を与えることで、被写体光の光束を第1分離プリズム30に入射させる。つまり、第5レンズ群28Fは、入射された被写体光の周辺光線を正の屈折力によって第1分離プリズム30内に収める。
 また、第5レンズ群28Fは、光軸L1の方向に非可動とされた固定レンズ群である。さらに、第5レンズ群28Fは、第1光学系28を透過する被写体光を、第1分離プリズム30に導く。なお、第5レンズ群28Fは、本開示の技術に係る「固定光学系」の一例である。
 ここで、上記したように、第1光学系28は、被写体光が入射される光学系として機能するだけでなく、光源13から射出された赤外光を透過させ、被写体Sに射出する光学系としても機能する。一例として図1に示すように、第1光学系28は、光源13から射出された赤外光を、被写体光が第1光学系28の内、固定レンズ群である第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路を通過させて、被写体Sに射出する。
 具体的に説明すると、第1光学系28は、光源13から射出された赤外光を、被写体光が第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路を通過させて、被写体Sに射出する。
 また、第1分離プリズム30及び第1光学系28は、光源13から射出された赤外光を、被写体光が第1光学系28及び第1分離プリズム30を経由して第1イメージセンサ14に向かう光路の一部を通過させて、被写体Sに射出する。このように、第1光学系28は、被写体光が第1イメージセンサ14に向かう光路の一部を利用して、光源13から射出された赤外光を被写体Sへ射出する。すなわち、撮像装置10において、赤外光及び可視光の撮像のための光学系と、光源13から赤外光を射出する光学系とは、第1光学系28の一部の光路において同軸となっている。
 また、第1光学系28は、位相板15を有している。位相板15は、一例として図1に示すように、第1光学系28において第1レンズ群28Aよりも被写体S側に設けられる。位相板15は、光源13から射出された赤外光の位相を変化させて、偏光方向を変換する。すなわち、位相板15は、赤外光を偏光させる。具体的には、位相板15は、光源13から出射された赤外光を透過させることで、被写体Sに赤外光を射出し、かつ、被写体Sによって反射された赤外光が位相板15に入射されることで、赤外光が偏光される。一例として、位相板15によって偏光された後の赤外光の偏光方向は、光源13から射出された赤外光の偏光方向に対して交差する方向となる。交差する方向の一例としては、直交する方向が挙げられる。なお、位相板15は、本開示の技術に係る「位相板」の一例である。
 一例として、位相板15は、1/4位相板である。位相板15としての1/4位相板は、光源13から出射された赤外光を透過させることで、被写体Sに赤外光を射出し、かつ、被写体Sによって反射された赤外光が位相板15に入射されることで、赤外光の偏光方向を、位相板15を透過させる前の赤外光の偏光方向に対して、90度変化させる。
 また、第1光学系28は、入射された被写体光を第1分離プリズム30に出射する。
 第1分離プリズム30は、本開示の技術に係る「第1分離光学系」の一例である。第1分離プリズム30は、第1光学系28を透過した被写体光を選択反射面30Aで近赤外光と可視光とに分離する。第1分離プリズム30は、赤外光を透過させ、かつ、可視光を反射させる。すなわち、第1分離プリズム30は、光軸L1に沿って赤外光を第2光学系32に導き、光軸L2に沿って可視光を第3光学系34に導く。
 第1分離プリズム30によって被写体光が分離されることで得られる赤外光は、一例として被写体光のうちの可視光よりも長波長の光であり、ここでは、1400ナノメートル(nm)以上2600nm以下の赤外波長域を有する光が採用されている。また、可視光は、700ナノメートル以下の短波長の光である。被写体光のうちの赤外光は、90%(パーセント)程度の透過率で第1分離プリズム30を透過し、被写体光のうちの可視光は、約90%を超える反射率で、選択反射面30Aで反射する。
 また、ここでは、第1分離プリズム30を例示しているが、本開示の技術はこれに限定されず、第1分離プリズム30に代えてダイクロイックミラー及び/又はハーフミラーによって被写体光が赤外光と可視光とに分離されるようにしてもよい。但し、ハーフミラーを用いる場合には、被写体光が分離して得られた赤外光及び可視光から不要な波長域の光がフィルタによって除去されるようにするとよい。
 第1分離プリズム30によって被写体光から分離された赤外光は、第2光学系32を透過する。第2光学系32は、光軸L1方向に沿って第1分離プリズム30よりも像側に配置されている。換言すると、第2光学系32は、第1分離プリズム30から赤外光が出射される側に配置されている。第2光学系32は、リレーレンズ32Aを備えている。リレーレンズ32Aは、正のパワーを有するレンズである。リレーレンズ32Aには、第1分離プリズム30から出射された赤外光が入射され、リレーレンズ32Aは、入射された赤外光を受光面14Aに結像させる。
 また、第2光学系32は、光軸L1上において、被写体側から順にピント調整レンズ群32B、及び第2分離プリズム40を有している。ピント調整レンズ群32Bは、第1分離プリズム30と第2分離プリズム40との間に設けられ、光軸L1に沿って移動することで、第1イメージセンサ14の受光面14Aに結像される赤外光のピントを調整する。なお、ピント調整レンズ群32Bは、本開示の技術に係る「ピント調整光学系」の一例である。
 第2分離プリズム40は、ピント調整レンズ群32Bの後段に設けられている。すなわち、第2分離プリズム40は、ピント調整レンズ群32Bよりも像側に設けられている。第2分離プリズム40は、本開示の技術に係る「第2分離光学系」の一例である。第2分離プリズム40は、被写体光に含まれる赤外光を透過させ、リレーレンズ32Aに導く。また、第2分離プリズム40は、光源13から光軸L3に沿って出射された赤外光を選択反射面40Aで反射させ、光軸L1に沿って赤外光を第1光学系28に導く。換言すれば、第2分離プリズム40は、光源13から射出された赤外光を反射させ、かつ、被写体光に含まれる赤外光が第1イメージセンサ14に向かう光路の一部を通過させて第1分離プリズム30に導く。
 第2光学系32は、偏光板17を有している。偏光板17は、一例として図1に示すように、光軸L1上において、リレーレンズ32Aと第1イメージセンサ14との間に設けられる。偏光板17は、リレーレンズ32Aから射出された赤外光の内、既定の偏光方向の赤外光を透過させる。具体的には、偏光板17は、位相板15によって偏光された後の偏光方向の赤外光のみを通過させる。そして、偏光板17は、被写体光に含まれる赤外光の内、既定の偏光方向の赤外光を第1イメージセンサ14に導く。なお、偏光板17は、本開示の技術に係る「第1偏光板」の一例である。
 また、第2光学系32は、光源13から射出された第1波長域光を透過する光源用光学系32Cを備えている。光源用光学系32Cは、第2分離プリズム40と光源13との間の光軸L3上において、被写体側から順に、配光調整レンズ群32C1、光源用絞り32D、及びビームエキスパンダー光学系32Eを有している。配光調整レンズ群32C1は、光軸L3に沿って移動することにより、光源13から出射された赤外光の配光分布及び/又は配光角度を調整する。配光調整レンズ群32C1は、光軸L3上において、光源13と光軸L1との間に設けられる。配光調整レンズ群32C1は、本開示の技術に係る「配光調整光学系」の一例である。
 光源用絞り32Dは、光軸L3上において、光源13と第1光学系28との間に設けられており、光源13から光軸L3に沿って出射された赤外光の光量を制限する。具体的に説明すると、光源用絞り32Dは、光軸L3上において、光源13と第2分離プリズム40との間に設けられている。従って、光源13から光軸L3に沿って出射された赤外光の光量は、光源13と第2分離プリズム40との間で、光源用絞り32Dによって制限される。
 光源用絞り32Dは、開口32D1を有しており、開口32D1の口径を変更可能な可動式の絞りである。すなわち、光源13から出射される赤外光の光量は、光源用絞り32Dによって変更可能とされている。なお、光源用絞り32Dは、本開示の技術に係る「第1絞り」の一例である。
 ビームエキスパンダー光学系32Eは、光源13から出射された赤外光のビーム径を変更可能とする光学系である。ビームエキスパンダー光学系32Eは、光軸L3上において、光源13と光軸L1との間に設けられる。ビームエキスパンダー光学系32Eは、一例として正のパワーを有するレンズ群である第6レンズ群32E1と、負のパワーを有するレンズ群である第7レンズ群32E2とを有している。ビームエキスパンダー光学系32Eは、第6レンズ群32E1と第7レンズ群32E2との位置を変更することで、ビーム径を変更可能とする。なお、ビームエキスパンダー光学系32Eは、本開示の技術に係る「ビームエキスパンダー光学系」の一例である。
 光源13は、赤外光を射出可能な光源である。光源13は、一例として既定の偏光方向に偏光された赤外光を射出可能な偏光光源である。既定の偏光方向としては、位相板15の通過後に、偏光板17の偏光方向と同一となる偏光方向が挙げられる。ここでは、偏光光源の一例として、レーザ光源が採用されている。また、光源13は、ブリュースターウィンドウ13Aを有し、かかるブリュースターウィンドウ13Aを介して赤外光を出射可能としている。ブリュースターウィンドウ13Aは、本開示の技術に係る「ブリュースターウィンドウ」の一例である。
 第1分離プリズム30によって被写体光から分離された可視光は、第3光学系34に入射される。第3光学系34は、分離された可視光を透過させ、第2イメージセンサ16に導く。第3光学系34は、光軸L2方向に沿って第1分離プリズム30よりも像側に配置されており、リレーレンズ34A及び絞り34Bを備えている。第3光学系34では、光軸L2に沿って被写体側から順に絞り34B及びリレーレンズ34Aが配置されている。つまり、絞り34Bは、光軸L2方向において、リレーレンズ34Aよりも被写体側で、リレーレンズ34Aに隣接した箇所に配置されている。
 絞り34Bは、光軸L2上に開口34B1を有する。開口34B1は、光軸L1上の開口28E1と共役な位置関係にある。絞り34Bは、開口34B1の口径を変更可能な可動式の絞りである。すなわち、可視光の光量は、絞り34Bによって変更可能とされている。なお、絞り28E及び絞り34Bの各々は独立に制御可能な絞りである。
 リレーレンズ34Aは、正のパワーを有するレンズである。リレーレンズ34Aは、絞り34Bを介して入射された可視光を受光面16Aに結像させる。このように、第3光学系34には、可視光が絞り34Bを介して入射され、第3光学系34は、入射された可視光を受光面16Aに出射する。
 位置検出装置18及び動力付与装置20は、光分離装置12に接続されている。位置検出装置18は、光分離装置12を構成するレンズ群、もしくはリレーレンズ等の位置、又は絞りの開口の口径等を検出する装置である。動力付与装置20は、光分離装置12を構成するレンズ群、リレーレンズ、又は絞りに対して動力を付与する装置である。
 UI系装置22は、撮像装置10のユーザ(以下、単に「ユーザ」と称する)からの指示を受け付けたり、ユーザに対して各種情報を提示したりする装置である。ユーザからの指示を受け付けるデバイスとしては、タッチパネル及びハードキーが挙げられる。ユーザに対して各種情報を提示するデバイスとしては、ディスプレイ及びスピーカが挙げられる。第1イメージセンサ14、第2イメージセンサ16、位置検出装置18、動力付与装置20、及びUI系装置22は、制御装置24に接続されている。第1イメージセンサ14、第2イメージセンサ16、位置検出装置18、動力付与装置20、及びUI系装置22は、制御装置24によって制御される。
 一例として図2に示すように、絞り28Eは、本体部28E2と、本体部28E2に取り付けられた絞り羽根28E3とを有している。絞り羽根28E3が、本体部28E2に対して相対的に移動することで、開口28E1の大きさ(開口径)が変化する。すなわち、絞り羽根28E3によって、開口28E1が形成される。
 絞り28Eに形成される開口28E1は、赤外光及び可視光の両方を通過させる。すなわち、開口28E1は、被写体光及び光源13から射出された赤外光の両方を通過させる。絞り羽根28E3は、赤外光のみを透過させ、可視光については透過を制限する。すなわち、絞り羽根28E3は、被写体光に含まれる赤外光、及び光源13から射出された赤外光を透過させ、可視光の透過を制限する。具体的には、絞り羽根28E3は、赤外光に対する透過性が、可視光の透過性よりも高い材料から構成される。この結果、一例として図3に示すように、絞り羽根28E3によって形成される開口28E1は、可視光及び赤外光を透過させる全透過部となり、絞り羽根28E3の存在する外周領域は、赤外光のみ透過させる赤外光透過部となる。
 一例として図4に示すように、第1光学系28を構成するレンズ群には、反射防止膜19が形成されている。例えば、反射防止膜19は、第1レンズ群28Aの受光面28A1及び出射面28A2に、形成されている。なお、ここでは、反射防止膜19が第1レンズ群28Aに形成されている形態例を挙げているが、本開示の技術はこれに限定されない。例えば、反射防止膜19は、第1レンズ群28Aに代えて、又は、第1レンズ群28Aと共に、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び/又は第5レンズ群28Fに形成されていてもよい。
 反射防止膜19は、赤外光及び可視光の波長域の光に対する反射率を、他の波長域の光に対する反射率に対して低くする。換言すれば、一例として図4に示すように、反射防止膜19に対する赤外光及び可視光の透過性が、他の波長域と比較して高くなるように設定されている。なお、反射防止膜19は、本開示の技術に係る「反射防止膜」の一例である。
 一例として図5に示すように、制御装置24は、CPU24A、ストレージ24B、及びメモリ24Cを備えており、CPU24A、ストレージ24B、及びメモリ24Cは、バス44に接続されている。
 なお、図5に示す例では、図示の都合上、バス44として1本のバスが図示されているが、複数本のバスであってもよい。バス44は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 ストレージ24Bは、各種パラメータ及び各種プログラムを記憶している。ストレージ24Bは、不揮発性の記憶装置である。ここでは、ストレージ24Bの一例として、EEPROMが採用されている。EEPROMはあくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をストレージ24Bとして適用してもよい。また、メモリ24Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ24Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
 一例として図5~図8に示すように、位置検出装置18は、第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、第6位置センサ18F、第7位置センサ18G、第8位置センサ18H、第9位置センサ18I、第10位置センサ18J、第11位置センサ18K、第12位置センサ18L、及び第13位置センサ18Mを備えている。第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、第6位置センサ18F、第7位置センサ18G、第8位置センサ18H、第9位置センサ18I、第10位置センサ18J、第11位置センサ18K、第12位置センサ18L、及び第13位置センサ18Mは、制御装置24に接続されている。
 ここでは、第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、第6位置センサ18F、第7位置センサ18G、第8位置センサ18H、第9位置センサ18I、第10位置センサ18J、第11位置センサ18K、第12位置センサ18L、及び第13位置センサ18Mの各々の一例として、ポテンショメータが採用されている。
 第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、及び第5位置センサ18Eは、第1光学系28に用いられる。
 第1位置センサ18Aは、光軸L1上での第1レンズ群28Aの位置を検出する。第2位置センサ18Bは、光軸L1上での第2レンズ群28Bの位置を検出する。第3位置センサ18Cは、光軸L1上での第3レンズ群28Cの位置を検出する。第4位置センサ18Dは、開口28E1の口径を検出する。
 第5位置センサ18E及び第6位置センサ18Fは、第2光学系32に用いられる。第5位置センサ18Eは、光軸L1上でのピント調整レンズ群32Bの位置を検出する。第6位置センサ18Fは、光軸L1上でのリレーレンズ32Aの位置を検出する。
 第7位置センサ18G及び第8位置センサ18Hは、第3光学系34に用いられる。第7位置センサ18Gは、開口34B1の口径を検出する。第8位置センサ18Hは、光軸L3上でのリレーレンズ34Aの位置を検出する。
 第9位置センサ18I、第10位置センサ18J、第11位置センサ18K、第12位置センサ18L、及び第13位置センサ18Mは、光源用光学系32Cに用いられる。第9位置センサ18Iは、光軸L3上の配光調整レンズ群32C1の位置を検出する。第10位置センサ18Jは、開口32D1の口径を検出する。第11位置センサ18Kは、第6レンズ群32E1の位置を検出する。第12位置センサ18Lは、第7レンズ群32E2の位置を検出する。第13位置センサ18Mは、光源13の位置を検出する。
 また、一例として図5~図8に示すように、動力付与装置20は、第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第5モータドライバ20E1、第6モータドライバ20F1、第7モータドライバ20G1、第8モータドライバ20H1、第9モータドライバ20I1、第10モータドライバ20J1、第11モータドライバ20K1、第12モータドライバ20L1、及び第13モータドライバ20M1を備えている。また、動力付与装置20は、第1モータ(図示省略)を含む第1移動機構20A2、第2モータ(図示省略)を含む第2移動機構20B2、第3モータ(図示省略)を含む第3移動機構20C2、第4モータ(図示省略)を含む第4移動機構20D2、第5モータ(図示省略)を含む第5移動機構20E2、第6モータ(図示省略)を含む第6移動機構20F2、第7モータ(図示省略)を含む第7移動機構20G2、第8モータ(図示省略)を含む第8移動機構20H2、第9モータ(図示省略)を含む第9移動機構20I2、第10モータ(図示省略)を含む第10移動機構20J2、第11モータ(図示省略)を含む第11移動機構20K2、第12モータ(図示省略)を含む第12移動機構20L2、及び第13モータ(図示省略)を含む第13移動機構20M2を備えている。
 第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第5モータドライバ20E1、第6モータドライバ20F1、第7モータドライバ20G1、第8モータドライバ20H1、第9モータドライバ20I1、第10モータドライバ20J1、第11モータドライバ20K1、第12モータドライバ20L1、及び第13モータドライバ20M1は、制御装置24に接続され、制御装置24によって制御される。各モータドライバは、対応するモータに接続されており、制御装置24からの指示に従ってモータを制御する。
 第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第1移動機構20A2、第2移動機構20B2、第3移動機構20C2、及び第4移動機構20D2は、第1光学系28に用いられる。
 第1移動機構20A2には、第1レンズ群28Aが連結されている。第1移動機構20A2は、第1モータドライバ20A1の制御下で第1モータによって生成された動力を受けて作動することで、第1レンズ群28Aを光軸L1方向に移動させる。第2移動機構20B2には、第2レンズ群28Bが連結されている。第2移動機構20B2は、第2モータドライバ20B1の制御下で第2モータによって生成された動力を受けて作動することで、第2レンズ群28Bを光軸L1方向に移動させる。第3移動機構20C2には、第3レンズ群28Cが連結されている。第3移動機構20C2は、第3モータドライバ20C1の制御下で第3モータによって生成された動力を受けて作動することで、第3レンズ群28Cを光軸L1方向に移動させる。第4移動機構20D2には、絞り28Eが連結されている。第4移動機構20D2は、第4モータドライバ20D1の制御下で第4モータによって生成された動力を受けて作動することで絞り28E、開口28E1の開度を調節する。
 第5モータドライバ20E1、第6モータドライバ20F1、第5移動機構20E2、及び第6移動機構20F2は、第2光学系32に用いられる。
 第5移動機構20E2には、ピント調整レンズ群32Bが連結されている。第5移動機構20E2は、第5モータドライバ20E1の制御下で第5モータによって生成された動力を受けて作動することで、ピント調整レンズ群32Bを光軸L1方向に移動させる。第6移動機構20F2には、リレーレンズ32Aが連結されている。第6移動機構20F2は、第6モータドライバ20F1の制御下で第6モータによって生成された動力を受けて作動することで、リレーレンズ32Aを光軸L1方向に移動させる。
 第7モータドライバ20G1、第8モータドライバ20H1、第7移動機構20G2、及び第8移動機構20H2は、第3光学系34に用いられる。
 第7移動機構20G2には、絞り34Bが連結されている。第7移動機構20G2は、第7モータドライバ20G1の制御下で第7モータによって生成された動力を受けて作動することで絞り34B、開口34B1の開度を調節する。第8移動機構20H2には、リレーレンズ34Aが連結されている。第8移動機構20H2は、第8モータドライバ20H1の制御下で第8モータによって生成された動力を受けて作動することで、リレーレンズ34Aを光軸L2方向に移動させる。
 第9モータドライバ20I1、第10モータドライバ20J1、第11モータドライバ20K1、第12モータドライバ20L1、第13モータドライバ20M1、第9移動機構20I2、第10移動機構20J2、第11移動機構20K2、第12移動機構20L2、及び第13移動機構20M2は、光源用光学系32Cに用いられる。
 第9移動機構20I2には、配光調整レンズ群32C1が連結されている。第9移動機構20I2は、第9モータドライバ20I1の制御下で第9モータによって生成された動力を受けて作動することで、配光調整レンズ群32C1を光軸L3方向に移動させる。第10移動機構20J2には、光源用絞り32Dが連結されている。第10移動機構20J2は、第10モータドライバ20J1の制御下で第10モータによって生成された動力を受けて作動することで光源用絞り32D、開口32D1の開度を調整する。第11移動機構20K2には、第6レンズ群32E1が連結されている。第11移動機構20K2は、第11モータドライバ20K1の制御下で第11モータによって生成された動力を受けて作動することで、第6レンズ群32E1を光軸L3方向に移動させる。第12移動機構20L2には、第7レンズ群32E2が連結されている。第12移動機構20L2は、第12モータドライバ20L1の制御下で第12モータによって生成された動力を受けて作動することで、第7レンズ群32E2を光軸L3方向に移動させる。第13移動機構20M2には、光源13が連結されている。第13移動機構20M2は、第13モータドライバ20M1の制御下で第13モータによって生成された動力を受けて作動することで、赤外光の射出角度を変更させる。例えば、第13移動機構20M2は、いわゆるパン・チルト機構であり、第13モータからの動力を受けることで、光源13を上下左右方向に選択的に首振り動作させ、赤外光の出射角度を変更する。
 以上説明したように、本開示の技術に係る撮像装置10では、被写体光を第1分離プリズム30によって分離し、かつ第1イメージセンサ14及び第2イメージセンサ16を用いて、赤外光と可視光の両方での撮像を実現している。さらに、撮像装置10では、光源13から赤外光を被写体Sに照射し、赤外光の撮像における光量を確保することができる。例えば、夜間での撮像、又は撮像装置10の光学系にバンドパスフィルタが設けられている場合など、赤外光の光量が十分確保できない場合に、光源13から赤外光を被写体Sへ照射することで、光量を確保することができる。
 一方で、撮像装置10では、光源13から射出された赤外光は、撮像装置10内の光学素子(例えば、レンズ、又はプリズム)において、一部が反射され、迷光が生じる可能性がある。かかる迷光は、第1イメージセンサ14によって撮像され、撮像されることで得られた画像データにノイズ等を生じさせる原因となる。
 そこで、本開示の技術に係る撮像装置10では、一例として図9に示すように、光源13から射出された赤外光に起因する迷光を除去するため、位相板15と偏光板17を備える構成を有している。具体的には、まず光源13から既定の偏光方向に偏光された赤外光が射出される。光源13から光軸L3に沿って射出された赤外光は、第2分離プリズム40によって、第1光学系28の光軸L1上を通過するように反射される。その後、赤外光は、第1光学系28から被写体Sへ射出される。このとき、第1光学系28の被写体S側に設けられた位相板15によって、赤外光の位相が変換される。一例として、位相板15が、1/4位相板である場合、1/4波長だけ位相が変化する。この結果、第1光学系28から射出される赤外光の偏光状態が変化する。
 第1光学系28から射出された赤外光は、被写体Sによって反射され、再び第1光学系28に入射される。また、被写体Sを示す被写体光として、赤外光とともに可視光も第1光学系28に入射される。このとき、被写体光は、位相板15を通過する。被写体光に含まれる光の内、光源13から射出された赤外光は、第1光学系28から射出される際に、位相板15を通過しているので、再度位相が変換されることになる。一例として、位相板15が、1/4位相板である場合には、再度1/4波長だけ位相が変化し、円偏光であった赤外光が、直線偏光となる。このとき、光源13から射出された赤外光は、光源13から射出されたときの偏光方向に対して90度偏光方向が変化する。
 第1光学系28を通過した被写体光は、第1分離プリズム30によって可視光と赤外光に分離される。赤外光は、光軸L1に沿って進み、第2光学系32を透過する。第2光学系32の後段には、偏光板17が設けられている。偏光板17は、既定の偏光方向の光のみを通過させる。具体的には、既定の偏光方向として、光源13から射出された赤外光が位相板15から射出され、かつ位相板15に入射された後の赤外光の偏光方向が挙げられる。このため、第2光学系32を透過する赤外光の内、光源13から射出され、被写体Sによって反射された赤外光、つまり被写体Sを示す赤外光が偏光板17を透過し、第1イメージセンサ14によって受光される。一方で、光源13から射出されたものの、第1光学系28から射出されず、位相板15を2回通過していない赤外光である迷光は、既定の偏光方向となっていないため、偏光板17を通過することが抑制される。この結果、迷光の影響を低減しながら、光源13によって光量を確保した赤外光の撮像が可能となる。
 また、被写体光に含まれる可視光は、第1分離プリズム30によって分離され、光軸L2に沿って進み、第2イメージセンサ16によって受光される。一方、光源13から射出された赤外光による迷光について、第2イメージセンサ16は、赤外波長域において感度を有さないことから、可視光による撮像への影響は生じない。
 ところで、一例として図10に示すように、大気中には、散乱を起こす物質として、微粒子等(例えば、蒸気及び塵等)の散乱物質が存在しており、大気中を通過する被写体光は、散乱物質による光の散乱(以下、単に「散乱」とも称する)の影響を受ける。特に、被写体光に含まれる可視光と赤外光のうち、可視光は、赤外光よりも波長が短いので、赤外光に比べ、大気中での散乱の影響を大きく受ける。そのため、撮像装置10の第2イメージセンサ16によって受光される被写体光のうちの可視光の光量は、撮像装置10からの距離が長くなるほど減少していくことが知られている。一方で、赤外光は、上記の通り、可視光と比較して散乱物質に対して高い透過性を有するので、赤外光を利用すれば、より長距離の撮像が可能である。しかし、近赤外光は、散乱物質に対して透過性に優れるものの、単色での撮像となり、色を用いた被写体の識別等は困難である。
 そこで、撮像装置10によって赤外光及び可視光の両方を用いた撮像が行われることで、赤外光による情報だけでなく、可視光による情報も同時に得ることが可能となる。一例として図11に示すように、CPU24Aは、ストレージ24Bから撮像プログラム24B1を読み出し、メモリ24C上で実行することで画像生成部24A1として動作する。なお、CPU24Aは、本開示の技術に係る「第1プロセッサ」の一例である。画像生成部24A1は、第1イメージセンサ14によって撮像されることで得られた赤外光画像データ60、及び第2イメージセンサ16によって撮像されることで得られた可視光画像データ62を取得する。画像生成部24A1は、赤外光画像データ60及び可視光画像データ62の一方に対して他方を重畳させることで、赤外光画像データ60と可視光画像データ62とを合成し、合成画像データ64を生成する。そして、画像生成部24A1は、UI系装置22のディスプレイに対して、合成画像データ64により示される被写体画像(被写体Sを示す画像)を表示させる。このように、撮像装置10によって得られた合成画像データ64によって散乱物質に対して透過性の高い赤外光による情報に加え、色による被写体Sの識別が可能な可視光による情報も得ることができ、ユーザは、ディスプレイを介して被写体Sを視覚的に認識することが可能となる。
 また、一例として図11に示すように、画像生成部24A1は、受光タイミング信号と射出タイミング信号とに基づいて、合成画像データ64に対して迷光等に起因したノイズの除去処理を更に行う。すなわち、光源13によって赤外光が照射されてから、第1イメージセンサ14によって赤外光が受光されるまでに要する時間である飛行時間に基づいて、迷光が受光されたか、被写体光が受光されたかが判定される。具体的には、先ず、画像生成部24A1が、受光タイミング信号と射出タイミング信号を取得し、飛行時間を算出する。次に、画像生成部24A1は、予めストレージ24Bに記憶された飛行時間判定用の閾値を取得し、かかる閾値と飛行時間とを比較して、第1イメージセンサ14が受光した赤外光が、迷光であるか、被写体光に含まれる赤外光であるかを判定する。そして、画像生成部24A1は、かかる判定結果に基づいて、迷光が受光された場合に第1イメージセンサ14によって撮像されることで得られた赤外光画像データ60から迷光に示す画像データを除去する処理を行う。
 以上説明したように、撮像装置10では、第1光学系28に入射された被写体光が第1分離プリズム30によって赤外光と可視光とに分離され、赤外光と可視光とがそれぞれ第1イメージセンサ14と第2イメージセンサ16とによって撮像されるので、赤外光及び可視光の両方を撮像することができる。また、赤外光の光量不足を補うために赤外光を出射する光源13を備え、かかる光源13からの赤外光は、第1光学系28から射出されるので、撮像のための光学系の光軸と投光のための光学系の光軸とが、第1光学系28において同軸となる。従って、撮像系の光軸と投光系の光軸とが別々である場合と比較して、赤外光の照射範囲と赤外光及び可視光を撮像する撮像範囲とを精度良く重ね合わせた状態で被写体光を撮像することができる。
 特に、被写体Sが撮像装置10に対して遠方に位置する程、撮像のための光学系の光軸と照射のための光学系の光軸との軸合わせの精度が求められる。また、被写体に照射される光が赤外光である場合には、照射範囲の視認が困難なことから、肉眼での調整が困難である。撮像装置10では、撮像のための光学系と投光のための光学系とが同軸の光学系であるので、赤外光の照射範囲と赤外光及び可視光を撮像する撮像範囲とを精度良く重ね合わせた状態で被写体光を撮像することができる。
 また、撮像装置10では、第1光学系28が、光軸方向に沿って非可動とされた第5レンズ群28Fを有する。この場合であっても、光源13から射出された赤外光を、被写体Sからの反射光が第5レンズ群28Fを通過する光路を通過させて、第1光学系28から射出するので、赤外光の照射範囲と撮像範囲を重ね合わせた状態で被写体光を撮像することができる。
 また、撮像装置10では、第1光学系28が、光軸方向に沿って移動可能な第2レンズ群28B、及び第3レンズ群28Cからなるズーム光学系を備えている。ズーム光学系が作動している場合であっても、光源13から射出された赤外光を、被写体Sからの反射光が第2レンズ群28B、及び第3レンズ群28Cからなるズーム光学系を通過し、さらに光軸方向に非可動な第5レンズ群28Fを通過する光路を通過させて、第1光学系28から射出するので、赤外光の照射範囲と撮像範囲とを重ね合わせた状態で被写体光を撮像することができる。
 また、撮像装置10では、第1分離プリズム30及び第1光学系28が、光源13から射出された赤外光を、被写体Sからの反射光が第1光学系28及び第1分離プリズム30を経由して第1イメージセンサ14に向かう光路の少なくとも一部を通過させて、第1光学系28から射出させる。このため、赤外光の照射範囲と撮像範囲とを重ね合わせた状態で赤外光を撮像することができる。
 また、撮像装置10では、第1分離プリズム30は、第1光学系28の光軸に沿って被写体Sからの反射光に含まれる赤外光を通過させ、第1光学系28の光軸と交差する方向に可視光を反射させるので、赤外光を反射させて、第1イメージセンサ14で撮像する場合と比較して、第1分離プリズム30に求められる反射特性を高い精度で制御(例えば、膜厚の制御)する必要がなく、撮像装置10の製造コストを低減できる。
 また、撮像装置10では、第2分離プリズム40は、光源13から射出された赤外光を反射させて、被写体Sからの反射光が第1イメージセンサ14に向かう光路の一部を通過させて、第1分離プリズム30に導く。このため、第2分離プリズム40を用いない場合と比較して、簡便な構成で光源13から射出された赤外光を、被写体Sからの反射光が通過する光路に導くことができる。
 また、撮像装置10では、位相板15を通過して偏光方向が変化した赤外光が、偏光板17を通過して第1イメージセンサ14によって撮像されるので、赤外光を偏光させ、かつ偏光させた赤外光を第1イメージセンサ14に導く偏光板17を有さない場合と比較して、光源13から射出された赤外光が光学系に入射されることで生じる迷光が、第1イメージセンサ14によって撮像されることが抑制される。
 また、撮像装置10では、位相板15の通過によって光源13から出た赤外光の偏光方向が、通過前と交差する方向に変化する。このため、偏光方向以外の光が偏光板によって遮断されやすくなるので、光源13から射出された赤外光が光学系に入射されることによって生じる迷光が、第1イメージセンサ14によって撮像されることを抑制することができる。
 また、撮像装置10では、位相板15は、1/4位相板であり、赤外光が1/4位相板に対して入出射し、1/4位相板を2回通過することになるので、赤外光の偏光方向が90度変化する。このため、赤外光を1/4位相板に対して入出射させる以外の方法で赤外光を90度に偏光させる場合と比較して、光源13から射出された赤外光が光学系に入射されることによって生じる迷光が、第1イメージセンサ14によって撮像されることを簡便に抑制することができる。
 また、撮像装置10では、画像生成部24A1は、光源13から赤外光が射出された射出タイミングと、被写体Sからの反射光に含まれる赤外光が第1イメージセンサ14によって受光された受光タイミングとに基づいて、被写体光についての画像データを生成するので、被写体Sとの距離に関する情報に基づく画像データを得ることができる。
 また、撮像装置10では、被写体光が、第1分離プリズム30によって、可視光と、可視光よりも長波長の光とに分離され、第2イメージセンサ16によって可視光について被写体Sが撮像され、第1イメージセンサ14によって可視光よりも長波長の光について被写体Sが撮像される。従って、可視光についての被写体Sを示す画像と、可視光よりも長波長の光についての被写体Sを示す画像とを得ることができる。
 また、撮像装置10では、赤外光である長波長の光は、1400nm以上2600nm以下の赤外波長域であり、比較的人間の目に影響の少ない波長域の光を用いるので、他の波長域の赤外光を用いる場合と比較して、赤外光を高出力化することができる。
 また、撮像装置10では、光源13と第1光学系28との間に設けられ、光源13から射出された赤外光の光量を制限する光源用絞り32Dを有さない構成と比較して、光源13から射出される赤外光のスポット径を変化させることができる。
 また、撮像装置10では、第1光学系28は、複数のレンズを有し、少なくとも1つのレンズには、赤外光及び可視光に対する反射率を他の波長域に対して低くする反射防止膜が形成されているので、全ての波長域の反射率を低減させる反射防止膜がレンズに形成された構成と比較して、反射防止膜の膜数を減らし、製造コストを低減することができる。
 また、撮像装置10では、第1光学系28が有する絞り28Eがすべての波長域に対して同じ透過性を有する構成と比較して、赤外光の透過性が、可視光よりも高くされているので、可視光の光量を制限しながら、赤外光の光量を確保することができる。
 また、撮像装置10では、第2光学系32は、ピント調整レンズ群32Bを有するので、赤外光の第1イメージセンサ14に対する結像位置を調整することができる。
 また、撮像装置10では、光源13と被写体光が通過する光路との間に、光源13から射出された赤外光の配光を調整可能な配光調整レンズ群32C1を有するので、光源13から射出された赤外光のスポット径を調整することができる。
 また、撮像装置10では、光源13から射出された赤外光のビーム径を調整可能なビームエキスパンダー光学系32Eを有しているので、光源13から射出された赤外光のビーム径を調整することができる。
 また、撮像装置10では、光源13は、ブリュースターウィンドウ13Aを有しているので、光源13がブリュースターウィンドウ13Aを有さない構成と比較して、光源13から射出される赤外光を純度の高い直線偏光とすることができる。
 また、撮像装置10では、光源13は、赤外光の射出方向を変更可能とされているので、光源13が赤外光の射出方向を変更できない構成と比較して、光源13から射出される赤外光の照射範囲を変更することができる。
 なお、上記第1実施形態では、赤外光の一例として、1400nm以上2600nm以下の赤外波長域を有する光を挙げて説明したが、これはあくまでも一例に過ぎず、可視光の波長域よりも長波長の光であればよく、例えば、1550nmを含む近赤外波長域の光を適用してもよい。このように、撮像装置10によって、1550nmを含む近赤外光波長域の光と可視光を用いた撮像が行われることで、1550nmを含む近赤外光波長域の光、及び可視光両方の視覚情報が得られ、赤外光として1550nmを含む近赤外光波長域よりも短波長側の光が撮像される場合に比べ、大気中の散乱物質の影響等を受けにくい撮像が可能となる。
 また、可視光の波長域よりも長波長の光として、750nm以上1000nm以下の近赤外波長域の光を適用してもよい。このように、撮像装置10によって、750nm以上1000nm以下の近赤外波長域の光と可視光を用いた撮像が行われることで、InGaAsフォトダイオードを利用しなくても第1波長域光を検出することが可能となる。
 なお、近赤外光の波長域は、学説等によって解釈が様々であるので、近赤外光の波長域として定義される波長域は、撮像装置10の用途等に応じて決定されればよい。また、可視光の波長域についても同様である。
 また、上記第1実施形態では、画像生成部24A1により合成画像データ64又は迷光の影響が低減された合成画像データ64が生成される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、画像生成部24A1により被写体Sまでの距離に関する情報を含む合成画像データ64が生成されてもよい。
 具体的には、撮像装置10では、光源13によって赤外光が照射されてから、第1イメージセンサ14によって被写体光に含まれる赤外光が受光されるまでに要する時間と、光速とに基づいて、撮像装置10から被写体Sまでの距離が測定される。例えば、測距対象である被写体Sまでの距離を“L”とし、光速を“c”とし、光源13によって赤外光が射出されてから第1イメージセンサ14によって反射光が受光されるまでに要する時間を“t”とすると、距離Lは、“L=c×t×0.5”の式に従って算出される。この場合、第1イメージセンサ14は、いわゆるTOFイメージセンサである。画像生成部24A1は、取得した射出タイミング信号並びに受光タイミング信号、及び上記計算式に基づいて被写体Sまでの距離に関する情報を導出する。なお、画像生成部24A1として機能するCPU24Aは、本開示の技術に係る「第2プロセッサ」の一例である。
 このように、画像生成部24A1は、光源13から赤外光が射出された射出タイミングと、被写体Sからの反射光が第1イメージセンサ14によって受光された受光タイミングとに基づいて、被写体Sまでの距離を測定する。このため、撮像用の照明光として用いられる赤外光を利用して被写体Sまでの距離を測定することができ、測距専用の照明装置を新設する必要がない。この結果、光源13とは別に測距専用の照明装置を新設する場合に比べ、簡素な構成で被写体Sまでの距離を測定することができる。
 また、撮像装置10では、撮像のための光学系と同軸で測距のための赤外光を照射できるので、撮像のための光軸とは別の光軸を有する測距専用の照明装置を設ける場合と比較して、被写体Sまでの距離の測定精度が向上する。
 また、上記第1実施形態では、第1光学系28において、レンズ群が反射防止膜19を備える形態、又は絞り28Eの絞り羽根28E3が、可視光と比較して赤外光に対する高い透過性を有する形態を例示して説明したが、本開示の技術はこれに限定されない。また、上記第1実施形態では、第2光学系32において、ピント調整レンズ群32B、配光調整レンズ群32C1、光源用絞り32D、又はビームエキスパンダー光学系32Eを備える形態を例示したが、本開示の技術はこれに限定されず、ピント調整レンズ群32B、配光調整レンズ群32C1、光源用絞り32D、又はビームエキスパンダー光学系32Eが無くても本開示の技術は成立する。また、上記第1実施形態では、光源13がブリュースターウィンドウ13Aを有する形態を例示したが、ブリュースターウィンドウ13Aが無くても本開示の技術は成立する。
 また、上記第1実施形態では、撮像装置10において、赤外光及び可視光の撮像のための光学系と、光源13から赤外光を射出する光学系とは、第1光学系28の一部の光路において同軸となっている形態例を示したが、本開示の技術はこれに限定されず、第1光学系の光路の全部において、赤外光及び可視光の撮像のための光学系と、光源13から赤外光を射出する光学系とが同軸となっていてもよい。
 また、上記第1実施形態では、第1光学系28が、光源13から射出された赤外光を、被写体光が第1光学系28の内、固定レンズ群である第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路の全部を通過させて、被写体Sに射出する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第1光学系28は、光源13から射出された赤外光を、被写体光が第1光学系28の内、固定レンズ群である第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路の一部を通過させてもよい。
 また、上記第1実施形態では、第1光学系28が、光源13から射出された赤外光を、被写体光が第1光学系28の内、4群レンズからなるズームレンズ及び固定レンズ群である第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路の全部を通過させて、被写体Sに射出する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第1光学系28は、光源13から射出された赤外光を、被写体光が第1光学系28の内、固定レンズ群である第5レンズ群28Fを経由して第1イメージセンサ14に向かう光路を通過させるようにしてもよい。換言すれば、光源13から射出される赤外光は、固定レンズ群である第5レンズ群28Fよりも像側において、光軸L1に導かれるように構成される。
 [第2実施形態]上記第1実施形態では、第2光学系32の光軸が、第1光学系28の光軸L1と同軸となっている形態例を挙げて説明したが、第2実施形態では、第2光学系32の光軸が、第1光学系28の光軸L1と交差する形態例について説明する。なお、第2実施形態では、上記第1実施形態で説明した構成要素と異なる構成要素については同一の符号を付し、その説明を省略する。
 一例として、図12に示すように、第2光学系32の光軸L4は、第1光学系28の光軸L1に対して交差している。具体的には、第2光学系32は、光軸L4方向に沿って第1分離プリズム30よりも像側に配置されている。換言すると、第2光学系32は、第1分離プリズム30の外部において、第1分離プリズム30から赤外光が出射される側に配置されている。第3光学系34は、光軸L1に沿って第1分離プリズム30よりも像側に配置されている。第3光学系34は、光軸L1に沿って可視光を透過させる。
 第1分離プリズム30は、可視光を透過させ、かつ、赤外光を反射させる。すなわち、第1分離プリズム30は、光軸L1に沿って可視光を第3光学系34に導き、光軸L4に沿って赤外光を第2光学系32に導く。
 以上説明したように、撮像装置10では、第1分離プリズム30によって被写体光から分離された赤外光を透過させる第2光学系32の光軸L4が、第1光学系28の光軸L1に対して交差する方向となるように、第2光学系32を配置することができる。このため、第2光学系32の光軸が、第1光学系28の光軸L1に対して交差できない場合と比較して、光学素子、又は光源13の配置の自由度が向上し、撮像装置10の設計自由度が向上する。
 [第3実施形態]上記第1実施形態では、光源13からの近赤外光の射出タイミングと、第1イメージセンサ14での受光タイミングとに基づいて被写体Sと撮像装置10との距離を測定する形態例を挙げて説明した。第3実施形態では、撮像装置10が、被写体Sと撮像装置10との距離を測定する測距器50を備える形態例について説明する。なお、第3実施形態では、上記第1実施形態で説明した構成要素と異なる構成要素については同一の符号を付し、その説明を省略する。
 一例として図13に示すように、撮像装置10は、測距器50を有している。測距器50は、光源13から射出された赤外光を検出可能な測距装置である。一例として、測距器50は、レーザ測距器である。測距器50は、制御装置24に接続され、赤外光の受光タイミングに関する情報を制御装置に出力する。
 光源13から射出された赤外光は、第1光学系28から被写体S側へ射出される。被写体Sによって反射された赤外光の反射光の一部は、測距器50で検出される。このとき、受光タイミング信号が、制御装置24に出力される。
 ストレージ24Bには、測距プログラム24B2が記憶されており、CPU24Aは、測距プログラム24B2に従って距離画像生成処理を実行する。CPU24Aは、距離画像生成処理を実行することで、測距器50から出力された受光タイミングと、光源13からの赤外光の射出タイミングとに基づいて、被写体Sまでの距離に関する情報を算出する。そして、CPU24Aは、かかる距離に関する情報に基づいて距離画像を示す距離画像データを生成し、生成した距離画像データにより示される距離画像をディスプレイに対して表示させる。なお、CPU24Aは、距離画像データと上述した合成画像データ64とを合成した画像データを生成し、生成した画像データに基づく画像をディスプレイに対して表示させるようにしてもよい。
 以上説明したように、撮像装置10は、測距器50を有し、測距器50によって被写体Sまでの距離に関する情報を得ることが可能となる。また、撮像装置10では、赤外光及び可視光の各々について被写体Sを撮像することができるだけなく、被写体Sまでの距離を測定することができる。
 [第4実施形態]上記第1実施形態では、光源13が偏光光源であり、光源13から射出される赤外光が偏光されている形態例を挙げて説明した。第4実施形態では、光源13が非偏光光源であり、撮像装置10が、光源13から射出される赤外光を偏光する光源用偏光板21を備える形態例について説明する。なお、第4実施形態では、上記第1実施形態で説明した構成要素と異なる構成要素については同一の符号を付し、その説明を省略する。
 一例として図14に示すように、第2光学系32の光源用光学系32Cは、光源用偏光板21を有している。光源用偏光板21は、ビームエキスパンダー光学系32Eの第7レンズ群32E2と光源13との間に設けられている。光源用偏光板21は、非偏光光源である光源13から射出された赤外光を既定の偏光方向に偏光する。なお、光源用偏光板21は、本開示の技術に係る「第2偏光板」の一例である。
 光源13は、既定の方向に偏光されていない赤外光を射出可能な非偏光光源である。非偏光光源の一例としては、LED光源が挙げられる。光源13から射出された赤外光は、光源用偏光板21を通過し、このとき、第2既定偏光方向に偏光される。具体的には、第2既定偏光方向として、赤外光が位相板15から射出され、かつ位相板15に入射された後に偏光板17の第1既定偏光方向に一致するような偏光方向が挙げられる。この結果、光源13から射出され光源用偏光板21を通過した赤外光は、位相板15を出射時と入射時の2回通過した後、第1既定偏光方向となる。すなわち、第2既定偏光方向に偏光された赤外光は、位相板15の通過によって第1既定偏光方向に偏光される。その後、赤外光は、偏光板17を通過し、第1イメージセンサ14で受光される。なお、第1既定偏光方向は、本開示の技術に係る「第1偏光方向」であり、第2既定偏光方向は、本開示の技術に係る「第2偏光方向」の一例である。
 以上説明したように、撮像装置10は、非偏光光源である光源13を有し、かかる非偏光光源から射出された赤外光を偏光する光源用偏光板21を有している。比較的高価なレーザ光源等の偏光光源と比較して、安価なLED光源等の非偏光光源を使用することができ、撮像装置10の製造コストが低減できる。
 [第5実施形態]上記第1実施形態では、撮像装置10による撮像のみが行われる形態例を挙げて説明した。第5実施形態では、撮像装置10での撮像に加え、撮像装置10よりも広角な範囲の撮像を行う形態例について説明する。なお、第4実施形態では、上記第1実施形態で説明した構成要素と異なる構成要素については同一の符号を付し、その説明を省略する。
 一例として図15に示すように、撮像システム1は、撮像装置10と、広角撮像装置70とを有している。広角撮像装置70は、撮像装置10よりも広角な範囲での撮像が可能な装置である。具体的には、広角撮像装置70は、広角レンズ70Aと、第7レンズ群70Bと、第3イメージセンサ70Cとを有している。広角レンズ70Aは、被写体Sを含む撮像範囲であって、撮像装置10における撮像範囲よりも広い範囲の撮像を実現することが可能なレンズである。広角レンズ70Aの一例としては、魚眼レンズが挙げられる。第7レンズ群70Bは、広角レンズ70Aを透過した被写体光を第3イメージセンサ70Cへ導き、第3イメージセンサ70Cの受光面70C1に結像させる。第3イメージセンサ70Cは、被写体光を受光する。第3イメージセンサ70Cとしては、近赤外波長域に感度を有するイメージセンサを用いることができ、第3イメージセンサ70Cは、被写体光として赤外光を撮像する。
 第3イメージセンサ70Cは、一例として撮像装置10の制御装置24と接続される。制御装置24は、広角撮像装置70の第3イメージセンサ70Cによって撮像されることで得られた広角画像データを取得する。また、制御装置24は、撮像装置10によって撮像されることで得られた赤外光画像データ及び可視光画像データを取得する。制御装置24は、広角撮像装置70及び撮像装置10の撮像結果に基づいて、撮像装置10の撮像範囲と広角撮像装置70の撮像範囲との照合処理を行う。具体的には、制御装置24は、画像認識処理を行って、広角撮像装置70による撮像結果から、撮像装置10による撮像結果と一致する箇所を検出し、かかる箇所を撮像装置10の撮像範囲に対応する箇所であると判定する。この結果、一例として、図16に示すように、制御装置24は、広角撮像装置70によって撮像されることで得られた広角画像データと、広角撮像装置70の撮像範囲よりも狭い撮像範囲が撮像装置10によって撮像されることで得られた狭角画像データとを生成する。狭角画像データは、赤外光画像データである。そして、制御装置24は、ディスプレイに対して、広角画像データにより示される広角画像71と狭角画像データにより示される狭角画像72とを対応付けた状態で表示させる。なお、ここでは、狭角画像データとして赤外光画像データを例示したが、これはあくまでも一例に過ぎず、狭角画像データとして、可視光画像データを用いてもよいし、狭角画像データとして、赤外光画像データ及び可視光画像データの両方を用いてもよい。
 以上説明したように、撮像システム1は、広角撮像装置70と撮像装置10とを備えるので、撮像装置10のみによる撮像と比較して、より広角な範囲の撮像が可能となる。また、撮像システム1は、広角撮像装置70によって撮像されることで得られた広角画像71と、撮像装置10によって撮像されることで得られた狭角画像72とをディスプレイを介してユーザに対して視覚的に認識させることができる。撮像装置10の撮像範囲は、広角撮像装置70の撮像範囲に含まれる。そのため、狭角画像72は、広角画像71に含まれる部分画像に対応する画像である。狭角画像72は、広角画像71内のどの部分に対応するかが特定可能な状態で、広角画像71に対応付けられてディスプレイに表示される。これにより、撮像装置10の撮像範囲が、より広角な撮像範囲に対してどの範囲にあるか示されない場合と比較して、撮像装置10による撮像が、どのような範囲、又は方向に対して行われているのか把握することが容易になる。
 また、上記各実施形態では、第1光学系28として4群レンズからなる形態例を挙げて説明したが、これはあくまでも一例に過ぎず、本開示の技術はこれに限定されない。例えば、被写体側から順に、負、正、正の3群レンズからなってもよいし、被写体側から順に屈折力が、正、負、負、正の4群レンズであってもよいし、被写体側から順に屈折力が正、負、正、正、正の5群レンズであってもよい。
 また、上記各実施形態では、制御装置24が、CPU24A、ストレージ24B、及びメモリ24Cを有するコンピュータによって実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、制御装置24は、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、制御装置24は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 また、上記各実施形態では、ストレージ24Bに撮像プログラム24B1及び測距プログラム24B2(以下、これらを区別して説明する必要がない場合、符号を付さずに「プログラム」と称する)が記憶されているが、本開示の技術はこれに限定されず、一例として図17に示すように、プログラムが記憶媒体100に記憶されていてもよい。記憶媒体100は、非一時的記憶媒体である。記憶媒体100の一例としては、SSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。記憶媒体100に記憶されているプログラムは、制御装置24にインストールされる。CPU24Aは、撮像プログラム24B1に従って撮像処理を実行し、CPU24Aは、測距プログラム24B2に従って距離画像生成処理を実行する。
 また、通信網(図示省略)を介して制御装置24に接続される他のコンピュータ又はサーバ装置等の記憶部にプログラムを記憶させておき、撮像装置10の要求に応じてプログラムが制御装置24にダウンロードされ、制御装置24にインストールされるようにしてもよい。この場合、制御装置24にインストールされたプログラムに基づく処理が制御装置24によって実行される。
 なお、制御装置24に接続される他のコンピュータ又はサーバ装置等の記憶部、又はストレージ24Bにプログラムの全てを記憶させておく必要はなく、プログラムの一部を記憶させておいてもよい。
 図17に示す例では、撮像装置10に制御装置24が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、制御装置24が撮像装置10の外部に設けられるようにしてもよい。
 また、上記各実施形態では、制御装置24が例示されているが、本開示の技術はこれに限定されず、制御装置24として、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよいし、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記各実施形態では、CPU24Aを例示したが、本開示の技術はこれに限定されず、複数のCPUを採用してもよいし、GPUを採用してもよい。
 上記の各種処理(ここでは、一例として、撮像処理及び/又は距離画像生成処理)を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムを実行することで、各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで各種処理を実行する。
 各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
 また、上述した各種処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (25)

  1.  第1波長域光と第2波長域光とを含む光を透過する第1光学系と、
     前記第1光学系を透過した前記光を、前記第1波長域光と前記第2波長域光とに分離する第1分離光学系と、
     前記第1分離光学系によって前記光が分離されることで得られた前記第1波長域光を透過する第2光学系と、
     前記第1分離光学系によって前記光が分離されることで得られた前記第2波長域光を透過する第3光学系と、
     前記第2光学系から射出された前記第1波長域光を受光する第1イメージセンサと、
     前記第3光学系から射出された前記第2波長域光を受光する第2イメージセンサと、
     前記第1波長域光を射出する第1光源と、を備え、
     前記第1光学系は、前記第1光源から射出された前記第1波長域光を被写体に射出し、かつ前記第1波長域光が前記被写体で反射された第1波長域反射光を含む被写体光を透過する、
     撮像装置。
  2.  前記第1光学系は、光学素子が前記第1光学系の光軸方向に非可動とされ、かつ前記被写体光を前記第1分離光学系に導く固定光学系を含み、
     前記第1光学系は、前記第1光源から射出された前記第1波長域光を、前記第1波長域反射光が前記固定光学系を経由して前記第1イメージセンサに向かう光路の少なくとも一部を通過させて、前記被写体に射出する請求項1に記載の撮像装置。
  3.  前記第1光学系は、前記固定光学系よりも前記被写体側に設けられ、かつ、前記光軸方向に沿って移動可能な光学素子を有するズーム光学系を含み、
     前記第1光学系は、前記第1光源から射出された前記第1波長域光を、前記第1波長域反射光が前記ズーム光学系及び前記固定光学系を経由して前記第1イメージセンサに向かう光路の少なくとも一部を通過させて、前記被写体に射出する請求項2に記載の撮像装置。
  4.  前記第1分離光学系及び前記第1光学系は、前記第1光源から射出された前記第1波長域光を、前記第1波長域反射光が前記第1光学系及び前記第1分離光学系を経由して前記第1イメージセンサに向かう光路の少なくとも一部を通過させて、前記被写体に射出する請求項1から請求項3の何れか一項に記載の撮像装置。
  5.  前記第1分離光学系は、前記第1光学系の光軸方向に沿う第1方向に沿って前記第1波長域光を透過させ、かつ、前記第2波長域光を、前記第1方向と交差する第2方向に反射させる請求項1から請求項4の何れか一項に記載の撮像装置。
  6.  前記第2光学系は、第2分離光学系を更に備え、
     前記第2分離光学系は、前記第1光源から射出された前記第1波長域光を反射させ、かつ、前記第1波長域反射光が前記第1イメージセンサに向かう光路の一部を通過させて前記第1分離光学系に導く請求項1から請求項5の何れか一項に記載の撮像装置。
  7.  前記第1光学系は、前記第1波長域光を偏光させる位相板を含み、
     前記第2光学系は、第1偏光方向の光を通過させる第1偏光板を含み、
     前記位相板は、前記第1光源から射出された前記第1波長域光を透過させることで前記被写体に射出し、かつ、前記第1波長域反射光が入射されることで、前記第1波長域反射光を前記第1偏光方向に偏光し、
     前記第1偏光板は、前記位相板によって前記第1偏光方向に偏光された前記第1波長域反射光を通過させることで前記第1イメージセンサに導く請求項1から請求項6の何れか一項に記載の撮像装置。
  8.  前記第1偏光方向は、前記第1光源から射出された前記第1波長域光の偏光方向と交差する方向である請求項7に記載の撮像装置。
  9.  前記位相板は、1/4位相板であり、
     前記位相板は、前記第1光源から射出された前記第1波長域光を透過させることで前記被写体に射出し、かつ、前記第1波長域反射光が入射されることで、前記第1波長域光の偏光方向を、前記第1波長域光を透過させる前の前記第1波長域光の偏光方向に対して90度変化させる請求項7又は請求項8に記載の撮像装置。
  10.  前記第1光源は、非偏光光源であり、
     前記第2光学系は、第2偏光板を更に備え、
     前記第2偏光板は、前記第1光源から射出された前記第1波長域光を第2偏光方向に偏光し、
     前記第2偏光方向に偏光された前記第1波長域光は、前記位相板の通過によって前記第1偏光方向の光となる請求項7から請求項9の何れか一項に記載の撮像装置。
  11.  前記第1波長域反射光を検出し、検出結果に基づいて前記被写体までの距離を測定する測距器を更に備える請求項1から請求項10の何れか一項に記載の撮像装置。
  12.  前記撮像装置は、第1プロセッサを備え、
     前記第1プロセッサは、前記第1光源から前記第1波長域光が射出された射出タイミングと、前記第1波長域反射光が前記第1イメージセンサによって受光された受光タイミングとに基づいて、前記被写体までの距離を測定する請求項1から請求項11の何れか一項に記載の撮像装置。
  13.  前記撮像装置は、第2プロセッサを備え、
     前記第2プロセッサは、前記第1光源から前記第1波長域光が射出された射出タイミングと、前記第1波長域反射光が前記第1イメージセンサによって受光された受光タイミングとに基づいて、前記被写体光についての画像データを生成する請求項1から請求項12の何れか一項に記載の撮像装置。
  14.  前記第2波長域光は、可視光であり、
     前記第1波長域光は、前記可視光よりも長波長の光である請求項1から請求項13の何れか一項に記載の撮像装置。
  15.  前記長波長の光は、1400nm以上2600nm以下の波長域を有する赤外光波長域の光である請求項14に記載の撮像装置。
  16.  前記赤外光波長域は、1550nmを含む近赤外光波長域である請求項15に記載の撮像装置。
  17.  前記長波長の光は、750nm以上1000nm以下の波長域を有する近赤外光波長域の光である請求項14に記載の撮像装置。
  18.  前記第1光源と前記第1光学系との間に設けられ、前記第1光源から射出された前記第1波長域光の光量を制限する第1絞りを更に備えた請求項1から請求項17の何れか一項に記載の撮像装置。
  19.  前記第1光学系は、複数のレンズを有し、
     前記複数のレンズのうちの少なくとも1つのレンズの受光面には、前記第1波長域光及び前記第2波長域光に対する反射率を他の波長域の光に対する反射率よりも低くする反射防止膜が形成されている請求項1から請求項18の何れか一項に記載の撮像装置。
  20.  前記第1光学系は、開口と前記開口を形成する外周領域とを有する第2絞りを含み、
     前記開口は、前記第1波長域光及び前記第2波長域光を透過させ、
     前記外周領域は、前記第1波長域光を透過させ、かつ、前記第2波長域光の透過を制限する請求項1から請求項19の何れか一項に記載の撮像装置。
  21.  前記第2光学系は、前記第1波長域反射光のピントを調整可能なレンズを含むピント調整光学系を更に備えた請求項1から請求項20の何れか一項に記載の撮像装置。
  22.  前記第1光源と前記第1波長域反射光が通過する光路との間に、前記第1光源から射出された前記第1波長域光の配光を調整可能なレンズを含む配光調整光学系を更に備えた請求項1から請求項21の何れか一項に記載の撮像装置。
  23.  前記第1光源及び前記第1波長域反射光が通過する光路との間に、前記第1光源から射出された前記第1波長域光のビーム径を調整可能なビームエキスパンダー光学系を更に備えた請求項1から請求項22の何れか一項に記載の撮像装置。
  24.  前記第1光源は、ブリュースターウィンドウを有し、
     前記第1光源は、前記ブリュースターウィンドウを介して前記第1波長域光を射出する請求項1から請求項23の何れか一項に記載の撮像装置。
  25.  前記第1光源は、前記第1波長域光の射出方向を変更可能な光源である請求項1から請求項24の何れか一項に記載の撮像装置。
PCT/JP2020/040101 2020-02-28 2020-10-26 撮像装置 WO2021171696A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022503084A JP7358611B2 (ja) 2020-02-28 2020-10-26 撮像装置
US17/892,112 US20220404579A1 (en) 2020-02-28 2022-08-21 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020034195 2020-02-28
JP2020-034195 2020-02-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/892,112 Continuation US20220404579A1 (en) 2020-02-28 2022-08-21 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2021171696A1 true WO2021171696A1 (ja) 2021-09-02

Family

ID=77491404

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040101 WO2021171696A1 (ja) 2020-02-28 2020-10-26 撮像装置

Country Status (3)

Country Link
US (1) US20220404579A1 (ja)
JP (1) JP7358611B2 (ja)
WO (1) WO2021171696A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162888A1 (ja) * 2022-02-25 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 光学装置及び測距装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134784A (ja) * 2005-11-08 2007-05-31 Matsushita Electric Ind Co Ltd カメラ用照明装置
JP2007304124A (ja) * 2006-05-08 2007-11-22 Nikon Corp カメラおよび指標体
JP2016202249A (ja) * 2015-04-15 2016-12-08 株式会社ニデック 眼底撮像装置及び眼底撮像プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134784A (ja) * 2005-11-08 2007-05-31 Matsushita Electric Ind Co Ltd カメラ用照明装置
JP2007304124A (ja) * 2006-05-08 2007-11-22 Nikon Corp カメラおよび指標体
JP2016202249A (ja) * 2015-04-15 2016-12-08 株式会社ニデック 眼底撮像装置及び眼底撮像プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162888A1 (ja) * 2022-02-25 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 光学装置及び測距装置

Also Published As

Publication number Publication date
JP7358611B2 (ja) 2023-10-10
US20220404579A1 (en) 2022-12-22
JPWO2021171696A1 (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
US8390926B2 (en) High speed acquisition vision system and method for selectively viewing object features
CN104024827A (zh) 图像处理装置、图像捕捉方法和车辆
JP2015064550A5 (ja)
US11675174B2 (en) Single optic for low light and high light level imaging
US11573428B2 (en) Imaging method and apparatus using circularly polarized light
WO2017028652A1 (zh) 一种镜头、摄像机、包裹检测系统和图像处理方法
WO2021171696A1 (ja) 撮像装置
JPS62223634A (ja) 色判定装置
WO2016080114A1 (ja) 投影装置
US20220400240A1 (en) Imaging system, control method of imaging system, and program
JP2012002735A (ja) 空間情報検出装置
JP2019135468A (ja) 擾乱光判別装置、擾乱光分離装置、擾乱光判別方法及び擾乱光分離方法
WO2020241205A1 (ja) 光分離装置及び撮像装置
JPWO2021171696A5 (ja)
JP2007285761A (ja) ハーフミラーおよびそれを使用した顕微分光測定装置
CN109115779A (zh) 一体化光路折叠模式化分辨成像装置及方法
KR101558232B1 (ko) 레이저 영상기기용 화이트밸런스 조정 장치 및 방법
WO2022030201A1 (ja) 測光装置
JP2003172612A (ja) 光照射受光装置及び光照射受光方法
JP6211261B2 (ja) 測距装置
WO2024013142A1 (en) Image capture device with wavelength separation device
SU1704093A1 (ru) Устройство дл измерени параметров движени объекта
Ritt et al. Automatic suppression of laser dazzling effects for electro-optical sensors by a sophisticated filtering concept
JPH04293346A (ja) 画像読取装置
JP2004239726A (ja) 赤外線撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20921371

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022503084

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20921371

Country of ref document: EP

Kind code of ref document: A1