WO2020241205A1 - 光分離装置及び撮像装置 - Google Patents

光分離装置及び撮像装置 Download PDF

Info

Publication number
WO2020241205A1
WO2020241205A1 PCT/JP2020/018682 JP2020018682W WO2020241205A1 WO 2020241205 A1 WO2020241205 A1 WO 2020241205A1 JP 2020018682 W JP2020018682 W JP 2020018682W WO 2020241205 A1 WO2020241205 A1 WO 2020241205A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical system
diaphragm
optical
image
Prior art date
Application number
PCT/JP2020/018682
Other languages
English (en)
French (fr)
Inventor
長 倫生
杉本 雅彦
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2020241205A1 publication Critical patent/WO2020241205A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • G02B15/16Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective with interdependent non-linearly related movements between one lens or lens group, and another lens or lens group
    • G02B15/163Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective with interdependent non-linearly related movements between one lens or lens group, and another lens or lens group having a first movable lens or lens group and a second movable lens or lens group, both in front of a fixed lens or lens group
    • G02B15/167Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective with interdependent non-linearly related movements between one lens or lens group, and another lens or lens group having a first movable lens or lens group and a second movable lens or lens group, both in front of a fixed lens or lens group having an additional fixed front lens or group of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/06Roll-film cameras adapted to be loaded with more than one film, e.g. with exposure of one or the other at will
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/095Digital circuits for control of aperture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Definitions

  • the technology of the present disclosure relates to an optical separator and an imaging device.
  • Japanese Unexamined Patent Publication No. 2005-004181 discloses a lens system for visible light / infrared light photographing that enables the same subject to be photographed with visible light and infrared light at the same time.
  • the lens system for infrared light photographing described in JP-A-2005-004181 includes a focus lens, an optical separation means, an imaging means for visible light, and an imaging means for infrared light.
  • the focus lens is a lens that can move in the optical axis direction in order to focus on a subject with a desired subject distance.
  • the light separation means divides the subject light that has passed through the focus lens into a subject light for visible light and a subject light for infrared light, and also makes the subject light for visible light and the subject light for infrared light visible. It leads to an optical path for light and an optical path for infrared light.
  • the visible light imaging means captures a visible light subject image with the visible light subject light.
  • the infrared light imaging means captures an infrared subject image with the infrared light subject light.
  • One embodiment according to the technique of the present disclosure is to reduce the size of the first optical system when the object light is separated into the first wavelength region light and the second wavelength region light as compared with the case where the intermediate image is not formed.
  • an optical separation device and an imaging device that can be achieved.
  • the first aspect of the technique of the present disclosure is to have a first aperture, and an object light including a first wavelength region light and a second wavelength region light is incident, and the incident object light is transmitted through the first aperture.
  • a separation optical system having a first optical system, a separation optical system that separates object light emitted from the first optical system into first wavelength region light and second wavelength region light, and a second aperture.
  • the first optical system includes a second optical system in which the second wavelength region light obtained by separating the object light is incident through the second aperture and emits the incident second wavelength region light.
  • the system is an optical separator that forms an intermediate image between the first and second apertures.
  • a second aspect of the technique of the present disclosure is an optical separation device according to the first aspect, wherein the first diaphragm is a diaphragm capable of changing the amount of light of an object light.
  • a third aspect of the technique of the present disclosure is the object light by the first diaphragm according to the amount of light received in the first wavelength region on the first light receiving surface on which the first wavelength region light emitted from the separation optical system is received. It is an optical separator according to the second aspect in which the amount of change in the amount of light of the above is determined.
  • a fourth aspect of the technique of the present disclosure is an optical separator according to any one of the first to third aspects, wherein the second diaphragm is a diaphragm capable of changing the amount of light in the second wavelength region. Is.
  • a fifth aspect of the technique of the present disclosure is a second diaphragm with a second diaphragm according to the amount of light received in the second wavelength region on the second light receiving surface on which the second wavelength region light emitted from the separation optical system is received. It is an optical separator according to a fourth aspect in which the amount of change in the amount of light in the wavelength range is determined.
  • a sixth aspect of the technique of the present disclosure is an optical separator according to any one of the first to fifth aspects, wherein each of the first aperture and the second aperture is an independently controllable aperture. is there.
  • a seventh aspect of the technique of the present disclosure is an optical separation device according to any one of the first to sixth aspects, wherein the first optical system is a variable magnification optical system.
  • variable magnification optical system is an optical system having at least one fixed lens group whose position in the optical axis direction is fixed at the time of magnification change
  • first diaphragm is The optical separator according to a seventh aspect, which is arranged in a single specific fixed lens group of at least one fixed lens group or at a position adjacent to the specific fixed lens group in the optical axis direction.
  • a ninth aspect of the technique of the present disclosure is an optical separation device according to an eighth aspect in which the specific fixed lens group is arranged on the image side of the lens group of the variable magnification optical system.
  • a tenth aspect of the technique of the present disclosure is an optical separation device according to any one of the seventh to ninth aspects in which the variable magnification optical system is a zoom lens.
  • the first optical system has a plurality of lens units, and each of the plurality of lens units has any one of the first to tenth aspects having a plurality of lenses. It is an optical separation device according to one aspect.
  • a twelfth aspect of the technique of the present disclosure is the first to eleventh aspects including a third optical system arranged outside the separation optical system on the side where the first wavelength region light is emitted from the separation optical system.
  • the optical separation device according to any one aspect.
  • the thirteenth aspect of the technique of the present disclosure is an optical separation device according to the first to twelfth aspects, in which the intermediate image is formed between the separation optical system and the second diaphragm.
  • the fourteenth aspect of the technique of the present disclosure is an optical separation device according to the first to twelfth aspects, in which the intermediate image is formed between the first diaphragm and the separation optical system.
  • a fifteenth aspect of the technique of the present disclosure is an optical separation device according to a fourteenth aspect, which is arranged between an intermediate image and a separation optical system and further includes a fourth optical system having a positive power.
  • a sixteenth aspect of the technique of the present disclosure is any one of the first to fifteenth aspects in which the first wavelength region light is invisible light and the second wavelength region light is visible light. This is an optical separator according to the above.
  • the 17th aspect of the technique of the present disclosure is the optical separation device according to the 16th aspect in which the invisible light is near infrared light.
  • the light in the first wavelength region is generated by the optical separation device according to any one of the first to the seventeenth aspects and the first optical system included in the optical separation device. It is an image pickup device including a first image pickup element in which an image is formed and a second image pickup element in which light in a second wavelength region is formed by a second optical system included in the light separation device.
  • CPU refers to the abbreviation of "Central Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • ROM is an abbreviation for "Read Only Memory”.
  • SSD is an abbreviation for “Solid State Drive”.
  • HDD refers to the abbreviation of "Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • ASIC refers to the abbreviation of "Application Special Integrated Circuit”.
  • PLD refers to the abbreviation of "Programmable Logical Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconducor".
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • EL refers to the abbreviation for "Electro-Luminescence”.
  • UI refers to the abbreviation of "User Interface”.
  • a / D refers to the abbreviation of "Analog to Digital”.
  • SWIR is an abbreviation for "Short-wavelength infrared”.
  • Consisting of and “consisting of” in the present specification refer to lenses having substantially no refractive power, and lenses such as diaphragms, filters, and cover glasses. It is intended that optical elements other than the above, as well as mechanical parts such as a lens flange, a lens barrel, an image pickup element, and an image stabilization mechanism, and the like may be included.
  • vertical refers to vertical in the sense of including an error generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to perfect vertical.
  • identity means the same in the sense of including an error generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to the exact sameness.
  • the imaging device 10 is a device that images the subject S.
  • the image pickup device 10 includes an optical separation device 12, a first image pickup element 14, a second image pickup device 16, a position detection device 18, a power application device 20, a UI system device 22, and a control device 24.
  • the optical separation device 12 includes a first optical system 28, a color separation prism 30, a second optical system 32, a third optical system 34, and a fourth optical system 36.
  • the optical separator 12 is provided with an optical path for near-infrared light and an optical path for visible light.
  • a first optical system 28, a fourth optical system 36, a color separation prism 30, and a third optical system 34 are arranged in this order from the object side along the optical axis L1.
  • the first image sensor 14 is arranged after the fourth optical system 36.
  • the first image sensor 14 is a CMOS image sensor.
  • the first image sensor 14 has a first light receiving surface 14A.
  • a plurality of photoelectric conversion elements having sensitivity to near infrared light, which is light in the near infrared wavelength region, are arranged on the first light receiving surface 14A, and the first light receiving surface 14A receives near infrared light. ..
  • the optical path for visible light has an optical axis L1 and an optical axis L2.
  • the optical axis L2 is an optical axis perpendicular to the optical axis L1.
  • the first optical system 28, the fourth optical system 36, and the color separation prism 30 are arranged in order from the object side along the optical axis L1.
  • the optical axis L1 is branched into the optical axis L2 by the color separation prism 30.
  • the second optical system 32 is arranged along the optical axis L2 on the image side of the color separation prism 30.
  • the second image sensor 16 is arranged after the second optical system 32, that is, on the image side of the second optical system 32.
  • the second image sensor 16 is a CMOS image sensor.
  • the second image sensor 16 has a second light receiving surface 16A.
  • a plurality of photoelectric conversion elements having sensitivity to visible light, which is light in the visible wavelength region, are arranged on the second light receiving surface 16A, and the second light receiving surface 16A receives visible light.
  • an optical system composed of lenses and the like arranged in the optical path for near-infrared light is referred to as an "optical system for near-infrared light", and a lens and the like arranged in the optical path for visible light.
  • An optical system consisting of the above is referred to as an "optical system for visible light”.
  • the first optical system 28 is a variable magnification optical system.
  • the "variable optical system” referred to here is a zoom lens having four groups of positive, negative, positive, and positive refractive powers in order from the object side.
  • the first optical system 28 has a plurality of lens units.
  • the term "plurality of lens units" as used herein refers to the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D.
  • the first optical system 28 includes a first lens group 28A, a second lens group 28B, a third lens group 28C, a fourth lens group 28D, and a first aperture 28E.
  • the fourth lens group 28D is an example of the "specific fixed lens group" according to the technique of the present disclosure, and among the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D. It is placed on the most image side of.
  • the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D are arranged in order from the object side along the optical axis L1.
  • the third lens group 28C has an exit surface 28C1
  • the fourth lens group 28D has an incident surface 28D1 and an exit surface 28D2.
  • the exit surface 28C1 is the surface of the third lens group 28C located on the most image side
  • the incident surface 28D1 is the surface of the fourth lens group 28D located on the most object side
  • the exit surface 28D2 is.
  • the first diaphragm 28E is arranged between the exit surface 28C1 and the exit surface 28D2. In the example shown in FIG.
  • the first diaphragm 28E is located on the object side of the fourth lens group 28D in the direction of the optical axis L1 and adjacent to the fourth lens group 28D (between the exit surface 28C1 and the incident surface D1). ) Is shown, but this is only an example, and the first diaphragm 28E may be arranged in the fourth lens group 28D.
  • Each of the first lens group 28A and the fourth lens group 28D is a fixed lens group.
  • the fixed lens group is a lens group fixed to the image plane at the time of scaling.
  • Each of the second lens group 28B and the third lens group 28C is a moving lens group.
  • the moving lens group is a lens group in which the distance from the adjacent lens group is changed by moving along the optical axis L1 direction at the time of scaling.
  • Each of the first lens group 28A, the third lens group 28C, and the fourth lens group 28D is a lens group having a positive power
  • the second lens group 28B is a lens group having a negative power
  • the lens groups such as the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D are illustrated here, the technique of the present disclosure is not limited to this.
  • at least one of the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D may be one lens.
  • the subject light indicating the subject S is incident on the first optical system 28 from the first lens group 28A, and the first optical system 28 emits the incident subject light through the first diaphragm 28E.
  • the subject light is light including near-infrared light and visible light.
  • the subject light is an example of "object light” according to the technique of the present disclosure
  • the near-infrared light is an example of "first wavelength region light” and “invisible light” according to the technique of the present disclosure.
  • Visible light is an example of "second wavelength region light” according to the technique of the present disclosure.
  • the first aperture 28E has an opening 28E1, and the subject light passes through the opening 28E1.
  • the opening 28E1 is arranged at a position where the peripheral light of the subject light passes through the optical axis L1.
  • the first diaphragm 28E is a movable diaphragm whose diameter of the opening 28E1 can be changed. That is, the amount of the subject light indicating the subject S can be changed by the first diaphragm 28E.
  • the fourth optical system 36 is an optical system having a positive power.
  • the fourth optical system 36 includes a lens group 36A.
  • the lens group 36A is a lens group having a positive power.
  • the lens group 36A is composed of a plurality of lenses. Although the lens group is adopted as an example of the fourth optical system 36 here, the technique of the present disclosure is not limited to this, and a single lens may be used.
  • the subject light emitted from the first optical system 28 is incident on the fourth optical system 36.
  • the fourth optical system 36 emits the incident subject light to the color separation prism 30.
  • the color separation prism 30 is an example of the "separation optical system" according to the technique of the present disclosure.
  • the color separation prism 30 separates the subject light emitted from the fourth optical system 36 into near-infrared light and visible light by the selective reflection surface 30A.
  • the color separation prism 30 transmits near-infrared light and reflects visible light. That is, the color separation prism 30 guides near-infrared light to the third optical system 34 along the optical axis L1 and guides visible light to the second optical system 32 along the optical axis L2.
  • the invisible light obtained by separating the subject light by the color separation prism 30 is near infrared light.
  • the "near-infrared light” referred to here is light on the longer wavelength side than about 800 nanometers of the subject light, and visible light is light on the short wavelength side of about 700 nanometers or less.
  • Near-infrared light of the subject light passes through the color separation prism 30 with a transmittance of about 90% (percentage), and visible light of the subject light has a reflectance of more than about 90% and is a selective reflecting surface. It reflects at 30A.
  • near-infrared light of about 800 nanometers or more is illustrated here, this is merely an example, and the technique of the present disclosure is not limited to this.
  • the wavelength range defined as the wavelength range of near-infrared light may be determined according to the application of the image pickup apparatus 10. .. The same applies to the wavelength range of visible light.
  • the technique of the present disclosure is not limited to this, and the subject light is changed to near-infrared light by a dichroic mirror and / or a half mirror instead of the color separation prism 30. It may be separated from visible light. However, when a half mirror is used, it is preferable that the filter removes light in an unnecessary wavelength range from the near-infrared light and visible light obtained by separating the subject light.
  • the second optical system 32 is arranged on the image side of the color separation prism 30 along the optical axis L2 direction, and includes a relay lens 32A and a second diaphragm 32B.
  • the second diaphragm 32B and the relay lens 32A are arranged in order from the object side along the optical axis L2. That is, the second diaphragm 32B is arranged at a position adjacent to the relay lens 32A on the object side of the relay lens 32A in the optical axis L2 direction.
  • the second diaphragm 32B has an opening 32B1 on the optical axis L2.
  • the opening 32B1 has a conjugate positional relationship with the opening 28E1 on the optical axis L1.
  • the second diaphragm 32B is a movable diaphragm whose diameter of the opening 32B1 can be changed. That is, the amount of visible light can be changed by the second diaphragm 32B.
  • Each of the first diaphragm 28E and the second diaphragm 32B is a diaphragm that can be controlled independently.
  • the relay lens 32A is a lens having positive power.
  • the relay lens 32A forms an image of visible light incident on the second light receiving surface 16A via the second diaphragm 32B. In this way, visible light is incident on the second optical system 32 via the second diaphragm 32B, and the second optical system 32 emits the incident visible light to the second light receiving surface 16A.
  • the third optical system 34 is arranged on the image side of the color separation prism 30 along the optical axis L1 direction. In other words, the third optical system 34 is arranged outside the color separation prism 30 on the side where near infrared light is emitted from the color separation prism 30.
  • the third optical system 34 includes a relay lens 34A.
  • the relay lens 34A is a lens having a positive power.
  • the near-infrared light emitted from the color separation prism 30 is incident on the relay lens 34A, and the relay lens 34A forms an image of the incident near-infrared light on the first light receiving surface 14A.
  • the first optical system 28 forms an intermediate image S1 between the first diaphragm 28E and the second diaphragm 32B.
  • the intermediate image S1 is formed between the first diaphragm 28E and the color separation prism 30 by the first optical system 28.
  • the intermediate image S1 is formed by the first optical system 28 on the exit surface 28D2, which is the most image-side surface of the fourth lens group 28D, and the most object-side surface of the lens group 36A. It is formed between the incident surface 36A1 and the incident surface 36A1.
  • the lens group 36A is arranged between the intermediate image S1 and the color separation prism 30 on the optical axis L1.
  • the lens group 36A Since the lens group 36A has a positive power, the luminous flux of the subject light is incident on the lens group 36A color separation prism 30 by giving a converging action to the subject light incident on the lens group 36A as divergent light. Let me. That is, the lens group 36A accommodates the peripheral light rays of the incident subject light in the color separation prism 30 by a positive refractive power.
  • the position detection device 18 and the power application device 20 are connected to the optical separation device 12.
  • the position detection device 18 is a device that detects the position of the second lens group 28B, the position of the third lens group 28C, the positions of the relay lenses 32A and 34A, the apertures of the openings 28E1 and 32B1, and the like.
  • the power applying device 20 is a device that applies power to the second lens group 28B, the third lens group 28C, the relay lenses 32A and 34A, the first aperture 28E, and the second aperture 32B.
  • the first image sensor 14 is imaged with near-infrared light indicating the subject S, and images the subject S based on the imaged near-infrared light.
  • the second image sensor 16 is formed with visible light indicating the subject S, and images the subject S based on the formed visible light.
  • the UI device 22 is a device that receives instructions from the user of the image pickup device 10 (hereinafter, simply referred to as “user”) and presents various information to the user.
  • the first image sensor 14, the second image sensor 16, the position detection device 18, the power application device 20, and the UI system device 22 are connected to the control device 24.
  • the first image sensor 14, the second image sensor 16, the position detection device 18, the power application device 20, and the UI system device 22 are controlled by the control device 24.
  • the position detection device 18 includes a first position sensor 18A, a second position sensor 18B, a third position sensor 18C, a fourth position sensor 18D, a fifth position sensor 18E, and a sixth position sensor. It has 18F.
  • the first position sensor 18A, the second position sensor 18B, the third position sensor 18C, the fourth position sensor 18D, the fifth position sensor 18E, and the sixth position sensor 18F are connected to the control device 24.
  • a potentiometer is adopted as an example of each of the first position sensor 18A, the second position sensor 18B, the third position sensor 18C, the fourth position sensor 18D, the fifth position sensor 18E, and the sixth position sensor 18F. There is.
  • the first position sensor 18A, the second position sensor 18B, the third position sensor 18C, and the fourth position sensor 18D are used in the near-infrared light optical system.
  • the first position sensor 18A detects the position of the second lens group 28B on the optical axis L1.
  • the second position sensor 18B detects the position of the third lens group 28C on the optical axis L1.
  • the third position sensor 18C detects the diameter of the opening 28E1.
  • the fourth position sensor 18D detects the position of the relay lens 34A on the optical axis L1.
  • the 5th position sensor 18E and the 6th position sensor 18F are used in the optical system for visible light.
  • the fifth position sensor 18E detects the diameter of the opening 32B1.
  • the sixth position sensor 18F detects the position of the relay lens 32A on the optical axis L2.
  • the power applying device 20 includes a first motor driver 20A1, a second motor driver 20B1, a third motor driver 20C1, a fourth motor driver 20D1, a fifth motor driver 20E1, and a sixth motor driver 20F1. Further, the power applying device 20 includes a first motor 20A2, a second motor 20B2, a third motor 20C2, a fourth motor 20D2, a fifth motor 20E2, and a sixth motor 20F2.
  • the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, the fourth motor driver 20D1, the fifth motor driver 20E1, and the sixth motor driver 20F1 are connected to the control device 24.
  • the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, the fourth motor driver 20D1, the fifth motor driver 20E1, and the sixth motor driver 20F1 are controlled by the control device 24.
  • the first motor driver 20A1 is connected to the first motor 20A and controls the first motor 20A according to an instruction from the control device 24.
  • the second motor driver 20B1 is connected to the second motor 20B2 and controls the second motor 20B2 according to an instruction from the control device 24.
  • the third motor driver C1 is connected to the third motor 20C2 and controls the third motor 20C2 according to an instruction from the control device 24.
  • the fourth motor driver 20D1 is connected to the fourth motor 20D2 and controls the fourth motor 20D2 according to an instruction from the control device 24.
  • the fifth motor driver 20E1 is connected to the fifth motor 20E2 and controls the fifth motor 20E2 according to an instruction from the control device 24.
  • the sixth motor driver 20F1 is connected to the sixth motor 20F2 and controls the sixth motor 20F2 according to an instruction from the control device 24.
  • the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, the fourth motor driver 20D1, the first motor 20A2, the second motor 20B2, the third motor 20C2, and the fourth motor 20D2 are near-infrared light. Used for optical systems.
  • the first motor 20A2 generates power under the control of the first motor driver 20A1 and applies the generated power to the second lens group 28B to move the second lens group 28B in the optical axis L1 direction.
  • the second motor 20B2 generates power under the control of the second motor driver 20B1 and applies the generated power to the third lens group 28C to move the third lens group 28C in the optical axis L1 direction.
  • the third motor 20C2 generates power under the control of the third motor driver 20C1 and applies the generated power to the first throttle 28E to adjust the opening degree 28E1.
  • the fourth motor 20D2 generates power under the control of the fourth motor driver 20D1 and applies the generated power to the relay lens 34A to move the relay lens 34A in the optical axis L1 direction.
  • the fifth motor driver 20E1, the sixth motor driver 20F1, the fifth motor 20E2, and the sixth motor 20F2 are used in the optical system for visible light.
  • the fifth motor 20E2 generates power under the control of the fifth motor driver 20E1 and applies the generated power to the second throttle 32B to adjust the opening degree 32B1.
  • the sixth motor 20F2 generates power under the control of the sixth motor driver 20F1 and applies the generated power to the relay lens 32A to move the relay lens 32A in the optical axis L2 direction.
  • the control device 24 includes a CPU 24A, a ROM 24B, a RAM 24C, and a secondary storage device 24D, and the CPU 24A, the ROM 24B, the RAM 24C, and the secondary storage device 24D are connected to the bus line 44. Has been done.
  • ROM 24B Various programs for the image pickup apparatus 10 are stored in the ROM 24B.
  • EEPROM is adopted as an example of ROM 24B, but the present invention is not limited to this, and a non-volatile memory such as a mask ROM may be used.
  • the CPU 24A reads various programs from the ROM 24B and expands the read various programs into the RAM 24C.
  • the CPU 24A controls the entire image pickup apparatus 10 according to various programs developed in the RAM 24C.
  • various information is readable and writable by the CPU 24A in the secondary storage device 24D.
  • the “various information” referred to here includes the first aperture control table 24D1 and the second aperture control table 24D2 (see FIG. 6), which will be described later.
  • SSD is adopted as an example of the secondary storage device 24D, but the present invention is not limited to this, and any non-volatile storage device such as an HDD may be used.
  • the first image sensor 14 is located on the optical axis L1 after the relay lens 34A, that is, on the image side of the relay lens 34A. Then, the first image sensor 14 generates a near-infrared light image 60 by imaging the subject S based on the near-infrared light imaged on the first light receiving surface 14A, and the generated near-infrared light image. 60 is output to the subsequent stage.
  • the near-infrared light image 60 is an image showing the subject S by near-infrared light.
  • the first signal processing device 40 and the first image sensor driver 42 are connected to the first image sensor 14.
  • the first signal processing device 40 and the first image sensor driver 42 are connected to the bus line 44.
  • the first image sensor driver 42 outputs the first timing control signal to the first image sensor 14 under the control of the CPU 24A.
  • the first timing control signal is a signal that controls imaging by the first image sensor 14.
  • the frame rate of imaging by the first image sensor 14 is defined by the first timing control signal.
  • the first timing control signal includes a vertical synchronization signal and a horizontal synchronization signal.
  • the vertical synchronization signal is a signal that defines the timing at which transmission of an analog image for one frame is started.
  • the horizontal synchronization signal is a signal that defines the timing at which the output of an analog image for one horizontal line is started.
  • the first image sensor 14 starts outputting the analog near-infrared light image 60 in frame units to the first signal processing device 40 according to the vertical synchronization signal input from the first image sensor driver 42. Further, the first image sensor 14 starts outputting the analog near-infrared light image 60 to the first signal processing device 40 in units of horizontal lines according to the horizontal synchronization signal input from the first image sensor driver 42.
  • the first signal processing device 40 Under the control of the CPU 24A, the first signal processing device 40 performs analog signal processing such as correlated double sampling and gain adjustment on the analog near-infrared light image 60 input from the first image sensor 14. After that, A / D conversion is performed to generate a digital near-infrared light image 60.
  • analog signal processing such as correlated double sampling and gain adjustment on the analog near-infrared light image 60 input from the first image sensor 14. After that, A / D conversion is performed to generate a digital near-infrared light image 60.
  • the first signal processing device 40 Under the control of the CPU 24A, the first signal processing device 40 performs digital signal processing such as demosaic processing, noise removal processing, gradation correction processing, and color correction processing on the digital near-infrared light image 60.
  • the digital near-infrared light image 60 that has undergone digital signal processing is output to the CPU 24A by the first signal processing device 40, and stored in a predetermined storage area (for example, RAM 24C and / or secondary storage device 24D) by the CPU 24A. Will be done.
  • a predetermined storage area for example, RAM 24C and / or secondary storage device 24D
  • the first position sensor 18A, the second position sensor 18B, the third position sensor 18C, and the fourth position sensor 18D are connected to the bus line 44.
  • the detection result by the first position sensor 18A (hereinafter, referred to as “first detection result”) is output to the CPU 24A by the first position sensor 18A.
  • the detection result by the second position sensor 18B (hereinafter, referred to as “second detection result”) is output to the CPU 24A by the second position sensor 18B.
  • the detection result by the third position sensor 18C (hereinafter, referred to as “third detection result”) is output to the CPU 24A by the third position sensor 18C.
  • the detection result by the fourth position sensor 18D (hereinafter, referred to as “fourth detection result”) is output to the CPU 24A by the fourth position sensor 18D.
  • the first motor driver 20A1, the second motor driver 20B1, the third motor driver 20C1, and the fourth motor driver 20D1 are connected to the bus line 44.
  • the CPU 24A controls the position of the second lens group 28B on the optical axis L1 by controlling the first motor 20A2 via the first motor driver 20A1 based on the first detection result.
  • the CPU 24A controls the position of the third lens group 28C on the optical axis L1 by controlling the second motor 20B2 via the second motor driver 20B1 based on the second detection result.
  • the CPU 24A adjusts the opening degree of the opening 28E1 by controlling the third motor 20C2 via the third motor driver 20C1 based on the third detection result and the light receiving amount on the first light receiving surface 14A.
  • the CPU 24A controls the position of the relay lens 34A on the optical axis L1 by controlling the fourth motor 20D2 based on the fourth detection result.
  • the second image sensor 16 is located on the optical axis L2 after the relay lens 32A, that is, on the image side of the relay lens 32A. Then, the second image sensor 16 generates a visible light image 62 by imaging the subject S based on the visible light imaged on the second light receiving surface 16A, and outputs the generated visible light image 62 to the subsequent stage. ..
  • the visible light image 62 is an image showing the subject S by visible light.
  • the second signal processing device 46 and the second image sensor driver 48 are connected to the second image sensor 16.
  • the second signal processing device 46 and the second image sensor driver 48 are connected to the bus line 44.
  • the second image sensor driver 48 outputs the second timing control signal to the second image sensor 16 under the control of the CPU 24A.
  • the second timing control signal is a signal that controls imaging by the second image sensor 16.
  • the frame rate of the image captured by the second image sensor 16 is defined by the second timing control signal.
  • the second timing control signal includes a vertical synchronization signal and a horizontal synchronization signal as well as the first timing control signal.
  • the second image sensor 16 starts outputting the analog visible light image 62 in frame units to the second signal processing device 46 according to the vertical synchronization signal input from the second image sensor driver 48. Further, the second image sensor 16 starts outputting the analog visible light image 62 to the second signal processing device 46 in units of horizontal lines according to the horizontal synchronization signal input from the second image sensor driver 48.
  • the second signal processing device 46 Under the control of the CPU 24A, the second signal processing device 46 performs A / D conversion after performing the above-mentioned analog signal processing on the analog visible light image 62 input from the second image sensor 16. A digital visible light image 62 is generated.
  • the second signal processing device 46 performs the above-mentioned digital signal processing on the digital visible light image 62 under the control of the CPU 24A.
  • the digital visible light image 62 that has undergone digital signal processing is output to the CPU 24A by the second signal processing device 46, and is stored in the above-mentioned predetermined storage area by the CPU 24A.
  • visible light image 62 when it is not necessary to distinguish between the analog visible light image 62 and the digital visible light image 62, it is simply referred to as “visible light image 62”.
  • the 5th position sensor 18E and the 6th position sensor 18F are connected to the bus line 44.
  • the detection result of the fifth position sensor 18E (hereinafter referred to as “fifth detection result”) is output to the CPU 24A by the fifth position sensor 18E.
  • the detection result by the 6th position sensor 18F (hereinafter, referred to as “6th detection result”) is output to the CPU 24A by the 6th position sensor 18F.
  • the fifth motor driver 20E1 and the sixth motor driver 20F1 are connected to the bus line 44.
  • the CPU 24A adjusts the opening degree 32B1 by controlling the fifth motor 20E2 via the fifth motor driver 20E1 based on the fifth detection result and the light receiving amount on the second light receiving surface 16A.
  • the CPU 24A controls the position of the relay lens 32A on the optical axis L2 by controlling the sixth motor 20F2 based on the sixth detection result.
  • the UI system device 22 includes a touch panel display 50 and a reception unit 52.
  • the touch panel display 50 includes a display 50A and a touch panel 52A, and the touch panel 52A is superimposed on the display area of the display 50A.
  • An example of the display 50A is a liquid crystal display.
  • the display 50A may be another display such as an organic EL display instead of the liquid crystal display.
  • the display 50A and the touch panel 52A are connected to the bus line 44. Therefore, the CPU 24A displays various information on the display 50A and operates according to various instructions received by the touch panel 52A.
  • the reception unit 52 includes a touch panel 52A and a hard key unit 52B.
  • the hard key unit 52B is a plurality of hard keys, and has a power button, a release button, buttons for various settings, and the like.
  • the hard key unit 52B is connected to the bus line 44, and the CPU 24A operates according to various instructions received by the hard key unit 52B.
  • the secondary storage device 24D stores the first aperture control table 24D1 and the second aperture control table 24D2.
  • the first diaphragm control table 24D1 is a table used by the CPU 24A to control the first diaphragm 28E.
  • the second diaphragm control table 24D2 is a table used by the CPU 24A to control the second diaphragm 32B.
  • the table is illustrated here, the present invention is not limited to this, and an arithmetic expression may be applied instead of the table.
  • the CPU 24A reads out the first aperture control table 24D1 from the secondary storage device 24D.
  • the CPU 24A specifies the first light receiving amount from the near-infrared light image obtained by being imaged by the first image sensor 14, and controls the first diaphragm F value corresponding to the specified first light receiving amount. Obtained from the table 24D1.
  • the CPU 24A performs the first determination process and the first opening degree adjusting process based on the first aperture F value acquired from the first aperture control table 24D1.
  • the first determination process it is determined whether or not the third detection result corresponds to the first aperture F value, and when it is determined that the third detection result does not correspond to the first aperture F value, the first determination process is performed.
  • the opening adjustment process is performed.
  • the opening degree of the opening 28E1 is adjusted so that the F value of the first diaphragm 28E becomes the first diaphragm F value.
  • the adjustment of the opening degree 28E1 is realized by controlling the third motor 20C2 by the third motor driver 20C1 according to the instruction of the CPU 24A.
  • the opening degree of the opening 28E1 is adjusted according to the first light receiving amount, so that the amount of change in the subject light by the first diaphragm 28E is adjusted. That is, in the image pickup apparatus 10, the amount of change of the subject light by the first diaphragm 28E is determined according to the first light receiving amount.
  • the amount of light received on the second light receiving surface 16A (hereinafter, also referred to as “second light receiving amount”) and the F value of the second diaphragm 32B (hereinafter, also referred to as “second diaphragm F value”). ) Is associated with.
  • the CPU 24A reads out the second aperture control table 24D2 from the secondary storage device 24D.
  • the CPU 24A specifies the second light receiving amount from the visible light image obtained by being imaged by the second image sensor 16, and sets the second diaphragm F value corresponding to the specified second light receiving amount as the second diaphragm control table. Obtained from 24D2.
  • the CPU 24A performs the second determination process and the second opening degree adjusting process based on the second aperture F value acquired from the second aperture control table 24D2.
  • the second determination process it is determined whether or not the fifth detection result corresponds to the second aperture F value, and when it is determined that the fifth detection result does not correspond to the second aperture F value, the second determination process is performed.
  • the opening adjustment process is performed.
  • the opening degree of the opening 32B1 is adjusted so that the F value of the second diaphragm 32B becomes the second diaphragm F value.
  • the adjustment of the opening degree 32B1 is realized by controlling the fifth motor 20E2 by the fifth motor driver 20E1 according to the instruction of the CPU 24A.
  • the opening degree of the opening 32B1 is adjusted according to the second light receiving amount, so that the amount of change in visible light by the second diaphragm 32B is adjusted. That is, in the image pickup apparatus 10, the amount of change in visible light by the second diaphragm 32B is determined according to the amount of second light received.
  • the subject S includes a near view subject CV and a distant view subject DV.
  • the near-view subject CV is a subject at a position tens to several hundred meters away from the image pickup apparatus 10
  • the distant-view subject DV is a subject in a distant view rather than the near-view subject CV.
  • the distant view subject DV is a subject at a position several kilometers away from the image pickup apparatus 10.
  • a forest is shown as a foreground subject CV
  • a steel tower is shown as a foreground subject CV.
  • the subject S is imaged by the first image sensor 14 and the second image sensor 16 at the same timing.
  • the subject light is incident on the first optical system 28, and the amount of the subject light incident on the first optical system 28 is adjusted by the first diaphragm 28E. ..
  • the subject light whose amount of light is adjusted by the first diaphragm 28E is emitted from the exit surface 28D2.
  • An intermediate image S1 is formed by the first optical system 28 between the exit surface 28D2 and the entrance surface 36A1.
  • the subject light formed as an intermediate image S1 between the exit surface 28D2 and the incident surface 36A1 is incident on the lens group 36A as divergent light.
  • the lens group 36A causes the luminous flux of the subject light to enter the color separation prism 30 by giving a converging action based on a positive refractive power to the subject light incident on the lens group 36A as divergent light.
  • the subject light is separated into near infrared light and visible light by the color separation prism 30. Visible light contained in the subject light is reflected by the selective reflection surface 30A. Visible light reflected by the selective reflection surface 30A is incident on the second optical system 32. In the second optical system 32, the amount of incident visible light is adjusted by the second diaphragm 32B. Visible light whose amount of light is adjusted by the second diaphragm 28E is incident on the relay lens 32A, and is imaged on the second light receiving surface 16A by the relay lens 32A.
  • the visible light received by the second light receiving surface 16A is photoelectrically converted by the second image sensor 16, and a visible light image 62 is generated as an example, as shown in FIG.
  • the visible light image 62 is stored in a predetermined storage area or displayed on the display 50A by the CPU 24A.
  • the visible light image 62 is a chromatic image.
  • the near view subject CV is reflected as the near view image 62A
  • the distant view subject DV is reflected as the distant view image 62B.
  • the distant view image 62B has lower sharpness than the near view image 62A, and is reflected in the visible light image 62 in a blurred state. This is because the visible light from the distant view subject DV is more affected by scattering in the atmosphere than the visible light from the near view subject CV.
  • the near-infrared light obtained by separating the subject light by the color separation prism 30 passes through the color separation prism 30.
  • Near-infrared light transmitted through the color separation prism 30 is incident on the relay lens 34A along the optical axis L1, and is imaged on the first light receiving surface 14A by the relay lens 34A.
  • the near-infrared light received by the first light receiving surface 14A is photoelectrically converted by the first image sensor 14, and a near-infrared light image 60 is generated as an example, as shown in FIG.
  • the near-infrared light image 60 is stored in a predetermined storage area or displayed on the display 50A by the CPU 24A.
  • the near-infrared light image 60 is an achromatic image.
  • the near-view subject CV is reflected as the near-view image 60A
  • the distant-view subject DV is reflected as the distant view image 60B.
  • the distant view image 60B has higher contour sharpness than the distant view image 62B.
  • the near-infrared light image 60 includes a super-distant view image 60C showing a super-distant view subject.
  • the ultra-distant view subject is a subject at a position of several tens of kilometers to several hundreds of kilometers from the image pickup apparatus 10, cannot be visually recognized by the naked eye, and is not reflected as an image in the visible light image 62.
  • the reason why the ultra-distant view image 60C is reflected in the near-infrared light image 60 and the ultra-distant view subject is not reflected in the visible light image 62 as an image is that the near-infrared light is affected by scattering in the atmosphere as compared with visible light. Is small.
  • the image pickup apparatus 10 when the subject S is imaged, the near infrared light image 60 and the visible light image 62 are acquired at the same timing.
  • the depth of field with respect to the subject S in the near-infrared optical system (hereinafter, “near-infrared light side”).
  • the depth of field (referred to as “depth of field”) and the depth of field with respect to the subject S in the visible light optical system (hereinafter referred to as "depth of field on the visible light side”) are individually changed at the same timing. That is, the depth of field on the near infrared light side is changed by adjusting the opening degree of the opening 28E1, and the depth of field on the visible light side is changed by adjusting the opening degree of the opening 32B1. ..
  • the depth of field on the near-infrared light side is changed by adjusting the amount of light of the subject light by the first diaphragm 28E according to the amount of first light received, and the depth of field on the visible light side is It is changed by adjusting the amount of visible light by the second diaphragm 32B according to the second light receiving amount.
  • zooming in and out of the subject S is realized by moving the second lens group 28B and / or the third lens group 28C along the optical axis L1.
  • the reception unit 52 receives a zoom-in instruction (hereinafter, referred to as “zoom-in instruction”).
  • the CPU 24A moves the second lens group 28B and / or the third lens group 28C along the optical axis L1 by controlling the power applying device 20 according to the zoom-in instruction received by the reception unit 52.
  • the reception unit 52 receives the zoom-out instruction (hereinafter, referred to as “zoom-out instruction”).
  • the CPU 24A moves the second lens group 28B and / or the third lens group 28C along the optical axis L1 by controlling the power applying device 20 according to the zoom-out instruction received by the reception unit 52.
  • the subject light incident on the first optical system 28 is emitted from the first optical system 28 via the first diaphragm 28E, and the first diaphragm 28E and the second diaphragm 32B are combined. An intermediate image S1 is formed between them.
  • the subject light emitted from the first optical system 28 is separated into near-infrared light and visible light by the color separation prism 30. Visible light is incident on the second optical system 32 via the second diaphragm 23B. The visible light incident on the second optical system 32 is emitted from the second optical system 32.
  • the imaging performed without forming the intermediate image is performed with the objective lens located closest to the object side and the first imaging as compared with the imaging performed with the intermediate image S1 formed between the first aperture 28E and the second aperture 32B.
  • the distance from the element 14 becomes long.
  • the objective lens located closest to the object side and the second image are compared with the imaging performed in which the intermediate image S1 is formed between the first diaphragm 28E and the second diaphragm 32B. 2
  • the distance from the image sensor 16 is also increased. Therefore, the same angle of view (same image height) is imaged when the intermediate image is not formed and when the intermediate image S1 is formed between the first aperture 28E and the second aperture 32B.
  • the lens diameter of the objective lens located on the most object side used in the former case is set to the lens on the most object side of the first lens group 28A used in the latter case (hereinafter, "first optical system object side lens”. It is necessary to make it larger than the lens diameter of).
  • the first optical system 28 forms an intermediate image S1 between the first diaphragm 28E and the second diaphragm 32B.
  • the intermediate image S1 is formed between the first diaphragm 28E and the color separation prism 30.
  • the intermediate image S1 is formed between the exit surface 28D2 and the entrance surface 36A1. Therefore, the lens diameter of the first optical system object-side lens can be made smaller than the lens diameter of the objective lens located closest to the object side used when the subject S is imaged without forming an intermediate image.
  • the size of the first optical system 28 can be reduced when the subject light is separated into near-infrared light and visible light as compared with the case where the intermediate image is not formed.
  • the intermediate image S1 is formed between the first diaphragm 28E and the second diaphragm 32B, the position where the peripheral light beam intersects each of the optical axis L1 and the optical axis L2, that is, conjugated.
  • Two positions are determined as positions. Therefore, of these two positions, the first diaphragm 28E is arranged at the position on the object side, and the second diaphragm 32B is arranged at the remaining position (position on the image side).
  • the first diaphragm 28E and the second diaphragm 32B can be easily arranged at the conjugate position as compared with the case where no intermediate image is formed.
  • a diaphragm capable of changing the amount of subject light is adopted as the first diaphragm 28E. Therefore, as compared with the case where a diaphragm capable of changing only the amount of near-infrared light and a diaphragm capable of changing only the amount of visible light are provided, the timing of changing the amount of near-infrared light and the timing of changing the amount of visible light Can be combined with a simple configuration. Further, the light amount of the near infrared light can be easily changed as compared with the case where the first diaphragm 28E is a diaphragm in which the light amount of the subject light cannot be changed. Further, the depth of field on the near infrared light side can be easily adjusted as compared with the case where the first diaphragm 28E is a diaphragm in which the amount of light of the subject light cannot be changed.
  • the amount of change in the amount of subject light by the first diaphragm 28E is determined according to the amount of first light received. Therefore, the amount of near-infrared light received by the first light-receiving surface 14A can be adjusted more accurately than in the case where the amount of change in the amount of subject light by the first diaphragm 28E is determined regardless of the first light-receiving amount. it can.
  • a diaphragm capable of changing the amount of visible light is adopted as the second diaphragm 32B. Therefore, the amount of visible light can be easily changed as compared with the case where the second diaphragm 32B is a diaphragm in which the amount of visible light cannot be changed. Further, the depth of field on the visible light side can be easily adjusted as compared with the case where the second diaphragm 32B is a diaphragm in which the amount of visible light cannot be changed.
  • the amount of change in the amount of visible light by the second diaphragm 32B is determined according to the amount of second light received. Therefore, the amount of visible light received by the second light receiving surface 16A can be adjusted more accurately than in the case where the amount of change in the amount of visible light by the second diaphragm 32B is determined regardless of the amount of second light received.
  • an independently controllable diaphragm is adopted as the first diaphragm 28E and the second diaphragm 32B. Therefore, the adjustment of the amount of near-infrared light and the adjustment of the amount of visible light can be performed independently.
  • variable magnification optical system is adopted as the first optical system 28. Therefore, as compared with the case where the variable magnification optical system is provided between the first optical system 28 and the color separation prism 30, the magnification can be changed without being restricted by the position of the color separation prism 30.
  • the first diaphragm 28E is arranged at a position adjacent to the fourth lens group 28D included in the first optical system 28.
  • the first diaphragm 28E may be arranged in the fourth lens group 28D included in the first optical system 28.
  • the first diaphragm 28E is not located in the fourth lens group 28D included in the first optical system 28 or adjacent to the fourth lens group 28D included in the first optical system 28 in the optical axis L1 direction. It is possible to easily maintain the positional relationship between the first diaphragm 28E and the second diaphragm 32B as compared with the case where the first diaphragm 28E and the second diaphragm 32B are arranged at the location.
  • the fourth lens group 28D is arranged on the image side most in the first optical system 28, and the first diaphragm 28E is located adjacent to the fourth lens group 28D in the optical axis L1 direction. Have been placed.
  • the first diaphragm 28E may be arranged in the fourth lens group 28D.
  • a zoom lens is adopted as the first optical system 28. Therefore, it is possible to realize highly accurate magnification change as compared with the case where the zoom lens is not provided.
  • each of the first lens group 28A, the second lens group 28B, the third lens group 28C, and the fourth lens group 28D included in the first optical system 28 is a lens group. Therefore, the first optical system 28 can be a multifunctional optical system as compared with the case where an optical system composed of a single lens or a single lens group is used instead of the first optical system 28. ..
  • the third optical system 34 is arranged on the side where the near infrared light is emitted from the color separation prism 30. Therefore, the optical characteristics on the side where the near-infrared light is emitted from the color separation prism 30 should be adjusted as compared with the case where the optical system is not arranged on the side where the near-infrared light is emitted from the color separation prism 30. Can be done.
  • the fourth optical system 36 is arranged between the intermediate image S1 and the color separation prism 30. Since the fourth optical system 36 is an optical system having a positive power, the peripheral rays of the subject light are converged in the color separation prism 30 by the fourth optical system 36. Therefore, the color separation prism 30 can be downsized as compared with the case where the optical system having a positive power is not arranged between the intermediate image S1 and the color separation prism 30.
  • the image pickup apparatus 100 is different from the image pickup apparatus 10 in that it has an optical separator 120 instead of the optical separator 12.
  • the optical separator 120 is different from the optical separator 12 in that it does not have the fourth optical system 36 and that it has the first optical system 128 instead of the first optical system 28.
  • the first optical system 128 has a first lens group 128A instead of the first lens group 28A, a second lens group 128B instead of the second lens group 28B, and a second lens group 128B.
  • the difference is that the third lens group 128C is provided instead of the three lens group 28C, and the fourth lens group 128D is provided instead of the fourth lens group 28D.
  • the first optical system 128 configured in this way is different from the first optical system 28 in that it forms an intermediate image S2 instead of the intermediate image S1.
  • the intermediate image S2 is formed between the color separation prism 30 and the second diaphragm 32B on the optical axis L2 by the first optical system 128.
  • the lens of the first optical system object side lens is larger than the lens diameter of the objective lens located closest to the object side used when the subject S is imaged without forming an intermediate image.
  • the diameter can be reduced.
  • the size of the first optical system 128 can be reduced when the subject light is separated into near-infrared light and visible light as compared with the case where the intermediate image is not formed.
  • the peripheral light rays are the optical axis L1 and the optical axis as in the above embodiment.
  • Two positions are determined as positions intersecting each of L2, that is, conjugate positions. Therefore, of these two positions, the first diaphragm 28E is arranged at the position on the object side, and the second diaphragm 32B is arranged at the remaining position (position on the image side). As described above, in the image pickup apparatus 100, the first diaphragm 28E and the second diaphragm 32B can be easily arranged at the conjugate position as compared with the case where no intermediate image is formed.
  • the optical system is not arranged between the color separation prism 30 and the intermediate image S2 on the optical axis L2, but the technique of the present disclosure is not limited to this, and is on the optical axis L2.
  • the optical system may be arranged between the color separation prism 30 and the intermediate image S2.
  • the image pickup apparatus 200 is different from the image pickup apparatus 100 in that it has an optical separator 220 instead of the optical separator 120.
  • the optical separator 220 is different from the optical separator 120 in that it has an optical system 70.
  • the optical system 70 is an optical system having a positive power, and is arranged between the color separation prism 30 and the intermediate image S2 on the optical axis L2.
  • the optical system 70 is a lens group composed of a plurality of lenses, but the technique of the present disclosure is not limited to this, and a single lens having positive power (for example, a convex lens) may be used.
  • the optical system 70 may be a fixed lens or a moving lens, and may be an optical system in which the position of the intermediate image S2 on the optical axis L2 can be finely adjusted.
  • the image pickup device 300 shown in FIG. 12 may be adopted.
  • the image pickup apparatus 300 shown in FIG. 12 is different from the image pickup apparatus 10 in that it has an optical separator 320 instead of the optical separator 12.
  • the optical separator 320 is different from the optical separator 12 in that it has a negative power optical system 80.
  • the negative power optical system 80 is an optical system having negative power, and is arranged between the color separation prism 30 and the second diaphragm 32B on the optical axis L2.
  • the negative power optical system 80 is a lens group composed of a plurality of lenses, but the technique of the present disclosure is not limited to this, and one lens having negative power (for example, a concave lens) may be used.
  • the negative power optical system 80 may be a fixed lens or a moving lens.
  • the subject S is imaged by the second image pickup device 16 by forming a visible light image on the second light receiving surface 16A, and a visible light image 62 is generated as an electronic image.
  • the technique of the present disclosure is not limited to this.
  • the visible light image 62 may be generated as an electronic image, and the subject image based on the visible light may be visually recognized by the user as an optical image.
  • the image pickup apparatus 400 shown in FIG. 13 is different from the image pickup apparatus 10 in that it has an optical separator 420 instead of the optical separator 12 and has an eyepiece window 424.
  • the optical separator 420 is different from the optical separator 12 in that it has a half prism 422.
  • the relay lens 32A has an exit surface 32A1.
  • the exit surface 32A1 is the surface on the image side of the relay lens 32A.
  • the half prism 422 is arranged between the second light receiving surface 16A and the emitting surface 32A1. Visible light emitted from the exit surface 32A1 is incident on the half prism 422, and the incident visible light passes through the half prism 422 and is imaged on the second light receiving surface 16A.
  • the half prism 422 has a selective reflection surface 422A, and a part of visible light is reflected by the selective reflection surface 422A and passes through the eyepiece window 424. As a result, the subject image based on visible light is visually recognized by the user as an optical image through the eyepiece window 424.
  • the half prism 422 is illustrated, but the present invention is not limited to this, and a dichroic mirror, a prism, or a half mirror may be used.
  • the image pickup apparatus 500 is different from the image pickup apparatus 400 in that it has a hybrid finder (registered trademark) 15.
  • the hybrid finder 15 is a finder in which an optical view finder (hereinafter referred to as "OVF") and an electronic view finder (hereinafter referred to as "EVF”) are selectively used.
  • OVF optical view finder
  • EVF electronic view finder
  • the hybrid finder 15 includes a display 86, and the CPU 24A causes the display 86 to display various information.
  • An example of the display 86 is a liquid crystal display.
  • the display 86 may be another display such as an organic EL display instead of the liquid crystal display.
  • the hybrid finder 15 includes OVF90 and EVF92.
  • the OVF 90 is a reverse Galilean viewfinder and has an eyepiece 94, a prism 96, and an objective lens 98.
  • the EVF 92 has a display 86, a prism 96, and an eyepiece lens 94.
  • a liquid crystal shutter 101 is arranged along the optical axis L3 of the objective lens 98 on the object side of the objective lens 98.
  • a selective reflection surface 422A is arranged on the object side of the liquid crystal shutter 101 along the optical axis L3, and visible light reflected by the selective reflection surface 422A is incident on the liquid crystal shutter 101.
  • the liquid crystal shutter 101 shields the objective lens 98 from visible light under the control of the CPU 24A.
  • the prism 96 reflects the electronic image displayed on the display 86 and guides it to the eyepiece 94, and transmits visible light incident from the light separator 420 via the liquid crystal shutter 101 and the objective lens 98 to transmit the visible light to the eyepiece lens. Lead to 94.
  • Examples of the electronic image displayed on the display 86 include a near-infrared light image 60, a visible light image 62, or a live view image based on the composite image 64.
  • the composite image 64 refers to an image obtained by combining the visible light image 62 and the near infrared light image 60.
  • An example of the composite image 64 is an image obtained by alpha blending the visible light image 62 and the near infrared light image 60.
  • the electronic image displayed on the display 86 is not limited to the live view image, but may be a still image.
  • the CPU 24A controls the liquid crystal shutter 101 so that it is in a non-light-shielding state so that the optical image (subject image based on visible light) can be visually recognized from the eyepiece lens 94 through the eyepiece window 424.
  • the CPU 24A controls the liquid crystal shutter 101 to be in a light-shielding state so that only the electronic image displayed on the display 86 can be visually recognized from the eyepiece lens 94.
  • the first aperture 28E is arranged on the object side of the fourth lens group 28D and adjacent to the fourth lens group 28D in the optical axis L1 direction.
  • the technique of the present disclosure is not limited to this.
  • the first diaphragm 28E may be arranged at a position adjacent to the fourth lens group 28D on the image side of the fourth lens group 28D in the optical axis L1 direction.
  • near infrared light is exemplified as invisible light, but the technique of the present disclosure is not limited to this.
  • the invisible light may be infrared light.
  • the subject light is separated into infrared light and visible light by the color separation prism 30.
  • a plurality of photoelectric conversion elements having sensitivity to infrared light which is light in the infrared wavelength region, are arranged on the first light receiving surface 14A, and the first light receiving surface 14A receives infrared light. Then, the first image sensor 14 generates an infrared light image based on the infrared light received by the first light receiving surface 14A.
  • the "infrared light” referred to here is light on the longer wavelength side than about 700 nm (nanometers) of the subject light.
  • the infrared light of the subject light passes through the color separation prism 30 with a transmittance of about 90% (percentage), and the visible light of the subject light has a reflectance of more than about 90% and the selective reflecting surface 30A. Reflects on.
  • the size of the first optical system 28 is reduced as compared with the case where the intermediate image is not formed, as in the above embodiment. be able to.
  • the invisible light is not limited to infrared light or near-infrared light, and may be light on the shorter wavelength side than the wavelength range of visible light.
  • the light receiving may be performed by the image pickup element in which the photosensitive pixel (photoelectric conversion element) having sensitivity to light on the shorter wavelength side than the wavelength range of visible light is arranged on the light receiving surface.
  • the first optical system 28 is a zoom lens
  • the technique of the present disclosure is not limited to this.
  • the first optical system 28 is an optical system further including a focus lens. It may be.
  • a zoom lens composed of a 4-group lens is illustrated as an example of the first optical system 28, but this is only an example, and the technique of the present disclosure is not limited to this.
  • the refractive power may be a negative, positive, or positive three-group zoom in order from the object side, or may be a positive, negative, negative, or positive four-group zoom, or the refractive power may be in order from the object side. May be a five-group zoom of positive, negative, positive, positive, and positive, and any zoom type can be used.
  • the third optical system 34 and the fourth optical system 36 are illustrated, but the technique of the present disclosure is not limited to this, and there is no third optical system 34 and / or a fourth optical system 36.
  • the technology of the present disclosure is established.
  • the first image sensor 14 and / or the second image sensor 16 may be a CCD image sensor.
  • Infrared light, especially SWIR, may be imaged with an InGaAs sensor.
  • the embodiment in which the optical separation device 12 is applied to the image pickup device 10 has been described, but the technique of the present disclosure is not limited to this.
  • the light separation device 12 may be applied to a distance measuring device that performs distance measuring using invisible light and distance measuring using visible light.
  • control device 24 has been described with reference to an example of a form realized by a computer having a CPU 24A, a ROM 24B, and a RAM 24C, but the technique of the present disclosure is not limited thereto.
  • the control device 24 may be a device including an ASIC, FPGA, and / or PLD.
  • the control device 24 may be realized by a combination of a hardware configuration and a software configuration.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Nonlinear Science (AREA)
  • Studio Devices (AREA)

Abstract

光分離装置は、第1絞りを有し、第1波長域光と第2波長域光とを含む物体光が入射され、入射された物体光を、第1絞りを介して出射する第1光学系と、第1光学系から出射された物体光を第1波長域光と第2波長域光とに分離する分離光学系と、第2絞りを有し、分離光学系によって物体光が分離されることで得られた第2波長域光が第2絞りを介して入射され、入射された第2波長域光を出射する第2光学系と、を含み、第1光学系は、第1絞りと第2絞りとの間に中間像を形成する。

Description

光分離装置及び撮像装置
 本開示の技術は、光分離装置及び撮像装置に関する。
 特開2005-004181号公報には、同一被写体に対する可視光及び赤外光での撮影を同時に行うことを可能にする可視光・赤外光撮影用レンズシステムが開示されている。特開2005-004181号公報に記載の赤外光撮影用レンズシステムは、フォーカスレンズ、光分離手段、可視光用撮像手段、及び赤外光用撮像手段を備えている。
 フォーカスレンズは、所望の被写体距離の被写体にピントを合わせるために光軸方向に移動可能なレンズである。光分離手段は、フォーカスレンズを通過した被写体光を可視光用の被写体光と赤外光用の被写体光に分割すると共に、可視光用の被写体光と赤外光用の被写体光とをそれぞれ可視光用光路と赤外光用光路とに導く。可視光用撮像手段は、可視光用の被写体光により可視光の被写体像を撮像する。赤外光用撮像手段は、赤外光用の被写体光により赤外光の被写体像を撮像する。
 本開示の技術に係る一つの実施形態は、中間像が形成されない場合に比べ、物体光が第1波長域光と第2波長域光とに分離される場合において第1光学系の小型化を図ることができる光分離装置及び撮像装置を提供する。
 本開示の技術の第1の態様は、第1絞りを有し、第1波長域光と第2波長域光とを含む物体光が入射され、入射された物体光を、第1絞りを介して出射する第1光学系と、第1光学系から出射された物体光を第1波長域光と第2波長域光とに分離する分離光学系と、第2絞りを有し、分離光学系によって物体光が分離されることで得られた第2波長域光が第2絞りを介して入射され、入射された第2波長域光を出射する第2光学系と、を含み、第1光学系は、第1絞りと第2絞りとの間に中間像を形成する光分離装置である。
 本開示の技術の第2の態様は、第1絞りは、物体光の光量を変更可能な絞りである第1の態様に係る光分離装置である。
 本開示の技術の第3の態様は、分離光学系から出射された第1波長域光が受光される第1受光面での第1波長域光の受光量に応じて第1絞りによる物体光の光量の変更量が定められる第2の態様に係る光分離装置である。
 本開示の技術の第4の態様は、第2絞りは、第2波長域光の光量を変更可能な絞りである第1の態様から第3の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第5の態様は、分離光学系から出射された第2波長域光が受光される第2受光面での第2波長域光の受光量に応じて第2絞りによる第2波長域光の光量の変更量が定められる第4の態様に係る光分離装置である。
 本開示の技術の第6の態様は、第1絞り及び第2絞りの各々は独立に制御可能な絞りである第1の態様から第5の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第7の態様は、第1光学系は、変倍光学系である第1の態様から第6の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第8の態様は、変倍光学系は、変倍の際に光軸方向での位置が固定された少なくとも1つの固定レンズ群を有する光学系であり、第1絞りは、少なくとも1つの固定レンズ群のうちの単一の特定固定レンズ群内、又は、光軸方向において特定固定レンズ群に隣接した箇所に配置されている第7の態様に係る光分離装置である。
 本開示の技術の第9の態様は、特定固定レンズ群は、変倍光学系が有するレンズ群のうちの最も像側に配置されている第8の態様に係る光分離装置である。
 本開示の技術の第10の態様は、変倍光学系は、ズームレンズである第7の態様から第9の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第11の態様は、第1光学系は、複数のレンズユニットを有し、複数のレンズユニットの各々は、複数のレンズを有する第1の態様から第10の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第12の態様は、分離光学系の外部において分離光学系から第1波長域光が出射される側に配置された第3光学系を更に含む第1の態様から第11の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第13の態様は、中間像は、分離光学系と第2絞りとの間に形成される第1の態様から第12の態様に係る光分離装置である。
 本開示の技術の第14の態様は、中間像は、第1絞りと分離光学系との間に形成される第1の態様から第12の態様に係る光分離装置である。
 本開示の技術の第15の態様は、中間像と分離光学系との間に配置され、正のパワーを有する第4光学系を更に含む第14の態様に係る光分離装置である。
 本開示の技術の第16の態様は、第1波長域光は、非可視光であり、第2波長域光は、可視光である第1の態様から第15の態様の何れか1つの態様に係る光分離装置である。
 本開示の技術の第17の態様は、非可視光は、近赤外光である第16の態様に係る光分離装置である。
 本開示の技術の第18の態様は、第1の態様から第17の態様の何れか1つの態様に係る光分離装置と、光分離装置に含まれる第1光学系によって第1波長域光が結像される第1撮像素子と、光分離装置に含まれる第2光学系によって第2波長域光が結像される第2撮像素子と、を含む撮像装置である。
実施形態に係る撮像装置の構成の一例を示す概略構成図である。 実施形態に係る撮像装置に各々含まれる動力付与装置及び位置検出装置のハードウェア構成の一例を示すブロック図である。 実施形態に係る撮像装置に含まれる近赤外光用光学系、及び近赤外光用光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 実施形態に係る撮像装置に含まれる可視光用光学系、及び可視光用光学系に関連する電気系のハードウェア構成の一例を示す概略構成図である。 実施形態に係る撮像装置に各々含まれるUI系装置及び制御装置の構成の一例を示すブロック図である。 実施形態に係る撮像装置の制御装置の構成及び機能の一例を示す概念図である。 実施形態に係る撮像装置によって撮像される被写体の一例を示す概念図である。 実施形態に係る撮像装置に含まれる第2撮像素子によって被写体が撮像されることで得られた可視光画像の一例を示す概念図である。 実施形態に係る撮像装置に含まれる第1撮像素子によって被写体が撮像されることで得られた近赤外光画像の一例を示す概念図である。 実施形態に係る撮像装置の構成の第1変形例を示す概略構成図である。 実施形態に係る撮像装置の構成の第2変形例を示す概略構成図である。 実施形態に係る撮像装置の構成の第3変形例を示す概略構成図である。 実施形態に係る撮像装置の構成の第4変形例を示す概略構成図である。 実施形態に係る撮像装置の構成の第5変形例を示す概略構成図である。 実施形態に係る撮像装置の構成の第6変形例を示す概略構成図である。
 添付図面に従って本開示の技術の光分離装置及び撮像装置に係る実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。UIとは、“User Interface”の略称を指す。A/Dとは、“Analog to Digital”の略称を指す。SWIRとは、“Short-wavelength infrared”の略称を指す。
 なお、本明細書の「~からなり」、「~からなる」は、挙げられた構成要素以外に、実質的に屈折力を有さないレンズ、並びに、絞り、フィルタ、およびカバーガラス等のレンズ以外の光学要素、並びに、レンズフランジ、レンズバレル、撮像素子、および手振れ補正機構等の機構部分、等が含まれていてもよいことを意図する。
 また、本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野において一般的に許容される誤差を含めた意味合いでの垂直を指す。また、本明細書の説明において、「同一」とは、完全な同一の他に、本開示の技術が属する技術分野において一般的に許容される誤差を含めた意味合いでの同一を指す。
 一例として図1に示すように、撮像装置10は、被写体Sを撮像する装置である。撮像装置10は、光分離装置12、第1撮像素子14、第2撮像素子16、位置検出装置18、動力付与装置20、UI系装置22、及び制御装置24を備えている。
 光分離装置12は、第1光学系28、色分離プリズム30、第2光学系32、第3光学系34、及び第4光学系36を備えている。
 光分離装置12には、近赤外光用光路と可視光用光路が設けられている。近赤外光用光路には、光軸L1に沿って物体側から順に第1光学系28、第4光学系36、色分離プリズム30、及び第3光学系34が配置されている。第4光学系36の後段には、第1撮像素子14が配置されている。第1撮像素子14は、CMOSイメージセンサである。第1撮像素子14は、第1受光面14Aを有する。第1受光面14Aには、近赤外波長域の光である近赤外光に感度を有する複数の光電変換素子が配置されており、第1受光面14Aは、近赤外光を受光する。
 可視光用光路は、光軸L1と光軸L2とを有する。光軸L2は、光軸L1に対して垂直な光軸である。可視光用光路には、光軸L1に沿って物体側から順に第1光学系28、第4光学系36、及び色分離プリズム30が配置されている。光軸L1は、色分離プリズム30によって光軸L2に分岐される。可視光用光路において、色分離プリズム30よりも像側には、光軸L2に沿って第2光学系32が配置されている。第2光学系32の後段、すなわち、第2光学系32よりも像側には、第2撮像素子16が配置されている。第2撮像素子16は、CMOSイメージセンサである。第2撮像素子16は、第2受光面16Aを有する。第2受光面16Aには、可視波長域の光である可視光に感度を有する複数の光電変換素子が配置されており、第2受光面16Aは、可視光を受光する。
 なお、以下では、説明の便宜上、近赤外光用光路に配置されているレンズ等からなる光学系を「近赤外光用光学系」と称し、可視光用光路に配置されているレンズ等からなる光学系を「可視光用光学系」と称する。
 第1光学系28は、変倍光学系である。具体的には、ここで言う「変倍光学系」は、物体側から屈折力が順に正、負、正、正の4群からなるズームレンズである。第1光学系28は、複数のレンズユニットを有する。ここで言う「複数のレンズユニット」とは、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dを指す。
 第1光学系28は、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、第4レンズ群28D、及び第1絞り28Eからなる。第4レンズ群28Dは、本開示の技術に係る「特定固定レンズ群」の一例であり、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dのうちの最も像側に配置されている。
 第1光学系28では、光軸L1に沿って物体側から順に第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dが配置されている。第3レンズ群28Cは、出射面28C1を有し、第4レンズ群28Dは、入射面28D1及び出射面28D2を有する。出射面28C1は、第3レンズ群28Cのうちの最も像側に位置する面であり、入射面28D1は、第4レンズ群28Dのうちの最も物体側に位置する面であり、出射面28D2は、第4レンズ群28Dのうちの最も像側に位置する面である。第1絞り28Eは、出射面28C1と出射面28D2との間に配置されている。図1に示す例では、第1絞り28Eは、光軸L1方向において、第4レンズ群28Dよりも物体側で、第4レンズ群28Dに隣接した箇所(出射面28C1と入射面D1との間)に配置されている態様が示されているが、これはあくまでも一例に過ぎず、第1絞り28Eは、第4レンズ群28D内に配置されていてもよい。
 第1レンズ群28A及び第4レンズ群28Dの各々は、何れも固定レンズ群である。固定レンズ群は、変倍の際に像面に対して固定されたレンズ群である。第2レンズ群28B及び第3レンズ群28Cの各々は、何れも移動レンズ群である。移動レンズ群は、変倍の際に光軸L1方向に沿って移動することで、隣接するレンズ群との間隔が変わるレンズ群である。
 第1レンズ群28A、第3レンズ群28C、及び第4レンズ群28Dの各々は、正のパワーを有するレンズ群であり、第2レンズ群28Bは、負のパワーを有するレンズ群である。なお、ここでは、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28D等のレンズ群を例示しているが、本開示の技術はこれに限定されない。例えば、第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dのうちの少なくとも1つは1枚のレンズであってもよい。
 第1光学系28には、被写体Sを示す被写体光が第1レンズ群28Aから入射され、第1光学系28は、入射された被写体光を第1絞り28Eを介して出射する。被写体光は、近赤外光及び可視光を含む光である。なお、被写体光は、本開示の技術に係る「物体光」の一例であり、近赤外光は、本開示の技術に係る「第1波長域光」及び「非可視光」の一例であり、可視光は、本開示の技術に係る「第2波長域光」の一例である。
 第1絞り28Eは、開口28E1をしており、被写体光は開口28E1を通過する。開口28E1は、被写体光の周辺光線が光軸L1を通る箇所に配置されている。第1絞り28Eは、開口28E1の口径を変更可能な可動式の絞りである。すなわち、被写体Sを示す被写体光の光量は、第1絞り28Eによって変更可能とされている。
 第4光学系36は、正のパワーを有する光学系である。第4光学系36は、レンズ群36Aを備えている。レンズ群36Aは、正のパワーを有するレンズ群である。
レンズ群36Aは、複数のレンズからなる。なお、ここでは、第4光学系36の一例としてレンズ群が採用されているが、本開示の技術はこれに限定されず、1枚のレンズであってもよい。
 第4光学系36には、第1光学系28から出射された被写体光が入射される。第4光学系36は、入射された被写体光を色分離プリズム30に出射する。
 色分離プリズム30は、本開示の技術に係る「分離光学系」の一例である。色分離プリズム30は、第4光学系36から出射された被写体光を選択反射面30Aで近赤外光と可視光とに分離する。色分離プリズム30は、近赤外光を透過させ、かつ、可視光を反射させる。すなわち、色分離プリズム30は、光軸L1に沿って近赤外光を第3光学系34に導き、光軸L2に沿って可視光を第2光学系32に導く。
 第1実施形態において、色分離プリズム30によって被写体光が分離されることで得られる非可視光は近赤外光である。ここで言う「近赤外光」は、被写体光のうちの約800ナノメートルよりも長波長側の光であり、可視光は、約700ナノメートル以下の短波長側の光である。被写体光のうちの近赤外光は、90%(パーセント)程度の透過率で色分離プリズム30を透過し、被写体光のうちの可視光は、約90%を超える反射率で、選択反射面30Aで反射する。なお、ここでは、約800ナノメートル以上の近赤外光を例示しているが、これはあくまでも一例に過ぎず、本開示の技術はこれに限定されない。つまり、近赤外光の波長域は、学説等によって解釈が様々であるので、近赤外光の波長域として定義される波長域は、撮像装置10の用途等に応じて決定されればよい。また、可視光の波長域についても同様である。
 なお、ここでは、色分離プリズム30を例示しているが、本開示の技術はこれに限定されず、色分離プリズム30に代えてダイクロイックミラー及び/又はハーフミラーによって被写体光が近赤外光と可視光とに分離されるようにしてもよい。但し、ハーフミラーを用いる場合には、被写体光が分離して得られた近赤外光及び可視光から不要な波長域の光がフィルタによって除去されるようにするとよい。
 第2光学系32は、光軸L2方向に沿って色分離プリズム30よりも像側に配置されており、リレーレンズ32A及び第2絞り32Bを備えている。第2光学系32では、光軸L2に沿って物体側から順に第2絞り32B及びリレーレンズ32Aが配置されている。つまり、第2絞り32Bは、光軸L2方向において、リレーレンズ32Aよりも物体側で、リレーレンズ32Aに隣接した箇所に配置されている。
 第2絞り32Bは、光軸L2上に開口32B1を有する。開口32B1は、光軸L1上の開口28E1と共役な位置関係にある。第2絞り32Bは、開口32B1の口径を変更可能な可動式の絞りである。すなわち、可視光の光量は、第2絞り32Bによって変更可能とされている。なお、第1絞り28E及び第2絞り32Bの各々は独立に制御可能な絞りである。
 リレーレンズ32Aは、正のパワーを有するレンズである。リレーレンズ32Aは、第2絞り32Bを介して入射された可視光を第2受光面16Aに結像させる。このように、第2光学系32には、可視光が第2絞り32Bを介して入射され、第2光学系32は、入射された可視光を第2受光面16Aに出射する。
 第3光学系34は、光軸L1方向に沿って色分離プリズム30よりも像側に配置されている。換言すると、第3光学系34は、色分離プリズム30の外部において、色分離プリズム30から近赤外光が出射される側に配置されている。第3光学系34は、リレーレンズ34Aを備えている。リレーレンズ34Aは、正のパワーを有するレンズである。リレーレンズ34Aには、色分離プリズム30から出射された近赤外光が入射され、リレーレンズ34Aは、入射された近赤外光を第1受光面14Aに結像させる。
 第1光学系28は、第1絞り28Eと第2絞り32Bとの間に中間像S1を形成する。具体的には、中間像S1は、第1光学系28によって、第1絞り28Eと色分離プリズム30との間に形成される。より具体的には、中間像S1は、第1光学系28によって、第4レンズ群28Dのうちの最も像側の面である出射面28D2と、レンズ群36Aのうちの最も物体側の面である入射面36A1との間に形成される。レンズ群36Aは、光軸L1上において、中間像S1と色分離プリズム30との間に配置されている。レンズ群36Aは、正のパワーを有しているので、レンズ群36Aに発散光として入射した被写体光に対して収束作用を与えることで、被写体光の光束をレンズ群36A色分離プリズム30に入射させる。つまり、レンズ群36Aは、入射された被写体光の周辺光線を正の屈折力によって色分離プリズム30内に収める。
 位置検出装置18及び動力付与装置20は、光分離装置12に接続されている。位置検出装置18は、第2レンズ群28Bの位置、第3レンズ群28Cの位置、リレーレンズ32A,34Aの位置、及び開口28E1,32B1の口径等を検出する装置である。動力付与装置20は、第2レンズ群28B、第3レンズ群28C、リレーレンズ32A,34A、第1絞り28E、及び第2絞り32Bに対して動力を付与する装置である。
 第1撮像素子14は、被写体Sを示す近赤外光が結像され、結像された近赤外光に基づいて被写体Sを撮像する。第2撮像素子16は、被写体Sを示す可視光が結像され、結像された可視光に基づいて被写体Sを撮像する。UI系装置22は、撮像装置10のユーザ(以下、単に「ユーザ」と称する)からの指示を受け付けたり、ユーザに対して各種情報を提示したりする装置である。第1撮像素子14、第2撮像素子16、位置検出装置18、動力付与装置20、及びUI系装置22は、制御装置24に接続されている。第1撮像素子14、第2撮像素子16、位置検出装置18、動力付与装置20、及びUI系装置22は、制御装置24によって制御される。
 一例として図2に示すように、位置検出装置18は、第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、及び第6位置センサ18Fを備えている。第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、及び第6位置センサ18Fは、制御装置24に接続されている。
 ここでは、第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、第4位置センサ18D、第5位置センサ18E、及び第6位置センサ18Fの各々の一例として、ポテンショメータが採用されている。
 第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、及び第4位置センサ18Dは、近赤外光用光学系に用いられる。
第1位置センサ18Aは、光軸L1上での第2レンズ群28Bの位置を検出する。第2位置センサ18Bは、光軸L1上での第3レンズ群28Cの位置を検出する。第3位置センサ18Cは、開口28E1の口径を検出する。第4位置センサ18Dは、光軸L1上でのリレーレンズ34Aの位置を検出する。
 第5位置センサ18E及び第6位置センサ18Fは、可視光用光学系に用いられる。第5位置センサ18Eは、開口32B1の口径を検出する。第6位置センサ18Fは、光軸L2上でのリレーレンズ32Aの位置を検出する。
 動力付与装置20は、第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第5モータドライバ20E1、及び第6モータドライバ20F1を備えている。また、動力付与装置20は、第1モータ20A2、第2モータ20B2、第3モータ20C2、第4モータ20D2、第5モータ20E2、及び第6モータ20F2を備えている。
 第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第5モータドライバ20E1、及び第6モータドライバ20F1は、制御装置24に接続されている。第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第5モータドライバ20E1、及び第6モータドライバ20F1は、制御装置24によって制御される。
 第1モータドライバ20A1は、第1モータ20Aに接続されており、制御装置24からの指示に従って第1モータ20Aを制御する。第2モータドライバ20B1は、第2モータ20B2に接続されており、制御装置24からの指示に従って第2モータ20B2を制御する。第3モータドライバC1は、第3モータ20C2に接続されており、制御装置24からの指示に従って第3モータ20C2を制御する。第4モータドライバ20D1は、第4モータ20D2に接続されており、制御装置24からの指示に従って第4モータ20D2を制御する。第5モータドライバ20E1は、第5モータ20E2に接続されており、制御装置24からの指示に従って第5モータ20E2を制御する。第6モータドライバ20F1は、第6モータ20F2に接続されており、制御装置24からの指示に従って第6モータ20F2を制御する。
 第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、第4モータドライバ20D1、第1モータ20A2、第2モータ20B2、第3モータ20C2、及び第4モータ20D2は、近赤外光用光学系に用いられる。第1モータ20A2は、第1モータドライバ20A1の制御下で動力を生成し、生成した動力を第2レンズ群28Bに付与することで、第2レンズ群28Bを光軸L1方向に移動させる。第2モータ20B2は、第2モータドライバ20B1の制御下で動力を生成し、生成した動力を第3レンズ群28Cに付与することで、第3レンズ群28Cを光軸L1方向に移動させる。第3モータ20C2は、第3モータドライバ20C1の制御下で動力を生成し、生成した動力を第1絞り28Eに付与することで、開口28E1の開度を調節する。第4モータ20D2は、第4モータドライバ20D1の制御下で動力を生成し、生成した動力をリレーレンズ34Aに付与することで、リレーレンズ34Aを光軸L1方向に移動させる。
 第5モータドライバ20E1、第6モータドライバ20F1、第5モータ20E2、及び第6モータ20F2は、可視光用光学系に用いられる。第5モータ20E2は、第5モータドライバ20E1の制御下で動力を生成し、生成した動力を第2絞り32Bに付与することで、開口32B1の開度を調節する。第6モータ20F2は、第6モータドライバ20F1の制御下で動力を生成し、生成した動力をリレーレンズ32Aに付与することで、リレーレンズ32Aを光軸L2方向に移動させる。
 一例として図3に示すように、制御装置24は、CPU24A、ROM24B、RAM24C、及び二次記憶装置24Dを備えており、CPU24A、ROM24B、RAM24C、及び二次記憶装置24Dは、バスライン44に接続されている。
 ROM24Bには、撮像装置10用の各種プログラムが記憶されている。ここでは、ROM24Bの一例として、EEPROMが採用されているが、これに限らず、マスクROM等の不揮発性のメモリであってもよい。CPU24Aは、ROM24Bから各種プログラムを読み出し、読み出した各種プログラムをRAM24Cに展開する。CPU24Aは、RAM24Cに展開した各種プログラムに従って撮像装置10の全体を制御する。また、二次記憶装置24Dには、各種情報がCPU24Aによって読み書き可能に記憶されている。ここで言う「各種情報」には、後述の第1絞り制御用テーブル24D1及び第2絞り制御用テーブル24D2(図6参照)が含まれる。ここでは、二次記憶装置24Dの一例として、SSDが採用されているが、これに限らず、HDD等の不揮発性の記憶装置であればよい。
 第1撮像素子14は、光軸L1上において、リレーレンズ34Aよりも後段、すなわち、リレーレンズ34Aよりも像側に位置している。そして、第1撮像素子14は、第1受光面14Aに結像された近赤外光に基づいて被写体Sを撮像することで近赤外光画像60を生成し、生成した近赤外光画像60を後段に出力する。近赤外光画像60は、近赤外光による被写体Sを示す画像である。第1撮像素子14には、第1信号処理装置40及び第1撮像素子ドライバ42が接続されている。第1信号処理装置40及び第1撮像素子ドライバ42は、バスライン44に接続されている。第1撮像素子ドライバ42は、CPU24Aの制御下で、第1タイミング制御信号を第1撮像素子14に出力する。第1タイミング制御信号は、第1撮像素子14による撮像を制御する信号である。第1撮像素子14による撮像のフレームレートは、第1タイミング制御信号によって規定されている。
 第1タイミング制御信号には、垂直同期信号及び水平同期信号が含まれている。垂直同期信号は、1フレーム分のアナログ画像の送信を開始するタイミングを規定する信号である。水平同期信号は、1水平ライン分のアナログ画像の出力を開始するタイミングを規定する信号である。第1撮像素子14は、第1撮像素子ドライバ42から入力された垂直同期信号に従ってフレーム単位でのアナログの近赤外光画像60の第1信号処理装置40への出力を開始する。また、第1撮像素子14は、第1撮像素子ドライバ42から入力された水平同期信号に従って水平ライン単位でのアナログの近赤外光画像60の第1信号処理装置40への出力を開始する。
 第1信号処理装置40は、CPU24Aの制御下で、第1撮像素子14から入力されたアナログの近赤外光画像60に対して、相関二重サンプリング及びゲイン調整等のアナログ信号処理を施した後、A/D変換を行うことで、デジタルの近赤外光画像60を生成する。
 第1信号処理装置40は、CPU24Aの制御下で、デジタルの近赤外光画像60に対して、デモザイク処理、ノイズ除去処理、階調補正処理、及び色補正処理等のデジタル信号処理を施す。デジタル信号処理済みのデジタルの近赤外光画像60は、第1信号処理装置40によって、CPU24Aに出力され、CPU24Aによって、既定の記憶領域(例えば、RAM24C及び/又は二次記憶装置24D)に記憶される。なお、以下では、アナログの近赤外光画像60とデジタルの近赤外光画像60とを区別して説明する必要がない場合、単に「近赤外光画像60」と称する。
 第1位置センサ18A、第2位置センサ18B、第3位置センサ18C、及び第4位置センサ18Dは、バスライン44に接続されている。第1位置センサ18Aでの検出結果(以下、「第1検出結果」と称する)は、第1位置センサ18AによってCPU24Aに出力される。第2位置センサ18Bでの検出結果(以下、「第2検出結果」と称する)は、第2位置センサ18BによってCPU24Aに出力される。第3位置センサ18Cでの検出結果(以下、「第3検出結果」と称する)は、第3位置センサ18CによってCPU24Aに出力される。第4位置センサ18Dでの検出結果(以下、「第4検出結果」と称する)は、第4位置センサ18DによってCPU24Aに出力される。
 第1モータドライバ20A1、第2モータドライバ20B1、第3モータドライバ20C1、及び第4モータドライバ20D1は、バスライン44に接続されている。CPU24Aは、第1検出結果に基づいて第1モータドライバ20A1を介して第1モータ20A2を制御することで、光軸L1上での第2レンズ群28Bの位置を制御する。CPU24Aは、第2検出結果に基づいて第2モータドライバ20B1を介して第2モータ20B2を制御することで、光軸L1上での第3レンズ群28Cの位置を制御する。CPU24Aは、第3検出結果と第1受光面14Aでの受光量とに基づいて第3モータドライバ20C1を介して第3モータ20C2を制御することで、開口28E1の開度を調節する。CPU24Aは、第4検出結果に基づいて第4モータ20D2を制御することで、光軸L1上でのリレーレンズ34Aの位置を制御する。
 一例として図4に示すように、第2撮像素子16は、光軸L2上において、リレーレンズ32Aよりも後段、すなわち、リレーレンズ32Aよりも像側に位置している。そして、第2撮像素子16は、第2受光面16Aに結像された可視光に基づいて被写体Sを撮像することで可視光画像62を生成し、生成した可視光画像62を後段に出力する。可視光画像62は、可視光による被写体Sを示す画像である。
 第2撮像素子16には、第2信号処理装置46及び第2撮像素子ドライバ48が接続されている。第2信号処理装置46及び第2撮像素子ドライバ48は、バスライン44に接続されている。第2撮像素子ドライバ48は、CPU24Aの制御下で、第2タイミング制御信号を第2撮像素子16に出力する。第2タイミング制御信号は、第2撮像素子16による撮像を制御する信号である。第2撮像素子16による撮像のフレームレートは、第2タイミング制御信号によって規定されている。
 第2タイミング制御信号には、第1タイミング制御信号と同様に、垂直同期信号及び水平同期信号が含まれている。第2撮像素子16は、第2撮像素子ドライバ48から入力された垂直同期信号に従ってフレーム単位でのアナログの可視光画像62の第2信号処理装置46への出力を開始する。また、第2撮像素子16は、第2撮像素子ドライバ48から入力された水平同期信号に従って水平ライン単位でのアナログの可視光画像62の第2信号処理装置46への出力を開始する。
 第2信号処理装置46は、CPU24Aの制御下で、第2撮像素子16から入力されたアナログの可視光画像62に対して、上述したアナログ信号処理を施した後、A/D変換を行うことで、デジタルの可視光画像62を生成する。
 第2信号処理装置46は、CPU24Aの制御下で、デジタルの可視光画像62に対して、上述したデジタル信号処理を施す。デジタル信号処理済みのデジタルの可視光画像62は、第2信号処理装置46によって、CPU24Aに出力され、CPU24Aによって、上述した既定の記憶領域に記憶される。なお、以下では、アナログの可視光画像62とデジタルの可視光画像62とを区別して説明する必要がない場合、単に「可視光画像62」と称する。
 第5位置センサ18E及び第6位置センサ18Fは、バスライン44に接続されている。第5位置センサ18Eでの検出結果(以下、「第5検出結果」と称する)は、第5位置センサ18EによってCPU24Aに出力される。第6位置センサ18Fでの検出結果(以下、「第6検出結果」と称する)は、第6位置センサ18FによってCPU24Aに出力される。
 第5モータドライバ20E1及び第6モータドライバ20F1は、バスライン44に接続されている。CPU24Aは、第5検出結果と第2受光面16Aでの受光量とに基づいて第5モータドライバ20E1を介して第5モータ20E2を制御することで、開口32B1の開度を調節する。CPU24Aは、第6検出結果に基づいて第6モータ20F2を制御することで、光軸L2上でのリレーレンズ32Aの位置を制御する。
 一例として図5に示すように、UI系装置22は、タッチパネル・ディスプレイ50及び受付部52を備えている。タッチパネル・ディスプレイ50は、ディスプレイ50A及びタッチパネル52Aを備えており、ディスプレイ50Aの表示領域に対してタッチパネル52Aが重ねられている。ディスプレイ50Aの一例としては、液晶ディスプレイが挙げられる。なお、ディスプレイ50Aは、液晶ディスプレイではなく、有機ELディスプレイなどの他のディスプレイであってもよい。
 ディスプレイ50A及びタッチパネル52Aは、バスライン44に接続されている。従って、CPU24Aは、ディスプレイ50Aに対して各種情報を表示させ、タッチパネル52Aによって受け付けられた各種指示に従って動作する。
 受付部52は、タッチパネル52A及びハードキー部52Bを備えている。ハードキー部52Bは、複数のハードキーであり、電源ボタン、レリーズボタン、及び各種設定のボタン等を有する。ハードキー部52Bは、バスライン44に接続されており、CPU24Aは、ハードキー部52Bによって受け付けられた各種指示に従って動作する。
 一例として図6に示すように、二次記憶装置24Dには、第1絞り制御用テーブル24D1及び第2絞り制御用テーブル24D2が記憶されている。第1絞り制御用テーブル24D1は、CPU24Aによって第1絞り28Eの制御に用いられるテーブルである。第2絞り制御用テーブル24D2は、CPU24Aによって第2絞り32Bの制御に用いられるテーブルである。なお、ここでは、テーブルを例示しているが、これに限らず、テーブルに代えて演算式を適用してもよい。
 第1絞り制御用テーブル24D1には、第1受光面14Aでの受光量(以下、「第1受光量」とも称する)と第1絞り28EのF値(以下、「第1絞りF値」とも称する)とが対応付けられている。CPU24Aは、二次記憶装置24Dから第1絞り制御用テーブル24D1を読み出す。CPU24Aは、第1撮像素子14によって撮像されることで得られた近赤外光画像から第1受光量を特定し、特定した第1受光量に対応する第1絞りF値を第1絞り制御用テーブル24D1から取得する。CPU24Aは、第1絞り制御用テーブル24D1から取得した第1絞りF値に基づいて第1判定処理及び第1開度調節処理を行う。
 第1判定処理では、第3検出結果が第1絞りF値に相当するか否かの判定が行われ、第3検出結果が第1絞りF値に相当しないと判定された場合に、第1開度調節処理が行われる。第1開度調節処理では、第1絞り28EのF値が第1絞りF値となるように開口28E1の開度の調節が行われる。開口28E1の開度の調節は、CPU24Aの指示に従って第3モータドライバ20C1によって第3モータ20C2が制御されることで実現される。
 このように、撮像装置10では、第1受光量に応じて開口28E1の開度が調節されることで、第1絞り28Eによる被写体光の変更量が調節される。つまり、撮像装置10では、第1受光量に応じて第1絞り28Eによる被写体光の変更量が定められる。
 第2絞り制御用テーブル24D2には、第2受光面16Aでの受光量(以下、「第2受光量」とも称する)と第2絞り32BのF値(以下、「第2絞りF値」とも称する)とが対応付けられている。CPU24Aは、二次記憶装置24Dから第2絞り制御用テーブル24D2を読み出す。CPU24Aは、第2撮像素子16によって撮像されることで得られた可視光画像から第2受光量を特定し、特定した第2受光量に対応する第2絞りF値を第2絞り制御用テーブル24D2から取得する。CPU24Aは、第2絞り制御用テーブル24D2から取得した第2絞りF値に基づいて第2判定処理及び第2開度調節処理を行う。
 第2判定処理では、第5検出結果が第2絞りF値に相当するか否かの判定が行われ、第5検出結果が第2絞りF値に相当しないと判定された場合に、第2開度調節処理が行われる。第2開度調節処理では、第2絞り32BのF値が第2絞りF値となるように開口32B1の開度の調節が行われる。開口32B1の開度の調節は、CPU24Aの指示に従って第5モータドライバ20E1によって第5モータ20E2が制御されることで実現される。
 このように、撮像装置10では、第2受光量に応じて開口32B1の開度が調節されることで、第2絞り32Bによる可視光の変更量が調節される。つまり、撮像装置10では、第2受光量に応じて第2絞り32Bによる可視光の変更量が定められる。
 次に、第1実施形態に係る撮像装置10の作用について説明する。
 一例として図7に示すように、被写体Sには、近景被写体CVと遠景被写体DVとが含まれている。近景被写体CVは、撮像装置10から数十メートルから数百メートル離れた位置での被写体であり、遠景被写体DVは、近景被写体CVよりも遠景の被写体である。具体的には、遠景被写体DVは、撮像装置10から数キロメートル離れた位置での被写体である。図7に示す例では、近景被写体CVとして森林が示されており、近景被写体CVとして鉄塔が示されている。
 撮像を開始する指示が受付部52(図5参照)によって受け付けられると、第1撮像素子14及び第2撮像素子16によって同一のタイミングで被写体Sが撮像される。一例として図1に示すように、可視光用光学系では、被写体光が第1光学系28に入射され、第1光学系28に入射された被写体光の光量が第1絞り28Eによって調節される。第1絞り28Eによって光量が調節された被写体光は、出射面28D2から出射される。出射面28D2と入射面36A1との間において、第1光学系28によって中間像S1が形成される。レンズ群36Aには、出射面28D2と入射面36A1との間で中間像S1として結像された被写体光が発散光として入射される。レンズ群36Aは、レンズ群36Aに発散光として入射した被写体光に対して、正の屈折力に基づく収束作用を与えることで、被写体光の光束を色分離プリズム30内に入射させる。
 被写体光は、色分離プリズム30によって近赤外光と可視光とに分離される。被写体光に含まれる可視光は、選択反射面30Aで反射される。第2光学系32には、選択反射面30Aで反射された可視光が入射される。第2光学系32では、入射された可視光の光量が第2絞り32Bによって調節される。リレーレンズ32Aには、第2絞り28Eによって光量が調節された可視光が入射され、リレーレンズ32Aによって第2受光面16Aに結像される。第2受光面16Aによって受光された可視光は、第2撮像素子16によって光電変換され、一例として図8に示すように、可視光画像62が生成される。可視光画像62は、CPU24Aによって、既定の記憶領域に記憶されたり、ディスプレイ50Aに表示されたりする。
 可視光画像62は、有彩色の画像である。可視光画像62には、近景被写体CVが近景画像62Aとして写り込み、遠景被写体DVが遠景画像62Bとして写り込む。遠景画像62Bは、近景画像62Aに比べ、鮮明度が低く、ぼけた状態で可視光画像62に写り込む。これは、遠景被写体DVからの可視光は、近景被写体CVからの可視光に比べ、大気中で受ける散乱の影響が大きいからである。
 一方、一例として図1に示すように、近赤外光用光学系では、色分離プリズム30によって被写体光が分離されることで得られた近赤外光が、色分離プリズム30を透過する。リレーレンズ34Aには、色分離プリズム30を透過した近赤外光が光軸L1に沿って入射され、リレーレンズ34Aによって第1受光面14Aに結像される。第1受光面14Aによって受光された近赤外光は、第1撮像素子14によって光電変換され、一例として図9に示すように、近赤外光画像60が生成される。近赤外光画像60は、CPU24Aによって、既定の記憶領域に記憶されたり、ディスプレイ50Aに表示されたりする。
 近赤外光画像60は、無彩色の画像である。近赤外光画像60には、近景被写体CVが近景画像60Aとして写り込み、遠景被写体DVが遠景画像60Bとして写り込む。遠景画像60Bは、遠景画像62Bに比べ、輪郭の鮮明度が高い。また、近赤外光画像60には、超遠景被写体を示す超遠景画像60Cが写り込んでいる。超遠景被写体は、撮像装置10から数十キロメートルから数百キロメートル離れた位置での被写体であり、肉眼での視認は不可能であり、可視光画像62にも画像として写り込まない。超遠景画像60Cが近赤外光画像60に写り込み、超遠景被写体が可視光画像62に画像として写り込まないのは、近赤外光は、可視光に比べ、大気中で受ける散乱の影響が小さいからである。
 このように、撮像装置10では、被写体Sが撮像されることによって、近赤外光画像60と可視光画像62とが同一のタイミングで取得される。
 また、撮像装置10では、第1絞り28Eと第2絞り32Bとが独立に制御されるので、近赤外光用光学系での被写体Sに対する被写界深度(以下、「近赤外光側被写界深度」と称する)と可視光用光学系での被写体Sに対する被写界深度(以下、「可視光側被写界深度」と称する)とが同一のタイミングで個別に変更される。すなわち、近赤外光側被写界深度は、開口28E1の開度が調節されることによって変更され、可視光側被写界深度は、開口32B1の開度が調節されることによって変更される。具体的には、近赤外光側被写界深度は、第1受光量に応じて第1絞り28Eによる被写体光の光量が調節されることで変更され、可視光側被写界深度は、第2受光量に応じて第2絞り32Bによる可視光の光量が調節されることで変更される。
 更に、被写体Sに対するズームイン及びズームアウトは、第2レンズ群28B及び/又は第3レンズ群28Cを光軸L1に沿って移動させることで実現される。被写体Sに対してズームインが行われる場合、ズームインの指示(以下、「ズームイン指示」と称する)が受付部52によって受け付けられる。CPU24Aは、受付部52によって受け付けられたズームイン指示に従って動力付与装置20を制御することで第2レンズ群28B及び/又は第3レンズ群28Cを光軸L1に沿って移動させる。被写体Sに対してズームアウトが行われる場合、ズームアウトの指示(以下、「ズームアウト指示」と称する)が受付部52によって受け付けられる。CPU24Aは、受付部52によって受け付けられたズームアウト指示に従って動力付与装置20を制御することで第2レンズ群28B及び/又は第3レンズ群28Cを光軸L1に沿って移動させる。
 以上説明したように、撮像装置10では、第1光学系28に入射された被写体光が第1光学系28から第1絞り28Eを介して出射され、第1絞り28Eと第2絞り32Bとの間に中間像S1が形成される。第1光学系28から出射された被写体光が色分離プリズム30によって近赤外光と可視光とに分離される。可視光は、第2光学系32に第2絞り23Bを介して入射される。第2光学系32に入射された可視光は、第2光学系32から出射される。
 中間像が形成されずに行われる撮像は、第1絞り28Eと第2絞り32Bとの間に中間像S1が形成されて行われる撮像に比べ、最も物体側に位置する対物レンズと第1撮像素子14との距離が長くなる。また、中間像が形成されずに行われる撮像は、第1絞り28Eと第2絞り32Bとの間に中間像S1が形成されて行われる撮像に比べ、最も物体側に位置する対物レンズと第2撮像素子16との距離も長くなる。そのため、中間像が形成されない場合と第1絞り28Eと第2絞り32Bとの間に中間像S1が形成される場合とで同一の画角(同一の像高)の撮像が行われるようにするには、前者の場合に用いられる最も物体側に位置する対物レンズのレンズ径を、後者の場合に用いられる第1レンズ群28Aの最も物体側のレンズ(以下、「第1光学系物体側レンズ」とも称する)のレンズ径よりも大きくする必要がある。
 撮像装置10では、第1光学系28によって第1絞り28Eと第2絞り32Bとの間に中間像S1が形成される。具体的には、第1絞り28Eと色分離プリズム30との間に中間像S1が形成される。より具体的には、出射面28D2と入射面36A1との間に中間像S1が形成される。従って、中間像が形成されずに被写体Sが撮像される場合に用いられる最も物体側に位置する対物レンズのレンズ径よりも第1光学系物体側レンズのレンズ径を小さくすることができる。これにより、中間像が形成されない場合に比べ、被写体光が近赤外光と可視光とに分離される場合において、第1光学系28の小型化を図ることができる。
 また、撮像装置10では、第1絞り28Eと第2絞り32Bとの間に中間像S1が形成されるので、周辺光線が光軸L1及び光軸L2の各々と交差する位置、すなわち、共役な位置として2つの位置が定まる。そのため、この2つの位置のうち、物体側の位置に第1絞り28Eが配置され、残りの位置(像側の位置)に第2絞り32Bが配置される。このように、撮像装置10では、何ら中間像が形成されない場合に比べ、第1絞り28Eと第2絞り32Bとを共役な位置に容易に配置することができる。
 また、撮像装置10では、第1絞り28Eとして、被写体光の光量を変更可能な絞りが採用されている。従って、近赤外光の光量のみを変更可能な絞りと可視光の光量のみを変更可能な絞りとを設ける場合に比べ、近赤外光の光量の変更タイミングと可視光の光量の変更タイミングとを簡易な構成で合わせることができる。また、第1絞り28Eが被写体光の光量を変更不可の絞りである場合に比べ、近赤外光の光量を容易に変更することができる。また、第1絞り28Eが被写体光の光量を変更不可の絞りである場合に比べ、近赤外光側被写界深度を容易に調節することができる。
 また、撮像装置10では、第1受光量に応じて第1絞り28Eによる被写体光の光量の変更量が定められる。従って、第1受光量とは無関係に第1絞り28Eによる被写体光の光量の変更量が定められる場合に比べ、第1受光面14Aでの近赤外光の受光量を精度良く調節することができる。
 また、撮像装置10では、第2絞り32Bとして、可視光の光量を変更可能な絞りが採用されている。従って、第2絞り32Bが可視光の光量を変更不可の絞りである場合に比べ、可視光の光量を容易に変更することができる。また、第2絞り32Bが可視光の光量を変更不可の絞りである場合に比べ、可視光側被写界深度を容易に調節することができる。
 また、撮像装置10では、第2受光量に応じて第2絞り32Bによる可視光の光量の変更量が定められる。従って、第2受光量とは無関係に第2絞り32Bによる可視光の光量の変更量が定められる場合に比べ、第2受光面16Aでの可視光の受光量を精度良く調節することができる。
 また、撮像装置10では、第1絞り28E及び第2絞り32Bとして、独立に制御可能な絞りが採用されている。従って、近赤外光の光量の調節と可視光の光量の調節とを独立して行うことができる。
 また、撮像装置10では、第1光学系28として変倍光学系が採用されている。従って、第1光学系28と色分離プリズム30との間に変倍光学系を有する場合に比べ、色分離プリズム30による位置的な制限を受けることなく変倍を行うことができる。
 また、撮像装置10では、第1絞り28Eが、第1光学系28に含まれる第4レンズ群28Dに隣接した箇所に配置されている。なお、第1絞り28Eは、第1光学系28に含まれる第4レンズ群28D内に配置されるようにしてもよい。これにより、第1絞り28Eが、第1光学系28に含まれる第4レンズ群28D内、又は、第1光学系28に含まれる第4レンズ群28Dに光軸L1方向で隣接した箇所以外の箇所に配置されている場合に比べ、第1絞り28Eと第2絞り32Bとの位置関係を維持し易くすることができる。
 また、撮像装置10では、第4レンズ群28Dは、第1光学系28内において最も像側に配置されており、光軸L1方向において第4レンズ群28Dに隣接した箇所に第1絞り28Eが配置されている。なお、第1絞り28Eは、第4レンズ群28D内に配置されるようにしてもよい。これにより、第4レンズ群第4レンズ群第4レンズ群第1絞り28Eと第2絞り32Bとが共役な位置関係を維持し易くすることができる。
 また、撮像装置10では、第1光学系28としてズームレンズが採用されている。従って、ズームレンズが設けられていない場合に比べ、高精度な変倍を実現することができる。
 また、撮像装置10では、第1光学系28に含まれる第1レンズ群28A、第2レンズ群28B、第3レンズ群28C、及び第4レンズ群28Dの各々は、レンズ群である。従って、第1光学系28に代えて、単一のレンズ又は単一のレンズ群から構成された光学系を用いた場合に比べ、第1光学系28を多機能な光学系とすることができる。
 また、撮像装置10では、色分離プリズム30から近赤外光が出射される側に第3光学系34が配置されている。従って、色分離プリズム30から近赤外光が出射される側に光学系が配置されていない場合に比べ、色分離プリズム30から近赤外光が出射される側の光学的特性を調整することができる。
 また、撮像装置10では、中間像S1と色分離プリズム30との間に第4光学系36が配置されている。第4光学系36は、正のパワーを有する光学系なので、被写体光の周辺光線は第4光学系36によって色分離プリズム30内に収束される。従って、中間像S1と色分離プリズム30との間に正のパワーを有する光学系が配置されない場合に比べ、色分離プリズム30の小型化を図ることができる。
 なお、上記実施形態では、一例として図1に示すように、出射面28D2と入射面36A1との間に中間像S1が形成される形態例を挙げて説明したが、本開示の技術はこれに限定されず、中間像が形成される位置を他の位置にしてもよい。一例として図10に示すように、撮像装置100は、撮像装置10に比べ、光分離装置12に代えて光分離装置120を有する点が異なる。光分離装置120は、光分離装置12に比べ、第4光学系36を有しない点、及び第1光学系28に代えて第1光学系128を有する点が異なる。
 第1光学系128は、第1光学系28に比べ、第1レンズ群28Aに代えて第1レンズ群128Aを有する点、第2レンズ群28Bに代えて第2レンズ群128Bを有する点、第3レンズ群28Cに代えて第3レンズ群128Cを有する点、及び第4レンズ群28Dに代えて第4レンズ群128Dを有する点が異なる。このように構成された第1光学系128は、第1光学系28に比べ、中間像S1に代えて中間像S2を形成する点が異なる。中間像S2は、第1光学系128によって、光軸L2上において色分離プリズム30と第2絞り32Bとの間に形成される。
 この場合も、上記実施形態と同様に、中間像が形成されずに被写体Sが撮像される場合に用いられる最も物体側に位置する対物レンズのレンズ径よりも第1光学系物体側レンズのレンズ径を小さくすることができる。これにより、中間像が形成されない場合に比べ、被写体光が近赤外光と可視光とに分離される場合において、第1光学系128の小型化を図ることができる。
 また、撮像装置100では、光軸L2上において色分離プリズム30と第2絞り32Bとの間に中間像S2が形成されるので、上記実施形態と同様に、周辺光線が光軸L1及び光軸L2の各々と交差する位置、すなわち、共役な位置として2つの位置が定まる。そのため、この2つの位置のうち、物体側の位置に第1絞り28Eが配置され、残りの位置(像側の位置)に第2絞り32Bが配置される。このように、撮像装置100では、何ら中間像が形成されない場合に比べ、第1絞り28Eと第2絞り32Bとを共役な位置に容易に配置することができる。
 また、図10に示す例では、光軸L2上において色分離プリズム30と中間像S2との間に光学系が配置されていないが、本開示の技術はこれに限定されず、光軸L2上において色分離プリズム30と中間像S2との間に光学系が配置されるようにしてもよい。一例として図11に示すように、撮像装置200は、撮像装置100に比べ、光分離装置120に代えて光分離装置220を有する点が異なる。光分離装置220は、光分離装置120に比べ、光学系70を有する点が異なる。光学系70は、正のパワーを有する光学系であり、光軸L2上において色分離プリズム30と中間像S2との間に配置されている。光学系70は、複数のレンズからなるレンズ群であるが、本開示の技術はこれに限定されず、正のパワーを有する1枚のレンズ(例えば、凸レンズ)であってもよい。光学系70は、固定レンズであってもよいし、移動レンズであってもよく、光軸L2の中間像S2の位置が微調整可能な光学系であるとよい。
 また、上記実施形態で説明した撮像装置10に代えて、図12に示す撮像装置300を採用してもよい。一例として図12に示す撮像装置300は、撮像装置10に比べ、光分離装置12に代えて光分離装置320を有する点が異なる。光分離装置320は、光分離装置12に比べ、負パワー光学系80を有する点が異なる。負パワー光学系80は、負のパワーを有する光学系であり、光軸L2上において色分離プリズム30と第2絞り32Bとの間に配置されている。負パワー光学系80は、複数のレンズからなるレンズ群であるが、本開示の技術はこれに限定されず、負のパワーを有する1枚のレンズ(例えば、凹レンズ)であってもよい。負パワー光学系80は、固定レンズであってもよいし、移動レンズであってもよい。
 また、上記実施形態では、第2受光面16Aに可視光を結像させることで第2撮像素子16によって被写体Sが撮像され、電子像として可視光画像62が生成される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、電子像として可視光画像62が生成され、かつ、可視光に基づく被写体像を光学像としてユーザに視認させるようにしてもよい。一例として図13に示す撮像装置400は、撮像装置10に比べ、光分離装置12に代えて光分離装置420を有する点、及び接眼窓424を有する点が異なる。光分離装置420は、光分離装置12に比べ、ハーフプリズム422を有する点が異なる。リレーレンズ32Aは、出射面32A1を有する。出射面32A1は、リレーレンズ32Aの最も像側の面である。ハーフプリズム422は、第2受光面16Aと出射面32A1との間に配置されている。ハーフプリズム422には、出射面32A1から出射された可視光が入射され、入射された可視光はハーフプリズム422を透過し、第2受光面16Aに結像される。ハーフプリズム422は、選択反射面422Aを有しており、選択反射面422Aで可視光の一部が反射され、接眼窓424を透過する。これにより、可視光に基づく被写体像が光学像として接眼窓424を介してユーザによって視認される。
 なお、図13に示す例では、ハーフプリズム422を例示したが、これに限らず、ダイクロイックミラー、プリズム、又はハーフミラーを用いてもよい。
 図13に示す例では、可視光に基づく被写体像が光学像としてユーザによって視認される形態例を挙げて説明したが、本開示の技術はこれに限定されず、電子像と光学像とがユーザによって選択的に視認されるようにしてもよい。一例として図14に示すように、撮像装置500は、撮像装置400に比べ、ハイブリッドファインダー(登録商標)15を有する点が異なる。ハイブリッドファインダー15は、光学ビューファインダー(以下、「OVF」と称する)及び電子ビューファインダー(以下、「EVF」と称する)が選択的に使用されるファインダーである。なお、OVFとは、“optical viewfinder”の略称を指す。また、EVFとは、“electronic viewfinder”の略称を指す。
 ハイブリッドファインダー15は、ディスプレイ86を備えており、CPU24Aは、ディスプレイ86に対して各種情報を表示させる。ディスプレイ86の一例としては、液晶ディスプレイが挙げられる。なお、ディスプレイ86は、液晶ディスプレイではなく、有機ELディスプレイなどの他のディスプレイであってもよい。
 ハイブリッドファインダー15は、OVF90及びEVF92を含む。OVF90は、逆ガリレオ式ファインダーであり、接眼レンズ94、プリズム96、及び対物レンズ98を有する。EVF92は、ディスプレイ86、プリズム96、及び接眼レンズ94を有する。
 対物レンズ98の光軸L3に沿って対物レンズ98よりも物体側には、液晶シャッタ101が配置されている。光軸L3に沿って液晶シャッタ101よりも物体側には、選択反射面422Aが配置されており、液晶シャッタ101には、選択反射面422Aで反射された可視光が入射される。液晶シャッタ101は、EVF92を使用する際に、CPU24Aの制御下で、対物レンズ98に可視光が入射しないように遮光する。
 プリズム96は、ディスプレイ86に表示される電子像を反射させて接眼レンズ94に導き、かつ、光分離装置420から液晶シャッタ101及び対物レンズ98を介して入射された可視光を透過させ、接眼レンズ94に導く。ディスプレイ86に表示される電子像としては、近赤外光画像60、可視光画像62、又は合成画像64に基づくライブビュー画像が挙げられる。合成画像64とは、可視光画像62と近赤外光画像60とを合成させることで得られた画像を指す。合成画像64の一例としては、可視光画像62と近赤外光画像60とがアルファブレンディングされることで得られた画像が挙げられる。なお、ディスプレイ86に表示される電子像は、ライブビュー画像に限らず、静止画像であってもよい。
 OVFが使用される場合、CPU24Aは、液晶シャッタ101が非遮光状態になるように制御することで、接眼レンズ94から接眼窓424を介して光学像(可視光に基づく被写体像)が視認できるようにする。また、EVFが使用される場合、CPU24Aは、液晶シャッタ101が遮光状態になるように制御することで、接眼レンズ94からディスプレイ86に表示される電子像のみが視認できるようにする。
 また、上記実施形態では、第1絞り28Eが、第4レンズ群28Dよりも物体側で、光軸L1方向において第4レンズ群28Dに隣接した箇所に配置されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図15に示すように、第1絞り28Eが、光軸L1方向において、第4レンズ群28Dよりも像側で、第4レンズ群28Dに隣接した箇所に配置されていてもよい。
 また、上記実施形態では、非可視光として近赤外光を例示したが、本開示の技術はこれに限定されない。例えば、非可視光は、赤外光であってもよい。この場合、色分離プリズム30によって被写体光が赤外光と可視光とに分離される。第1受光面14Aには、赤外波長域の光である赤外光に感度を有する複数の光電変換素子が配置されており、第1受光面14Aは、赤外光を受光する。そして、第1撮像素子14によって、第1受光面14Aで受光された赤外光に基づいて赤外光画像が生成される。
 なお、ここで言う「赤外光」は、被写体光のうちの約700nm(ナノメートル)よりも長波長側の光である。被写体光のうちの赤外光は、90%(パーセント)程度の透過率で色分離プリズム30を透過し、被写体光のうちの可視光は、約90%を超える反射率で、選択反射面30Aで反射する。
 このように、被写体光が赤外光と可視光とに分離される場合であっても、上記実施形態と同様に、中間像が形成されない場合に比べ、第1光学系28の小型化を図ることができる。
 なお、非可視光は、赤外光又は近赤外光に限らず、可視光の波長域よりも短波長側の光であってもよい。この場合、可視光の波長域よりも短波長側の光に感度を有する感光画素(光電変換素子)が受光面に配置された撮像素子によって受光が行われるようにすればよい。
 また、上記実施形態では、可視光と非可視光とが分離されて撮像される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、被写体光のうちの波長域が異なる2種類の非可視光が分離され、分離されて得られた2種類の非可視光が別個の撮像素子によって撮像されるようにしてもよい。
 また、上記実施形態では、第1光学系28がズームレンズである場合について説明したが、本開示の技術はこれに限定されず、例えば、第1光学系28は、フォーカスレンズを更に含む光学系であってもよい。
 また、上記実施形態では、第1光学系28として4群レンズからなるズームレンズを例例示したが、これはあくまでも一例に過ぎず、本開示の技術はこれに限定されない。例えば、物体側から順に屈折力が、負、正、正の3群ズームであってもよいし、正、負、負、正の4群ズームであってもよいし、物体側から順に屈折力が正、負、正、正、正の5群ズームであってもよく、任意のズームタイプを用いることが可能である。
 また、上記実施形態では、第3光学系34及び第4光学系36を例示したが、本開示の技術はこれに限定されず、第3光学系34及び/又は第4光学系36が無くても本開示の技術は成立する。
 また、上記実施形態では、第1撮像素子14及び第2撮像素子16としてCMOSイメージセンサが採用されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。第1撮像素子14及び/又は第2撮像素子16は、CCDイメージセンサであってもよい。また、赤外光、特に、SWIRについての撮像に対してはInGaAsセンサを用いてもよい。
 また、上記実施形態では、光分離装置12が撮像装置10に適用された形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、光分離装置12は、非可視光を用いた測距と可視光を用いた測距とを行う測距装置に適用されてもよい。
 また、上記実施形態では、制御装置24が、CPU24A、ROM24B、及びRAM24Cを有するコンピュータによって実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、制御装置24は、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、制御装置24は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (18)

  1.  第1絞りを有し、第1波長域光と第2波長域光とを含む物体光が入射され、入射された前記物体光を、前記第1絞りを介して出射する第1光学系と、
     前記第1光学系から出射された前記物体光を前記第1波長域光と前記第2波長域光とに分離する分離光学系と、
     第2絞りを有し、前記分離光学系によって前記物体光が分離されることで得られた前記第2波長域光が前記第2絞りを介して入射され、入射された前記第2波長域光を出射する第2光学系と、を含み、
     前記第1光学系は、前記第1絞りと前記第2絞りとの間に中間像を形成する
     光分離装置。
  2.  前記第1絞りは、前記物体光の光量を変更可能な絞りである請求項1に記載の光分離装置。
  3.  前記分離光学系から出射された前記第1波長域光が受光される第1受光面での前記第1波長域光の受光量に応じて前記第1絞りによる前記物体光の光量の変更量が定められる請求項2に記載の光分離装置。
  4.  前記第2絞りは、前記第2波長域光の光量を変更可能な絞りである請求項1から請求項3の何れか一項に記載の光分離装置。
  5.  前記分離光学系から出射された前記第2波長域光が受光される第2受光面での前記第2波長域光の受光量に応じて前記第2絞りによる前記第2波長域光の光量の変更量が定められる請求項4に記載の光分離装置。
  6.  前記第1絞り及び前記第2絞りの各々は独立に制御可能な絞りである請求項1から請求項5の何れか一項に記載の光分離装置。
  7.  前記第1光学系は、変倍光学系である請求項1から請求項6の何れか一項に記載の光分離装置。
  8.  前記変倍光学系は、変倍の際に光軸方向での位置が固定された少なくとも1つの固定レンズ群を有する光学系であり、
     前記第1絞りは、前記少なくとも1つの固定レンズ群のうちの単一の特定固定レンズ群内、又は、前記光軸方向において前記特定固定レンズ群に隣接した箇所に配置されている請求項7に記載の光分離装置。
  9.  前記特定固定レンズ群は、前記変倍光学系が有するレンズ群のうちの最も像側に配置されている請求項8に記載の光分離装置。
  10.  前記変倍光学系は、ズームレンズである請求項7から請求項9の何れか一項に記載の光分離装置。
  11.  前記第1光学系は、複数のレンズユニットを有し、
     前記複数のレンズユニットの各々は、複数のレンズを有する請求項1から請求項10の何れか一項に記載の光分離装置。
  12.  前記分離光学系の外部において前記分離光学系から前記第1波長域光が出射される側に配置された第3光学系を更に含む請求項1から請求項11の何れか一項に記載の光分離装置。
  13.  前記中間像は、前記分離光学系と前記第2絞りとの間に形成される請求項1から請求項12の何れか一項に記載の光分離装置。
  14.  前記中間像は、前記第1絞りと前記分離光学系との間に形成される請求項1から請求項12の何れか一項に記載の光分離装置。
  15.  前記中間像と前記分離光学系との間に配置され、正のパワーを有する第4光学系を更に含む請求項14に記載の光分離装置。
  16.  前記第1波長域光は、非可視光であり、
     前記第2波長域光は、可視光である請求項1から請求項15の何れか一項に記載の光分離装置。
  17.  前記非可視光は、近赤外光である請求項16に記載の光分離装置。
  18.  請求項1から請求項17の何れか一項に記載の光分離装置と、
     前記光分離装置に含まれる前記第1光学系によって前記第1波長域光が結像される第1撮像素子と、
     前記光分離装置に含まれる前記第2光学系によって前記第2波長域光が結像される第2撮像素子と、
     を含む撮像装置。
PCT/JP2020/018682 2019-05-31 2020-05-08 光分離装置及び撮像装置 WO2020241205A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-102963 2019-05-31
JP2019102963 2019-05-31

Publications (1)

Publication Number Publication Date
WO2020241205A1 true WO2020241205A1 (ja) 2020-12-03

Family

ID=73554057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018682 WO2020241205A1 (ja) 2019-05-31 2020-05-08 光分離装置及び撮像装置

Country Status (1)

Country Link
WO (1) WO2020241205A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024010089A1 (ja) * 2022-07-07 2024-01-11 株式会社ニコン 光学モジュール、光学装置、および光学モジュールの製造方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048696A (ja) * 1996-07-30 1998-02-20 Canon Inc 撮像装置
JP2000098476A (ja) * 1998-09-28 2000-04-07 Canon Inc 光学系
JP2009157164A (ja) * 2007-12-27 2009-07-16 Konica Minolta Opto Inc 投影装置
WO2010087046A1 (ja) * 2009-01-30 2010-08-05 興和株式会社 眼科撮影装置
JP2017068089A (ja) * 2015-09-30 2017-04-06 キヤノン株式会社 結像光学系及びそれを備える画像読取装置
JP2018143433A (ja) * 2017-03-03 2018-09-20 株式会社トプコン 眼科用観察装置及びその作動方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048696A (ja) * 1996-07-30 1998-02-20 Canon Inc 撮像装置
JP2000098476A (ja) * 1998-09-28 2000-04-07 Canon Inc 光学系
JP2009157164A (ja) * 2007-12-27 2009-07-16 Konica Minolta Opto Inc 投影装置
WO2010087046A1 (ja) * 2009-01-30 2010-08-05 興和株式会社 眼科撮影装置
JP2017068089A (ja) * 2015-09-30 2017-04-06 キヤノン株式会社 結像光学系及びそれを備える画像読取装置
JP2018143433A (ja) * 2017-03-03 2018-09-20 株式会社トプコン 眼科用観察装置及びその作動方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024010089A1 (ja) * 2022-07-07 2024-01-11 株式会社ニコン 光学モジュール、光学装置、および光学モジュールの製造方法

Similar Documents

Publication Publication Date Title
JP5031475B2 (ja) ズームレンズ及びそれを有する撮影システム
EP1487199B1 (en) Visible and infrared light photographing lens system
JP4838557B2 (ja) ズームレンズ及びそれを有する撮像装置
US9264612B2 (en) Imaging apparatus and photographing support method
JP5723488B2 (ja) カメラおよびその動作制御方法
JP2009198722A (ja) ズームレンズ及びそれを用いた撮像装置
JP2007214964A (ja) 映像表示装置
JP2010160312A (ja) 可視光・赤外光撮影用レンズアダプタ
CN110998228A (zh) 测距照相机
EP1890482B1 (en) Lens device
WO2020241205A1 (ja) 光分離装置及び撮像装置
WO2013129221A1 (ja) 補正光学系、アタッチメント、防水レンズポート、防水カメラケース、光学系、及び、補正光学系の製造方法
JP6330474B2 (ja) 画像処理装置、画像処理装置の制御方法、撮像装置
JP4693709B2 (ja) 画像処理装置及び画像処理方法
JP2011237638A (ja) 撮影装置
JP2010102281A (ja) 可視光・赤外光撮影用レンズアダプタ
JP2011182041A (ja) 撮像装置
KR20230003582A (ko) 광학 렌즈, 렌즈 모듈 및 단말
JP2004354714A (ja) 可視光・赤外光撮影用レンズシステム
US8106992B2 (en) Automatic focusing system using a magnification or reduction optical system
WO2020241326A1 (ja) 撮像装置、撮像方法、及びプログラム
WO2021171693A1 (ja) レンズ制御装置、撮像装置、レンズ制御装置の動作方法、及びプログラム
JP2014222854A (ja) 撮像装置、その制御方法、及びプログラム
JP2005128485A (ja) 可視光・赤外光撮影システム
WO2022163080A1 (ja) 観察装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20814180

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20814180

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP