WO2022137807A1 - レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム - Google Patents

レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム Download PDF

Info

Publication number
WO2022137807A1
WO2022137807A1 PCT/JP2021/040168 JP2021040168W WO2022137807A1 WO 2022137807 A1 WO2022137807 A1 WO 2022137807A1 JP 2021040168 W JP2021040168 W JP 2021040168W WO 2022137807 A1 WO2022137807 A1 WO 2022137807A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
image
image sensor
shift
light
Prior art date
Application number
PCT/JP2021/040168
Other languages
English (en)
French (fr)
Inventor
敏浩 青井
太郎 浅見
臣一 下津
康一 田中
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022571925A priority Critical patent/JPWO2022137807A1/ja
Priority to CN202180086529.8A priority patent/CN116648666A/zh
Publication of WO2022137807A1 publication Critical patent/WO2022137807A1/ja
Priority to US18/337,033 priority patent/US20230333401A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/06Roll-film cameras adapted to be loaded with more than one film, e.g. with exposure of one or the other at will
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Definitions

  • the technique of the present disclosure relates to a lens device, an image pickup device, an operation method of the lens device, an operation method of the image pickup device, and a program.
  • Japanese Patent Application Laid-Open No. 2017-444878 acquires image pickup means for photographing a subject through an image pickup optical system, first and second image shake correction means for correcting image shake of the image of the subject, and shake detection signals.
  • the first and second image shake correction means are controlled to correct the image shake, and the first or second image shake correction means or the first and second image shake correction means are moved.
  • an image pickup apparatus including a control means for controlling pixel shift to acquire a plurality of images by the image pickup means.
  • At least a part of a lens group or a lens constituting a photographing lens is a movable lens group, and the control unit moves the movable lens group so as to have a component in a direction orthogonal to the optical axis.
  • a method for acquiring an image is disclosed, which comprises a step of acquiring two or more images and a step of synthesizing two or more images to generate one image.
  • Japanese Patent Application Laid-Open No. 2000-13670 describes an image pickup means, a shake detection means for detecting runout, an image shake correction means for correcting image shake based on the output of the shake detection means, and an image position on the image pickup means.
  • Pixel shift means for minute displacement using image shake correction means, and image synthesis means for synthesizing high-resolution images based on a plurality of image data captured by shifting the position of an image on the image pickup means by the pixel shift means.
  • the first shooting mode for correcting image shake and the second shooting mode for synthesizing high-resolution images can be selected, and the image shake correction is performed according to the selected shooting mode.
  • An image pickup apparatus comprising: a control means for changing the drive control of the means is disclosed.
  • One embodiment according to the technique of the present disclosure is, for example, a lens device, an image pickup device, a method of operating a lens device, which can move a moving lens by a moving amount according to a wavelength band of light transmitted through the moving lens.
  • a method of operating an image pickup device and a program are provided.
  • the first aspect according to the technique of the present disclosure is a lens device provided in an image pickup apparatus main body having an image sensor, which includes a processor, a memory connected to or built in the processor, and a moving lens, and emits incident light.
  • the processor is provided with a lens to form an image on an image sensor and a drive mechanism for moving the moving lens by applying power to the moving lens along a coordinate plane intersecting the optical axis of the lens.
  • it is a lens device that controls to change the amount of movement of the moving lens based on the wavelength band of light transmitted through the moving lens.
  • a second aspect according to the technique of the present disclosure is a first lens, a second lens, a first drive mechanism for moving the first lens along a coordinate plane, and a second lens moving along the coordinate plane.
  • a lens device according to the first aspect comprising a second drive mechanism, wherein at least one of the first lens and the second lens is a moving lens.
  • a third aspect of the technique of the present disclosure is that the processor moves the first lens to the first drive mechanism in a direction in which the image blur obtained by forming light on the image sensor is corrected.
  • the lens device according to the second aspect which controls and controls the second drive mechanism to move the second lens in the direction of shifting the image.
  • a fourth aspect of the technique of the present disclosure is that the processor shifts the image to a position where the image shifts with respect to the second drive mechanism at a pitch equal to or higher than the pixel pitch of the image sensor or a pitch lower than the pixel pitch of the image sensor. 2
  • This is a lens device according to a third aspect, which controls movement of a lens.
  • a fifth aspect according to the technique of the present disclosure is that the shift amount of the image on the light receiving surface of the image sensor with respect to the movement of the second lens with the unit movement amount is the movement of the image sensor with respect to the movement of the first lens with the unit movement amount.
  • the lens device according to the third aspect or the fourth aspect which is smaller than the blur correction amount of the image on the light receiving surface.
  • a sixth aspect according to the technique of the present disclosure is to set the shift amount of the central ray passing through the second lens after movement on the optical axis on the light receiving surface of the image sensor with respect to the movement of the second lens by the unit movement amount.
  • the shift amount of the peripheral light rays passing through the second lens after movement other than on the optical axis with respect to the movement of the second lens by the unit movement amount is S2, 0.8 ⁇
  • the lens device according to any one of the third to fifth aspects, wherein the relationship of S2 / S1 ⁇ 1.2 is established.
  • a seventh aspect according to the technique of the present disclosure further comprises a zoom lens, wherein the first lens and the second lens are arranged closer to the image sensor than the zoom lens, according to the second to sixth aspects. It is a lens device according to any one.
  • Eighth aspect according to the technique of the present disclosure is any one of the second to sixth aspects, which is arranged closer to the subject than the image sensor and includes an optical filter that transmits near-infrared light contained in the light. It is a lens device according to one.
  • a ninth aspect according to the technique of the present disclosure further comprises a focus lens, wherein the first lens and the second lens are arranged closer to the image sensor than the focus lens, according to the second to eighth aspects. It is a lens device according to any one.
  • a tenth aspect according to the technique of the present disclosure is any one of the second to ninth aspects, further comprising a diaphragm, wherein the first lens and the second lens are arranged closer to the image sensor than the diaphragm. It is a lens device according to one.
  • the eleventh aspect according to the technique of the present disclosure is a lens device according to any one of the first to tenth aspects, further comprising a switching mechanism for switching the wavelength band of light transmitted through the moving lens.
  • a twelfth aspect according to the technique of the present disclosure is an optical separation mechanism that separates light into first light and second light, a first optical lens through which the first light is transmitted, and a second light through which the second light is transmitted.
  • a lens device according to any one of the first to eleventh embodiments, comprising an optical lens, wherein at least one of the first optical lens and the second optical lens is a moving lens.
  • a thirteenth aspect according to the technique of the present disclosure includes a processor, a memory connected to or built in the processor, an image sensor, a moving lens, and a lens that forms an image of incident light on the image sensor, and the light of the lens.
  • a drive mechanism for moving the moving lens by applying power to the moving lens along a coordinate plane intersecting the axis is provided, and the processor has a drive mechanism for the wavelength band of light transmitted through the moving lens.
  • This is an image pickup device that controls to change the amount of movement of the moving lens based on the above.
  • the processor in the fourteenth aspect of the technique of the present disclosure, light is imaged on the image sensor at a pitch equal to or higher than the pixel pitch of the image sensor or a pitch lower than the pixel pitch of the image sensor with respect to the drive mechanism.
  • the image sensor By controlling the movement of the moving lens to the position where the image obtained is shifted, the image sensor is made to take an image each time the image is shifted, and the images of a plurality of frames obtained by the image are combined. It is an image pickup apparatus which concerns on 13th aspects.
  • a fifteenth aspect according to the technique of the present disclosure includes a moving lens, a lens that forms an image of incident light on an image sensor of an image pickup apparatus, and a moving lens along a coordinate plane that intersects the optical axis of the lens.
  • a method of operating a lens device including a drive mechanism for moving a moving lens by applying power to the drive mechanism.
  • a method of operating a lens device including controlling the amount to be changed.
  • a sixteenth aspect of the technique of the present disclosure comprises an image sensor, a moving lens, a lens that forms an image of incident light on the image sensor, and a moving lens along a coordinate plane that intersects the optical axis of the lens. It is an operation method of an image pickup device including a drive mechanism for moving a moving lens by applying power to the drive mechanism, and the movement of the moving lens is based on the wavelength band of light transmitted through the moving lens with respect to the drive mechanism. It is a method of operating an image pickup apparatus, which includes performing control for changing the amount.
  • a seventeenth aspect according to the technique of the present disclosure includes a moving lens, a lens that forms an image of incident light on an image sensor of an image pickup apparatus, and a moving lens along a coordinate plane that intersects the optical axis of the lens.
  • a moving lens based on the wavelength band of light transmitted through the moving lens to a computer applied to a lens device including a driving mechanism for moving the moving lens by applying power to the driving mechanism. It is a program for executing a process including controlling to change the movement amount of the lens.
  • An eighteenth aspect of the technique of the present disclosure comprises an image sensor, a moving lens, a lens that forms an image of incident light on the image sensor, and a moving lens along a coordinate plane that intersects the optical axis of the lens.
  • a moving lens based on the wavelength band of light transmitted through the moving lens to a computer applied to an image pickup apparatus equipped with a driving mechanism for moving the moving lens by applying power to the driving mechanism. It is a program for executing a process including controlling to change the movement amount of the lens.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU refers to the abbreviation of "Graphics Processing Unit”.
  • NVM is an abbreviation for "Non-Volatile Memory”.
  • RAM is an abbreviation for "RandomAccessMemory”.
  • IC refers to the abbreviation of "Integrated Circuit”.
  • ASIC is an abbreviation for "Application Specific Integrated Circuit”.
  • PLD is an abbreviation for "Programmable Logic Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • SoC is an abbreviation for "System-on-a-chip”.
  • SSD is an abbreviation for "Solid State Drive”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • SRAM is an abbreviation for "Static Random Access Memory”.
  • I / F refers to the abbreviation of "Interface”.
  • UI is an abbreviation for "User Interface”.
  • USB is an abbreviation for "Universal Serial Bus”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • LAN is an abbreviation for "Local Area Network”.
  • WAN is an abbreviation for "Wide Area Network”.
  • BPF is an abbreviation for "Band Pass Filter”.
  • Ir refers to the abbreviation of "Infrared Rays”.
  • vertical means, in addition to perfect verticality, an error generally allowed in the technical field to which the technique of the present disclosure belongs, to the extent that it does not contradict the purpose of the technique of the present disclosure. Refers to the vertical in the sense including the error of.
  • horizontal means, in addition to the perfect horizontal, an error generally allowed in the technical field to which the technique of the present disclosure belongs, to the extent that it does not contradict the purpose of the technique of the present disclosure. Refers to the horizontal in the sense including the error of.
  • parallel means, in addition to perfect parallelism, an error generally allowed in the technical field to which the technique of the present disclosure belongs, to the extent that it does not contradict the purpose of the technique of the present disclosure. Refers to parallelism in the sense including the error of.
  • orthogonality is an error generally allowed in the technical field to which the technique of the present disclosure belongs, in addition to the perfect orthogonality, and is not contrary to the purpose of the technique of the present disclosure. It refers to the orthogonality in the sense including the error of.
  • match is an error generally allowed in the technical field to which the technique of the present disclosure belongs, in addition to the perfect match, to the extent that it does not contradict the purpose of the technique of the present disclosure.
  • equal spacing is an error generally allowed in the technical field to which the technique of the present disclosure belongs, in addition to the perfect equal spacing, which is contrary to the purpose of the technique of the present disclosure. It refers to equal intervals in the sense that it includes errors to the extent that it does not occur.
  • the surveillance system S includes a surveillance camera 10 and a management device 11.
  • the surveillance camera 10 is an example of the "imaging device" according to the technique of the present disclosure.
  • the surveillance camera 10 is installed on a pillar or wall inside or outside the room, captures a surveillance target as a subject, and generates a moving image by capturing the image.
  • the moving image includes a multi-frame image obtained by imaging.
  • the surveillance camera 10 transmits the moving image obtained by imaging to the management device 11 via the communication line 12.
  • the management device 11 receives the moving image transmitted by the surveillance camera 10, displays the received moving image on the display 13, or stores the received moving image in the storage device 14.
  • the X-axis shown in FIG. 1 corresponds to the pitch axis of the surveillance camera 10, the Y-axis corresponds to the yaw axis of the surveillance camera 10, and the Z-axis corresponds to the roll axis of the surveillance camera 10.
  • the direction along the X-axis is referred to as the X-axis direction
  • the direction along the Y-axis is referred to as the Y-axis direction
  • the direction along the Z-axis is referred to as the Z-axis direction.
  • the X-axis direction, the Y-axis direction, and the Z-axis direction are orthogonal to each other.
  • the XY coordinate planes used in the following description are defined in the X-axis direction and the Y-axis direction.
  • the surveillance camera 10 includes a surveillance camera main body 20 and a lens device 70.
  • the surveillance camera main body 20 is an example of the “imaging apparatus main body” according to the technique of the present disclosure.
  • the surveillance camera body 20 includes a lens mount 22.
  • the lens device 70 is separate from the surveillance camera main body 20, and is detachably attached to the lens mount 22.
  • the lens device 70 is provided on the surveillance camera body 20 by being attached to the lens mount 22.
  • the surveillance camera body 20 includes an image sensor 24.
  • the image sensor 24 is, for example, a CMOS image sensor, which photoelectrically converts the received light and outputs an electric signal corresponding to the received light.
  • the CMOS image sensor is merely an example, and the image sensor 24 may be an image sensor whose operation method is different from that of a CMOS image sensor such as a CCD image sensor.
  • the image sensor 24 has a light receiving surface 24A.
  • the image pickup region light incident on the lens device 70 is imaged on the light receiving surface 24A by the lens device 70.
  • An image is obtained by forming an image of the light in the imaging region on the light receiving surface 24A.
  • a plurality of photodiodes are arranged in a matrix on the light receiving surface 24A. Each photodiode receives light in the imaging region.
  • the image sensor 24 captures an imaging region by receiving light in the imaging region.
  • the plurality of photodiodes include a silicon photodiode that is sensitive to visible light and an indium gallium arsenide photodiode that is sensitive to near-infrared light.
  • the image sensor 24 takes an image of each of the visible light and the near-infrared light included in the image pickup region light imaged on the light receiving surface 24A.
  • the lens device 70 has an optical axis OA.
  • the optical axis OA is an axis that passes through the center of the light receiving surface 24A and is perpendicular to the light receiving surface 24A.
  • the optical axis OA is parallel to the Z axis.
  • the lens device 70 includes a focus lens 72, a zoom lens 74, an aperture 76, a filter unit 78, a blur correction lens 80, and a shift lens 82.
  • the optical axis OA is an axis that passes through the center of each lens of the focus lens 72, the zoom lens 74, the blur correction lens 80, and the shift lens 82.
  • the optical axis OA is also the optical axis of each lens of the focus lens 72, the zoom lens 74, the blur correction lens 80, and the shift lens 82.
  • a focus lens 72, a zoom lens 74, an aperture 76, a filter unit 78, a blur correction lens 80, and a shift lens 82 are arranged in order from the subject side to the image side along the optical axis OA.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the zoom lens 74.
  • the blur correction lens 80 and the shift lens 82 are arranged on the image sensor 24 side of the focus lens 72 as an example.
  • the blur correction lens 80 and the shift lens 82 are arranged on the image sensor 24 side of the aperture 76 as an example.
  • the filter unit 78 is arranged closer to the subject than the image sensor 24.
  • the filter unit 78 is arranged between the aperture 76 and the blur correction lens 80.
  • the blur correction lens 80 is an example of the "moving lens” and the “first lens” according to the technique of the present disclosure
  • the shift lens 82 is an example of the "moving lens” and the “second lens” according to the technique of the present disclosure.
  • a plurality of lenses including a focus lens 72, a zoom lens 74, a blur correction lens 80, and a shift lens 82 are examples of "lenses” according to the technique of the present disclosure.
  • the optical axis OA is an example of the "optical axis of the lens” according to the technique of the present disclosure
  • the XY coordinate plane is an example of the "coordinate plane intersecting the optical axis of the lens” according to the technique of the present disclosure. ..
  • the X-axis direction is an example of the "first direction” according to the technique of the present disclosure
  • the Y-axis direction is an example of the "second direction intersecting the first direction” according to the technique of the present disclosure.
  • the image pickup region light is incident on the focus lens 72.
  • the focus lens 72 guides the incident image pickup region light to the zoom lens 74.
  • the zoom lens 74 comprises a lens group having a plurality of lenses that can move along the optical axis OA, and is used for zooming in the imaging region.
  • the aperture 76 has an opening 76A.
  • the imaging region light guided by the zoom lens 74 passes through the aperture 76A.
  • the diaphragm 76 is a movable diaphragm whose diameter of the opening 76A can be changed. That is, the amount of light in the imaging region is changed by the aperture 76.
  • the image pickup region light transmitted through the diaphragm 76 is incident on the filter unit 78.
  • the filter unit 78 has a plurality of optical filters having translucency, and is included in the image pickup region light by switching the optical filter that transmits light among the plurality of optical filters. It selectively transmits light in a plurality of wavelength bands (for example, visible light and near-infrared light in different wavelength bands within the near-infrared wavelength band).
  • the filter unit 78 is an example of the “switching mechanism for switching the wavelength band of light transmitted through the lens” according to the technique of the present disclosure.
  • the blur correction lens 80 is a lens for correcting the blur of the image obtained by forming the image pickup region light on the image sensor 24 as described later, and the shift lens 82 receives the image on the light receiving surface of the image sensor 24. It is a lens for shifting along 24A.
  • the blur correction lens 80 and the shift lens 82 form a master lens group.
  • the master lens group may include a lens other than the blur correction lens 80 and the shift lens 82.
  • the image pickup region light incident on the shift lens 82 is imaged on the light receiving surface 24A.
  • the image pickup region light incident on the lens device 70 is guided to the image sensor 24 by the plurality of lenses provided in the lens device 70, and is imaged on the light receiving surface 24A of the image sensor 24.
  • Each of the focus lens 72, the zoom lens 74, the blur correction lens 80, and the shift lens 82 may be a single lens or a lens group having a plurality of lenses.
  • the lens device 70 may include other lenses in addition to the focus lens 72, the zoom lens 74, the blur correction lens 80, and the shift lens 82.
  • the order of the focus lens 72, the zoom lens 74, the aperture 76, the filter unit 78, the blur correction lens 80, and the shift lens 82 may be other than the above.
  • the filter unit 78 includes a disk 84.
  • the disk 84 is provided with an Ir cut filter 86, a first BPF88A, a second BPF88B, a third BPF88C, and a fourth BPF88D as a plurality of optical filters at equal intervals along the circumferential direction.
  • the Ir cut filter 86, the first BPF88A, the second BPF88B, the third BPF88C, and the fourth BPF88D are referred to as an optical filter unless it is necessary to separately explain them.
  • the first BPF88A, the second BPF88B, the third BPF88C, and the fourth BPF88D are referred to as BPF88, unless it is necessary to explain them separately.
  • the filter unit 78 selectively inserts and removes a plurality of optical filters in the lens device 70 with respect to the optical path of the imaging region light (hereinafter, simply referred to as “optical path”) in the lens device 70 by a turret method. Specifically, by rotating the filter unit 78 along the circumferential direction (for example, the direction of the arc dashed arrow shown in FIG. 3), the Ir cut filter 86, the first BPF88A, the second BPF88B, the third BPF88C, and the fourth BPF88D are It is selectively inserted and removed with respect to the optical path (in the example shown in FIG. 3, the optical axis OA). As a result, the Ir cut filter 86, the first BPF88A, the second BPF88B, the third BPF88C, and the fourth BPF88D transmit light in different wavelength bands.
  • the optical axis OA penetrates the center of the optical path, and the center of the optical filter inserted into the optical path coincides with the center of the light receiving surface 24A.
  • the optical axis OA penetrates the center of the Ir cut filter 86, and the center of the Ir cut filter 86 and the center of the light receiving surface 24A are one. I am doing it.
  • the Ir cut filter 86 is an optical filter that cuts infrared rays and transmits only light other than infrared rays.
  • BPF88 is an optical filter that transmits near-infrared light.
  • the first BPF88A, the second BPF88B, the third BPF88C, and the fourth BPF88D transmit near-infrared light having different wavelength bands.
  • the first BPF88A is an optical filter corresponding to a band near 1000 nm (nanometers). That is, the first BPF88A transmits only near-infrared light in the band near 1000 nm.
  • the second BPF88B is an optical filter corresponding to a band near 1250 nm. That is, the second BPF88B transmits only near-infrared light in the band near 1250 nm.
  • the third BPF88C is an optical filter corresponding to a band near 1550 nm. That is, the third BPF88C transmits only near-infrared light in the band near 1550 nm.
  • the fourth BPF88D is an optical filter corresponding to a band near 2150 nm.
  • each band mentioned here includes an error that is generally allowed in the technical field to which the technique of the present disclosure belongs and is within a range that does not deviate from the purpose of the technique of the present disclosure.
  • each wavelength band mentioned here is merely an example, and may be different wavelength bands.
  • the image sensor 24 has a light receiving unit 26 and a color filter unit 28.
  • the light receiving unit 26 has a plurality of first light receiving elements 30 and a plurality of second light receiving elements 32.
  • An example of the first light receiving element 30 is an indium gallium arsenic photodiode.
  • An example of the second light receiving element 32 is a silicon photodiode.
  • a color filter unit 28 is arranged on the plurality of first light receiving elements 30 and the plurality of second light receiving elements 32.
  • the color filter unit 28 has an Ir filter, an R filter, a G filter, and a B filter.
  • the Ir filter is a filter that transmits light of a near infrared (Ir) component.
  • the R filter is a filter that transmits light of the red (R) component.
  • the G filter is a filter that transmits light of a green (G) component.
  • the B filter is a filter that transmits light of the blue (B) component.
  • the filter arranged in the color filter unit 28 can be freely changed, and all of them may be filters that transmit light of the Ir component.
  • the first light receiving element 30 is a light receiving element having sensitivity to the light of the Ir component.
  • the second light receiving element 32 is roughly classified into a light receiving element 32R having sensitivity to light of R component, a light receiving element 32G having sensitivity to light of G component, and a light receiving element 32B having sensitivity to light of B component. ..
  • An Ir filter is arranged on the first light receiving element 30.
  • An R filter is arranged on the light receiving element 32R.
  • a G filter is arranged on the light receiving element 32G.
  • a B filter is arranged on the light receiving element 32B.
  • a filter for blocking near-infrared light is further arranged in each of the light receiving elements 32R, 36G and 36B.
  • the plurality of first light receiving elements 30 receive the near-infrared light transmitted through any of the plurality of BPF 88s, and the near-infrared light is based on the received near-infrared light.
  • the image 62 is generated and output, and the plurality of second light receiving elements 32 receive the visible light transmitted through the Ir cut filter 86, and generate and output the visible light image 60 based on the received visible light.
  • the surveillance camera main body 20 includes a controller 40 and a UI system device 50.
  • the controller 40 controls the operation of the surveillance camera body 20.
  • the controller 40 includes a CPU 42, an NVM 44, and a RAM 46.
  • the CPU 42, NVM 44, and RAM 46 are connected to the bus 48.
  • NVM44 stores various parameters and various programs.
  • An example of the NVM44 is an EEPROM (for example, a flash type EEPROM).
  • EEPROM is just an example of NVM44.
  • the NVM 44 may be any non-volatile storage device such as SSD and / or HDD.
  • the RAM 46 temporarily stores various information and is used as a work memory.
  • An example of the RAM 46 is a DRAM.
  • DRAM is just an example of RAM 46.
  • the RAM 46 may be a SRAM and may be any volatile storage device.
  • the CPU 42 reads a necessary program from the NVM 44 and executes the read program on the RAM 46.
  • the CPU 42 executes various processes according to a program executed on the RAM 46.
  • the UI device 50 is also connected to the bus 48. Under the control of the CPU 42, the UI system device 50 receives an instruction given by the user and presents various information obtained by being processed by the surveillance camera 10 to the user.
  • the surveillance camera main body 20 includes an image sensor driver 52, a signal processing device 54, a blur amount detection sensor 56, and a communication I / F 58.
  • the image sensor driver 52, the signal processing device 54, the blur amount detection sensor 56, and the communication I / F 58 are connected to the bus 48.
  • the image sensor 24 is located on the optical axis OA after the shift lens 82, that is, on the image side of the shift lens 82.
  • the image sensor 24 in a state where the Ir cut filter 86 is arranged on the optical axis OA, the image sensor 24 has an image pickup region based on the visible light imaged on the light receiving surface 24A by the shift lens 82.
  • the visible light image 60 shown in FIG. 4 is generated by imaging the image, and the generated visible light image 60 is output to the subsequent stage.
  • the visible light image 60 is an image showing an image pickup region by visible light.
  • the image sensor 24 captures an image pickup region based on the near-infrared light imaged on the light receiving surface 24A by the shift lens 82.
  • the near-infrared light image 62 shown in FIG. 4 is generated, and the generated near-infrared light image 62 is output to the subsequent stage.
  • the near-infrared light image 62 is an image showing an image pickup region by near-infrared light. In the following, when it is not necessary to distinguish between the near-infrared light image 62 and the visible light image 60, they are referred to as “captured images” without reference numerals.
  • an image sensor driver 52 and a signal processing device 54 are connected to the image sensor 24.
  • the image sensor driver 52 outputs a timing control signal to the image sensor 24 under the control of the CPU 42.
  • the timing control signal is a signal that controls imaging by the image sensor 24.
  • the frame rate of the image taken by the image sensor 24 is defined by the timing control signal.
  • the timing control signal includes a vertical synchronization signal and a horizontal synchronization signal.
  • the vertical synchronization signal is a signal that defines the timing at which transmission of an analog image for one frame is started.
  • the horizontal synchronization signal is a signal that defines the timing at which the output of an analog image for one horizontal line is started.
  • the image sensor 24 starts outputting the captured image to the signal processing device 54 in frame units according to the vertical synchronization signal input from the image sensor driver 52. Further, the image sensor 24 starts outputting the captured image to the signal processing device 54 in units of horizontal lines according to the horizontal synchronization signal input from the image sensor driver 52.
  • the signal processing device 54 Under the control of the CPU 42, the signal processing device 54 performs signal processing such as demosaic processing, noise removal processing, gradation correction processing, and color correction processing on the captured image input from the image sensor 24.
  • the captured image after signal processing is output to the CPU 42 by the signal processing device 54.
  • the CPU 42 stores the captured image input from the signal processing device 54 in a predetermined storage area (for example, NVM 44 and / or RAM 46, etc.).
  • the blur amount detection sensor 56 detects, for example, the amount of blur of the surveillance camera 10 shown in FIG. 2 (hereinafter, also simply referred to as “shake amount”).
  • the blurring of the surveillance camera 10 refers to a phenomenon in which the positional relationship between the optical axis OA and the light receiving surface 24A fluctuates in the surveillance camera 10.
  • the image is blurred.
  • an image obtained by being imaged by an image sensor and / or an optical image obtained by being imaged on the light receiving surface 24A hereinafter, simply "image” or "subject”). Also called “image”).
  • image blur is a phenomenon in which the subject image deviates from the reference position due to the tilt of the optical axis OA due to the vibration phenomenon, that is, the subject is caused by the relative movement of the optical axis OA with respect to the subject. It refers to the phenomenon that the image deviates from the reference position.
  • the vibration phenomenon is a lens device 70 in which vibration is generated from the outside of the surveillance camera 10 (for example, a hand, a wind, and / or a vehicle, etc.) and / or the inside of the surveillance camera 10 (for example, a motor mounted on the surveillance camera 10). Refers to a phenomenon in which the lens device 70 vibrates when transmitted to the camera.
  • the optical axis OA is tilted means, for example, with respect to the reference axis (for example, the optical axis OA before the vibration phenomenon occurs (that is, the optical axis OA when the surveillance camera 10 is stationary)). It means that the optical axis OA is tilted.
  • the "reference position” refers to, for example, the position of the subject image obtained in a state where vibration is not applied to the lens device 70 (for example, the position of the subject image in the light receiving surface 24A).
  • the shake amount detection sensor 56 shown in FIG. 5 is, for example, a gyro sensor.
  • the gyro sensor detects the amount of rotational shake around each of the X-axis, Y-axis, and Z-axis.
  • the shake amount detection sensor 56 converts the amount of rotational shake around the X-axis and the amount of rotational shake around the Y-axis detected by the gyro sensor into the amount of shake in a two-dimensional plane parallel to the X-axis and the Y-axis. By converting, the amount of blurring of the surveillance camera 10 is detected.
  • the meaning of parallelism in the present embodiment includes not only the meaning of perfect parallelism but also the meaning of substantially parallelism including errors allowed in design and manufacturing.
  • the gyro sensor is mentioned as an example of the shake amount detection sensor 56, but this is only an example, and the shake amount detection sensor 56 may be an acceleration sensor.
  • the accelerometer detects the amount of blurring in a two-dimensional plane parallel to the X-axis and the Y-axis.
  • the blur amount detection sensor 56 outputs the detected blur amount to the CPU 42.
  • the amount of blur is detected by a physical sensor called the blur amount detection sensor 56
  • the technique of the present disclosure is not limited to this.
  • the motion vector obtained by comparing the captured images stored in the NVM 44 or the RAM 46 in chronological order may be used as the amount of blur.
  • the amount of blur finally used may be derived based on the amount of blur detected by the physical sensor and the motion vector obtained by the image processing.
  • the communication I / F 58 is, for example, a network interface, and controls transmission of various information to and from the management device 11 via the network.
  • An example of a network is a WAN such as the Internet or a public communication network.
  • the communication I / F 58 controls communication between the surveillance camera 10 shown in FIG. 1 and the management device 11.
  • the lens device 70 includes a controller 90.
  • the controller 90 controls the operation of the lens device 70.
  • the controller 90 includes a CPU 92, an NVM 94, and a RAM 96.
  • the controller 90 is an example of a "computer applied to a lens device"
  • the CPU 92 is an example of a “processor” according to the technique of the present disclosure
  • the RAM 96 is an example of the "memory” according to the technique of the present disclosure. This is just one example.
  • the CPU 92, NVM 94, and RAM 96 are connected to the bus 98.
  • the lens device 70 when the lens device 70 is attached to the lens mount 22 of the surveillance camera body 20, a connector (not shown) provided on the surveillance camera body 20 and a connector provided on the lens device 70 are provided. (Not shown) is connected. Then, the CPU 42 of the surveillance camera body 20 shown in FIG. 5 and the CPU 92 of the lens device 70 shown in FIG. 6 are communicably connected via a connection path including the connector of the surveillance camera body 20 and the connector of the lens device 70. Will be done. The CPU 92 of the lens device 70 controls the operation of the lens device 70 according to an instruction given from the CPU 42 of the surveillance camera main body 20.
  • NVM94 stores various parameters and various programs.
  • An example of the NVM94 is an EEPROM (for example, a flash type EEPROM).
  • EEPROM is just an example of NVM94.
  • the NVM94 may be any non-volatile storage device such as SSD and / or HDD.
  • the RAM 96 temporarily stores various information and is used as a work memory.
  • An example of RAM 96 is DRAM.
  • DRAM is just an example of RAM 96.
  • the RAM 96 may be a SRAM, and may be any volatile storage device.
  • the CPU 92 reads a necessary program from the NVM 94 and executes the read program on the RAM 96.
  • the CPU 92 executes various processes according to a program executed on the RAM 96.
  • the "various programs" referred to here also include an imaging support processing program 100 (see FIG. 9) described later.
  • the triaxial directions orthogonal to each other are defined in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the X-axis direction, the Y-axis direction, and Z of the lens device 70 may deviate from the X-axis direction, the Y-axis direction, and the Z-axis direction of the surveillance camera 10, respectively.
  • the X-axis direction, the Y-axis direction, and Z of the lens device 70 It is assumed that the axial direction coincides with the X-axis direction, the Y-axis direction, and the Z-axis direction of the surveillance camera 10, respectively.
  • the X-axis direction and the Y-axis direction are directions orthogonal to the optical axis OA of the lens device 70, respectively, and the Z-axis direction is a direction parallel to the optical axis OA.
  • the lens device 70 includes a first motor driver 102, a second motor driver 104, a third motor driver 106, a fourth motor driver 108, a fifth motor driver 110, and a sixth motor driver 112. To prepare for. Further, the lens device 70 includes a first motor 118, a second motor 120, a third motor 122, a fourth motor 124, a fifth motor 126, and a sixth motor 128. Further, the lens device 70 includes a first position sensor 134, a second position sensor 136, a third position sensor 138, a fourth position sensor 140, a fifth position sensor 142, and a sixth position sensor 144.
  • the position sensor 138, the fourth position sensor 140, the fifth position sensor 142, and the sixth position sensor 144 are connected to the bus 98.
  • each of the first position sensor 134, the second position sensor 136, the third position sensor 138, the fourth position sensor 140, the fifth position sensor 142, and the sixth position sensor 144 is a potentiometer.
  • the first position sensor 134 detects the position of the focus lens 72 in the Z-axis direction.
  • the second position sensor 136 detects the position of the zoom lens 74 in the Z-axis direction.
  • the third position sensor 138 detects the aperture of the opening 76A formed in the aperture 76.
  • the fourth position sensor 140 detects the rotational position of the filter unit 78 with respect to the optical axis OA.
  • the fifth position sensor 142 detects the position of the blur correction lens 80 on the XY coordinate plane.
  • the sixth position sensor 144 detects the position of the shift lens 82 on the XY coordinate plane.
  • the detection result by the first position sensor 134 is output to the CPU 92 by the first position sensor 134.
  • the detection result by the second position sensor 136 is output to the CPU 92 by the second position sensor 136.
  • the detection result by the third position sensor 138 is output to the CPU 92 by the third position sensor 138.
  • the detection result by the 4th position sensor 140 is output to the CPU 92 by the 4th position sensor 140.
  • the detection result by the 5th position sensor 142 is output to the CPU 92 by the 5th position sensor 142.
  • the detection result by the 6th position sensor 144 is output to the CPU 92 by the 6th position sensor 144.
  • the focus lens 72 is attached to the first slide mechanism (not shown).
  • the first slide mechanism is mechanically connected to the drive shaft of the first motor 118, and receives the power of the first motor 118 to move the focus lens 72 along the Z-axis direction.
  • the first motor driver 102 is connected to the first motor 118 and controls the first motor 118 according to an instruction from the CPU 92.
  • the CPU 92 controls the position of the focus lens 72 in the Z-axis direction by controlling the first motor 118 via the first motor driver 102 based on the detection result by the first position sensor 134.
  • the zoom lens 74 is attached to a second slide mechanism (not shown).
  • the second slide mechanism is mechanically connected to the drive shaft of the second motor 120, and receives the power of the second motor 120 to move the zoom lens 74 along the Z-axis direction.
  • the second motor driver 104 is connected to the second motor 120 and controls the second motor 120 according to the instruction from the CPU 92.
  • the CPU 92 controls the position of the zoom lens 74 in the Z-axis direction by controlling the second motor 120 via the second motor driver 104 based on the detection result by the second position sensor 136.
  • the diaphragm 76 has a plurality of blades (not shown) capable of opening and closing the opening 76A.
  • the plurality of blades are mechanically connected to the drive shaft of the third motor 122, and open and close the opening 76A by receiving the power of the third motor 122.
  • the third motor driver 106 is connected to the third motor 122 and controls the third motor 122 according to the instruction from the CPU 92.
  • the CPU 92 controls the third motor 122 via the third motor driver 106 shown in FIG. 6 based on the detection result by the third position sensor 138 and the light receiving amount on the light receiving surface 24A shown in FIG. , Adjust the opening of the opening 76A.
  • the filter unit 78 is attached to a rotation mechanism (not shown).
  • the rotation mechanism is mechanically connected to the drive shaft of the fourth motor 124, and receives the power of the fourth motor 124 to rotate the filter unit 78 (see FIG. 3) in the circumferential direction, thereby causing a plurality of rotation mechanisms. Insert and remove the optical filter into the optical path.
  • the fourth motor driver 108 is connected to the fourth motor 124 and controls the fourth motor 124 according to the instruction from the CPU 92.
  • the CPU 92 controls the rotation position of the filter unit 78 with respect to the optical axis OA by controlling the fourth motor 124 via the fourth motor driver 108 based on the detection result by the fourth position sensor 140.
  • the blur correction lens 80 is attached to a fifth slide mechanism (not shown).
  • the fifth slide mechanism is mechanically connected to the drive shaft of the fifth motor 126, and receives the power of the fifth motor 126 to move the blur correction lens 80 along the XY coordinate plane. That is, the blur correction lens 80 moves along both the X-axis direction and the Y-axis direction.
  • the fifth motor driver 110 is connected to the fifth motor 126 and controls the fifth motor 126 according to an instruction from the CPU 92.
  • the CPU 92 controls the position of the blur correction lens 80 on the XY coordinate plane by controlling the fifth motor 126 via the fifth motor driver 110 based on the detection result by the fifth position sensor 142.
  • the fifth motor 126 is an example of the "drive mechanism” and the "first drive mechanism” according to the technique of the present disclosure.
  • the fifth motor 126 that moves the blur correction lens 80 along the XY coordinate planes specifically includes an X-axis motor that moves the blur correction lens 80 along the X-axis direction and a blur correction lens 80. Includes a Y-axis motor that moves the lens along the Y-axis direction.
  • the X-axis motor and the Y-axis motor forming the fifth motor 126 are, for example, voice coil motors.
  • the fifth position sensor that detects the position of the blur correction lens 80 on the XY coordinate plane is specifically an X-axis position sensor that detects the position of the blur correction lens 80 in the X-axis direction and a Y-axis direction. Includes a Y-axis position sensor that detects the position of the blur correction lens 80 in.
  • the shift lens 82 is attached to a sixth slide mechanism (not shown).
  • the sixth slide mechanism is mechanically connected to the drive shaft of the sixth motor 128, and receives the power of the sixth motor 128 to move the shift lens 82 along the XY coordinate plane. That is, the shift lens 82 moves along both the X-axis direction and the Y-axis direction.
  • the sixth motor driver 112 is connected to the sixth motor 128 and controls the sixth motor 128 according to the instruction from the CPU 92.
  • the CPU 92 controls the position of the shift lens 82 on the XY coordinate plane by controlling the sixth motor 128 via the sixth motor driver 112 based on the detection result by the sixth position sensor 144.
  • the sixth motor 128 is an example of the "drive mechanism” and the "second drive mechanism” according to the technique of the present disclosure.
  • the sixth motor 128 that moves the shift lens 82 along the XY coordinate planes specifically includes an X-axis motor that moves the shift lens 82 along the X-axis direction and a shift lens 82 on the Y-axis. Includes a Y-axis motor that moves along the direction.
  • the X-axis motor and the Y-axis motor forming the sixth motor 128 are, for example, DC motors.
  • a piezoelectric element may be used instead of the X-axis motor and the Y-axis motor forming the sixth motor 128.
  • the sixth position sensor for detecting the position of the shift lens 82 on the XY coordinate plane is specifically an X-axis position sensor for detecting the position of the shift lens 82 in the X-axis direction and a shift in the Y-axis direction. It includes a Y-axis position sensor that detects the position of the lens 82.
  • the fifth motor 126 and the sixth motor 128 are separated from each other to the extent that the vibration is not transmitted. Is preferable. Further, it is preferable that the fifth motor 126 is fixed to the housing of the lens device 70 via an elastic member for vibration isolation such as a rubber sheet. Similarly, it is preferable that the sixth motor 128 is fixed to the housing of the lens device 70 via an elastic member for vibration isolation such as a rubber sheet.
  • FIG. 7 shows an example of the optical characteristics of the blur correction lens 80 and the optical characteristics of the shift lens 82 in comparison.
  • the optical characteristics of the blur correction lens 80 and the optical characteristics of the shift lens 82 are different.
  • the optical characteristics referred to here are, for example, characteristics caused by the thickness, diameter, material, and the like of the lens, and are, for example, optical characteristics including the refractive index and the like.
  • the difference between the optical characteristics of the blur correction lens 80 and the optical characteristics of the shift lens 82 will be described based on the difference between the blur correction sensitivity of the blur correction lens 80 and the shift sensitivity of the shift lens 82.
  • the blur correction lens 80 shown by the alternate long and short dash line represents the blur correction lens 80 before correcting the blur of the image
  • the blur correction lens 80 shown by the solid line corrects the blur of the image. It represents the blur correction lens 80 that has moved to the desired position.
  • the optical axis OA represents the optical axis OA that passes through the center of the light receiving surface 24A of the image sensor 24 and is perpendicular to the light receiving surface 24A
  • the optical axis OA1 is the blur correction lens 80 before correcting the blur of the image. It represents the optical axis.
  • the blur correction sensitivity of the blur correction lens 80 is the ratio of the blur correction amount B1 of the image on the light receiving surface 24A of the image sensor 24 to the unit movement amount A of the blur correction lens 80.
  • the unit movement amount A of the blur correction lens 80 is a predetermined constant movement amount when the blur correction lens 80 moves in the X-axis direction or the Y-axis direction.
  • the image blur correction amount B1 is the amount of movement of the center of the image due to the image blur correction, and is the distance between the optical axis OA1 and the optical axis OA on the light receiving surface 24A of the image sensor 24. Equivalent to.
  • correcting the blurring of an image means returning the center of the blurred image to the optical axis OA before the blurring occurs.
  • the shift lens 82 shown by the alternate long and short dash line represents the shift lens 82 before shifting the image
  • the blur shift lens 82 shown by the solid line shifts to the position where the image is shifted.
  • the lens 82 represents the lens 82.
  • the optical axis OA represents an optical axis OA that passes through the center of the light receiving surface 24A of the image sensor 24 and is perpendicular to the light receiving surface 24A
  • the optical axis OA2 represents the optical axis of the shift lens 82 before shifting the image. Represents.
  • the central ray E2 passing through the moved shift lens 82 on the optical axis OA2 (optical axis OA) is connected to a position shifted by the shift amount B2 from the center of the light receiving surface 24A. Be imaged.
  • the shift sensitivity of the shift lens 82 is the ratio of the image shift amount B2 on the light receiving surface 24A of the image sensor 24 to the unit movement amount A of the shift lens 82.
  • the unit movement amount A of the shift lens 82 is a predetermined constant movement amount when the shift lens 82 moves in the X-axis direction or the Y-axis direction.
  • the image shift amount B2 is the amount of movement of the center of the image as the image is shifted.
  • the difference between the blur correction sensitivity of the blur correction lens 80 and the shift sensitivity of the shift lens 82 will be specifically described on the assumption that they are the same.
  • the shift sensitivity of the shift lens 82 is lower than the blur correction sensitivity of the blur correction lens 80. That is, when the unit movement amount A of the blur correction lens 80 and the unit movement amount A of the shift lens 82 are the same, the image on the light receiving surface 24A of the image sensor 24 with respect to the movement of the shift lens 82 with the unit movement amount A.
  • the shift amount B2 is smaller than the blur correction amount B1 of the image on the light receiving surface 24A of the image sensor 24 with respect to the movement of the blur correction lens 80 in the unit movement amount A.
  • the optical characteristic value of the blur correction lens 80 and the optical characteristic value of the shift lens 82 are set to values where the shift sensitivity of the shift lens 82 is lower than the blur correction sensitivity of the blur correction lens 80, respectively.
  • the distance D1 from the center C1 in the thickness direction of the blur correction lens 80 to the light receiving surface 24A of the image sensor 24 and the light receiving surface 24A of the image sensor 24 from the center C2 in the thickness direction of the shift lens 82 was assumed that the distance to D2 was the same.
  • the blur correction lens 80 and the shift lens 82 are arranged so as to be offset on the optical axis OA. Therefore, in the arrangement of the blur correction lens 80 and the shift lens 82 shown in FIG. 2, the distance from the center of the blur correction lens 80 in the thickness direction to the light receiving surface 24A of the image sensor 24 is an image from the center of the shift lens 82 in the thickness direction. It is different from the distance to the light receiving surface 24A of the sensor 24.
  • FIG. 8 shows an example of the optical characteristics of the shift lens 82 in more detail.
  • the shift lens 82 shown by the alternate long and short dash line represents the shift lens 82 before shifting the image
  • the blur shift lens 82 shown by the solid line is the shift lens 82 moved to the position where the image is shifted.
  • the optical axis OA represents an optical axis that passes through the center of the light receiving surface 24A of the image sensor 24 and is perpendicular to the light receiving surface 24A.
  • the shift amount S1 is a shift amount on the light receiving surface 24A of the image sensor 24 of the central ray F1 passing through the shift lens 82 after movement on the optical axis OA with respect to the movement of the shift lens 82 in the unit movement amount A.
  • the quantity S2 is a shift amount on the light receiving surface 24A of the image sensor 24 of the peripheral light ray F2 passing through the shift lens 82 after the movement other than on the optical axis OA with respect to the movement of the shift lens 82 in the unit movement amount A. Then, in the shift lens 82, the relationship of 0.8 ⁇ S2 / S1 ⁇ 1.2 is established. In other words, the optical characteristic value of the shift lens 82 is set to a value at which the relationship of 0.8 ⁇ S2 / S1 ⁇ 1.2 is established.
  • the optical characteristic value of the shift lens 82 is set to a value at which the relationship of 0.8 ⁇ S2 / S1 ⁇ 1.2 is established, the image quality of the captured image is within the permissible range. Further, the resolution of the captured image is improved as compared with the case where the value of S2 / S1 is outside the above-mentioned specified range.
  • the image pickup support process is realized by executing the image pickup support process program 100 by the CPU 92 of the lens device 70.
  • the image pickup support processing program 100 is an example of a "program" according to the technique of the present disclosure.
  • the image pickup support processing program 100 is stored in the NVM 94, and the CPU 92 reads the image pickup support processing program 100 from the NVM 94 and executes it on the RAM 96.
  • the CPU 92 performs image pickup support processing according to the image pickup support processing program 100 executed on the RAM 96.
  • the CPU 92 has an acquisition unit 150, a filter control unit 152, a blur correction amount calculation unit 154, a blur correction control unit 156, a shift amount calculation unit 158, and a shift control unit 160.
  • the image pickup support process is a process including a filter change process (see FIG. 14), a blur correction process (see FIG. 15), and a shift process (see FIG. 16).
  • the acquisition unit 150 acquires the filter designation information as the information transmitted from the CPU 42 of the surveillance camera main body 20.
  • the filter designation information is command information for designating the optical filter to be used among the plurality of optical filters.
  • the optical filter used is an optical filter arranged on the optical axis OA among a plurality of optical filters provided in the filter unit 78.
  • the acquisition unit 150 acquires the position detection result by the fourth position sensor 140.
  • the position detection result by the fourth position sensor 140 is information representing the result of detecting the rotational position of the filter unit 78 with respect to the optical axis OA.
  • the filter control unit 152 issues a control command for arranging the optical filter designated by the filter designation information on the optical axis OA based on the filter designation information transmitted from the CPU 42 and the position detection result by the fourth position sensor 140. 4 Output to the motor driver 108.
  • the fourth motor driver 108 controls the fourth motor 124 according to the control command.
  • the optical filter designated by the filter designation information is arranged on the optical axis OA.
  • the filter unit 78 is rotated and the Ir cut filter 86 is arranged on the optical axis OA.
  • FIG. 10 shows, as an example, a state in which the Ir cut filter 86 is arranged on the optical axis OA. In this way, the filter unit 78 rotates, and the filter arranged on the optical axis OA among the plurality of optical filters is switched, so that the wavelength band of the light transmitted through the blur correction lens 80 and the shift lens 82 is switched. ..
  • the filter designation information is stored in the RAM 96.
  • the filter control unit 152 stores the filter designation information indicating that the Ir cut filter 86 is specified in the RAM 96.
  • the acquisition unit 150 acquires the blur correction command and the blur detection result by the blur amount detection sensor 56 as the information transmitted from the CPU 42 of the surveillance camera main body 20.
  • the blur correction command is command information to request blur correction
  • the blur detection result by the blur amount detection sensor 56 is information representing the result of detecting the blur amount of the surveillance camera 10.
  • the acquisition unit 150 acquires the position detection result by the fifth position sensor 142.
  • the position detection result by the fifth position sensor 142 is information representing the result of detecting the position of the blur correction lens 80 on the XY coordinate plane.
  • the acquisition unit 150 acquires the filter designation information stored in the RAM 96.
  • the blur correction amount calculation unit 154 determines the operation direction for correcting the image blur of the fifth motor 126 based on the blur amount detection result by the blur amount detection sensor 56.
  • the operating direction for correcting the blur of the image is determined in the direction opposite to the direction in which the image is blurred.
  • the blur correction amount calculation unit 154 calculates an operation amount for correcting image blur for the fifth motor 126 based on the blur amount detection result by the blur amount detection sensor 56.
  • the blur correction amount calculation unit 154 calculates the operation amount of the fifth motor 126 to return the position of the image blurred by the blur of the surveillance camera 10 to the position of the image before the blur of the surveillance camera 10 occurs. ..
  • the position of the focal point on the image side is located.
  • the deviation causes the blur correction sensitivity of the blur correction lens 80 to change.
  • the light received by the image sensor 24 is received between the case where the light transmitted through the blur correction lens 80 is visible light and the case where the light transmitted through the blur correction lens 80 is near infrared light.
  • the movement amount A1 of the blur correction lens 80 required for the same blur correction amount B1 on the surface 24A is different.
  • the movement amount A1 required when the light transmitted through the blur correction lens 80 is visible light is such that the light transmitted through the blur correction lens 80 is near-infrared light. It is less than the movement amount A1 required when.
  • the blur correction amount calculation unit 154 calculates the operating amount corresponding to the optical filter specified by the filter designation information for the operating amount of the fifth motor 126 that corrects the blur of the image. For example, when the optical filter specified by the filter designation information is the Ir cut filter 86, the blur correction amount calculation unit 154 corresponds to the Ir cut filter 86 based on the blur amount detection result by the blur amount detection sensor 56. Calculate the amount of operation. Further, when the optical filter designated by the filter designation information is BPF88, the blur correction amount calculation unit 154 calculates the operating amount corresponding to the BPF88 based on the blur amount detection result by the blur amount detection sensor 56.
  • the operating amount is calculated so that the blur correction amount B1 proportional to the detection result by the blur amount detection sensor 56 can be obtained.
  • the operating amount corresponding to the optical filter specified by the filter designation information may be predetermined for each of the plurality of optical filters according to the blur amount detection result by the blur amount detection sensor 56, and various calculation formulas are used. It may be calculated.
  • the blur correction control unit 156 acquires the operating direction of the fifth motor 126 determined by the blur correction amount calculation unit 154 and the operating amount of the fifth motor 126 calculated by the blur correction amount calculation unit 154, the acquired fifth motor 126 is acquired.
  • the operating direction and operating amount of the motor 126 are set as target values, and a control command is generated based on the position detection result by the fifth position sensor 142.
  • the control command is output to the fifth motor driver 110.
  • the fifth motor driver 110 generates an operation signal based on the control command generated by the blur correction control unit 156.
  • the operation signal is, for example, a continuous wave.
  • the fifth motor 126 operates in the operating direction and operating amount according to the operating signal.
  • power is applied to the blur correction lens 80 in the direction in which the blur of the image is corrected, so that the blur correction lens 80 moves.
  • the blur correction lens 80 moves with the movement amount A1 corresponding to the Ir cut filter 86
  • the optical filter specified by the filter specification information is the BPF88. If this is the case, the blur correction lens 80 moves with the movement amount A1 corresponding to the BPF 88.
  • the blur correction control unit 156 controls the fifth motor 126 to change the movement amount A1 of the blur correction lens 80 based on the wavelength band of the light transmitted through the blur correction lens 80. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the blur correction sensitivity of the blur correction lens 80 is suppressed, and the blur correction proportional to the detection result by the blur amount detection sensor 56 is suppressed.
  • the quantity B1 is obtained.
  • the surveillance camera 10 In order to correct the blurring of the image referred to here, in addition to matching the position of the image blurred by the blurring of the surveillance camera 10 with the position of the image before the blurring of the surveillance camera 10 occurs, the surveillance camera 10 It also includes bringing the position of the blurred image due to the blurring closer to the position of the image before the blurring of the surveillance camera 10.
  • the control by the blur correction control unit 156 described above is a feedback control based on the blur amount detection result (that is, the blur amount of the surveillance camera 10) by the blur amount detection sensor 56.
  • the acquisition unit 150 acquires the image shift command and the frame period information as the information transmitted from the CPU 42 of the surveillance camera main body 20.
  • the image shift command is command information to request the image shift, and is information indicating the image shift direction and shift amount. Further, the acquisition unit 150 acquires the position detection result by the sixth position sensor 144. Further, the acquisition unit 150 acquires the filter designation information stored in the RAM 96.
  • the image shift amount B2 is defined by, for example, a pitch equal to or higher than the pixel pitch of the image sensor 24 or a pitch lower than the pixel pitch of the image sensor 24.
  • the pitch equal to or higher than the pixel pitch of the image sensor 24 is, for example, 1 pitch, 1.5 pitch, 2.5 pitch, 3.5 pitch, or the like.
  • the pitch larger than the pixel pitch of the image sensor 24 is defined by (n + d) ⁇ p.
  • the pitch less than the pixel pitch of the image sensor 24 is, for example, 0.25 pitch, 0.5 pitch, 0.75 pitch, or the like.
  • the pitch less than the pixel pitch of the image sensor 24 is defined by D ⁇ p.
  • the frame cycle information is information that defines the frame cycle synchronized with the timing control signal output from the CPU 42 to the image sensor driver 52 (see FIG. 5).
  • the frame period is a period in which imaging is performed in frame units.
  • the shift amount calculation unit 158 is based on the image shift direction represented by the image shift command, the frame cycle represented by the frame cycle information, and the position detection result by the sixth position sensor 144, and the operating direction of the sixth motor 128 for each frame cycle. To determine. The operating direction of the sixth motor 128 is determined based on the image shift direction indicated by the image shift command and the position detection result by the sixth position sensor 144.
  • the wavelength band differs depending on whether the light transmitted through the shift lens 82 is visible light or the light transmitted through the shift lens 82 is near infrared light. Since they are different, the shift sensitivity of the shift lens 82 changes due to the shift of the focal position on the image side. In other words, as shown in FIG. 12, the light receiving surface 24A of the image sensor 24 depends on whether the light transmitted through the shift lens 82 is visible light or the light transmitted through the shift lens 82 is near infrared light. The movement amount A2 of the shift lens 82 required for the same shift amount B2 in the above is different.
  • the movement amount A2 required when the light transmitted through the shift lens 82 is visible light is when the light transmitted through the shift lens 82 is near infrared light.
  • the amount of movement required for A2 is less than that of A2.
  • the shift amount calculation unit 158 calculates the operation amount corresponding to the optical filter specified by the filter designation information for the operation amount of the sixth motor 128 that shifts the image. For example, when the optical filter specified by the filter designation information is the Ir cut filter 86, the shift amount calculation unit 158 operates the amount corresponding to the Ir cut filter 86 based on the image shift amount represented by the image shift command. Is calculated. Further, when the optical filter designated by the filter designation information is BPF88, the shift amount calculation unit 158 calculates the operation amount corresponding to the BPF88 based on the shift amount of the image represented by the image shift command.
  • the operating amount at which the image is shifted to the position corresponding to the image shift amount indicated by the image shift command is calculated.
  • the operating amount corresponding to the optical filter specified by the filter designation information may be predetermined according to the image shift amount represented by the image shift command for each of a plurality of optical filters, and is calculated using various calculation formulas. May be done.
  • the shift control unit 160 issues a control command for each frame cycle according to the operation direction of the sixth motor 128 determined by the shift amount calculation unit 158 and the operation amount of the sixth motor 128 calculated by the shift amount calculation unit 158. Generate.
  • the control command is output to the sixth motor driver 112.
  • the sixth motor driver 112 generates an operation signal based on the control command generated by the shift control unit 160.
  • the operation signal is, for example, a pulse wave.
  • the period of the operation signal is synchronized with the frame period specified by the frame period information.
  • the sixth motor 128 operates with an operating amount according to the operating signal.
  • power is applied to the shift lens 82 in the direction of shifting the image at each frame cycle, so that the shift lens 82 moves.
  • the optical filter specified by the filter specification information is the Ir cut filter 86
  • the blur correction lens 80 moves with the movement amount A2 corresponding to the Ir cut filter 86
  • the optical filter specified by the filter specification information is the BPF88. If this is the case, the blur correction lens 80 moves with the movement amount A2 corresponding to the BPF 88.
  • the shift control unit 160 controls the sixth motor 128 to change the movement amount A2 of the shift lens 82 based on the wavelength band of the light transmitted through the shift lens 82. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the shift sensitivity of the shift lens 82 is suppressed, and the image is positioned at a position corresponding to the image shift amount indicated by the image shift command. Is shifted.
  • the control by the shift control unit 160 described above is not based on the blur amount detection result by the blur amount detection sensor 56 (that is, the blur amount of the surveillance camera 10), but is a sequence control based on a predetermined shift order.
  • the image is shifted at each frame cycle in this way, and each time the image is shifted, the CPU 42 of the surveillance camera body 20 controls the image sensor 24 to perform image pickup.
  • images 162 of a plurality of frames corresponding to each of the frame periods can be obtained.
  • the composite image 164 is obtained by synthesizing the images 162 of the plurality of frames by the CPU 42 of the surveillance camera main body 20.
  • the composite image 164 can be obtained, for example, as follows. That is, when the shift amount of the image is the same pitch as the pixel pitch of the image sensor 24, among the images 162 of the plurality of frames, a plurality of image pixels forming one image and a plurality of image pixels forming another image are formed. By superimposing the image pixels, a composite image 164 can be obtained from the images 162 of a plurality of frames. The composite image 164 thus obtained is an image that does not require demosaic processing. Further, when the shift amount of the image is a pitch larger than the pixel pitch of the image sensor 24 or when the shift amount of the image is a pitch smaller than the pixel pitch of the image sensor 24, one of the images 162 of the plurality of frames is used.
  • the composite image 164 can be obtained from the images 162 of the plurality of frames.
  • the composite image 164 thus obtained is an image having a higher resolution than the image 162 of a plurality of frames.
  • the filter change process in the image pickup support process will be described with reference to FIGS. 10 and 14.
  • the CPU 92 of the lens device 70 executes the filter change process shown in FIG.
  • step ST100 the acquisition unit 150 acquires the filter designation information transmitted from the CPU 42 of the surveillance camera main body 20. Further, the acquisition unit 150 acquires the position detection result by the fourth position sensor 140.
  • the filter control unit 152 places the optical filter designated by the filter designation information on the optical axis OA based on the filter designation information transmitted from the CPU 42 and the position detection result by the fourth position sensor 140.
  • the control command to be arranged is output to the fourth motor driver 108.
  • the fourth motor driver 108 controls the fourth motor 124 according to the control command.
  • the optical filter designated by the filter designation information is arranged on the optical axis OA.
  • the filter unit 78 is rotated and the Ir cut filter 86 is arranged on the optical axis OA.
  • the filter unit 78 rotates, and the filter arranged on the optical axis OA among the plurality of optical filters is switched, so that the wavelength band of the light transmitted through the blur correction lens 80 and the shift lens 82 is switched. ..
  • the filter control unit 152 stores the filter designation information in the RAM 96. For example, when the Ir cut filter 86 is positioned on the optical axis OA, the filter control unit 152 stores the filter designation information indicating that the Ir cut filter 86 is specified in the RAM 96.
  • step ST110 the acquisition unit 150 acquires the blur correction command transmitted from the CPU 42 of the surveillance camera main body 20. Further, in step ST112, the acquisition unit 150 acquires the blur amount detection result transmitted from the CPU 42 of the surveillance camera main body 20. Further, in step ST114, the acquisition unit 150 acquires the filter designation information stored in the RAM 96. Further, the acquisition unit 150 acquires the position detection result by the fifth position sensor 142.
  • the blur correction amount calculation unit 154 determines the operation direction for correcting the image blur of the fifth motor 126 based on the blur amount detection result by the blur amount detection sensor 56.
  • the operating direction for correcting the blur of the image is determined in the direction opposite to the direction in which the image is blurred.
  • the blur correction amount calculation unit 154 calculates the operation amount for correcting the image blur of the fifth motor 126 based on the blur amount detection result by the blur amount detection sensor 56. Specifically, the blur correction amount calculation unit 154 calculates the operation amount of the fifth motor 126 to return the position of the image blurred by the blur of the surveillance camera 10 to the position of the image before the blur of the surveillance camera 10 occurs. ..
  • the blur correction amount calculation unit 154 calculates the operating amount corresponding to the optical filter specified by the filter designation information for the operating amount of the fifth motor 126 that corrects the image blur. For example, when the optical filter specified by the filter designation information is the Ir cut filter 86, the blur correction amount calculation unit 154 corresponds to the Ir cut filter 86 based on the blur amount detection result by the blur amount detection sensor 56. Calculate the amount of operation. Further, when the optical filter designated by the filter designation information is BPF88, the blur correction amount calculation unit 154 calculates the operating amount corresponding to the BPF88 based on the blur amount detection result by the blur amount detection sensor 56.
  • the wavelength band of the light transmitted through the blur correction lens 80 changes, but in the blur correction amount calculation unit 154, the wavelength band of the light transmitted through the blur correction lens 80 changes. Even if it changes, the operating amount is calculated so that the blur correction amount B1 proportional to the detection result by the blur amount detection sensor 56 can be obtained.
  • the blur correction control unit 156 acquires the operating direction of the fifth motor 126 determined by the blur correction amount calculation unit 154 and the operating amount of the fifth motor 126 calculated by the blur correction amount calculation unit 154. Then, the operating direction and operating amount of the acquired fifth motor 126 are set as target values, and a control command is generated based on the position detection result by the fifth position sensor 142. The control command is output to the fifth motor driver 110.
  • the fifth motor driver 110 generates an operation signal based on the control command generated by the blur correction control unit 156.
  • the operation signal is, for example, a continuous wave.
  • the fifth motor 126 operates in the operating direction and operating amount according to the operating signal.
  • power is applied to the blur correction lens 80 in the direction in which the blur of the image is corrected, so that the blur correction lens 80 moves.
  • the blur correction lens 80 moves with the movement amount A1 corresponding to the Ir cut filter 86
  • the optical filter specified by the filter specification information is the BPF88. If this is the case, the blur correction lens 80 moves with the movement amount A1 corresponding to the BPF 88.
  • the blur correction control unit 156 controls the fifth motor 126 to change the movement amount A1 of the blur correction lens 80 based on the wavelength band of the light transmitted through the blur correction lens 80. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the blur correction sensitivity of the blur correction lens 80 is suppressed, and the blur correction proportional to the detection result by the blur amount detection sensor 56 is suppressed.
  • the quantity B1 is obtained.
  • the CPU 92 of the lens device 70 determines whether or not the image shift command transmitted from the CPU 42 of the surveillance camera body 20 is received by the transmission / reception interface (not shown) of the lens device 70, and if the determination is affirmed, the CPU 92 determines.
  • the shift process shown in FIG. 16 is executed.
  • step ST120 the acquisition unit 150 acquires the image shift command transmitted from the CPU 42 of the surveillance camera main body 20. Further, in step ST122, the acquisition unit 150 acquires the frame period information transmitted from the CPU 42 of the surveillance camera main body 20. Further, in step ST124, the acquisition unit 150 acquires the filter designation information stored in the RAM 96. Further, the acquisition unit 150 acquires the position detection result by the sixth position sensor 144.
  • the shift amount calculation unit 158 is set for each frame cycle based on the image shift direction represented by the image shift command, the frame cycle represented by the frame cycle information, and the position detection result by the sixth position sensor 144. 6 Determines the operating direction of the motor 128. The operating direction of the sixth motor 128 is determined based on the image shift direction indicated by the image shift command and the position detection result by the sixth position sensor 144. Further, the shift amount calculation unit 158 of the sixth motor 128 for each frame cycle based on the image shift amount represented by the image shift command, the frame cycle represented by the frame cycle information, and the position detection result by the sixth position sensor 144. Calculate the amount of operation.
  • the shift amount calculation unit 158 calculates the operation amount corresponding to the optical filter specified by the filter designation information for the operation amount of the sixth motor 128 that shifts the image. For example, when the optical filter specified by the filter designation information is the Ir cut filter 86, the shift amount calculation unit 158 operates the amount corresponding to the Ir cut filter 86 based on the image shift amount represented by the image shift command. Is calculated. Further, when the optical filter designated by the filter designation information is BPF88, the shift amount calculation unit 158 calculates the operation amount corresponding to the BPF88 based on the shift amount of the image represented by the image shift command.
  • the shift amount calculation unit 158 changes the wavelength band of the light transmitted through the shift lens 82 even when the wavelength band of the light transmitted through the shift lens 82 changes.
  • the operating amount at which the image is shifted to the position corresponding to the image shift amount indicated by the image shift command is calculated.
  • the shift control unit 160 gives a control command according to the operation direction of the sixth motor 128 determined by the shift amount calculation unit 158 and the operation amount of the sixth motor 128 calculated by the shift amount calculation unit 158. Is generated for each frame period.
  • the control command is output to the sixth motor driver 112.
  • the sixth motor driver 112 generates an operation signal based on the control command generated by the shift control unit 160.
  • the operation signal is, for example, a pulse wave.
  • the period of the operation signal is synchronized with the frame period specified by the frame period information.
  • the sixth motor 128 operates with an operating amount according to the operating signal.
  • power is applied to the shift lens 82 in the direction of shifting the image at each frame cycle, so that the shift lens 82 moves.
  • the optical filter specified by the filter designation information is the Ir cut filter 86
  • the shift lens 82 moves with the movement amount A2 corresponding to the Ir cut filter 86
  • the optical filter specified by the filter designation information is specified.
  • BPF88 the shift lens 82 moves with the movement amount A2 corresponding to the BPF88.
  • the shift control unit 160 controls the sixth motor 128 to change the movement amount A2 of the shift lens 82 based on the wavelength band of the light transmitted through the shift lens 82. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the shift sensitivity of the shift lens 82 is suppressed, and the image is positioned at a position corresponding to the image shift amount indicated by the image shift command. Is shifted.
  • the method of operating the surveillance camera 10 described with reference to FIGS. 14, 15, and 16 described above is an example of the "operation method of the image pickup apparatus" according to the technique of the present disclosure.
  • the method of operating the lens device 70 included in the method of operating the surveillance camera 10 described with reference to FIGS. 14, 15, and 16 described above is a "method of operating the lens device 70" according to the technique of the present disclosure. Is an example.
  • the lens device 70 separately separates the blur correction lens 80 for correcting the blur of the image and the shift lens 82 for shifting the image along the light receiving surface 24A of the image sensor 24. Be prepared. Therefore, for example, the control and shift lens for the fifth motor 126 that moves the blur correction lens 80 as compared with the case where the blur correction lens 80 performs both image blur correction and image shift using a common motor. It is possible to easily control the sixth motor 128 that moves the 82.
  • the blur correction lens 80 that performs both image blur correction and image shift is common.
  • the weight can be distributed to the fifth motor 126 and the sixth motor 128 as compared with the case of moving by the motor of.
  • the CPU 92 of the lens device 70 changes the movement amount A1 of the blur correction lens 80 with respect to the fifth motor 126 based on the wavelength band of the light transmitted through the blur correction lens 80. Take control. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the blur correction sensitivity of the blur correction lens 80 is suppressed, and the blur correction proportional to the detection result by the blur amount detection sensor 56 is suppressed.
  • the quantity B1 can be obtained.
  • the CPU 92 of the lens device 70 controls the sixth motor 128 to change the movement amount A2 of the shift lens 82 based on the wavelength band of the light transmitted through the shift lens 82. conduct. Therefore, even if the wavelength band of the light transmitted through the blur correction lens 80 changes, the influence of the change in the shift sensitivity of the shift lens 82 is suppressed, and the image is positioned at a position corresponding to the image shift amount indicated by the image shift command. Can be shifted.
  • the shift sensitivity of the shift lens 82 is lower than the blur correction sensitivity of the blur correction lens 80. That is, the shift amount B2 of the image on the light receiving surface 24A of the image sensor 24 with respect to the movement of the shift lens 82 with the unit movement amount A is the light receiving surface 24A of the image sensor 24 with respect to the movement of the blur correction lens 80 with the unit movement amount A. It is smaller than the blur correction amount B1 of the image in. Therefore, for example, the error of the image shift amount with respect to the error of the movement amount of the shift lens 82 can be reduced as compared with the case where the shift sensitivity of the shift lens 82 is higher than the blur correction sensitivity of the blur correction lens 80.
  • the shift amount on the light receiving surface 24A of the image sensor 24 of the central ray F1 passing through the shift lens 82 after the movement on the optical axis OA with respect to the movement of the shift lens 82 in the unit movement amount A. was set to S1
  • the shift amount of the peripheral light rays F2 passing through the shift lens 82 after movement other than on the optical axis OA on the light receiving surface 24A of the image sensor 24 with respect to the movement of the shift lens 82 in the unit movement amount A was set to S2.
  • the relationship of 0.8 ⁇ S2 / S1 ⁇ 1.2 is established.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the zoom lens 74.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the subject than the zoom lens 74, the light transmitted through the blur correction lens 80 and the shift lens 82 passes through the zoom lens 74 and is an image sensor. Since the image is formed on the 24, the blur correction sensitivity of the blur correction lens 80 and the shift sensitivity of the shift lens 82 change as the zoom lens 74 moves in the Z-axis direction.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the zoom lens 74, the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the zoom lens 74.
  • the blur correction lens 80 and the shift lens 82 can be made smaller in diameter than in the case where the lens 80 is used.
  • the weight of the blur correction lens 80 and the shift lens 82 can be reduced.
  • the drive load of the fifth motor 126 that moves the blur correction lens 80 and the drive load of the sixth motor 128 that moves the shift lens 82 can be reduced.
  • the filter unit 78 of the lens device 70 includes a plurality of BPF 88s.
  • the filter unit 78 is arranged closer to the subject than the image sensor 24, and the plurality of BPF 88s transmit near-infrared light contained in the light. Therefore, a near-infrared light image can be obtained by forming a near-infrared light image on the image sensor 24.
  • the CPU 92 of the lens device 70 moves the shift lens 82 to a position where the image shifts at a pitch equal to or higher than the pixel pitch of the image sensor 24 or a pitch lower than the pixel pitch of the image sensor 24.
  • the sixth motor 128 is controlled to be operated. Therefore, as shown in FIG. 13, a composite image 164 can be obtained by synthesizing the obtained images 162 of a plurality of frames.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the focus lens 72.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the subject than the focus lens 72, the light transmitted through the blur correction lens 80 and the shift lens 82 passes through the focus lens 72 and is an image sensor. Since the image is formed on the 24, the blur correction sensitivity of the blur correction lens 80 and the shift sensitivity of the shift lens 82 change as the focus lens 72 moves in the Z-axis direction. Therefore, when the focus lens 72 moves in the Z-axis direction, control is performed to adjust the movement amount A1 of the blur correction lens 80 and the movement amount A2 of the shift lens 82 according to the movement of the focus lens 72 in the Z-axis direction.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the aperture 76.
  • a second slide mechanism (illustrated) that supports the zoom lens 74 so as to be movable in the Z-axis direction.
  • the fifth slide mechanism (not shown) that slidably supports the blur correction lens 80 along the XY coordinate plane
  • the shift lens 82 slidably supports along the XY coordinate plane.
  • the sixth slide mechanism (not shown) is arranged adjacent to each other, which complicates the structure of the lens device 70.
  • the movement accuracy of the blur correction lens 80 and the movement accuracy of the shift lens 82 may decrease.
  • the blur correction lens 80 and the shift lens 82 are arranged closer to the image sensor 24 than the aperture 76, for example, the blur correction lens 80 and the shift lens 82 are located between the aperture 76 and the zoom lens 74.
  • the movement accuracy of the blur correction lens 80 and the movement accuracy of the shift lens 82 can be improved as compared with the case where the lens 80 is arranged.
  • the lens device 70 includes a blur correction lens 80 and a filter unit 78 that switches the wavelength band of the light transmitted through the shift lens 82. Therefore, for example, as compared with the case where the optical filter of one of the plurality of optical filters is selectively attached to the lens device 70 in order to change the wavelength band of the light transmitted through the blur correction lens 80 and the shift lens 82. Therefore, the wavelength band of the light transmitted through the blur correction lens 80 and the shift lens 82 can be easily switched.
  • the CPU 92 of the lens device 70 controls the movement amount A1 of the blur correction lens 80 to be changed and the movement of the shift lens 82 based on the wavelength band of the light transmitted through the blur correction lens 80 and the shift lens 82. Both controls are performed so that the quantity A2 is changed.
  • the CPU 92 of the lens device 70 may control only one of the control in which the movement amount A1 of the blur correction lens 80 is changed and the control in which the movement amount A2 of the shift lens 82 is changed.
  • a plurality of optical filters are arranged in a ring shape and rotated to cause an optical axis among the plurality of optical filters.
  • a rotary filter unit 78 is used in which the optical filter arranged on the OA can be switched.
  • a slide type filter unit may be used in which a plurality of optical filters are arranged in a straight line and the optical filters arranged on the optical axis OA among the plurality of optical filters can be switched by sliding.
  • an optical filter of one of a plurality of optical filters may be selectively attached to the lens device 70.
  • control for changing the movement amount A1 of the blur correction lens 80 based on the wavelength band of the light transmitted through the blur correction lens 80 is not limited to the above mode, and various modes other than the above can be taken. ..
  • control for changing the movement amount A2 of the shift lens 82 based on the wavelength band of the light transmitted through the shift lens 82 is not limited to the above embodiment, and various embodiments other than the above can be taken.
  • the focus lens 72, the zoom lens 74, the aperture 76, the filter unit 78, the blur correction lens 80, and the shift lens 82 are arranged in order from the subject side to the image side along the optical axis OA.
  • the zoom lens 74, the aperture 76, the filter unit 78, the blur correction lens 80, the focus lens 72, and the shift lens 82 are sequentially arranged from the subject side to the image side along the optical axis OA. It may be arranged.
  • the order of the focus lens 72, the zoom lens 74, the aperture 76, the filter unit 78, the blur correction lens 80, and the shift lens 82 may be other than the order shown in FIG. 2 and the order shown in FIG.
  • the lens device 70 is provided on the surveillance camera body 20 by mounting the lens device 70 on the surveillance camera body 20 having the image sensor 24.
  • the image sensor is provided.
  • the lens device 70 may be provided on the surveillance camera main body 20.
  • the surveillance camera 10 may be configured as follows. That is, as an example, in the modified example of the surveillance camera 10 shown in FIG. 19, the lens device 70 is the first optical system 202, the second optical system 204, the color separation prism 206, the third optical system 208, and the fourth optical system 210. To prepare for. Further, the surveillance camera main body 20 includes a first image sensor 214 and a second image sensor 216.
  • the color separation prism 206 is an example of the "optical separation mechanism" according to the technique of the present disclosure, and the first image sensor 214 and the second image sensor 216 are an example of the "image sensor" according to the technique of the present disclosure.
  • the first optical system 202 has a plurality of lenses 218, 220, 222, and 224, and a first aperture 230.
  • the second optical system 204 is arranged between the first optical system 202 and the color separation prism 206.
  • the second optical system 204 has a lens 228.
  • the color separation prism 206 separates the light into the first light G1 and the second light G2.
  • the first light G1 is infrared light and the second light G2 is visible light.
  • the optical axis OA is branched into a first optical axis OAa and a second optical axis OAb by a color separation prism 206.
  • the third optical system 208 is arranged between the color separation prism 206 and the first image sensor 214.
  • the third optical system 208 includes a first filter unit 231, a first blur correction lens 232, and a first shift lens 234. Similar to the above-mentioned blur correction lens 80 (see FIG. 6), the first blur correction lens 232 moves along the XY coordinate plane when power is applied by the first drive mechanism (not shown). Similar to the shift lens 82 (see FIG. 6), the first shift lens 234 moves along the XY coordinate plane when power is applied by the second drive mechanism (not shown).
  • the first blur correction lens 232 and the first shift lens 234 are examples of the "first optical lens” and the "moving lens" according to the technique of the present disclosure, respectively.
  • the fourth optical system 210 is arranged between the color separation prism 206 and the second image sensor 216.
  • the fourth optical system 210 includes a second aperture 236, a second filter unit 238, a second blur correction lens 240, and a second shift lens 242. Similar to the above-mentioned blur correction lens 80 (see FIG. 6), the second blur correction lens 240 moves along the XX coordinate plane when power is applied by the third drive mechanism (not shown). Similar to the shift lens 82 (see FIG. 6), the second shift lens 242 moves along the XZ coordinate plane when power is applied by the fourth drive mechanism (not shown).
  • the second blur correction lens 240 and the second shift lens 242 are examples of the "second optical lens” and the "moving lens" according to the technique of the present disclosure, respectively.
  • the first light G1 transmitted through the first blur correction lens 232 and the first shift lens 234 is imaged on the light receiving surface 214A of the first image sensor 214, and the second blur correction is performed on the light receiving surface 216A of the second image sensor 216.
  • the second light G2 transmitted through the lens 240 and the second shift lens 242 is imaged.
  • the movement amount of the first blur correction lens 232 is based on the wavelength band of the first light G1 transmitted through the first blur correction lens 232 and the first shift lens 234, as in the above embodiment. Control to change the amount of movement of the first shift lens 234 and control to change the amount of movement of the first shift lens 234 are performed.
  • the second blur correction lens 240 is based on the wavelength band of the second light G2 transmitted through the second blur correction lens 240 and the second shift lens 242, as in the above embodiment. Control to change the movement amount and control to change the movement amount of the second shift lens 242 are performed, respectively.
  • one of the first blur correction lens 232 and the first shift lens 234 may be a fixed lens.
  • one of the second blur correction lens 240 and the second shift lens 242 may be a fixed lens.
  • the lens device 70 is provided with a controller 90 different from the controller 40 of the surveillance camera main body 20, but the lens device 70 may not be provided with the controller 90. Further, the functions of the controller 90 of the lens device 70 may be integrated into the controller 40 of the surveillance camera main body 20, and the lens device 70 may be controlled by the controller 40 of the surveillance camera main body 20. In this case, the controller 90 is an example of "a computer applied to an image pickup device".
  • the imaging process may be executed by a computer of an external device that is communicably connected to the surveillance camera 10 via a network such as LAN or WAN.
  • the above-mentioned external device and the surveillance camera 10 may execute the imaging process in a distributed manner, or a plurality of devices including the above-mentioned external device and the surveillance camera 10 may execute the imaging process in a distributed manner. You may try to do it.
  • the surveillance camera 10 has been described as an example of the image pickup device, but the technique of the present disclosure is not limited to this, and the technique shown in the above embodiment can be applied to various image pickup devices.
  • the image pickup device referred to here includes, for example, a digital camera that is interchangeable and does not use a reflex mirror, a digital camera with a fixed lens, a digital camera that uses a reflex mirror, a smart device, a wearable terminal, and a cell observation device. , An ophthalmic observation device, a digital camera built in various electronic devices such as a surgical microscope, and the like.
  • the technique shown in the above embodiment may be applied to an image pickup apparatus including an image sensor having sensitivity to light having a wavelength band other than the wavelength band of near infrared light.
  • the image pickup support processing program 100 is stored in the NVM 94
  • the image pickup support processing program 100 is stored in a portable storage medium such as an SSD or a USB memory.
  • the imaging support processing program 100 may be stored in a non-temporary storage medium.
  • the image pickup support processing program 100 stored in the non-temporary storage medium is installed and used in, for example, a lens device 70 or the like.
  • controller 40 is built in the surveillance camera 10
  • the technique of the present disclosure is not limited to this, and for example, the controller 40 is provided outside the surveillance camera 10. You may be able to do it.
  • the CPU 42 of the surveillance camera main body 20 is a single CPU, but may be a plurality of CPUs. Further, the GPU may be applied instead of the CPU 42. Similarly, the CPU 92 of the lens device 70 is a single CPU, but may be a plurality of CPUs. Further, the GPU may be applied instead of the CPU 92.
  • the surveillance camera main body 20 includes a controller 40, but the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD is applied instead of the controller 40. You may. Further, instead of the controller 40, a combination of a hardware configuration and a software configuration may be used.
  • the lens device 70 includes a controller 90, but the technique of the present disclosure is not limited thereto, and a device including an ASIC, FPGA, and / or PLD is applied instead of the controller 90. May be good. Further, instead of the controller 90, a combination of a hardware configuration and a software configuration may be used.
  • the processor includes software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing image pickup support processing by executing a program.
  • examples of the processor include a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC.
  • a memory is built-in or connected to any processor, and each processor executes imaging support processing by using the memory.
  • the hardware resource that performs the imaging support process may consist of one of these various processors, or a combination of two or more processors of the same type or dissimilarity (eg, a combination of multiple FPGAs, or a combination of multiple FPGAs). It may be composed of a combination of a CPU and an FPGA). Further, the hardware resource for executing the image pickup support process may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource for executing image pickup support processing. ..
  • SoC SoC
  • a processor that realizes the functions of the entire system including a plurality of hardware resources for executing image pickup support processing with one IC chip is used.
  • the image pickup support process is realized by using one or more of the above-mentioned various processors as a hardware resource.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, it may be only B, or it may be a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

レンズ装置は、イメージセンサを有する撮像装置本体に設けられるレンズ装置であって、プロセッサと、プロセッサに接続又は内蔵されたメモリと、移動レンズを含み、入射した光をイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備える。プロセッサは、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行う。

Description

レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム
 本開示の技術は、レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラムに関する。
 特開2017-44878号公報には、撮像光学系を通して被写体を撮像する撮像手段と、被写体の画像の像振れを補正する第1及び第2の像振れ補正手段と、振れの検出信号を取得して第1及び第2の像振れ補正手段を制御して像振れを補正する制御を行うとともに、第1若しくは第2の像振れ補正手段又は第1及び第2の像振れ補正手段を移動させながら撮像手段で複数の画像を取得する画素ずらしの制御を行う制御手段を備えることを特徴とする撮像装置が開示されている。
 特開2014-21349号公報には、撮影レンズを構成するレンズ群若しくはレンズの少なくとも一部を可動レンズ群とし、制御部により当該可動レンズ群を光軸と直交する方向の成分を持つように移動させるように構成された撮像装置による画像取得方法であって、可動レンズ群を移動させて撮像素子の撮像面上における撮影レンズの光軸をシフトさせることにより、撮像面における光軸の位置が異なる2以上の画像を取得するステップ、及び、2以上の画像を合成して1つの画像を生成するステップ、を有することを特徴とする画像取得方法が開示されている。
 特開2000-13670号公報には、撮像手段と、振れを検出する振れ検出手段と、振れ検出手段の出力に基づいて像振れを補正する像振れ補正手段と、撮像手段上における像の位置を、像振れ補正手段を用いて微小変位させる画素ずらし手段と、画素ずらし手段によって撮像手段上像の位置を変位して撮像された複数の画像データに基づいて高解像度の画像を合成する画像合成手段と、像振れを補正することを目的とした第1の撮影モードと、高解像度の画像を合成することを目的とした第2の撮影モードを選択可能で、選択された撮影モードによって像振れ補正手段の駆動制御を変更する制御手段と、を備えたことを特徴とする撮像装置が開示されている。
 本開示の技術に係る一つの実施形態は、一例として、移動レンズを透過する光の波長帯域に応じた移動量で移動レンズを移動させることができるレンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、イメージセンサを有する撮像装置本体に設けられるレンズ装置であって、プロセッサと、プロセッサに接続又は内蔵されたメモリと、移動レンズを含み、入射した光をイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備え、プロセッサは、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行う、レンズ装置である。
 本開示の技術に係る第2の態様は、第1レンズと、第2レンズと、座標面に沿って第1レンズを移動させる第1駆動機構と、座標面に沿って第2レンズを移動させる第2駆動機構と、を備え、第1レンズ及び第2レンズのうちの少なくとも一方は、移動レンズである、第1の態様に係るレンズ装置である。
 本開示の技術に係る第3の態様は、プロセッサは、第1駆動機構に対し、イメージセンサに光が結像されることで得られる像のぶれが補正される方向へ第1レンズを移動させる制御を行い、第2駆動機構に対し、像をシフトさせる方向へ第2レンズを移動させる制御を行う、第2の態様に係るレンズ装置である。
 本開示の技術に係る第4の態様は、プロセッサは、第2駆動機構に対し、イメージセンサの画素ピッチ以上のピッチ、又は、イメージセンサの画素ピッチ未満のピッチで像がシフトする位置へ、第2レンズを移動させる制御を行う、第3の態様に係るレンズ装置である。
 本開示の技術に係る第5の態様は、第2レンズの単位移動量での移動に対するイメージセンサの受光面での像のシフト量は、第1レンズの単位移動量での移動に対するイメージセンサの受光面での像のぶれ補正量よりも小さい、第3の態様又は第4の態様に係るレンズ装置である。
 本開示の技術に係る第6の態様は、第2レンズの単位移動量での移動に対する、光軸上において移動後の第2レンズを通る中心光線のイメージセンサの受光面でのシフト量をS1とし、第2レンズの単位移動量での移動に対する、光軸上以外において移動後の第2レンズを通る周辺光線のイメージセンサの受光面でのシフト量をS2とした場合に、0.8≦S2/S1≦1.2の関係が成立する、第3の態様から第5の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第7の態様は、ズームレンズをさらに備え、第1レンズ及び第2レンズは、ズームレンズよりもイメージセンサ側に配置されている、第2の態様から第6の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第8の態様は、イメージセンサよりも被写体側に配置され、光に含まれる近赤外光を透過させる光学フィルタを備える、第2の態様から第6の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第9の態様は、フォーカスレンズをさらに備え、第1レンズ及び第2レンズは、フォーカスレンズよりもイメージセンサ側に配置されている、第2の態様から第8の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第10の態様は、絞りをさらに備え、第1レンズ及び第2レンズは、絞りよりもイメージセンサ側に配置されている、第2の態様から第9の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第11の態様は、移動レンズを透過する光の波長帯域を切り替える切替機構をさらに備える、第1の態様から第10の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第12の態様は、光を第1光と第2光とに分離する光分離機構と、第1光が透過する第1光レンズと、第2光が透過する第2光レンズと、を備え、第1光レンズ及び第2光レンズのうちの少なくとも一方は、移動レンズである、第1の態様から第11の態様の何れか一つに係るレンズ装置である。
 本開示の技術に係る第13の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、イメージセンサと、移動レンズを含み、入射した光をイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備え、プロセッサは、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行う、撮像装置である。
 本開示の技術に係る第14の態様は、プロセッサは、駆動機構に対し、イメージセンサの画素ピッチ以上のピッチ、又は、イメージセンサの画素ピッチ未満のピッチで、イメージセンサに光が結像されることで得られる像がシフトする位置へ、移動レンズを移動させる制御を行い、像がシフトする毎にイメージセンサに対し撮像を行わせ、撮像によって得られた複数のフレームの画像を合成する、第13の態様に係る撮像装置である。
 本開示の技術に係る第15の態様は、移動レンズを含み、入射した光を撮像装置本体のイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備えるレンズ装置の作動方法であって、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行うことを含む、レンズ装置の作動方法である。
 本開示の技術に係る第16の態様は、イメージセンサと、移動レンズを含み、入射した光をイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備える撮像装置の作動方法であって、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行うことを含む、撮像装置の作動方法である。
 本開示の技術に係る第17の態様は、移動レンズを含み、入射した光を撮像装置本体のイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備えるレンズ装置に対して適用されるコンピュータに、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行うことを含む処理を実行させるためのプログラムである。
 本開示の技術に係る第18の態様は、イメージセンサと、移動レンズを含み、入射した光をイメージセンサに結像させるレンズと、レンズの光軸と交差する座標面に沿って移動レンズに対して動力を付与することで、移動レンズを移動させる駆動機構と、を備える撮像装置に対して適用されるコンピュータに、駆動機構に対し、移動レンズを透過する光の波長帯域に基づいて、移動レンズの移動量を変更する制御を行うことを含む処理を実行させるためのプログラムである。
本開示の技術の一実施形態に係る監視システムの構成の一例を示す斜視図である。 本開示の技術の一実施形態に係る監視カメラの光学系の構成の一例を示す側面図である。 本開示の技術の一実施形態に係るフィルタユニット及びイメージセンサの構成の一例を示す斜視図である。 本開示の技術の一実施形態に係るイメージセンサの要部の構成の一例を示す正面図である。 本開示の技術の一実施形態に係る監視カメラ本体の構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るレンズ装置の構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るぶれ補正レンズの光学特性及びシフトレンズの光学特性の一例を比較する比較図である。 本開示の技術の一実施形態に係るシフトレンズの光学特性の詳細の一例を示す側面図である。 本開示の技術の一実施形態に係るレンズ装置のCPUの機能構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るフィルタ変更処理を実行するための構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るぶれ補正処理を実行するための構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るシフト処理を実行するための構成の一例を示すブロック図である。 本開示の技術の一実施形態に係る監視カメラにおける合成画像を得るための構成の一例を示すブロック図である。 本開示の技術の一実施形態に係るフィルタ変更処理の流れの一例を示すフローチャートである。 本開示の技術の一実施形態に係るぶれ補正処理の流れの一例を示すフローチャートである。 本開示の技術の一実施形態に係るシフト処理の流れの一例を示すフローチャートである。 第1変形例に係る監視カメラの光学系の構成の一例を示す側面図である。 第2変形例に係る監視カメラの光学系の構成の一例を示す側面図である。 第3変形例に係る監視カメラの光学系の構成の一例を示す側面図である。
 以下、添付図面に従って本開示の技術に係るレンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。NVMとは、“Non-Volatile Memory”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。BPFとは、“Band Pass Filter”の略称を指す。Irとは、“Infrared Rays”の略称を指す。
 本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの垂直を指す。本明細書の説明において、「水平」とは、完全な水平の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの水平を指す。本明細書の説明において、「平行」とは、完全な平行の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの平行を指す。本明細書の説明において、「直交」とは、完全な直交の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの直交を指す。本明細書の説明において、「一致」とは、完全な一致の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの一致を指す。本明細書の説明において、「等間隔」とは、完全な等間隔の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの等間隔を指す。
 以下、本開示の技術の一実施形態について説明する。
 (監視システム)
 一例として図1に示すように、監視システムSは、監視カメラ10及び管理装置11を備える。監視カメラ10は、本開示の技術に係る「撮像装置」の一例である。
 監視カメラ10は、屋内外の柱又は壁等に設置され、被写体である監視対象を撮像し、撮像することで動画像を生成する。動画像には、撮像することで得られた複数フレームの画像が含まれている。監視カメラ10は、撮像することで得た動画像を、通信ライン12を介して管理装置11に送信する。管理装置11は、監視カメラ10によって送信された動画像を受信し、受信した動画像をディスプレイ13に表示したり、記憶装置14に記憶したりする。
 なお、図1に示すX軸は、監視カメラ10のピッチ軸に相当し、Y軸は、監視カメラ10のヨー軸に相当し、Z軸は、監視カメラ10のロール軸に相当する。以降、X軸に沿う方向をX軸方向と称し、Y軸に沿う方向をY軸方向と称し、Z軸に沿う方向をZ軸方向と称する。X軸方向、Y軸方向、及びZ軸方向は互いに直交している。以下の説明で用いるX-Y座標面は、X軸方向及びY軸方向で規定される。
 (監視カメラ)
 一例として図2に示すように、監視カメラ10は、監視カメラ本体20及びレンズ装置70を備える。監視カメラ本体20は、本開示の技術に係る「撮像装置本体」の一例である。監視カメラ本体20は、レンズマウント22を備える。レンズ装置70は、監視カメラ本体20とは別体であり、レンズマウント22に着脱可能に装着される。レンズ装置70は、レンズマウント22に装着されることにより、監視カメラ本体20に設けられる。
 監視カメラ本体20は、イメージセンサ24を備える。イメージセンサ24は、例えば、CMOSイメージセンサであり、受光した光を光電変換し、受光した光に応じた電気信号を出力する。CMOSイメージセンサは、あくまでも一例に過ぎず、イメージセンサ24は、CCDイメージセンサ等のCMOSイメージセンサとは動作方式が異なるイメージセンサであってもよい。
 イメージセンサ24は、受光面24Aを有する。レンズ装置70に入射された撮像領域光は、レンズ装置70によって受光面24Aに結像される。撮像領域光が受光面24Aに結像されることで像が得られる。受光面24Aには、複数のフォトダイオードがマトリクス状に配置されている。各フォトダイオードは、撮像領域光を受光する。イメージセンサ24は、撮像領域光を受光することで撮像領域を撮像する。一例として、複数のフォトダイオードには、可視光に感度を有するシリコンフォトダイオードと、近赤外光に感度を有するインジウム・ガリウム・ヒ素フォトダイオードとが含まれている。イメージセンサ24は、受光面24Aに結像された撮像領域光に含まれる可視光及び近赤外光の各々について撮像を行う。
 レンズ装置70は、光軸OAを有する。光軸OAは、一例として、受光面24Aの中心を通り、受光面24Aと垂直な軸である。光軸OAは、Z軸と平行である。レンズ装置70は、一例として、フォーカスレンズ72、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、及びシフトレンズ82を備える。光軸OAは、フォーカスレンズ72、ズームレンズ74、ぶれ補正レンズ80、及びシフトレンズ82の各レンズの中心を通る軸である。光軸OAは、フォーカスレンズ72、ズームレンズ74、ぶれ補正レンズ80、及びシフトレンズ82の各レンズの光軸でもある。
 光軸OAに沿って被写体側から像側にかけて順に、フォーカスレンズ72、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、及びシフトレンズ82が配置されている。ぶれ補正レンズ80及びシフトレンズ82は、一例として、ズームレンズ74よりもイメージセンサ24側に配置されている。また、ぶれ補正レンズ80及びシフトレンズ82は、一例として、フォーカスレンズ72よりもイメージセンサ24側に配置されている。また、ぶれ補正レンズ80及びシフトレンズ82は、一例として、絞り76よりもイメージセンサ24側に配置されている。フィルタユニット78は、イメージセンサ24よりも被写体側に配置されている。フィルタユニット78は、一例として、絞り76とぶれ補正レンズ80との間に配置されている。
 ぶれ補正レンズ80は、本開示の技術に係る「移動レンズ」及び「第1レンズ」の一例であり、シフトレンズ82は、本開示の技術に係る「移動レンズ」及び「第2レンズ」の一例である。フォーカスレンズ72、ズームレンズ74、ぶれ補正レンズ80、及びシフトレンズ82を含む複数のレンズは、本開示の技術に係る「レンズ」の一例である。光軸OAは、本開示の技術に係る「レンズの光軸」の一例であり、X-Y座標面は、本開示の技術に係る「レンズの光軸と交差する座標面」の一例である。X軸方向は、本開示の技術に係る「第1方向」の一例であり、Y軸方向は、本開示の技術に係る「第1方向に交差する第2方向」の一例である。
 フォーカスレンズ72には、撮像領域光が入射される。フォーカスレンズ72は、入射された撮像領域光をズームレンズ74に導く。ズームレンズ74は、光軸OAに沿って移動可能な複数のレンズを有するレンズ群からなり、撮像領域のズーミングに用いられる。
 絞り76は、開口76Aを有する。ズームレンズ74によって導かれた撮像領域光は開口76Aを通過する。絞り76は、開口76Aの口径を変更可能な可動式の絞りである。すなわち、撮像領域光の光量は、絞り76によって変更される。
 フィルタユニット78には、絞り76を透過した撮像領域光が入射される。詳しくは後述するが、フィルタユニット78は、透光性を有する複数の光学フィルタを有しており、複数の光学フィルタのうち光を透過する光学フィルタが切り替えられることで、撮像領域光に含まれる複数の波長帯域の光(一例として、可視光、及び、近赤外波長帯域内の異なる波長帯域の近赤外光)を選択的に透過させる。フィルタユニット78は、本開示の技術に係る「レンズを透過する光の波長帯域を切り替える切替機構」の一例である。
 ぶれ補正レンズ80は、後述する如くイメージセンサ24に撮像領域光が結像されることで得られる像のぶれを補正するためのレンズであり、シフトレンズ82は、像をイメージセンサ24の受光面24Aに沿ってシフトさせるためのレンズである。ぶれ補正レンズ80及びシフトレンズ82は、マスターレンズ群を形成している。マスターレンズ群には、ぶれ補正レンズ80及びシフトレンズ82以外のレンズが含まれてもよい。
 シフトレンズ82に入射された撮像領域光は受光面24Aに結像される。このように、レンズ装置70に入射した撮像領域光は、レンズ装置70に備えられた複数のレンズによってイメージセンサ24に導かれ、イメージセンサ24の受光面24Aに結像される。なお、フォーカスレンズ72、ズームレンズ74、ぶれ補正レンズ80、及びシフトレンズ82の各々は、単一のレンズでもよく、また、複数のレンズを有するレンズ群でもよい。また、レンズ装置70は、フォーカスレンズ72、ズームレンズ74、ぶれ補正レンズ80、及びシフトレンズ82に加えてその他のレンズを備えていてもよい。さらに、フォーカスレンズ72、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、及びシフトレンズ82の並び順は上記以外でもよい。
 (フィルタユニット78)
 一例として図3に示すように、フィルタユニット78は、円板84を備える。一例として、円板84には、周方向に沿って等間隔に複数の光学フィルタとして、Irカットフィルタ86、第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88Dが設けられている。以下では、特に区別して説明する必要がない場合、Irカットフィルタ86、第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88Dを光学フィルタと称する。また、以下では、特に区別して説明する必要がない場合、第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88DをBPF88と称する。
 フィルタユニット78は、ターレット方式で複数の光学フィルタを、レンズ装置70内での撮像領域光の光路(以下、単に「光路」と称する)に対して選択的に挿脱させる。具体的には、フィルタユニット78が周方向(例えば、図3に示す円弧破線矢印方向)に沿って回転することで、Irカットフィルタ86、第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88Dが、光路(図3に示す例では、光軸OA)に対して選択的に挿脱される。これにより、Irカットフィルタ86、第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88Dは、それぞれ異なる波長帯域の光を透過させる。
 光学フィルタが光路に挿入されると、光学フィルタの中心を光軸OAが貫き、光路に挿入された光学フィルタの中心と受光面24Aの中心とが一致する。図3に示す例では、Irカットフィルタ86が光路に挿入されているので、Irカットフィルタ86の中心を光軸OAが貫いており、Irカットフィルタ86の中心と受光面24Aの中心とが一致している。
 Irカットフィルタ86は、赤外線をカットし、赤外線以外の光のみを透過させる光学フィルタである。BPF88は、近赤外光を透過させる光学フィルタである。第1BPF88A、第2BPF88B、第3BPF88C、及び第4BPF88Dは、それぞれ異なる波長帯域の近赤外光を透過させる。
 第1BPF88Aは、1000nm(ナノメートル)近傍の帯域に対応している光学フィルタである。すなわち、第1BPF88Aは、1000nm近傍の帯域の近赤外光のみを透過させる。第2BPF88Bは、1250nm近傍の帯域に対応している光学フィルタである。すなわち、第2BPF88Bは、1250nm近傍の帯域の近赤外光のみを透過させる。第3BPF88Cは、1550nm近傍の帯域に対応している光学フィルタである。すなわち、第3BPF88Cは、1550nm近傍の帯域の近赤外光のみを透過させる。第4BPF88Dは、2150nm近傍の帯域に対応している光学フィルタである。すなわち、第4BPF88Dは、2150nm近傍の帯域の近赤外光のみを透過させる。なお、ここで挙げた各帯域には、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨を逸脱しない範囲内の誤差も含まれている。また、ここで挙げた各波長帯域は、あくまでも一例に過ぎず、それぞれ異なる波長帯域であればよい。
 (イメージセンサ)
 一例として図4に示すように、イメージセンサ24は、受光部26及び色フィルタ部28を有する。受光部26は、複数の第1受光素子30及び複数の第2受光素子32を有する。第1受光素子30の一例としては、インジウム・ガリウム・ヒ素フォトダイオードが挙げられる。第2受光素子32の一例としては、シリコンフォトダイオードが挙げられる。
 複数の第1受光素子30及び複数の第2受光素子32の上には、色フィルタ部28が配置されている。色フィルタ部28は、Irフィルタ、Rフィルタ、Gフィルタ、及びBフィルタを有する。Irフィルタは、近赤外(Ir)成分の光を透過するフィルタである。Rフィルタは、赤(R)成分の光を透過するフィルタである。Gフィルタは、緑(G)成分の光を透過するフィルタである。Bフィルタは、青(B)成分の光を透過するフィルタである。なお、色フィルタ部28に配置されるフィルタは自由に変更でき、全てがIr成分の光を透過するフィルタであってもよい。
 第1受光素子30は、Ir成分の光に感度を有する受光素子である。第2受光素子32は、R成分の光に感度を有する受光素子32Rと、G成分の光に感度を有する受光素子32Gと、B成分の光に感度を有する受光素子32Bとに大別される。
 第1受光素子30上にはIrフィルタが配置されている。受光素子32R上にはRフィルタが配置されている。受光素子32G上にはGフィルタが配置されている。受光素子32B上にはBフィルタが配置されている。なお、受光素子32R、36G及び36Bの各々には、近赤外光を遮断するフィルタが更に配置されている。
 このように構成されたイメージセンサ24では、複数の第1受光素子30が、複数のBPF88のいずれかを透過した近赤外光を受光し、受光した近赤外光に基づいて近赤外光画像62を生成して出力し、複数の第2受光素子32が、Irカットフィルタ86を透過した可視光を受光し、受光した可視光に基づいて可視光画像60を生成して出力する。
 (監視カメラ本体)
 一例として図5に示すように、監視カメラ本体20は、コントローラ40及びUI系装置50を備える。
 コントローラ40は、監視カメラ本体20の動作を制御する。コントローラ40は、CPU42、NVM44、及びRAM46を備える。CPU42、NVM44、及びRAM46は、バス48に接続されている。
 NVM44は、各種パラメータ及び各種プログラムを記憶している。NVM44の一例としては、EEPROM(例えば、フラッシュ型EEPROM)が挙げられる。EEPROMは、あくまでもNVM44の一例に過ぎない。NVM44は、SSD及び/又はHDD等の各種の不揮発性の記憶装置であればよい。RAM46は、各種情報を一時的に記憶し、ワークメモリとして用いられる。RAM46の一例としては、DRAMが挙げられる。DRAMは、あくまでもRAM46の一例に過ぎない。RAM46は、SRAMであってもよく、各種の揮発性の記憶装置であればよい。
 NVM44には、各種プログラムが記憶されている。CPU42は、NVM44から必要なプログラムを読み出し、読み出したプログラムをRAM46上で実行する。CPU42は、RAM46上で実行するプログラムに従って各種処理を実行する。
 UI系装置50も、バス48に接続されている。UI系装置50は、CPU42の制御下で、ユーザから与えられた指示を受け付けたり、監視カメラ10によって処理されることで得られた各種情報をユーザに提示したりする。
 また、監視カメラ本体20は、イメージセンサドライバ52、信号処理装置54、ぶれ量検出センサ56、及び通信I/F58を備える。イメージセンサドライバ52、信号処理装置54、ぶれ量検出センサ56、及び通信I/F58は、バス48に接続されている。
 一例として図2に示すように、イメージセンサ24は、光軸OA上において、シフトレンズ82よりも後段、すなわち、シフトレンズ82よりも像側に位置している。一例として図3に示すように、Irカットフィルタ86が光軸OA上に配置されている状態において、イメージセンサ24は、シフトレンズ82によって受光面24Aに結像された可視光に基づいて撮像領域を撮像することで、図4に示す可視光画像60を生成し、生成した可視光画像60を後段に出力する。可視光画像60は、可視光による撮像領域を示す画像である。
 BPF88(図3参照)が光軸OA上に配置されている状態において、イメージセンサ24は、シフトレンズ82によって受光面24Aに結像された近赤外光に基づいて撮像領域を撮像することで、図4に示す近赤外光画像62を生成し、生成した近赤外光画像62を後段に出力する。近赤外光画像62は、近赤外光による撮像領域を示す画像である。なお、以下では、近赤外光画像62及び可視光画像60を区別して説明する必要がない場合、符号を付さずに「撮像画像」と称する。
 一例として図5に示すように、イメージセンサ24には、イメージセンサドライバ52及び信号処理装置54が接続されている。イメージセンサドライバ52は、CPU42の制御下で、タイミング制御信号をイメージセンサ24に出力する。タイミング制御信号は、イメージセンサ24による撮像を制御する信号である。イメージセンサ24による撮像のフレームレートは、タイミング制御信号によって規定されている。
 タイミング制御信号には、垂直同期信号及び水平同期信号が含まれている。垂直同期信号は、1フレーム分のアナログ画像の送信を開始するタイミングを規定する信号である。水平同期信号は、1水平ライン分のアナログ画像の出力を開始するタイミングを規定する信号である。イメージセンサ24は、イメージセンサドライバ52から入力された垂直同期信号に従ってフレーム単位での撮像画像の信号処理装置54への出力を開始する。また、イメージセンサ24は、イメージセンサドライバ52から入力された水平同期信号に従って水平ライン単位での撮像画像の信号処理装置54への出力を開始する。
 信号処理装置54は、CPU42の制御下で、イメージセンサ24から入力された撮像画像に対して、デモザイク処理、ノイズ除去処理、階調補正処理、及び色補正処理等の信号処理を施す。信号処理済みの撮像画像は、信号処理装置54によってCPU42に出力される。CPU42は、信号処理装置54から入力された撮像画像を既定の記憶領域(例えば、NVM44及び/又はRAM46等)に格納する。
 ぶれ量検出センサ56は、例えば図2に示す監視カメラ10のぶれの量(以下、単に「ぶれ量」とも称する)を検出する。監視カメラ10のぶれとは、監視カメラ10において、光軸OAと受光面24Aとの位置関係が変動する現象を指す。監視カメラ10のぶれが発生すると、像のぶれが発生する。像の一例としては、イメージセンサによって撮像されることで得られた画像、及び/又は、受光面24Aに結像されることで得られた光学的な像(以下、単に「像」又は「被写体像」とも称する)が挙げられる。本実施形態において、「像のぶれ」とは、振動現象に伴って光軸OAが傾くことにより被写体像が基準位置からずれる現象、すなわち、光軸OAの被写体に対する相対的な移動に伴って被写体像が基準位置からずれる現象を指す。振動現象とは、監視カメラ10の外部(例えば、手、風、及び/又は車両等)及び/又は監視カメラ10の内部(例えば、監視カメラ10に搭載されているモータ)から振動がレンズ装置70に伝達されることによりレンズ装置70が振動する現象を指す。また、「光軸OAが傾く」とは、例えば、基準軸(例えば、振動現象が発生する前の光軸OA(すなわち、監視カメラ10が静止しているときの光軸OA))に対して光軸OAが傾くことを意味する。また、「基準位置」とは、例えば、レンズ装置70に対して振動が与えられていない状態で得られる被写体像の位置(例えば、受光面24A内での被写体像の位置)を指す。
 図5に示すぶれ量検出センサ56は、例えば、ジャイロセンサである。ジャイロセンサは、X軸、Y軸、及びZ軸の各軸周りの回転ぶれの量を検出する。ぶれ量検出センサ56は、ジャイロセンサによって検出されたX軸周りの回転ぶれの量及びY軸周りの回転ぶれの量をX軸及びY軸に平行な2次元状の面内でのぶれ量に変換することで、監視カメラ10のぶれ量を検出する。なお、本実施形態での平行の意味には、完全な平行の意味の他に、設計上及び製造上において許容される誤差を含む略平行の意味も含まれる。
 ここでは、ぶれ量検出センサ56の一例としてジャイロセンサを挙げているが、これはあくまでも一例であり、ぶれ量検出センサ56は、加速度センサであってもよい。加速度センサは、X軸とY軸に平行な2次元状の面内でのぶれ量を検出する。ぶれ量検出センサ56は、検出したぶれ量をCPU42に出力する。
 また、ここでは、ぶれ量検出センサ56という物理的なセンサによってぶれ量が検出される形態例を挙げているが、本開示の技術はこれに限定されない。例えば、NVM44又はRAM46に記憶された時系列的に前後する撮像画像を比較することで得た動きベクトルをぶれ量として用いてもよい。また、物理的なセンサによって検出されたぶれ量と、画像処理によって得られた動きベクトルとに基づいて最終的に使用されるぶれ量が導出されるようにしてもよい。
 通信I/F58は、例えば、ネットワークインターフェースであり、ネットワークを介して、管理装置11との間で各種情報の伝送制御を行う。ネットワークの一例としては、インターネット又は公衆通信網等のWANが挙げられる。通信I/F58は、図1に示す監視カメラ10と管理装置11との間の通信を司る。
 (レンズ装置)
 一例として図6に示すように、レンズ装置70は、コントローラ90を備える。コントローラ90は、レンズ装置70の動作を制御する。コントローラ90は、CPU92、NVM94、及びRAM96を備える。コントローラ90は、「レンズ装置に対して適用されるコンピュータ」の一例であり、CPU92は、本開示の技術に係る「プロセッサ」の一例であり、RAM96は、本開示の技術に係る「メモリ」の一例である。CPU92、NVM94、及びRAM96は、バス98に接続されている。
 一例として図2に示すように、監視カメラ本体20のレンズマウント22にレンズ装置70が装着された状態では、監視カメラ本体20に設けられたコネクタ(図示省略)及びレンズ装置70に設けられたコネクタ(図示省略)が接続される。そして、監視カメラ本体20のコネクタ及びレンズ装置70のコネクタ等を含む接続経路を介して、図5に示す監視カメラ本体20のCPU42と、図6に示すレンズ装置70のCPU92とが通信可能に接続される。レンズ装置70のCPU92は、監視カメラ本体20のCPU42から与えられた指示に従ってレンズ装置70の動作を制御する。
 NVM94は、各種パラメータ及び各種プログラムを記憶している。NVM94の一例としては、EEPROM(例えば、フラッシュ型EEPROM)が挙げられる。EEPROMは、あくまでもNVM94の一例に過ぎない。NVM94は、SSD及び/又はHDD等の各種の不揮発性の記憶装置であればよい。RAM96は、各種情報を一時的に記憶し、ワークメモリとして用いられる。RAM96の一例としては、DRAMが挙げられる。DRAMは、あくまでもRAM96の一例に過ぎない。RAM96は、SRAMであってもよく、各種の揮発性の記憶装置であればよい。
 NVM94には、各種プログラムが記憶されている。CPU92は、NVM94から必要なプログラムを読み出し、読み出したプログラムをRAM96上で実行する。CPU92は、RAM96上で実行するプログラムに従って各種処理を実行する。また、ここで言う「各種プログラム」には、後述の撮像支援処理プログラム100(図9参照)も含まれる。
 レンズ装置70において、互いに直交する三軸方向は、X軸方向、Y軸方向、及びZ軸方向で規定されている。一例として図2に示すように、監視カメラ本体20のレンズマウント22にレンズ装置70が装着された状態では、がたつき等の影響により、レンズ装置70のX軸方向、Y軸方向、及びZ軸方向が、それぞれ監視カメラ10のX軸方向、Y軸方向、及びZ軸方向に対してずれる可能性があるが、以下では、便宜上、レンズ装置70のX軸方向、Y軸方向、及びZ軸方向が、監視カメラ10のX軸方向、Y軸方向、及びZ軸方向とそれぞれ一致することとする。X軸方向及びY軸方向は、それぞれレンズ装置70の光軸OAと直交する方向であり、Z軸方向は、光軸OAと平行な方向である。
 一例として図6に示すように、レンズ装置70は、第1モータドライバ102、第2モータドライバ104、第3モータドライバ106、第4モータドライバ108、第5モータドライバ110、及び第6モータドライバ112を備える。また、レンズ装置70は、第1モータ118、第2モータ120、第3モータ122、第4モータ124、第5モータ126、及び第6モータ128を備える。さらに、レンズ装置70は、第1位置センサ134、第2位置センサ136、第3位置センサ138、第4位置センサ140、第5位置センサ142、及び第6位置センサ144を備える。
 第1モータドライバ102、第2モータドライバ104、第3モータドライバ106、第4モータドライバ108、第5モータドライバ110、第6モータドライバ112、第1位置センサ134、第2位置センサ136、第3位置センサ138、第4位置センサ140、第5位置センサ142、及び第6位置センサ144は、バス98に接続されている。
 第1位置センサ134、第2位置センサ136、第3位置センサ138、第4位置センサ140、第5位置センサ142、第6位置センサ144の各々の一例としては、ポテンショメータが挙げられる。
 第1位置センサ134は、Z軸方向におけるフォーカスレンズ72の位置を検出する。第2位置センサ136は、Z軸方向におけるズームレンズ74の位置を検出する。第3位置センサ138は、絞り76に形成された開口76Aの口径を検出する。第4位置センサ140は、光軸OAに対するフィルタユニット78の回転位置を検出する。第5位置センサ142は、X-Y座標面におけるぶれ補正レンズ80の位置を検出する。第6位置センサ144は、X-Y座標面におけるシフトレンズ82の位置を検出する。
 第1位置センサ134による検出結果は、第1位置センサ134によってCPU92に出力される。第2位置センサ136による検出結果は、第2位置センサ136によってCPU92に出力される。第3位置センサ138による検出結果は、第3位置センサ138によってCPU92に出力される。第4位置センサ140による検出結果は、第4位置センサ140によってCPU92に出力される。第5位置センサ142による検出結果は、第5位置センサ142によってCPU92に出力される。第6位置センサ144による検出結果は、第6位置センサ144によってCPU92に出力される。
 フォーカスレンズ72は、第1スライド機構(図示省略)に取り付けられている。第1スライド機構は、第1モータ118の駆動軸に機械的に接続されており、第1モータ118の動力を受けることでフォーカスレンズ72をZ軸方向に沿って移動させる。第1モータドライバ102は、第1モータ118に接続されており、CPU92からの指示に従って第1モータ118を制御する。CPU92は、第1位置センサ134による検出結果に基づいて第1モータドライバ102を介して第1モータ118を制御することで、Z軸方向におけるフォーカスレンズ72の位置を制御する。
 ズームレンズ74は、第2スライド機構(図示省略)に取り付けられている。第2スライド機構は、第2モータ120の駆動軸に機械的に接続されており、第2モータ120の動力を受けることでズームレンズ74をZ軸方向に沿って移動させる。第2モータドライバ104は、第2モータ120に接続されており、CPU92からの指示に従って第2モータ120を制御する。CPU92は、第2位置センサ136による検出結果に基づいて第2モータドライバ104を介して第2モータ120を制御することで、Z軸方向におけるズームレンズ74の位置を制御する。
 絞り76は、開口76Aを開閉可能な複数枚の羽根(図示省略)を有する。複数枚の羽根は、第3モータ122の駆動軸に機械的に接続されており、第3モータ122の動力を受けることで開口76Aを開閉する。第3モータドライバ106は、第3モータ122に接続されており、CPU92からの指示に従って第3モータ122を制御する。CPU92は、第3位置センサ138による検出結果と、図5に示す受光面24Aでの受光量とに基づいて、図6に示す第3モータドライバ106を介して第3モータ122を制御することで、開口76Aの開度を調節する。
 フィルタユニット78は、回転機構(図示省略)に取り付けられている。回転機構は、第4モータ124の駆動軸に機械的に接続されており、第4モータ124の動力を受けることで、フィルタユニット78(図3参照)を周方向に回転させることにより、複数の光学フィルタを光路に挿脱させる。第4モータドライバ108は、第4モータ124に接続されており、CPU92からの指示に従って第4モータ124を制御する。CPU92は、第4位置センサ140による検出結果に基づいて第4モータドライバ108を介して第4モータ124を制御することで、光軸OAに対するフィルタユニット78の回転位置を制御する。
 ぶれ補正レンズ80は、第5スライド機構(図示省略)に取り付けられている。第5スライド機構は、第5モータ126の駆動軸に機械的に接続されており、第5モータ126の動力を受けることでぶれ補正レンズ80をX-Y座標面に沿って移動させる。つまり、ぶれ補正レンズ80は、X軸方向及びY軸方向の両方の軸方向に沿って移動する。第5モータドライバ110は、第5モータ126に接続されており、CPU92からの指示に従って第5モータ126を制御する。CPU92は、第5位置センサ142による検出結果に基づいて第5モータドライバ110を介して第5モータ126を制御することで、X-Y座標面におけるぶれ補正レンズ80の位置を制御する。第5モータ126は、本開示の技術に係る「駆動機構」及び「第1駆動機構」の一例である。
 なお、ぶれ補正レンズ80をX-Y座標面に沿って移動させる第5モータ126は、具体的には、ぶれ補正レンズ80をX軸方向に沿って移動させるX軸モータと、ぶれ補正レンズ80をY軸方向に沿って移動させるY軸モータとを含む。第5モータ126を形成するX軸モータ及びY軸モータは、例えば、ボイスコイルモータである。また、X-Y座標面におけるぶれ補正レンズ80の位置を検出する第5位置センサは、具体的には、X軸方向におけるぶれ補正レンズ80の位置を検出するX軸位置センサと、Y軸方向におけるぶれ補正レンズ80の位置を検出するY軸位置センサとを含む。
 シフトレンズ82は、第6スライド機構(図示省略)に取り付けられている。第6スライド機構は、第6モータ128の駆動軸に機械的に接続されており、第6モータ128の動力を受けることでシフトレンズ82をX-Y座標面に沿って移動させる。つまり、シフトレンズ82は、X軸方向及びY軸方向の両方の軸方向に沿って移動する。第6モータドライバ112は、第6モータ128に接続されており、CPU92からの指示に従って第6モータ128を制御する。CPU92は、第6位置センサ144による検出結果に基づいて第6モータドライバ112を介して第6モータ128を制御することで、X-Y座標面におけるシフトレンズ82の位置を制御する。第6モータ128は、本開示の技術に係る「駆動機構」及び「第2駆動機構」の一例である。
 なお、シフトレンズ82をX-Y座標面に沿って移動させる第6モータ128は、具体的には、シフトレンズ82をX軸方向に沿って移動させるX軸モータと、シフトレンズ82をY軸方向に沿って移動させるY軸モータとを含む。第6モータ128を形成するX軸モータ及びY軸モータは、例えば、直流モータである。第6モータ128を形成するX軸モータ及びY軸モータの代わりに、例えば、圧電素子が用いられてもよい。また、X-Y座標面におけるシフトレンズ82の位置を検出する第6位置センサは、具体的には、X軸方向におけるシフトレンズ82の位置を検出するX軸位置センサと、Y軸方向におけるシフトレンズ82の位置を検出するY軸位置センサとを含む。
 上記構成のレンズ装置70では、第5モータ126及び第6モータ128の間での振動の伝達を抑制するために、第5モータ126及び第6モータ128は、振動が伝達されない程度に互いに離隔されていることが好ましい。また、第5モータ126は、例えばゴムシートなどの防振用の弾性部材を介してレンズ装置70の筐体に対して固定されていることが好ましい。同様に、第6モータ128は、例えばゴムシートなどの防振用の弾性部材を介してレンズ装置70の筐体に対して固定されていることが好ましい。
 (ぶれ補正レンズの光学特性及びシフトレンズの光学特性の比較)
 図7には、ぶれ補正レンズ80の光学特性及びシフトレンズ82の光学特性の一例が比較して示されている。ぶれ補正レンズ80の光学特性及びシフトレンズ82の光学特性は相違する。ここで言う光学特性とは、例えば、レンズの厚み、径、及び材料等に起因する特性であり、例えば、屈折率等を含む光学的な特性である。以下、ぶれ補正レンズ80の光学特性及びシフトレンズ82の光学特性の相違を、ぶれ補正レンズ80のぶれ補正感度及びシフトレンズ82のシフト感度の相違に基づいて説明する。
 なお、図7の上段において、二点鎖線で示すぶれ補正レンズ80は、像のぶれを補正する前のぶれ補正レンズ80を表しており、実線で示すぶれ補正レンズ80は、像のぶれを補正する位置に移動したぶれ補正レンズ80を表している。また、光軸OAは、イメージセンサ24の受光面24Aの中心を通り受光面24Aに垂直な光軸OAを表しており、光軸OA1は、像のぶれを補正する前のぶれ補正レンズ80の光軸を表している。像のぶれを補正する位置にぶれ補正レンズ80が移動すると、光軸OA1上において移動後のぶれ補正レンズ80を通る中心光線E1が受光面24Aの中心に結像される。
 本説明において、ぶれ補正レンズ80のぶれ補正感度とは、ぶれ補正レンズ80の単位移動量Aに対するイメージセンサ24の受光面24Aでの像のぶれ補正量B1の割合のことである。ぶれ補正レンズ80の単位移動量Aとは、ぶれ補正レンズ80がX軸方向又はY軸方向に移動する場合の予め定められた一定の移動量のことである。像のぶれ補正量B1とは、像のぶれが補正されることに伴う像の中心の移動量のことであり、イメージセンサ24の受光面24Aでの光軸OA1及び光軸OA間の距離に相当する。本説明において、像のぶれを補正するとは、ぶれた像の中心をぶれが生じる前の光軸OA上に戻すことである。
 また、図7の下段において、二点鎖線で示すシフトレンズ82は、像をシフトさせる前のシフトレンズ82を表しており、実線で示すぶれシフトレンズ82は、像をシフトさせる位置に移動したシフトレンズ82を表している。また、光軸OAは、イメージセンサ24の受光面24Aの中心を通り受光面24Aに垂直な光軸OAを表しており、光軸OA2は、像をシフトさせる前のシフトレンズ82の光軸を表している。像をシフトさせる位置にシフトレンズ82が移動すると、光軸OA2(光軸OA)上において移動後のシフトレンズ82を通る中心光線E2が受光面24Aの中心からシフト量B2だけシフトした位置に結像される。
 本説明において、シフトレンズ82のシフト感度とは、シフトレンズ82の単位移動量Aに対するイメージセンサ24の受光面24Aでの像のシフト量B2の割合のことである。シフトレンズ82の単位移動量Aとは、シフトレンズ82がX軸方向又はY軸方向に移動する場合の予め定められた一定の移動量のことである。像のシフト量B2とは、像がシフトされることに伴う像の中心の移動量のことである。
 本説明では、ぶれ補正レンズ80の厚み方向の中心C1からイメージセンサ24の受光面24Aまでの距離D1と、シフトレンズ82の厚み方向の中心C2からイメージセンサ24の受光面24Aまでの距離D2とが同じであると仮定して、ぶれ補正レンズ80のぶれ補正感度及びシフトレンズ82のシフト感度の相違を具体的に説明する。
 一例として図7に示すように、距離D1及び距離D2が同じであると仮定した場合に、シフトレンズ82のシフト感度は、ぶれ補正レンズ80のぶれ補正感度よりも低い。つまり、ぶれ補正レンズ80の単位移動量Aとシフトレンズ82の単位移動量Aとが同じである場合、シフトレンズ82の単位移動量Aでの移動に対するイメージセンサ24の受光面24Aでの像のシフト量B2は、ぶれ補正レンズ80の単位移動量Aでの移動に対するイメージセンサ24の受光面24Aでの像のぶれ補正量B1よりも小さい。換言すれば、シフトレンズ82のシフト感度がぶれ補正レンズ80のぶれ補正感度よりも低くなる値に、ぶれ補正レンズ80の光学特性値及びシフトレンズ82の光学特性値がそれぞれ設定されている。
 なお、本説明では、説明上、ぶれ補正レンズ80の厚み方向の中心C1からイメージセンサ24の受光面24Aまでの距離D1と、シフトレンズ82の厚み方向の中心C2からイメージセンサ24の受光面24Aまでの距離D2とが同じであると仮定した。しかしながら、図2に示す通り、ぶれ補正レンズ80とシフトレンズ82は、光軸OA上にずれて配置されている。したがって、図2に示すぶれ補正レンズ80及びシフトレンズ82の配置では、ぶれ補正レンズ80の厚み方向の中心からイメージセンサ24の受光面24Aまでの距離は、シフトレンズ82の厚み方向の中心からイメージセンサ24の受光面24Aまでの距離と異なる。
 続いて、シフトレンズ82の光学特性をより詳細に説明する。図8には、シフトレンズ82の光学特性の一例がより詳細に示されている。なお、図8において、二点鎖線で示すシフトレンズ82は、像をシフトさせる前のシフトレンズ82を表しており、実線で示すぶれシフトレンズ82は、像をシフトさせる位置に移動したシフトレンズ82を表している。また、光軸OAは、イメージセンサ24の受光面24Aの中心を通り受光面24Aに垂直な光軸を表している。
 シフト量S1は、シフトレンズ82の単位移動量Aでの移動に対する、光軸OA上において移動後のシフトレンズ82を通る中心光線F1のイメージセンサ24の受光面24Aでのシフト量であり、シフト量S2は、シフトレンズ82の単位移動量Aでの移動に対する、光軸OA上以外において移動後のシフトレンズ82を通る周辺光線F2のイメージセンサ24の受光面24Aでのシフト量である。そして、シフトレンズ82では、0.8≦S2/S1≦1.2の関係が成立する。換言すれば、0.8≦S2/S1≦1.2の関係が成立する値に、シフトレンズ82の光学特性値が設定されている。
 ここで、S2/S1の値が上記規定範囲の外である場合、すなわち、S2/S1<0.8である場合、又は、1.2<S2/S1である場合、イメージセンサ24によって撮像されることで得られる撮像画像の画像画素値の連続性が失われ、画像画素の境界部分が不自然(例えばギザギザ)になり、撮像画像の画質が許容外になる。また、撮像画像に対してエッジ強調などの画像処理を加える場合に、画像処理がうまくいかずに撮像画像の解像度が低下する。一方、0.8≦S2/S1≦1.2の関係が成立する値に、シフトレンズ82の光学特性値が設定されていると、撮像画像の画質が許容内に収まる。また、S2/S1の値が上記規定範囲の外である場合に比して、撮像画像の解像度が向上する。
 (レンズ装置のCPUの機能構成)
 一例として図9に示すように、撮像支援処理は、レンズ装置70のCPU92によって撮像支援処理プログラム100が実行されることで実現される。撮像支援処理プログラム100は、本開示の技術に係る「プログラム」の一例である。図9に示す例では、NVM94に撮像支援処理プログラム100が記憶されており、CPU92が、NVM94から撮像支援処理プログラム100を読み出し、RAM96上で実行する。
 CPU92は、RAM96上で実行する撮像支援処理プログラム100に従って撮像支援処理を行う。CPU92は、RAM96上で撮像支援処理プログラム100を実行することで、取得部150、フィルタ制御部152、ぶれ補正量算出部154、ぶれ補正制御部156、シフト量算出部158、及びシフト制御部160として動作する。なお、詳しくは後述するが、撮像支援処理は、フィルタ変更処理(図14参照)、ぶれ補正処理(図15参照)、及びシフト処理(図16参照)を含む処理である。
 一例として図10に示すように、取得部150は、監視カメラ本体20のCPU42から送信された情報として、フィルタ指定情報を取得する。フィルタ指定情報は、複数の光学フィルタのうち使用する光学フィルタを指定する旨の指令情報である。使用する光学フィルタとは、フィルタユニット78に設けられた複数の光学フィルタのうちの光軸OA上に配置される光学フィルタのことである。また、取得部150は、第4位置センサ140による位置検出結果を取得する。第4位置センサ140による位置検出結果は、光軸OAに対するフィルタユニット78の回転位置を検出した結果を表す情報である。
 フィルタ制御部152は、CPU42から送信されたフィルタ指定情報、及び第4位置センサ140による位置検出結果に基づいて、フィルタ指定情報によって指定された光学フィルタを光軸OA上に配置させる制御指令を第4モータドライバ108に出力する。
 第4モータドライバ108は、制御指令を受け取ると、制御指令に従って第4モータ124を制御する。これにより、フィルタ指定情報によって指定された光学フィルタが光軸OA上に配置される。例えば、フィルタ指定情報によって指定された光学フィルタがIrカットフィルタ86である場合には、フィルタユニット78が回転してIrカットフィルタ86が光軸OA上に配置される。図10には、一例として、Irカットフィルタ86が光軸OA上に配置された状態が示されている。このように、フィルタユニット78が回転し、複数の光学フィルタのうち光軸OA上に配置されるフィルタが切り替えられることにより、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域が切り替えられる。
 フィルタ制御部152は、上述のフィルタ指定情報によって指定された光学フィルタを光軸OA上に配置させる制御を行った場合には、フィルタ指定情報をRAM96に記憶させる。例えば、フィルタ制御部152は、Irカットフィルタ86を光軸OA上に位置させた場合には、Irカットフィルタ86が指定された旨のフィルタ指定情報をRAM96に記憶させる。
 また、一例として図11に示すように、取得部150は、監視カメラ本体20のCPU42から送信された情報として、ぶれ補正指令、及びぶれ量検出センサ56によるぶれ量検出結果を取得する。ぶれ補正指令は、ぶれ補正を要求する旨の指令情報であり、ぶれ量検出センサ56によるぶれ量検出結果は、監視カメラ10のぶれ量を検出した結果を表す情報である。また、取得部150は、第5位置センサ142による位置検出結果を取得する。第5位置センサ142による位置検出結果は、X-Y座標面におけるぶれ補正レンズ80の位置を検出した結果を表す情報である。さらに、取得部150は、RAM96に記憶されたフィルタ指定情報を取得する。
 ぶれ補正量算出部154は、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、第5モータ126について、像のぶれを補正する作動方向を決定する。像のぶれを補正する作動方向は、像がぶれている方向と反対の方向に決定される。また、ぶれ補正量算出部154は、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、第5モータ126について、像のぶれを補正する作動量を算出する。ぶれ補正量算出部154は、具体的には、第5モータ126について、監視カメラ10のぶれによってぶれた像の位置を監視カメラ10のぶれが生じる前の像の位置に戻す作動量を算出する。
 ところで、ぶれ補正レンズ80を透過する光が可視光である場合と、ぶれ補正レンズ80を透過する光が近赤外光である場合とでは、波長帯域が異なるため、像側の焦点の位置がずれることにより、ぶれ補正レンズ80のぶれ補正感度が変化する。換言すれば、図11に示す通り、ぶれ補正レンズ80を透過する光が可視光である場合と、ぶれ補正レンズ80を透過する光が近赤外光である場合とでは、イメージセンサ24の受光面24Aでの同じぶれ補正量B1に要するぶれ補正レンズ80の移動量A1が異なる。具体的には、同じぶれ補正量B1で比較した場合に、ぶれ補正レンズ80を透過する光が可視光であるときに要する移動量A1は、ぶれ補正レンズ80を透過する光が近赤外光であるときに要する移動量A1よりも少ない。
 そこで、ぶれ補正量算出部154は、像のぶれを補正する第5モータ126の作動量について、フィルタ指定情報が指定する光学フィルタに対応する作動量を算出する。例えば、ぶれ補正量算出部154は、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、Irカットフィルタ86に対応する作動量を算出する。また、ぶれ補正量算出部154は、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、BPF88に対応する作動量を算出する。つまり、ぶれ補正レンズ80を透過する光の波長帯域が変化すると、ぶれ補正レンズ80のぶれ補正感度が変化するが、ぶれ補正量算出部154は、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、ぶれ量検出センサ56による検出結果に比例したぶれ補正量B1が得られる作動量を算出する。フィルタ指定情報が指定する光学フィルタに対応する作動量は、複数の光学フィルタ毎にぶれ量検出センサ56によるぶれ量検出結果に応じて予め定められていてもよく、また、各種算出式を用いて算出されてもよい。
 ぶれ補正制御部156は、ぶれ補正量算出部154によって決定された第5モータ126の作動方向及びぶれ補正量算出部154によって算出された第5モータ126の作動量を取得すると、取得した第5モータ126の作動方向及び作動量を目標値とし、第5位置センサ142による位置検出結果に基づいて制御指令を生成する。制御指令は第5モータドライバ110へ出力される。
 第5モータドライバ110は、ぶれ補正制御部156によって生成された制御指令に基づいて作動信号を生成する。作動信号は、一例として、連続波である。第5モータ126は、作動信号に応じた作動方向及び作動量で作動する。これにより、像のぶれが補正される方向へ、ぶれ補正レンズ80に対して動力が付与されることで、ぶれ補正レンズ80が移動する。例えば、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、Irカットフィルタ86に対応する移動量A1でぶれ補正レンズ80が移動し、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、BPF88に対応する移動量A1でぶれ補正レンズ80が移動する。
 このように、ぶれ補正制御部156は、ぶれ補正レンズ80を透過する光の波長帯域に基づいて、第5モータ126に対し、ぶれ補正レンズ80の移動量A1が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、ぶれ補正レンズ80のぶれ補正感度が変化することによる影響が抑制され、ぶれ量検出センサ56による検出結果に比例したぶれ補正量B1が得られる。なお、ここで言う像のぶれを補正することには、監視カメラ10のぶれによってぶれた像の位置を監視カメラ10のぶれが生じる前の像の位置に一致させることの他に、監視カメラ10のぶれによってぶれた像の位置を監視カメラ10のぶれが生じる前の像の位置に近づけることも含まれる。
 以上説明したぶれ補正制御部156による制御は、ぶれ量検出センサ56によるぶれ量検出結果(すなわち監視カメラ10のぶれ量)に基づくフィードバック制御である。
 また、一例として図12に示すように、取得部150は、監視カメラ本体20のCPU42から送信された情報として、像シフト指令及びフレーム周期情報を取得する。像シフト指令は、像のシフトを要求する旨の指令情報であり、かつ、像のシフト方向及びシフト量を表す情報である。また、取得部150は、第6位置センサ144による位置検出結果を取得する。さらに、取得部150は、RAM96に記憶されたフィルタ指定情報を取得する。
 像のシフト量B2は、例えば、イメージセンサ24の画素ピッチ以上のピッチ、又は、イメージセンサ24の画素ピッチ未満のピッチで規定される。イメージセンサ24の画素ピッチ以上のピッチは、例えば、1ピッチ、1.5ピッチ、2.5ピッチ、又は3.5ピッチ等である。イメージセンサ24の画素ピッチをpとし、自然数をnとし、純小数をdとしたときに、イメージセンサ24の画素ピッチより大きいピッチは、(n+d)×pで規定される。また、イメージセンサ24の画素ピッチ未満のピッチは、例えば、0.25ピッチ、0.5ピッチ、又は0.75ピッチ等である。イメージセンサ24の画素ピッチをpとし、1未満の小数をDとしたときに、イメージセンサ24の画素ピッチ未満のピッチは、D×pで規定される。
 フレーム周期情報は、CPU42からイメージセンサドライバ52(図5参照)に出力されるタイミング制御信号に同期するフレーム周期を規定する情報である。フレーム周期とは、フレーム単位での撮像が行われる周期のことである。
 シフト量算出部158は、像シフト指令が表す像のシフト方向、フレーム周期情報が表すフレーム周期、及び第6位置センサ144による位置検出結果に基づいて、フレーム周期毎に第6モータ128の作動方向を決定する。第6モータ128の作動方向は、像シフト指令が表す像のシフト方向及び第6位置センサ144による位置検出結果に基づいて決定される。
 また、シフト量算出部158は、像シフト指令が表す像のシフト量、フレーム周期情報が表すフレーム周期、及び第6位置センサ144による位置検出結果に基づいて、フレーム周期毎に第6モータ128の作動量を算出する。例えば、シフト量算出部158は、像シフト指令が表す像のシフト量がイメージセンサ24の画素ピッチと同じピッチである場合には、像をイメージセンサ24の画素ピッチと同じピッチでシフトさせる第6モータ128の作動量を算出する。また、シフト量算出部158は、像シフト指令が表す像のシフト量がイメージセンサ24の画素ピッチより大きいピッチである場合には、像を(n+d)×pでシフトさせる第6モータ128の作動量を算出する。また、シフト量算出部158は、像シフト指令が表す像のシフト量がイメージセンサ24の画素ピッチ未満のピッチである場合には、像をD×pでシフトさせる第6モータ128の作動量を算出する。
 ところで、上述のぶれ補正レンズ80の場合と同様に、シフトレンズ82を透過する光が可視光である場合と、シフトレンズ82を透過する光が近赤外光である場合とでは、波長帯域が異なるため、像側の焦点の位置がずれることにより、シフトレンズ82のシフト感度が変化する。換言すれば、図12に示す通り、シフトレンズ82を透過する光が可視光である場合と、シフトレンズ82を透過する光が近赤外光である場合とでは、イメージセンサ24の受光面24Aでの同じシフト量B2に要するシフトレンズ82の移動量A2が異なる。具体的には、同じシフト量B2で比較した場合に、シフトレンズ82を透過する光が可視光であるときに要する移動量A2は、シフトレンズ82を透過する光が近赤外光であるときに要する移動量A2よりも少ない。
 そこで、シフト量算出部158は、像をシフトさせる第6モータ128の作動量について、フィルタ指定情報が指定する光学フィルタに対応する作動量を算出する。例えば、シフト量算出部158は、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、像シフト指令が表す像のシフト量に基づいて、Irカットフィルタ86に対応する作動量を算出する。また、シフト量算出部158は、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、像シフト指令が表す像のシフト量に基づいて、BPF88に対応する作動量を算出する。つまり、シフトレンズ82を透過する光の波長帯域が変化すると、シフトレンズ82のシフト感度が変化するが、シフト量算出部158は、シフトレンズ82を透過する光の波長帯域が変化した場合でも、像シフト指令が表す像のシフト量に対応する位置に像がシフトされる作動量を算出する。フィルタ指定情報が指定する光学フィルタに対応する作動量は、複数の光学フィルタ毎に像シフト指令が表す像のシフト量に応じて予め定められていてもよく、また、各種算出式を用いて算出されてもよい。
 シフト制御部160は、シフト量算出部158によって決定された第6モータ128の作動方向、及びシフト量算出部158によって算出された第6モータ128の作動量に応じた制御指令をフレーム周期毎に生成する。制御指令は第6モータドライバ112へ出力される。
 第6モータドライバ112は、シフト制御部160によって生成された制御指令に基づいて作動信号を生成する。作動信号は、一例として、パルス波である。作動信号の周期はフレーム周期情報で規定されるフレーム周期に同期される。第6モータ128は、作動信号に応じた作動量で作動する。これにより、フレーム周期毎に、像をシフトさせる方向へ、シフトレンズ82に対して動力が付与されることで、シフトレンズ82が移動する。例えば、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、Irカットフィルタ86に対応する移動量A2でぶれ補正レンズ80が移動し、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、BPF88に対応する移動量A2でぶれ補正レンズ80が移動する。
 このように、シフト制御部160は、シフトレンズ82を透過する光の波長帯域に基づいて、第6モータ128に対し、シフトレンズ82の移動量A2が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、シフトレンズ82のシフト感度が変化することによる影響が抑制され、像シフト指令が表す像のシフト量に対応する位置に像がシフトされる。
 以上説明したシフト制御部160による制御は、ぶれ量検出センサ56によるぶれ量検出結果(すなわち監視カメラ10のぶれ量)に基づいておらず、予め定められたシフト順序に基づくシーケンス制御である。
 そして、このようにフレーム周期毎に像がシフトされ、像がシフトされる毎に、監視カメラ本体20のCPU42によってイメージセンサ24に対し撮像を行わせる制御が行われる。これにより、一例として図13に示すように、フレーム周期のそれぞれに対応する複数のフレームの画像162が得られる。そして、複数のフレームの画像162が監視カメラ本体20のCPU42によって合成されることにより、合成画像164が得られる。
 合成画像164は、例えば、次の要領で得られる。すなわち、像のシフト量がイメージセンサ24の画素ピッチと同じピッチである場合には、複数のフレームの画像162のうち、一の画像を形成する複数の画像画素と他の画像を形成する複数の画像画素とが重ね合わされることにより、複数のフレームの画像162から合成画像164が得られる。このようにして得られた合成画像164は、デモザイク処理が不要な画像である。また、像のシフト量がイメージセンサ24の画素ピッチより大きいピッチである場合又は像のシフト量がイメージセンサ24の画素ピッチ未満のピッチである場合には、複数のフレームの画像162のうち、一の画像を形成する複数の画像画素の間に他の画像を形成する複数の画像画素が割り当てられることにより、複数のフレームの画像162から合成画像164が得られる。このようにして得られた合成画像164は、複数のフレームの画像162よりも高解像な画像である。
 次に、本実施形態に係る監視カメラ10の作用(すなわち監視カメラ10の動作)について説明する。
 先ず、図10及び図14を参照しつつ撮像支援処理のうちのフィルタ変更処理について説明する。レンズ装置70のCPU92は、監視カメラ本体20のCPU42から送信されたフィルタ指定情報がレンズ装置70の送受信インターフェース(図示省略)で受信された場合には、図14に示すフィルタ変更処理を実行する。
 先ず、ステップST100で、取得部150は、監視カメラ本体20のCPU42から送信されたフィルタ指定情報を取得する。また、取得部150は、第4位置センサ140による位置検出結果を取得する。
 次のステップST102で、フィルタ制御部152は、CPU42から送信されたフィルタ指定情報、及び第4位置センサ140による位置検出結果に基づいて、フィルタ指定情報によって指定された光学フィルタを光軸OA上に配置させる制御指令を第4モータドライバ108に出力する。
 第4モータドライバ108は、制御指令を受け取ると、制御指令に従って第4モータ124を制御する。これにより、フィルタ指定情報によって指定された光学フィルタが光軸OA上に配置される。例えば、フィルタ指定情報によって指定された光学フィルタがIrカットフィルタ86である場合には、フィルタユニット78が回転してIrカットフィルタ86が光軸OA上に配置される。このように、フィルタユニット78が回転し、複数の光学フィルタのうち光軸OA上に配置されるフィルタが切り替えられることにより、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域が切り替えられる。
 次のステップST104で、フィルタ制御部152は、フィルタ指定情報をRAM96に記憶させる。例えば、フィルタ制御部152は、Irカットフィルタ86を光軸OA上に位置させた場合には、Irカットフィルタ86が指定された旨のフィルタ指定情報をRAM96に記憶させる。
 次に、図11及び図15を参照しつつ撮像支援処理のうちのぶれ補正処理について説明する。レンズ装置70のCPU92は、監視カメラ本体20のCPU42から送信されたぶれ補正指令がレンズ装置70の送受信インターフェース(図示省略)で受信された場合には、図15に示すぶれ補正処理を実行する。
 先ず、ステップST110で、取得部150は、監視カメラ本体20のCPU42から送信されたぶれ補正指令を取得する。また、ステップST112で、取得部150は、監視カメラ本体20のCPU42から送信されたぶれ量検出結果を取得する。さらに、ステップST114で、取得部150は、RAM96に記憶されたフィルタ指定情報を取得する。また、取得部150は、第5位置センサ142による位置検出結果を取得する。
 次のステップST116で、ぶれ補正量算出部154は、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、第5モータ126について、像のぶれを補正する作動方向を決定する。像のぶれを補正する作動方向は、像がぶれている方向と反対の方向に決定される。
 また、ステップST116で、ぶれ補正量算出部154は、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、第5モータ126について、像のぶれを補正する作動量を算出する。ぶれ補正量算出部154は、具体的には、第5モータ126について、監視カメラ10のぶれによってぶれた像の位置を監視カメラ10のぶれが生じる前の像の位置に戻す作動量を算出する。
 このとき、ぶれ補正量算出部154は、像のぶれを補正する第5モータ126の作動量について、フィルタ指定情報が指定する光学フィルタに対応する作動量を算出する。例えば、ぶれ補正量算出部154は、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、Irカットフィルタ86に対応する作動量を算出する。また、ぶれ補正量算出部154は、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、ぶれ量検出センサ56によるぶれ量検出結果に基づいて、BPF88に対応する作動量を算出する。つまり、ぶれ補正レンズ80を透過する光の波長帯域が変化すると、ぶれ補正レンズ80のぶれ補正感度が変化するが、ぶれ補正量算出部154は、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、ぶれ量検出センサ56による検出結果に比例したぶれ補正量B1が得られる作動量を算出する。
 次のステップST118で、ぶれ補正制御部156は、ぶれ補正量算出部154によって決定された第5モータ126の作動方向及びぶれ補正量算出部154によって算出された第5モータ126の作動量を取得し、取得した第5モータ126の作動方向及び作動量を目標値とし、第5位置センサ142による位置検出結果に基づいて制御指令を生成する。制御指令は第5モータドライバ110へ出力される。
 第5モータドライバ110は、ぶれ補正制御部156によって生成された制御指令に基づいて作動信号を生成する。作動信号は、一例として、連続波である。第5モータ126は、作動信号に応じた作動方向及び作動量で作動する。これにより、像のぶれが補正される方向へ、ぶれ補正レンズ80に対して動力が付与されることで、ぶれ補正レンズ80が移動する。例えば、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、Irカットフィルタ86に対応する移動量A1でぶれ補正レンズ80が移動し、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、BPF88に対応する移動量A1でぶれ補正レンズ80が移動する。
 このように、ぶれ補正制御部156は、ぶれ補正レンズ80を透過する光の波長帯域に基づいて、第5モータ126に対し、ぶれ補正レンズ80の移動量A1が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、ぶれ補正レンズ80のぶれ補正感度が変化することによる影響が抑制され、ぶれ量検出センサ56による検出結果に比例したぶれ補正量B1が得られる。
 次に、図12及び図16を参照しつつ撮像支援処理のうちのシフト処理について説明する。レンズ装置70のCPU92は、監視カメラ本体20のCPU42から送信された像シフト指令がレンズ装置70の送受信インターフェース(図示省略)で受信されたか否かを判定し、判定が肯定された場合には、図16に示すシフト処理を実行する。
 先ず、ステップST120で、取得部150は、監視カメラ本体20のCPU42から送信された像シフト指令を取得する。また、ステップST122で、取得部150は、監視カメラ本体20のCPU42から送信されたフレーム周期情報を取得する。さらに、ステップST124で、取得部150は、RAM96に記憶されたフィルタ指定情報を取得する。また、取得部150は、第6位置センサ144による位置検出結果を取得する。
 次のステップST126で、シフト量算出部158は、像シフト指令が表す像のシフト方向、フレーム周期情報が表すフレーム周期、及び第6位置センサ144による位置検出結果に基づいて、フレーム周期毎に第6モータ128の作動方向を決定する。第6モータ128の作動方向は、像シフト指令が表す像のシフト方向及び第6位置センサ144による位置検出結果に基づいて決定される。また、シフト量算出部158は、像シフト指令が表す像のシフト量、フレーム周期情報が表すフレーム周期、及び第6位置センサ144による位置検出結果に基づいて、フレーム周期毎に第6モータ128の作動量を算出する。
 このとき、シフト量算出部158は、像をシフトさせる第6モータ128の作動量について、フィルタ指定情報が指定する光学フィルタに対応する作動量を算出する。例えば、シフト量算出部158は、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、像シフト指令が表す像のシフト量に基づいて、Irカットフィルタ86に対応する作動量を算出する。また、シフト量算出部158は、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、像シフト指令が表す像のシフト量に基づいて、BPF88に対応する作動量を算出する。つまり、シフトレンズ82を透過する光の波長帯域が変化すると、シフトレンズ82のシフト感度が変化するが、シフト量算出部158は、シフトレンズ82を透過する光の波長帯域が変化した場合でも、像シフト指令が表す像のシフト量に対応する位置に像がシフトされる作動量を算出する。
 次のステップST128で、シフト制御部160は、シフト量算出部158によって決定された第6モータ128の作動方向及びシフト量算出部158によって算出された第6モータ128の作動量に応じた制御指令をフレーム周期毎に生成する。制御指令は第6モータドライバ112へ出力される。
 第6モータドライバ112は、シフト制御部160によって生成された制御指令に基づいて作動信号を生成する。作動信号は、一例として、パルス波である。作動信号の周期はフレーム周期情報で規定されるフレーム周期に同期される。第6モータ128は、作動信号に応じた作動量で作動する。これにより、フレーム周期毎に、像をシフトさせる方向へ、シフトレンズ82に対して動力が付与されることで、シフトレンズ82が移動する。具体的には、フィルタ指定情報が指定する光学フィルタがIrカットフィルタ86である場合には、Irカットフィルタ86に対応する移動量A2でシフトレンズ82が移動し、フィルタ指定情報が指定する光学フィルタがBPF88である場合には、BPF88に対応する移動量A2でシフトレンズ82が移動する。
 このように、シフト制御部160は、シフトレンズ82を透過する光の波長帯域に基づいて、第6モータ128に対し、シフトレンズ82の移動量A2が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、シフトレンズ82のシフト感度が変化することによる影響が抑制され、像シフト指令が表す像のシフト量に対応する位置に像がシフトされる。
 なお、上述の図14、図15、及び図16を参照しつつ説明した監視カメラ10を動作させる方法は、本開示の技術に係る「撮像装置の作動方法」の一例である。また、上述の図14、図15、及び図16を参照しつつ説明した監視カメラ10を動作させる方法に含まれるレンズ装置70の作動方法は、本開示の技術に係る「レンズ装置70の作動方法」の一例である。
 次に、本実施形態に係る監視カメラ10の効果について説明する。
 図6に示されるように、レンズ装置70は、像のぶれを補正するためのぶれ補正レンズ80と、像をイメージセンサ24の受光面24Aに沿ってシフトさせるためのシフトレンズ82とを別々に備える。したがって、例えば、共通のモータを用いてぶれ補正レンズ80で像のぶれの補正と像のシフトの両方を行う場合に比して、ぶれ補正レンズ80を移動させる第5モータ126に対する制御とシフトレンズ82を移動させる第6モータ128に対する制御を容易に行うことができる。
 また、ぶれ補正レンズ80を移動させる第5モータ126とシフトレンズ82を移動させる第6モータ128とが別々であるので、像のぶれの補正と像のシフトの両方を行うぶれ補正レンズ80を共通のモータで移動させる場合に比して、第5モータ126と第6モータ128とに重量を分散することができる。
 また、図11に示すように、レンズ装置70のCPU92は、第5モータ126に対し、ぶれ補正レンズ80を透過する光の波長帯域に基づいて、ぶれ補正レンズ80の移動量A1が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、ぶれ補正レンズ80のぶれ補正感度が変化することによる影響が抑制され、ぶれ量検出センサ56による検出結果に比例したぶれ補正量B1を得ることができる。
 また、図12に示すように、レンズ装置70のCPU92は、第6モータ128に対し、シフトレンズ82を透過する光の波長帯域に基づいて、シフトレンズ82の移動量A2が変更される制御を行う。したがって、ぶれ補正レンズ80を透過する光の波長帯域が変化した場合でも、シフトレンズ82のシフト感度が変化することによる影響が抑制され、像シフト指令が表す像のシフト量に対応する位置に像をシフトすることができる。
 また、図7に示すように、シフトレンズ82のシフト感度は、ぶれ補正レンズ80のぶれ補正感度よりも低い。つまり、シフトレンズ82の単位移動量Aでの移動に対するイメージセンサ24の受光面24Aでの像のシフト量B2は、ぶれ補正レンズ80の単位移動量Aでの移動に対するイメージセンサ24の受光面24Aでの像のぶれ補正量B1よりも小さい。したがって、例えば、シフトレンズ82のシフト感度がぶれ補正レンズ80のぶれ補正感度よりも高い場合に比して、シフトレンズ82の移動量の誤差に対する像のシフト量の誤差を低減することができる。
 また、図8に示すように、シフトレンズ82の単位移動量Aでの移動に対する、光軸OA上において移動後のシフトレンズ82を通る中心光線F1のイメージセンサ24の受光面24Aでのシフト量をS1とし、シフトレンズ82の単位移動量Aでの移動に対する、光軸OA上以外において移動後のシフトレンズ82を通る周辺光線F2のイメージセンサ24の受光面24Aでのシフト量をS2とした場合に、0.8≦S2/S1≦1.2の関係が成立する。ここで、S2/S1の値が上記規定範囲外である場合、すなわち、S2/S1<0.8である場合、又は、1.2<S2/S1である場合、イメージセンサ24によって撮像されることで得られる撮像画像の画像画素値の連続性が失われ、画像画素の境界部分が不自然(例えばギザギザ)になり、撮像画像の画質が許容外になる。また、撮像画像に対してエッジ強調などの画像処理を加える場合に、画像処理がうまくいかずに撮像画像の解像度が低下する。これに対し、0.8≦S2/S1≦1.2の関係が成立すると、撮像画像の画質を許容内に収めることができる。また、S2/S1の値が上記規定範囲の外である場合に比して、撮像画像の解像度を向上させることができる。
 また、図2に示すように、ぶれ補正レンズ80及びシフトレンズ82は、ズームレンズ74よりもイメージセンサ24側に配置されている。ここで、仮に、ぶれ補正レンズ80及びシフトレンズ82が、ズームレンズ74よりも被写体側に配置されていると、ぶれ補正レンズ80及びシフトレンズ82を透過した光がズームレンズ74を介してイメージセンサ24に結像されるので、ズームレンズ74がZ軸方向に移動したことに伴ってぶれ補正レンズ80のぶれ補正感度及びシフトレンズ82のシフト感度が変化する。したがって、ズームレンズ74がZ軸方向に移動する場合には、ズームレンズ74のZ軸方向への移動に応じてぶれ補正レンズ80の移動量A1及びシフトレンズ82の移動量A2を調整する制御を行う必要があるが、そのような制御は複雑になる。これに対し、ぶれ補正レンズ80及びシフトレンズ82が、ズームレンズ74よりもイメージセンサ24側に配置されていると、ズームレンズ74のZ軸方向への移動に応じてぶれ補正レンズ80の移動量A1及びシフトレンズ82の移動量A2を調整する制御を不要にすることができる。
 また、ぶれ補正レンズ80及びシフトレンズ82は、ズームレンズ74よりもイメージセンサ24側に配置されているので、ぶれ補正レンズ80及びシフトレンズ82がズームレンズ74よりもイメージセンサ24側に配置されている場合に比して、ぶれ補正レンズ80及びシフトレンズ82をそれぞれ小径にすることができる。
 また、ぶれ補正レンズ80及びシフトレンズ82をそれぞれ小径にすることで、ぶれ補正レンズ80及びシフトレンズ82をそれぞれ軽量化できる。これにより、ぶれ補正レンズ80を移動させる第5モータ126の駆動負荷及びシフトレンズ82を移動させる第6モータ128の駆動負荷をそれぞれ軽減することができる。
 また、図3に示すように、レンズ装置70のフィルタユニット78は、複数のBPF88を備える。フィルタユニット78は、イメージセンサ24よりも被写体側に配置されており、複数のBPF88は、光に含まれる近赤外光をそれぞれ透過させる。したがって、イメージセンサ24で近赤外光が結像されることにより近赤外光画像を得ることができる。
 また、図12に示すように、レンズ装置70のCPU92は、イメージセンサ24の画素ピッチ以上のピッチ、又は、イメージセンサ24の画素ピッチ未満のピッチで像がシフトする位置へ、シフトレンズ82を移動させる制御を第6モータ128に対して行う。したがって、図13に示すように、得られた複数のフレームの画像162を合成することにより、合成画像164を得ることができる。
 また、ぶれ補正レンズ80及びシフトレンズ82は、フォーカスレンズ72よりもイメージセンサ24側に配置されている。ここで、仮に、ぶれ補正レンズ80及びシフトレンズ82が、フォーカスレンズ72よりも被写体側に配置されていると、ぶれ補正レンズ80及びシフトレンズ82を透過した光がフォーカスレンズ72を介してイメージセンサ24に結像されるので、フォーカスレンズ72がZ軸方向に移動したことに伴ってぶれ補正レンズ80のぶれ補正感度及びシフトレンズ82のシフト感度が変化する。したがって、フォーカスレンズ72がZ軸方向に移動する場合には、フォーカスレンズ72のZ軸方向への移動に応じてぶれ補正レンズ80の移動量A1及びシフトレンズ82の移動量A2を調整する制御を行う必要があるが、そのような制御は複雑になる。これに対し、ぶれ補正レンズ80及びシフトレンズ82が、フォーカスレンズ72よりもイメージセンサ24側に配置されていると、フォーカスレンズ72のZ軸方向への移動に応じてぶれ補正レンズ80の移動量A1及びシフトレンズ82の移動量A2を調整する制御を不要にすることができる。
 また、ぶれ補正レンズ80及びシフトレンズ82は、絞り76よりもイメージセンサ24側に配置されている。ここで、仮に、ぶれ補正レンズ80及びシフトレンズ82が、絞り76とズームレンズ74との間に配置されていると、ズームレンズ74をZ軸方向に移動可能に支持する第2スライド機構(図示省略)に対して、ぶれ補正レンズ80をX-Y座標面に沿ってスライド可能に支持する第5スライド機構(図示省略)、及びシフトレンズ82をX-Y座標面に沿ってスライド可能に支持する第6スライド機構(図示省略)が隣接して配置されることになり、レンズ装置70の構造が複雑化する。したがって、レンズ装置70の構造が複雑化することに伴い、ぶれ補正レンズ80の移動精度及びシフトレンズ82の移動精度が低下する虞がある。これに対し、ぶれ補正レンズ80及びシフトレンズ82が、絞り76よりもイメージセンサ24側に配置されていると、例えば、ぶれ補正レンズ80及びシフトレンズ82が絞り76とズームレンズ74との間に配置されている場合に比して、ぶれ補正レンズ80の移動精度及びシフトレンズ82の移動精度を向上させることができる。
 また、レンズ装置70は、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域を切り替えるフィルタユニット78を備える。したがって、例えば、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域を変更するために、複数の光学フィルタのうちの一の光学フィルタをレンズ装置70に選択的に装着する場合に比して、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域を容易に切り替えることができる。
 次に、本実施形態に係る監視カメラ10の変形例について説明する。
 上記実施形態では、レンズ装置70のCPU92は、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域に基づいて、ぶれ補正レンズ80の移動量A1が変更される制御とシフトレンズ82の移動量A2が変更される制御の両方の制御を行う。しかしながら、レンズ装置70のCPU92は、ぶれ補正レンズ80の移動量A1が変更される制御とシフトレンズ82の移動量A2が変更される制御のうちのどちらか一方の制御のみを行ってもよい。
 また、上記実施形態では、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域を変更するために、複数の光学フィルタが環状に配列され、回転することで複数の光学フィルタのうち光軸OA上に配置される光学フィルタが切り替えられる回転式のフィルタユニット78が用いられている。しかしながら、例えば、複数の光学フィルタが直線状に配列され、スライドすることで複数の光学フィルタのうち光軸OA上に配置される光学フィルタが切り替えられるスライド式のフィルタユニットが用いられてもよい。また、ぶれ補正レンズ80及びシフトレンズ82を透過する光の波長帯域を変更するために、複数の光学フィルタのうちの一の光学フィルタがレンズ装置70に選択的に装着されてもよい。
 また、ぶれ補正レンズ80を透過する光の波長帯域に基づいて、ぶれ補正レンズ80の移動量A1を変更する制御は、上記態様に限定されるものではなく、上記以外に種々の態様を取り得る。同様に、シフトレンズ82を透過する光の波長帯域に基づいて、シフトレンズ82の移動量A2を変更する制御は、上記態様に限定されるものではなく、上記以外に種々の態様を取り得る。
 また、上記実施形態では、光軸OAに沿って被写体側から像側にかけて順に、フォーカスレンズ72、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、及びシフトレンズ82が配置されているが、一例として図17に示すように、光軸OAに沿って被写体側から像側にかけて順に、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、フォーカスレンズ72、及びシフトレンズ82が配置されていてもよい。
 また、フォーカスレンズ72、ズームレンズ74、絞り76、フィルタユニット78、ぶれ補正レンズ80、及びシフトレンズ82の並び順は、図2に示す順及び図17に示す順以外でもよい。
 また、上記実施形態では、イメージセンサ24を有する監視カメラ本体20にレンズ装置70が装着されることにより監視カメラ本体20にレンズ装置70が設けられるが、一例として図18に示すように、イメージセンサ24を有する監視カメラ本体20にレンズ装置70が搭載されることで監視カメラ本体20にレンズ装置70が設けられてもよい。
 また、監視カメラ10は、次のように構成されていてもよい。すなわち、一例として図19に示す監視カメラ10の変形例では、レンズ装置70は、第1光学系202、第2光学系204、色分離プリズム206、第3光学系208、及び第4光学系210を備える。また、監視カメラ本体20は、第1イメージセンサ214及び第2イメージセンサ216を備える。色分離プリズム206は、本開示の技術に係る「光分離機構」の一例であり、第1イメージセンサ214及び第2イメージセンサ216は、本開示の技術に係る「イメージセンサ」の一例である。
 第1光学系202は、複数のレンズ218、220、222、及び224と、第1絞り230を有する。第2光学系204は、第1光学系202と色分離プリズム206との間に配置されている。第2光学系204は、レンズ228を有する。色分離プリズム206は、光を第1光G1及び第2光G2に分離する。例えば、第1光G1は、赤外光であり、第2光G2は、可視光である。光軸OAは、色分離プリズム206によって第1光軸OAa及び第2光軸OAbに分岐されている
 第3光学系208は、色分離プリズム206と第1イメージセンサ214との間に配置されている。第3光学系208は、第1フィルタユニット231、第1ぶれ補正レンズ232、及び第1シフトレンズ234を有する。第1ぶれ補正レンズ232は、上述のぶれ補正レンズ80(図6参照)と同様に、第1駆動機構(図示省略)によって動力が付与されることによりX-Y座標面に沿って移動する。第1シフトレンズ234は、上述のシフトレンズ82(図6参照)と同様に、第2駆動機構(図示省略)によって動力が付与されることによりX-Y座標面に沿って移動する。第1ぶれ補正レンズ232及び第1シフトレンズ234は、それぞれ本開示の技術に係る「第1光レンズ」及び「移動レンズ」の一例である。
 第4光学系210は、色分離プリズム206と第2イメージセンサ216との間に配置されている。第4光学系210は、第2絞り236、第2フィルタユニット238、第2ぶれ補正レンズ240、及び第2シフトレンズ242を有する。第2ぶれ補正レンズ240は、上述のぶれ補正レンズ80(図6参照)と同様に、第3駆動機構(図示省略)によって動力が付与されることによりX-Z座標面に沿って移動する。第2シフトレンズ242は、上述のシフトレンズ82(図6参照)と同様に、第4駆動機構(図示省略)によって動力が付与されることによりX-Z座標面に沿って移動する。第2ぶれ補正レンズ240及び第2シフトレンズ242は、それぞれ本開示の技術に係る「第2光レンズ」及び「移動レンズ」の一例である。
 第1イメージセンサ214の受光面214Aでは、第1ぶれ補正レンズ232及び第1シフトレンズ234を透過した第1光G1が結像され、第2イメージセンサ216の受光面216Aでは、第2ぶれ補正レンズ240及び第2シフトレンズ242を透過した第2光G2が結像される。
 図19に示す変形例では、上記実施形態と同様に、第1ぶれ補正レンズ232及び第1シフトレンズ234を透過する第1光G1の波長帯域に基づいて、第1ぶれ補正レンズ232の移動量を変更する制御及び第1シフトレンズ234の移動量を変更する制御がそれぞれ行われる。また、図19に示す変形例では、上記実施形態と同様に、第2ぶれ補正レンズ240及び第2シフトレンズ242を透過する第2光G2の波長帯域に基づいて、第2ぶれ補正レンズ240の移動量を変更する制御及び第2シフトレンズ242の移動量を変更する制御がそれぞれ行われる。
 なお、図19に示す変形例では、上述の第1ぶれ補正レンズ232の移動量を変更する制御及び第1シフトレンズ234の移動量を変更する制御の組み合わせと、第2ぶれ補正レンズ240の移動量を変更する制御及び第2シフトレンズ242の移動量を変更する制御の組み合わせのうちのどちらか一方のみが行われてもよい。
 また、図19に示す変形例では、上述の第1ぶれ補正レンズ232の移動量を変更する制御、及び第1シフトレンズ234の移動量を変更する制御のうちのどちらか一方のみが行われてもよい。また、図19に示す変形例では、上述の第2ぶれ補正レンズ240の移動量を変更する制御、及び第2シフトレンズ242の移動量を変更する制御のうちのどちらか一方のみが行われてもよい。
 また、図19に示す変形例では、第1ぶれ補正レンズ232及び第1シフトレンズ234のうちの一方は、固定レンズでもよい。同様に、第2ぶれ補正レンズ240及び第2シフトレンズ242のうちの一方は、固定レンズでもよい。
 また、上記実施形態では、監視カメラ本体20のコントローラ40とは別のコントローラ90がレンズ装置70に備えられているが、レンズ装置70には、コントローラ90が備えられていなくてもよい。また、レンズ装置70のコントローラ90の機能が監視カメラ本体20のコントローラ40に集約され、監視カメラ本体20のコントローラ40によってレンズ装置70の制御が行われてもよい。この場合は、コントローラ90が「撮像装置に対して適用されるコンピュータ」の一例である。
 また、上記実施形態では、監視カメラ10のコントローラ40によって撮像処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、LAN又はWAN等のネットワークを介して監視カメラ10と通信可能に接続された外部装置のコンピュータによって撮像処理が実行されるようにしてもよい。また、上述の外部装置と監視カメラ10とが撮像処理を分散して実行するようにしてもよいし、上述の外部装置と監視カメラ10とを含む複数の装置とが撮像処理を分散して実行するようにしてもよい。
 また、上記実施形態では、監視カメラ10を撮像装置の例として挙げて説明したが、本開示の技術はこれに限定されず、上記実施形態に示された技術は、種々の撮像装置に適用可能である。ここで言う撮像装置としては、例えば、レンズ交換式で、かつ、レフレックスミラーを用いないデジタルカメラ、レンズ固定式のデジタルカメラ、レフレックスミラーを用いるデジタルカメラ、スマートデバイス、ウェアラブル端末、細胞観察装置、眼科観察装置、又は外科顕微鏡等の各種の電子機器に内蔵されるデジタルカメラ等が挙げられる。また、上記実施形態に示された技術は、近赤外光の波長帯域以外の波長帯域を有する光に感度を有するイメージセンサを備える撮像装置に適用されてもよい。
 また、上記実施形態では、NVM94に撮像支援処理プログラム100が記憶されている形態例を挙げて説明したが、撮像支援処理プログラム100は、SSD又はUSBメモリなどの可搬型の記憶媒体に記憶されていてもよく、撮像支援処理プログラム100は、非一時的記憶媒体に記憶されていればよい。非一時的記憶媒体に記憶されている撮像支援処理プログラム100は、例えば、レンズ装置70等にインストールされて用いられる。
 また、上記実施形態では、監視カメラ10にコントローラ40が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コントローラ40が監視カメラ10の外部に設けられるようにしてもよい。
 また、上記実施形態では、監視カメラ本体20のCPU42は、単数のCPUであるが、複数のCPUであってもよい。また、CPU42に代えてGPUを適用してもよい。同様に、レンズ装置70のCPU92は、単数のCPUであるが、複数のCPUであってもよい。また、CPU92に代えてGPUを適用してもよい。
 また、上記実施形態では、監視カメラ本体20は、コントローラ40を備えるが、本開示の技術はこれに限定されず、コントローラ40に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コントローラ40に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記実施形態では、レンズ装置70は、コントローラ90を備えるが、本開示の技術はこれに限定されず、コントローラ90に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コントローラ90に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記実施形態で説明した撮像支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することによって、撮像支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することによって撮像支援処理を実行する。
 撮像支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、撮像支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、撮像支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、撮像支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、撮像支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の撮像支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (18)

  1.  イメージセンサを有する撮像装置本体に設けられるレンズ装置であって、
     プロセッサと、
     前記プロセッサに接続又は内蔵されたメモリと、
     移動レンズを含み、入射した光を前記イメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備え、
     前記プロセッサは、前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     レンズ装置。
  2.  第1レンズと、
     第2レンズと、
     前記座標面に沿って前記第1レンズを移動させる第1駆動機構と、
     前記座標面に沿って前記第2レンズを移動させる第2駆動機構と、
     を備え、
     前記第1レンズ及び前記第2レンズのうちの少なくとも一方は、前記移動レンズである
     請求項1に記載のレンズ装置。
  3.  前記プロセッサは、
     前記第1駆動機構に対し、前記イメージセンサに前記光が結像されることで得られる像のぶれが補正される方向へ前記第1レンズを移動させる制御を行い、
     前記第2駆動機構に対し、前記像をシフトさせる方向へ前記第2レンズを移動させる制御を行う
     請求項2に記載のレンズ装置。
  4.  前記プロセッサは、前記第2駆動機構に対し、前記イメージセンサの画素ピッチ以上のピッチ、又は、前記イメージセンサの画素ピッチ未満のピッチで前記像がシフトする位置へ、前記第2レンズを移動させる制御を行う
     請求項3に記載のレンズ装置。
  5.  前記第2レンズの単位移動量での移動に対する前記イメージセンサの受光面での前記像のシフト量は、前記第1レンズの前記単位移動量での移動に対する前記イメージセンサの受光面での前記像のぶれ補正量よりも小さい
     請求項3又は請求項4に記載のレンズ装置。
  6.  前記第2レンズの単位移動量での移動に対する、前記光軸上において移動後の前記第2レンズを通る中心光線の前記イメージセンサの受光面でのシフト量をS1とし、前記第2レンズの前記単位移動量に対する、前記光軸上以外において移動後の前記第2レンズを通る周辺光線の前記イメージセンサの受光面でのシフト量をS2とした場合に、
     0.8≦S2/S1≦1.2の関係が成立する
     請求項3から請求項5の何れか一項に記載のレンズ装置。
  7.  ズームレンズをさらに備え、
     前記第1レンズ及び前記第2レンズは、前記ズームレンズよりも前記イメージセンサ側に配置されている
     請求項2から請求項6の何れか一項に記載のレンズ装置。
  8.  前記イメージセンサよりも被写体側に配置され、前記光に含まれる近赤外光を透過させる光学フィルタを備える
     請求項2から請求項6の何れか一項に記載のレンズ装置。
  9.  フォーカスレンズをさらに備え、
     前記第1レンズ及び前記第2レンズは、前記フォーカスレンズよりも前記イメージセンサ側に配置されている
     請求項2から請求項8の何れか一項に記載のレンズ装置。
  10.  絞りをさらに備え、
     前記第1レンズ及び前記第2レンズは、前記絞りよりも前記イメージセンサ側に配置されている
     請求項2から請求項9の何れか一項に記載のレンズ装置。
  11.  前記移動レンズを透過する光の波長帯域を切り替える切替機構をさらに備える
     請求項1から請求項10の何れか一項に記載のレンズ装置。
  12.  前記光を第1光と第2光とに分離する光分離機構と、
     前記第1光が透過する第1光レンズと、
     前記第2光が透過する第2光レンズと、
     を備え、
     前記第1光レンズ及び前記第2光レンズのうちの少なくとも一方は、前記移動レンズである
     請求項1から請求項11の何れか一項に記載のレンズ装置。
  13.  プロセッサと、
     前記プロセッサに接続又は内蔵されたメモリと、
     イメージセンサと、
     移動レンズを含み、入射した光を前記イメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備え、
     前記プロセッサは、前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     撮像装置。
  14.  前記プロセッサは、
     前記駆動機構に対し、前記イメージセンサの画素ピッチ以上のピッチ、又は、前記イメージセンサの画素ピッチ未満のピッチで、前記イメージセンサに前記光が結像されることで得られる像がシフトする位置へ、前記移動レンズを移動させる制御を行い、
     前記像がシフトする毎に前記イメージセンサに対し撮像を行わせ、
     前記撮像によって得られた複数のフレームの画像を合成する
     請求項13に記載の撮像装置。
  15.  移動レンズを含み、入射した光を撮像装置本体のイメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備えるレンズ装置の作動方法であって、
     前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     ことを含む、レンズ装置の作動方法。
  16.  イメージセンサと、
     移動レンズを含み、入射した光を前記イメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備える撮像装置の作動方法であって、
     前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     ことを含む、撮像装置の作動方法。
  17.  移動レンズを含み、入射した光を撮像装置本体のイメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備えるレンズ装置に対して適用されるコンピュータに、
     前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     ことを含む処理を実行させるためのプログラム。
  18.  イメージセンサと、
     移動レンズを含み、入射した光を前記イメージセンサに結像させるレンズと、
     前記レンズの光軸と交差する座標面に沿って前記移動レンズに対して動力を付与することで、前記移動レンズを移動させる駆動機構と、
     を備える撮像装置に対して適用されるコンピュータに、
     前記駆動機構に対し、前記移動レンズを透過する前記光の波長帯域に基づいて、前記移動レンズの移動量を変更する制御を行う
     ことを含む処理を実行させるためのプログラム。
PCT/JP2021/040168 2020-12-25 2021-10-29 レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム WO2022137807A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022571925A JPWO2022137807A1 (ja) 2020-12-25 2021-10-29
CN202180086529.8A CN116648666A (zh) 2020-12-25 2021-10-29 透镜装置、摄像装置、透镜装置的动作方法、摄像装置的动作方法及程序
US18/337,033 US20230333401A1 (en) 2020-12-25 2023-06-18 Lens device, imaging apparatus, operation method of lens device, operation method of imaging apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-217840 2020-12-25
JP2020217840 2020-12-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/337,033 Continuation US20230333401A1 (en) 2020-12-25 2023-06-18 Lens device, imaging apparatus, operation method of lens device, operation method of imaging apparatus, and program

Publications (1)

Publication Number Publication Date
WO2022137807A1 true WO2022137807A1 (ja) 2022-06-30

Family

ID=82159049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040168 WO2022137807A1 (ja) 2020-12-25 2021-10-29 レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230333401A1 (ja)
JP (1) JPWO2022137807A1 (ja)
CN (1) CN116648666A (ja)
WO (1) WO2022137807A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022149033A (ja) * 2021-03-25 2022-10-06 キヤノン株式会社 制御装置、撮像装置、レンズ装置、カメラシステム、制御方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354714A (ja) * 2003-05-29 2004-12-16 Fuji Photo Optical Co Ltd 可視光・赤外光撮影用レンズシステム
JP2014126860A (ja) * 2012-12-27 2014-07-07 Canon Inc 光学機器および撮像装置、及びその制御方法、プログラム、記憶媒体
JP2017044878A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 撮像装置およびその制御方法
JP2018112605A (ja) * 2017-01-10 2018-07-19 キヤノン株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354714A (ja) * 2003-05-29 2004-12-16 Fuji Photo Optical Co Ltd 可視光・赤外光撮影用レンズシステム
JP2014126860A (ja) * 2012-12-27 2014-07-07 Canon Inc 光学機器および撮像装置、及びその制御方法、プログラム、記憶媒体
JP2017044878A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 撮像装置およびその制御方法
JP2018112605A (ja) * 2017-01-10 2018-07-19 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
CN116648666A (zh) 2023-08-25
JPWO2022137807A1 (ja) 2022-06-30
US20230333401A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
EP3110132B1 (en) Automatic tracking image-capture apparatus
JP5917054B2 (ja) 撮像装置、画像データ処理方法、およびプログラム
US20160366340A1 (en) Photographing apparatus, photographing controller, photographing control method, and photographing control program
US11678055B2 (en) Imaging support device, imaging support system, imaging system, imaging support method, and program
WO2022137807A1 (ja) レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム
JP7314204B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2024069348A (ja) 撮像装置、撮像装置の作動方法、及びプログラム
WO2016194178A1 (ja) 撮像装置、内視鏡装置及び撮像方法
JPWO2017094122A1 (ja) 撮像装置、内視鏡装置及び撮像方法
JPWO2016194179A1 (ja) 撮像装置、内視鏡装置及び撮像方法
JP5393877B2 (ja) 撮像装置および集積回路
WO2022137800A1 (ja) レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム
JPWO2022137807A5 (ja)
JP6896181B2 (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
WO2022138604A1 (ja) レンズ装置、撮像装置、レンズ装置の作動方法、撮像装置の作動方法、及びプログラム
US11917297B2 (en) Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program
JP7289996B2 (ja) 検出装置、撮像装置、検出方法、及びプログラム
US12022193B2 (en) Imaging apparatus and operation method thereof
US10951829B2 (en) Image capturing apparatus and method for controlling display
CN111263131A (zh) 影像撷取装置及影像撷取方法
JP2011082795A (ja) 撮像装置及びデジタルカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21909963

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022571925

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180086529.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21909963

Country of ref document: EP

Kind code of ref document: A1