WO2016167188A1 - 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体 - Google Patents

撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
WO2016167188A1
WO2016167188A1 PCT/JP2016/061511 JP2016061511W WO2016167188A1 WO 2016167188 A1 WO2016167188 A1 WO 2016167188A1 JP 2016061511 W JP2016061511 W JP 2016061511W WO 2016167188 A1 WO2016167188 A1 WO 2016167188A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
image
imaging
optical
condition
Prior art date
Application number
PCT/JP2016/061511
Other languages
English (en)
French (fr)
Inventor
高志 椚瀬
洋介 成瀬
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680022303.0A priority Critical patent/CN107534726B/zh
Priority to JP2017512511A priority patent/JP6259165B2/ja
Publication of WO2016167188A1 publication Critical patent/WO2016167188A1/ja
Priority to US15/783,471 priority patent/US10249028B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • G02B15/142Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective having two groups only
    • G02B15/1421Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective having two groups only the first group being positive
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/401Compensating positionally unequal response of the pick-up or reproducing head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • H04N25/6153Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF] for colour signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Definitions

  • the present invention relates to an imaging device, an image processing device, an image processing method, a program, and a recording medium, and more particularly to a technique for improving the image quality of an image acquired by photographing using an optical system having a variable focal length.
  • a captured image obtained by an imaging apparatus such as a digital camera includes a degradation component such as blur and distortion caused by aberrations of the optical system.
  • a degradation component such as blur and distortion caused by aberrations of the optical system.
  • Patent Document 1 discloses an imaging apparatus that performs an image restoration process using an image restoration filter created in accordance with an optical transfer function (OTF).
  • OTF optical transfer function
  • the restoration process based on the optical transfer function is not universal. For example, even if the restoration process based on the optical transfer function is applied to an image with an excessive degree of blur, the blur cannot be removed and the image quality deteriorates. There is also a concern that That is, when the degree of blur in the image to be processed is neither too large nor too small, the restoration process based on the optical transfer function exhibits a great effect.
  • a zoom lens designed so that the degree of blurring that occurs in the captured image is included in the optimal range and restoration processing based on the optical transfer function a high-quality image over the entire zoom range from the wide-angle side to the telephoto side Can be provided. Also, by assuming that restoration processing based on the optical transfer function is performed, it is possible to design a lens that allows a certain degree of image quality degradation such as blurring, and as a trade-off for allowing image quality degradation, surplus resources are used in addition to the lens. It can also be used to improve the performance.
  • surveillance cameras give priority to wide-angle image quality over telephoto image quality, so when designing an optical system for surveillance cameras, the optical performance on the wide-angle side should be improved even at the expense of optical performance on the telephoto side. It is preferable to raise. For this reason, zoom lenses that can capture images with a sufficient angle of view for surveillance camera applications are designed with priority given to optical performance on the wide-angle side, while restoration processing is performed on images captured on the telephoto side. By applying this, it is possible to provide a high-quality image in the entire zoom range.
  • the optical design of the zoom lens is not optimized on the premise of the restoration process in order to obtain a good quality captured image over the entire zoom range.
  • the imaging apparatus disclosed in Patent Document 1 is configured on the premise of a design philosophy different from the optimization of optical design based on such restoration processing, and has a relatively narrow viewable angle of view. Thus, only a full field angle of “74 degrees” (half field angle of “37” degrees) can be taken, and it is not necessarily suitable for wide angle photography applications such as surveillance cameras.
  • the image quality at the peripheral part of the image tends to be regarded as important or higher than that at the center of the image, but in the image pickup apparatus of Patent Document 1, the image quality at the center of the image is prioritized.
  • the imaging apparatus of Patent Document 1 aims to reduce the filter amount and the calculation amount because the filter amount becomes enormous when the recovery process is performed on all pixels in the entire zoom range.
  • a lens is provided so as to allow coma at the periphery of the image while suppressing aberration at the center of the image in a specific zoom range. Design is performed, and image quality is restored by image processing at the periphery of the image.
  • Patent Document 1 is not necessarily compatible with the wide-angle imaging technique applied to a surveillance camera or the like, and in such wide-angle imaging, from the wide-angle side while emphasizing the image quality of the image periphery.
  • Patent Document 1 does not disclose or suggest a technique for providing a high-quality image over the telephoto side.
  • the present invention has been made in view of the above circumstances, and is photographed using an optical system having a variable focal length by optimizing the combination of the optical characteristics of the optical system and the restoration processing based on the optical transfer function.
  • An object of the present invention is to provide a technique for improving the image quality of a captured image.
  • an optical system an imaging element that receives imaging light through the optical system and outputs a target image, and an optical imaging condition that indicates information on the optical system when the target image is captured
  • a sharpening processing unit for sharpening the target image the optical system has a variable focal length, the optical system has a total angle of view exceeding 90 degrees at the wide-angle end, and the optical system is connected to the optical system.
  • a wavelength component of 435.83 nm, 546 In the region on the image plane where the distance from the center of the image plane is 80% or more and less than 95% of the half length of the diagonal line of the imaging surface of the image sensor, a wavelength component of 435.83 nm, 546.
  • the spatial frequency at which the MTF value obtained using an evaluation wavelength including a wavelength component of 07 nm and a wavelength component of 656.27 nm is 30% or less is higher at the wide-angle end than at the telephoto end of the optical system, and is sharpened.
  • the processing unit determines the focal length of the optical system when shooting the target image.
  • the focal length at the wide-angle end of the optical system is represented by Fw
  • the focal length at the telephoto end of the optical system is represented by Ft
  • whether the condition represented by F ⁇ ⁇ (Fw ⁇ Ft) is satisfied is optical.
  • the present invention relates to an imaging apparatus that performs a restoration process based on an optical transfer function of an optical system as a sharpening process when a determination is made based on imaging conditions and a condition represented by F ⁇ ⁇ (Fw ⁇ Ft) is satisfied.
  • the MTF (Modulation Transfer Function) of the optical system is optimally combined with the restoration processing based on the optical transfer function, and the image quality of the image taken using the optical system with variable focal length is used as the focal length. Can be improved accordingly.
  • Another aspect of the present invention includes an image acquisition unit that acquires a target image, a condition acquisition unit that acquires an optical shooting condition indicating information of an optical system when the target image is shot, and a target image according to the optical shooting condition
  • a sharpening processing unit that performs the sharpening process, and when the optical shooting condition satisfies the first shooting condition and the second shooting condition, the sharpening processing unit uses the optical transfer function of the optical system as the sharpening process.
  • the first imaging condition is that the optical system has a variable focal length, the optical system has a total angle of view exceeding 90 degrees at the wide-angle end, and the optical system has an imaging plane of the optical system.
  • the second imaging condition includes the condition that the spatial frequency at which the MTF value acquired by using is 30% or less is higher at the wide-angle end than at the telephoto end of the optical system.
  • the present invention relates to an image processing apparatus.
  • the MTF (optical performance) of the optical system and the restoration process based on the optical transfer function are optimally combined, and the image quality of the image shot using the optical system with a variable focal length is determined according to the focal length. Can be improved.
  • the sharpening processing unit acquires a luminance component of the target image and performs a restoration process only on the luminance component.
  • the restoration process based on the optical transfer function can be easily performed on the luminance component.
  • the sharpening processing unit when the optical imaging condition satisfies the first imaging condition and the optical imaging condition satisfies the third imaging condition represented by F ⁇ (Fw ⁇ Ft), the sharpening processing unit performs the sharpening process. As a result, the magnification chromatic aberration correction processing is performed.
  • the image quality of the image can be improved by the magnification chromatic aberration correction process.
  • the sharpening processing unit performs magnification chromatic aberration correction processing by adjusting the magnification of the color components constituting the target image.
  • magnification chromatic aberration correction process can be easily performed.
  • the sharpening processing unit performs magnification chromatic aberration correction processing based on the optical transfer function.
  • magnification chromatic aberration correction process can be easily performed.
  • the target image includes at least a first color component and a second color component
  • the sharpening processing unit applies a filter based on the optical transfer function related to the first color component to the first color component
  • a magnification chromatic aberration correction process is performed by applying a filter based on the optical transfer function relating to the second color component to the second color component.
  • the sharpening processing unit when the optical imaging condition satisfies the first imaging condition and the optical imaging condition satisfies the third imaging condition represented by F ⁇ (Fw ⁇ Ft), the sharpening processing unit performs the restoration process. Is performed only on the region of the target image in which the distance from the center of the target image indicates 80% or more of the length of one half of the diagonal line of the imaging surface.
  • the restoration process is performed when the optical imaging condition satisfies the first imaging condition and the second imaging condition, and the total angle of view at the wide angle end of the optical system satisfies a condition exceeding 100 degrees.
  • the optical imaging condition satisfies the first imaging condition and the second imaging condition, and the distance from the center of the imaging plane of the optical system is one half of the diagonal of the imaging plane.
  • the spatial frequency at which the MTF value acquired using the evaluation wavelength is 30% or less is higher at the wide-angle end than at the telephoto end of the optical system in the region on the image plane that shows 70% or more of the height. Performed when the condition is met.
  • the image quality of the target image can be further effectively improved according to the focal length.
  • Another aspect of the present invention includes an optical system mounting unit to which an optical system is detachably mounted, an imaging device that receives imaging light through the optical system mounted on the optical system mounting unit and outputs an image, and And an image processing apparatus that uses an image output from an image sensor as a target image.
  • the MTF (optical performance) of the optical system and the restoration process based on the optical transfer function are optimally combined, and the image quality of the image shot using the optical system with a variable focal length is determined according to the focal length. Can be improved.
  • Another aspect of the present invention includes an optical system, an imaging device that receives imaging light through the optical system and outputs an image, a camera-side control processing unit connected to the imaging device, and a camera-side control processing unit.
  • a camera device having a camera side communication unit to be connected, a terminal side communication unit capable of communicating with the camera side communication unit, a terminal side control processing unit connected to the terminal side communication unit, and a terminal side control processing unit
  • at least one of the camera-side control processing unit and the terminal-side control processing unit includes the above-described image processing device and targets an image output from the image sensor.
  • the present invention relates to an imaging apparatus that uses an image.
  • the MTF (optical performance) of the optical system and the restoration process based on the optical transfer function are optimally combined, and the image quality of the image shot using the optical system with a variable focal length is determined according to the focal length. Can be improved.
  • Another aspect of the present invention includes a step of acquiring a target image, a step of acquiring an optical shooting condition indicating information of an optical system when the target image is shot, and a sharpening process of the target image according to the optical shooting condition
  • a restoration process based on the optical transfer function of the optical system is performed as a sharpening process
  • the first imaging condition is
  • the optical system has a variable focal length, the optical system has a total angle of view exceeding 90 degrees at the wide-angle end, and the optical system is an image sensor that outputs a target image at a distance from the center of the imaging plane of the optical system.
  • the spatial frequency at which the MTF value acquired in this way is 30% or less includes a condition that the wide-angle end is higher than the telephoto end of the optical system, and the second imaging condition is the optical when the target image is captured.
  • the present invention relates to an image processing method.
  • Another aspect of the present invention is a procedure for acquiring a target image, a procedure for acquiring an optical imaging condition indicating information of an optical system when the target image is captured, and a sharpening process of the target image according to the optical imaging condition.
  • the optical imaging condition satisfies the first imaging condition and the second imaging condition, a restoration process based on the optical transfer function of the optical system is performed as a sharpening process.
  • the first imaging condition is that the focal length of the optical system is variable, the total angle of view of the optical system exceeds 90 degrees at the wide angle end, and the optical system is from the center of the imaging plane of the optical system.
  • the second imaging condition includes the condition that the spatial frequency at which the MTF value acquired using the evaluation wavelength including the wavelength component of m is 30% or less is higher at the wide-angle end than at the telephoto end of the optical system.
  • F is the focal length of the optical system when the target image is shot
  • Fw is the focal length of the wide-angle end of the optical system
  • Ft is the focal length of the telephoto end of the optical system. It relates to a program represented by ⁇ (Fw ⁇ Ft).
  • Another aspect of the present invention is a procedure for acquiring a target image, a procedure for acquiring an optical imaging condition indicating information of an optical system when the target image is captured, and a sharpening process of the target image according to the optical imaging condition.
  • a computer-readable non-transitory tangible recording medium (a non-transitory computer-readable tangible medium) in which a program for causing the computer to execute is recorded, and the optical photographing condition is the first photographing condition and When the second imaging condition is satisfied, a restoration process based on the optical transfer function of the optical system is performed as a sharpening process.
  • the first imaging condition is that the optical system has a variable focal length and the optical system at the wide-angle end.
  • the total angle of view exceeds 90 degrees, and the optical system has a distance from the center of the imaging plane of the optical system that is at least 80% of the length of one-half of the diagonal of the imaging plane of the imaging device that outputs the target image. And less than 95% In the region on the image plane, the spatial frequency at which the MTF value obtained using the evaluation wavelength including the wavelength component of 435.83 nm, the wavelength component of 546.07 nm, and the wavelength component of 656.27 nm is 30% or less
  • the second imaging condition includes a condition that the focal length of the optical system when the target image is captured is represented by F, and includes a condition that the wide angle end is higher than the telephoto end of the optical system.
  • the present invention relates to a computer-readable non-transitory tangible recording medium in which a program represented by F ⁇ ⁇ (Fw ⁇ Ft) is recorded when the distance is represented by Fw and the focal length of the telephoto end of the optical system is represented by Ft.
  • the MTF (optical performance) of the optical system and the restoration process based on the optical transfer function are optimally combined, and the image quality of an image shot using an optical system with a variable focal length is determined according to the focal length. Can be improved.
  • FIG. 1 is an external view showing an example of a camera device used in the surveillance camera system.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus, and illustrates a functional configuration example particularly suitable for the surveillance camera system.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus.
  • FIG. 4 is a diagram conceptually showing the range of the focal length of the optical system.
  • FIG. 5 is a plan view showing the imaging surface of the imaging device, and is a diagram for explaining the range of the imaging surface used for determining the evaluation area of the optical system.
  • FIG. 6 is a block diagram illustrating another example of the functional configuration of the image processing apparatus.
  • FIG. 1 is an external view showing an example of a camera device used in the surveillance camera system.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus, and illustrates a functional configuration example particularly suitable for the surveillance camera system.
  • FIG. 3 is a block diagram illustrating
  • FIG. 7 is a block diagram illustrating another example of the functional configuration of the imaging apparatus, and particularly illustrates a functional configuration example suitable for a digital camera such as a compact digital camera in which an optical system and an imaging element are integrally provided.
  • FIG. 8 is a block diagram illustrating another example of the functional configuration of the imaging apparatus, and particularly illustrates a functional configuration example suitable for a digital camera such as an interchangeable lens camera in which an optical system is detachably attached to the main body.
  • FIG. 9 is a block diagram illustrating an example of a functional configuration of a computer, and particularly illustrates a functional configuration example to which the above-described image processing apparatus (see particularly FIG. 6) can be applied.
  • FIG. 6 is a block diagram illustrating another example of the functional configuration of the imaging apparatus, and particularly illustrates a functional configuration example suitable for a digital camera such as a compact digital camera in which an optical system and an imaging element are integrally provided.
  • FIG. 8 is a block diagram illustrating another example of the functional configuration of the imaging apparatus,
  • FIG. 10 is a cross-sectional view of the optical system according to the first embodiment, where (a) shows the arrangement of the optical system at the telephoto end, and (b) shows the arrangement of the optical system at the wide-angle end.
  • FIG. 11 is a table (Table 1) showing basic data of the optical system according to Example 1.
  • FIG. 12 shows the focal length, F value (“Fno”), total angle of view (“2 ⁇ ”), and variable surface spacing on the optical axis (“” at the wide-angle end and the telephoto end of the optical system according to the first embodiment. Table showing variable D10 (distance between fifth lens and diaphragm), variable D11 (distance between diaphragm and sixth lens), and variable D21 (distance between tenth lens and optical member)) 2).
  • FIG. 13 shows an aspheric lens of the optical system according to Example 1 (particularly, the surface numbers “12 (see“ R12 ”in FIG. 10A)) and“ 13 (see “R13” in FIG. 10A) ”.
  • Is a table (Table 3) showing aspherical coefficients (“KA” and “Ai (i 3 to 20)”).
  • FIG. 14 is a diagram (graph 1) showing the relationship between the position from the optical axis of the optical system according to Example 1 and the limit spatial frequency, and shows the optical performance at the wide-angle end and the optical performance at the telephoto end.
  • Yes. 15A and 15B are cross-sectional views of the optical system according to the second embodiment, where FIG.
  • FIG. 15A shows the arrangement of the optical system at the telephoto end
  • FIG. 15B shows the arrangement of the optical system at the wide-angle end
  • FIG. 16 is a table (Table 4) showing basic data of the optical system according to Example 2.
  • FIG. 17 shows the focal length, F value (“Fno”), total angle of view (“2 ⁇ ”), and surface separation on the optical axis (“variable”) at the wide-angle end and telephoto end of the optical system according to the second embodiment.
  • D10 (the distance between the fifth lens and the diaphragm), “variable D11 (the distance between the diaphragm and the sixth lens), and“ variable D21 (the distance between the tenth lens and the optical member) ”) (Table 5) ).
  • FIG. 5 shows the distance between the fifth lens and the diaphragm
  • variable D11 the distance between the diaphragm and the sixth lens
  • variable D21 the distance between the tenth lens and the optical member
  • FIG. 18 shows an aspheric lens of the optical system according to Example 2 (particularly, surface numbers “12 (see“ R12 ”in FIG. 15A)) and“ 13 (see “R13” in FIG. 15A) ”.
  • Is a table (Table 6) showing aspherical coefficients (“KA” and “Ai (i 3 to 20)”).
  • FIG. 19 is a graph (graph 2) showing the relationship between the position from the optical axis of the optical system according to Example 2 and the limit spatial frequency, and shows the optical performance at the wide-angle end and the optical performance at the telephoto end.
  • FIG. 20 is a flowchart illustrating an example of image processing according to the first mode.
  • FIG. 21 is a flowchart illustrating an example of image processing according to the second mode.
  • FIG. 22 is a flowchart illustrating an example of image processing according to the third mode.
  • FIG. 23 is a flowchart illustrating an example of image processing according to the fourth mode.
  • FIG. 24 is a flowchart illustrating an image processing example according to the fifth mode.
  • FIG. 25 is a flowchart illustrating an example of image processing according to the sixth mode.
  • FIG. 26 is a flowchart illustrating another example of image processing according to the sixth mode.
  • FIG. 27 is a diagram illustrating an appearance of a smartphone that is an embodiment of the imaging apparatus of the present invention.
  • FIG. 28 is a block diagram showing a configuration of the smartphone shown in FIG.
  • Embodiments of the present invention will be described with reference to the drawings.
  • the application target of the present invention is not limited to this, and the present invention can also be applied to an imaging apparatus, an image processing apparatus, an image processing method, a program, and a recording medium other than the surveillance camera system.
  • the lens design is performed in which the image quality of the captured image on the wide angle side of the optical system (zoom lens) having a variable focal length is given priority over the image quality on the telephoto side.
  • Image processing based on the optical transfer function is performed on the photographed image on the telephoto side.
  • the limit frequency capable of ensuring 30% or more as the MTF value in the lens peripheral portion is telephoto.
  • An optical system with a higher wide-angle end than an end is used.
  • FIG. 1 is an external view showing an example of a camera device 10 used in a surveillance camera system.
  • the camera device 10 of this example has a pan function and a tilt function, and can perform photographing under the control of a control terminal (see FIG. 2) described later. That is, the camera device 10 includes an imaging unit 12 that captures an image of a subject, and a support unit 14 that supports the imaging unit 12 so as to be able to pan and tilt.
  • the imaging unit 12 includes an optical system 16 supported by the imaging support unit 12A.
  • the optical system 16 is driven by a lens driving unit (not shown) to adjust the focus, zoom, and aperture.
  • the support unit 14 includes a support frame 14A and a gantry 14B, and the gantry 14B supports the support frame 14A so that the support frame 14A can rotate about the pan axis P.
  • the gantry 14B is provided with a control panel 18, and the camera device 10 can also be controlled by a user operating various operation buttons such as a power button included in the control panel 18.
  • the support frame 14A has a groove-like space in which the imaging unit 12 is disposed, and supports the imaging unit 12 so that the imaging unit 12 can rotate around a tilt axis T orthogonal to the pan axis P.
  • the support frame 14A is provided with a tilt drive unit (not shown) that rotates the imaging unit 12 around the tilt axis T, and the gantry 14B is a pan drive unit (not shown) that rotates the support frame 14A around the pan axis P. ) Is provided.
  • the optical axis L of the optical system 16 supported so as to be pan-tilt is orthogonal to the pan axis P and the tilt axis T.
  • the camera device 10 capable of pan-tilt operation
  • the camera device 10 does not necessarily require a pan-tilt mechanism
  • the imaging unit 12 may be fixedly installed on the support unit 14.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus, and illustrates a functional configuration example particularly suitable for the monitoring camera system 20.
  • FIG. 2 shows only the main functional configuration of photographing and communication, and for example, the above-described pan driving unit and tilt driving unit are omitted.
  • the surveillance camera system 20 of this example includes a camera device 10 and a control terminal 30 that can control the camera device 10.
  • the camera device 10 includes an optical system 16, an image sensor 22 that receives photographing light via the optical system 16 and outputs an image (target image), and a camera-side control process connected to the optical system 16 and the image sensor 22. And a camera-side communication unit 24 connected to the camera-side control processing unit 23.
  • the control terminal 30 is communicable with the camera side communication unit 24 (see symbol “C” in FIG. 2), and a terminal side control processing unit 32 connected to the terminal side communication unit 33. And a user interface 31 connected to the terminal-side control processing unit 32.
  • the optical system 16 includes a plurality of lenses and a diaphragm, and guides photographing light from the subject to the image sensor 22.
  • the imaging element 22 is configured by an image sensor such as a CCD (CCD: Charge Coupled Device) or a CMOS (CMOS: Complementary Metal Oxide Semiconductor).
  • the user interface 31 of the control terminal 30 includes a display unit capable of presenting various types of information to the user in addition to operation units such as buttons and a touch panel that can be directly operated by the user.
  • the camera-side control processing unit 23 controls the optical system 16, the image sensor 22, and the camera-side communication unit 24, and performs image processing using, for example, an image output from the image sensor 22 as a target image.
  • the terminal-side control processing unit 32 controls the user interface 31 and the terminal-side communication unit 33 to receive, for example, data and commands input by the user via the user interface 31 and reflect them in various processes.
  • the terminal-side control processing unit 32 receives data and commands transmitted from the camera device 10 (camera-side communication unit 24) via the terminal-side communication unit 33 and reflects them in various processes.
  • the camera-side control processing unit 23 and the terminal-side control processing unit 32 can transmit and receive, for example, image data and other data via communication C between the camera-side communication unit 24 and the terminal-side communication unit 33. . Therefore, the user can control the camera device 10 by inputting various data and commands to the terminal-side control processing unit 32 via the user interface 31 of the control terminal 30. That is, data and commands for controlling the camera-side control processing unit 23 are transmitted from the terminal-side control processing unit 32 to the camera-side control processing unit 23 via the terminal-side communication unit 33 and the camera-side communication unit 24, and the camera-side control The optical system 16 and the image sensor 22 can be controlled via the processing unit 23.
  • the processing of the image output from the image sensor 22 may be performed by the camera side control processing unit 23, the terminal side control processing unit 32, or the camera side control processing unit 23 and the terminal side. It may be performed in both of the control processing units 32. That is, the image output from the image sensor 22 may be sent to the terminal-side control processing unit 32 via the camera-side communication unit 24 and the terminal-side communication unit 33 after being processed in the camera-side control processing unit 23.
  • the terminal-side control processing unit 32 may receive the process.
  • the image processing apparatus described below can be provided in at least one of the camera side control processing unit 23 and the terminal side control processing unit 32.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus 40.
  • the image processing apparatus 40 of this example includes a sharpening processing unit 41, and the target image and optical shooting condition data are input to the sharpening processing unit 41.
  • the target image is an image output from the image sensor 22 and is input from the image sensor 22 directly or indirectly to the sharpening processing unit 41 (image processing device 40).
  • the optical imaging condition indicates information of the optical system 16 when the target image is captured, and includes at least information on the focal length when the target image is captured.
  • the sharpening processing unit 41 performs a sharpening process on the target image according to the optical photographing conditions.
  • the sharpening processing unit 41 of the present example represents the focal length of the optical system 16 at the time of capturing the target image as F, represents the focal length at the wide-angle end of the optical system 16 as Fw, and sets the focal length of the optical system 16 at the telephoto end.
  • FIG. 4 is a diagram conceptually showing the range of the focal length of the optical system 16.
  • the range of Ft ⁇ F ⁇ ⁇ (Fw ⁇ Ft) is represented by “Ra”
  • the range of ⁇ (Fw ⁇ Ft)> F ⁇ Fw is represented by “Rb”.
  • the focal length F of the optical system 16 is variable between the focal length Fw at the wide-angle end and the focal length Ft at the telephoto end
  • the range of the focal length F expressed by the above equation 1 is “Ra” in FIG. It corresponds to the telephoto side range represented by.
  • the focal length F when the target image is taken is equal to or larger than “the square root of the product of the focal length Fw at the wide-angle end of the optical system 16 and the focal length Ft at the telephoto end of the optical system 16”, and the range “ When included in “Ra”, the sharpening processing unit 41 applies a restoration process based on the optical transfer function of the optical system 16 to the target image as the sharpening process.
  • the method by which the sharpening processing unit 41 acquires the target image and optical photographing condition data is not particularly limited, and the data of the target image and the optical photographing condition is transmitted from each part of the monitoring camera system 20 to the sharpening processing unit 41. Can be entered.
  • the image processing device 40 when the image processing device 40 is provided in the camera-side control processing unit 23 of the camera device 10, the image processing device 40 acquires an image output from the imaging element 22 as a target image, and the camera-side control processing unit 23 Optical imaging conditions may be acquired from data used to control the optical system 16 and the image sensor 22.
  • the image processing device 40 when the image processing device 40 is provided in the terminal-side control processing unit 32 of the control terminal 30, the image processing device 40 starts from the image sensor 22 to the camera-side control processing unit 23, the camera-side communication unit 24, and the terminal-side communication unit 33. And the optical imaging condition is acquired from “data used to control the optical system 16 and the image sensor 22” held by the camera-side control processing unit 23 or the terminal-side control processing unit 32. May be.
  • the image processing apparatus 40 reads the metadata added to the target image data and acquires the optical imaging conditions. May be.
  • the optical system 16 has the following conditions 1 to 3 (first (All shooting conditions) (Condition 1)
  • the focal length of the optical system 16 is variable.
  • the total angle of view of the optical system 16 at the wide angle end exceeds 90 degrees.
  • Condition 3) In the optical system 16, the distance from the center of the imaging surface of the optical system 16 is 80% or more and less than 95% of the length of one half of the diagonal line of the imaging surface of the imaging device 22 that outputs the target image.
  • the spatial frequency at which the MTF value acquired using the evaluation wavelength including the wavelength component of 435.83 nm, the wavelength component of 546.07 nm, and the wavelength component of 656.27 nm is 30% or less,
  • the wide angle end is higher than the telephoto end of the optical system 16.
  • the above condition 1 means that the optical system 16 includes a zoom lens, and the focal length of the optical system 16 is between the “wide-angle end” indicating the shortest focal length and the “telephoto end” indicating the longest focal length. Can be changed.
  • the specific adjustment method of the focal length of the optical system 16 is not particularly limited, and the user may manually determine the focal length (zoom level) using the user interface 31 of the control terminal 30, or the camera side
  • the control processing unit 23 and / or the terminal side control processing unit 32 may automatically determine the focal length.
  • the above condition 2 means that the entire angle of view of the optical system 16 exceeds 90 degrees at the wide-angle end where the optical system 16 shows the shortest focal length.
  • an angle of view of 90 degrees is required to monitor the entire room from the corner of the room without creating a blind spot. It is desirable that the focal length of the optical system 16 be adjustable so that the total angle of view of 16 can exceed 90 degrees.
  • the focal length of the optical system 16 can be adjusted so that the total angle of view of the optical system 16 can exceed an angle of view wider than 90 degrees (for example, about 100 degrees). Furthermore, from the viewpoint of improving the degree of freedom of arrangement of the imaging device, it is preferable that the total angle of view of the optical system 16 can exceed an angle of view wider than 100 degrees. Accordingly, the total angle of view of the optical system 16 is more preferably more than 100 degrees, further preferably more than 110 degrees, and further preferably more than 120 degrees.
  • Condition 3 described above is that the “spatial frequency at which the MTF value is 30% or less” obtained using the “evaluation wavelength” with respect to the “evaluation region” of the optical system 16 at the “wide-angle end” of the optical system 16 is optical This indicates that the “evaluation region” of the optical system 16 at the “telephoto end” of the system 16 is larger than the “spatial frequency at which the MTF value is 30% or less” obtained using the “evaluation wavelength”.
  • the “evaluation area” is determined based on the imaging surface of the imaging element 22.
  • FIG. 5 is a plan view showing an image pickup surface of the image pickup element 22, and is a diagram for explaining a range of the image pickup surface used for determining an evaluation region of the optical system 16.
  • FIG. The half length of the diagonal J on the imaging surface of the rectangular imaging element 22 corresponds to the distance from the imaging surface center Io represented by the intersection of the diagonals J to the vertex of the imaging surface.
  • a position corresponding to 80% of the distance from the imaging surface center Io of “1/2 the length of the diagonal J” is represented by “B80 (80% image height line)”.
  • B95 95% image height line
  • a range surrounded by the 80% image height line B80 and the 95% image height line B95 is represented as a “reference range Rs”.
  • Condition 3 described above is that the evaluation wavelength is set in an area on the imaging surface where the distance from the center of the imaging surface of the optical system 16 corresponds to the “distance from the imaging surface center Io to the reference range Rs shown in FIG. 5”. It shows that the spatial frequency at which the MTF value acquired by using is 30% or less is higher at the wide-angle end than at the telephoto end of the optical system 16.
  • the optical system 16 and the image sensor 22 are integrally provided, and a specific optical system 16 that satisfies the above-described conditions 1 to 3 (first imaging conditions) is fixed.
  • the optical system 16 may be replaceable.
  • FIG. 6 is a block diagram illustrating another example of the functional configuration of the image processing apparatus 40.
  • the image processing apparatus 40 of the present example includes an image acquisition unit 42 that acquires a target image, and a condition acquisition unit that acquires an optical imaging condition indicating information on an optical system when the target image is captured. 43.
  • the optical imaging conditions acquired by the condition acquisition unit 43 are condition 1 to condition 3 (first imaging condition) and condition 4 (second When the shooting condition is satisfied, a restoration process based on the optical transfer function of the optical system 16 is performed as a sharpening process on the target image acquired by the image acquisition unit 42.
  • condition 4 second imaging condition
  • whether or not the above conditions 1 to 3 (first imaging condition) are satisfied is determined. Is determined by the sharpening processing unit 41, and a restoration process as a sharpening process is performed according to the determination result. Therefore, the image processing device 40 shown in FIG. 6 is preferably used even in a case where the optical system 16 can be replaced and the optical system 16 used for photographing can be changed.
  • the application target of the above-described image processing apparatus 40 is not limited to the monitoring camera system 20. Others such as a digital camera in which the optical system 16 and the image sensor 22 are integrally provided, a digital camera in which the optical system 16 is detachably attached to a main body in which the image sensor 22 is provided, a computer that can perform image processing, and the like The image processing apparatus 40 may be applied to these devices.
  • FIG. 7 is a block diagram illustrating another example of the functional configuration of the imaging apparatus, and particularly illustrates an exemplary functional configuration suitable for a digital camera 50 such as a compact digital camera in which the optical system 16 and the imaging element 22 are provided integrally.
  • the digital camera 50 of this example is integrally provided with an optical system 16, an imaging device 22, an imaging control processing unit 51, a communication unit 52, and an imaging user interface 53, and the imaging control processing unit 51 includes the optical system 16, The imaging element 22, the communication unit 52, and the imaging user interface 53 are controlled in an integrated manner. Imaging is performed by the imaging control processing unit 51 controlling the optical system 16 and the imaging element 22 in accordance with various data and commands input by the user via the imaging user interface 53.
  • the imaging control processing unit 51 can perform various processes using the image output from the imaging element 22 as a target image, and can transmit the images before and after the process to external devices via the communication unit 52.
  • the above-described image processing device 40 may be provided in the imaging control processing unit 51 of the digital camera 50 shown in FIG.
  • the imaging control processing unit 51 image processing device 40 is configured to satisfy the above-described condition 1 to condition 3 (first imaging condition) and the condition 4 (second imaging condition) represented by the above expression 1. Can perform a restoration process based on the optical transfer function of the optical system 16 as a sharpening process.
  • FIG. 8 is a block diagram illustrating another example of the functional configuration of the imaging apparatus.
  • the functional configuration example is suitable for a digital camera 50 such as an interchangeable lens camera in which the optical system 16 is detachably attached to the main body 54.
  • the digital camera 50 of this example includes an optical system 16 and a main body 54.
  • the optical system 16 is provided integrally with the optical system control unit 55 and the optical system input / output unit 56, and is attached to the main body unit 54 by fitting into the optical system mounting unit 58 of the main body unit 54.
  • the main body unit 54 includes the image sensor 22, an optical system mounting unit 58, a main body control unit 57, a main body input / output unit 59, a communication unit 52, and an imaging user interface 53.
  • the optical system mounting unit 58 is detachably mounted with the optical system 16, and the image sensor 22 receives photographing light through the optical system 16 mounted on the optical system mounting unit 58 and outputs an image.
  • the main body input / output unit 59 can transmit and receive data by connecting to the optical system input / output unit 56 when the optical system 16 is fitted to the optical system mounting unit 58.
  • the optical system control unit 55 and the main body control unit 57 can transmit and receive data via the optical system input / output unit 56 and the main body input / output unit 59.
  • the main body control unit 57 transmits a control signal to the optical system control unit 55 according to various data and commands input by the user via the imaging user interface 53, and the optical system control unit 55 responds to the control signal by the optical system control unit 55. 16 is controlled.
  • the main body control unit 57 can control the image sensor 22 to perform photographing.
  • the main body control unit 57 can perform various processes using the image output from the image sensor 22 as a target image, and can transmit the images before and after the process to external devices via the communication unit 52.
  • the above-described image processing apparatus 40 may be provided in the main body control unit 57 of the digital camera 50 shown in FIG.
  • the main body control unit 57 image processing apparatus 40 determines that the above-described condition 1 to condition 3 (first shooting condition) and the condition 4 (second shooting condition) represented by the above-described expression 1 are satisfied.
  • a restoration process based on the optical transfer function of the optical system 16 can be performed.
  • FIG. 9 is a block diagram illustrating an example of a functional configuration of the computer 60, and particularly illustrates a functional configuration example to which the above-described image processing device 40 (see particularly FIG. 6) can be applied.
  • the computer 60 of this example includes a computer control processing unit 61, a computer input / output unit 62, and a computer user interface 63.
  • the computer input / output unit 62 is connected to external devices such as the digital camera 50 described above, and transmits / receives data to / from the external devices.
  • the computer user interface 63 includes a display device capable of presenting various kinds of information to the user, in addition to a pointing device such as a mouse and an operation unit such as a keyboard that can be directly operated by the user.
  • the computer control processing unit 61 is connected to the computer input / output unit 62 and the computer user interface 63, receives data such as image data via the computer input / output unit 62, and is input by the user via the computer user interface 63.
  • Various processes are performed according to various data and commands.
  • the above-described image processing apparatus 40 may be provided in the computer control processing unit 61 of the computer 60 shown in FIG.
  • the computer control processing unit 61 (the image processing apparatus 40) is configured to satisfy the above-described condition 1 to condition 3 (first photographing condition) and the condition 4 (second photographing condition) represented by the above-described expression 1. Can perform a restoration process based on the optical transfer function of the optical system 16 as a sharpening process.
  • the imaging device when performing wide-angle shooting, a captured image having good image quality is provided not only in the central portion but also in the peripheral portion. can do.
  • the optical system takes into consideration the characteristics of the zoom lens that “the optical performance and aberration change due to the zoom change is relatively large on the wide-angle side, and the optical performance and aberration change gently toward the telephoto side”. Sixteen designs and optimization of restoration processing are performed.
  • the optical performance on the wide-angle side is enhanced, and the malfunction that may occur in the image shot at the focal length on the telephoto side is dealt with by a restoration process based on the optical transfer function.
  • a restoration process based on the optical transfer function it is possible to provide a high-quality captured image in the entire zoom range.
  • the “restoration process based on the optical transfer function” referred to here is an image restoration process derived from an optical transfer function (OTF) obtained by two-dimensional Fourier transform of a point spread function (PSF) of the optical system 16. This is also called point image restoration processing.
  • This “restoration process based on the optical transfer function” may be a process using a filter created based on the OTF, or an MTF that is an absolute value component of the OTF and / or a PTF (Phase) representing a phase shift. Processing using a filter created based on Transfer Function) or processing using a filter created based on PSF may be used.
  • the “optical transfer function” described below is a concept that can include not only the OTF but also these MTF, PTF, and PSF.
  • an image deteriorated according to the optical transfer function of the optical system 16 is corrected by using a restoration filter (inverse filter) obtained directly or indirectly from the optical transfer function.
  • This process cancels image degradation and restores the original image.
  • a restoration process using a simple restoration filter for example, by applying a restoration filter having a gain that increases the image component by 100 times to a degraded image component attenuated to 1/100 of the original image component, the original image is obtained.
  • a process to restore However, if a gain that is simply obtained from the reciprocal of the attenuation characteristic is simply applied to the deteriorated image component, a noise component due to the image pickup system such as the image pickup element 22 is also amplified. For this reason, when a restoration filter having a large amplification factor is applied to an image containing a noise component, image degradation that cannot be ignored in the restored image is brought about.
  • a Wiener filter is used in a wide range of fields as a restoration filter created in consideration of noise caused by the imaging system.
  • the frequency characteristic of the image is extremely attenuated compared to the amount of noise caused by the imaging system due to the influence of the blur caused by the optical transfer function of the optical system 16 being too great.
  • a large gain is avoided from being applied to the image, and an attenuation gain that prioritizes reducing the amount of noise caused by the imaging system may be applied to the image.
  • This Wiener filter can be effectively used also in the imaging apparatus of the present embodiment.
  • the optical system 16 By designing the optical system 16 on the premise that restoration processing using a Wiener filter is applied, it is possible to improve other performance instead of allowing some degradation in optical performance.
  • the Wiener filter is a filter created for the purpose of minimizing the mean square error between the restored image and the original image when the image degradation is linear and known, and is used as one of the linear filter design criteria. Has been.
  • the frequency characteristic F (f, h) of the Wiener filter is expressed by the following equation 2.
  • H (f, h) is a parameter obtained based on the design information of the optical system
  • S (f) and N (f) are parameters obtained based on the assumed imaging system. .
  • Equation 3 The response X (f, h) of the restored image when the Wiener filter defined by Equation 2 above is applied to the captured image is expressed by Equation 3 below.
  • the performance requirement can be evaluated based on the MTF value after the restoration process. Therefore, the performance requirement criterion is substantially relaxed as represented by Equation 5 below.
  • ⁇ L is “ ⁇ L ⁇ ⁇ M ” in the range where the following Expression 8 is satisfied, and the MTF condition of the optical system 16 is allowed to be relaxed accordingly. This condition is satisfied for most ⁇ M except for the vicinity of 0% and 100% if the SN ratio (Signal-Noise ratio) is high to some extent.
  • the optical system 16 with improved limit resolution performance at the wide-angle end can be designed as described above.
  • FIGS. 10A and 10B are cross-sectional views of the optical system 16 according to the first embodiment.
  • FIG. 10A illustrates the arrangement of the optical system 16 at the wide-angle end
  • FIG. 10B illustrates the arrangement of the optical system 16 at the telephoto end.
  • FIGS. 10A and 10B show the arrangement state of the optical system 16 in a state in which an object at infinity is in focus, the left side of the figure is the object side (subject side), and the right side of the figure is the image. This is the side (image plane Sim side).
  • the optical system 16 of this example is arranged in order from the object side, “first lens group G1 having negative refractive power”, “stop St”, “second lens group G2 having positive refractive power”, and “parallel”.
  • a flat optical member PP ".
  • the first lens group G1 includes a first lens L1, a second lens L2, a third lens L3, a fourth lens L4, and a fifth lens L5 (see FIG. 10B).
  • the second lens group G2 includes a sixth lens L6, a seventh lens L7, an eighth lens L8, a ninth lens L9, and a tenth lens L10 (see FIG. 10B).
  • a cover glass that protects the image pickup surface of the image pickup element 22, a prism such as a color separation prism according to the specifications of the image pickup apparatus, and various types such as a low-pass filter and an infrared cut filter
  • An optical member typified by a filter is preferably provided.
  • a parallel plate-shaped optical member PP that assumes these optical members is disposed between the second lens group G2 and the image plane Sim.
  • the diaphragm St is disposed between the first lens group G1 and the second lens group G2, and the positions of the diaphragm St and the image plane Sim are fixed at the time of zooming to change the focal length.
  • the image plane Sim represents the image plane of the optical system 16, and the image pickup plane of the image pickup device 22 is disposed at the position of the image plane Sim when shooting.
  • the diaphragm St shown in FIGS. 10A and 10B does not represent the size or shape, but indicates the position on the optical axis L.
  • a location corresponding to the center of the imaging plane of the optical system 16 is represented by reference numeral “S0”.
  • the distance in the direction of the optical axis L between the first lens group G1 and the second lens group G2 changes.
  • the first lens L1 to the fifth lens L5 constituting the first lens group G1 are integrally moved in the direction of the optical axis L while maintaining the mutual position, and the second lens group G2 is constituted.
  • the sixth lens L6 to the tenth lens L10 move integrally in the direction of the optical axis L while maintaining the position between them.
  • FIG. 11 is a table (Table 1) showing basic data of the optical system 16 according to the first embodiment.
  • the column “r” in FIG. 11 indicates the radius of curvature (mm: millimeter) of each surface number.
  • the sign of the radius of curvature is positive when the surface shape is convex on the object side and negative when the surface shape is convex on the image side.
  • the curvature radii of the surface numbers “3”, “20”, and “21” mean infinite, and the surface shape is a plane that is orthogonal to the optical axis L and whose normal direction coincides with the direction of the optical axis L. Means.
  • a symbol “ ⁇ ” indicating a hyphen is described in the column of the radius of curvature of the surface (surface number “10”) corresponding to the stop St in FIG.
  • the column “D” in FIG. 11 is on the optical axis L between the surface of each surface number (i) and the surface of surface number (i + 1) adjacent to the image side (the right side of FIGS. 10A and 10B).
  • the surface interval (mm) is shown.
  • Variable D21 the tenth lens L10 and the optical member PP) in FIG.
  • Interval means that it changes according to the zoom (focal length) (see FIG. 12 described later).
  • the column “Nd” in FIG. 11 is an optical element between each surface number (i) surface and the surface number (i + 1) surface adjacent to the image side (right side in FIGS. 10A and 10B).
  • wire (wavelength 587.6nm) is shown.
  • the column of “ ⁇ d” in FIG. 11 is an optical element between each surface number (i) surface and a surface number (i + 1) surface adjacent to the image side (right side in FIGS. 10A and 10B). Shows the Abbe number for the d-line.
  • the column of “ ⁇ gF” in FIG. 11 is an optical element between each surface number (i) surface and the surface number (i + 1) surface adjacent to the image side (right side in FIGS. 10A and 10B). Shows the partial dispersion ratio between g-line (wavelength 435.8 nm) and F-line (486.1 nm).
  • blanks in the columns “Nd”, “ ⁇ d”, and “ ⁇ gF” in FIG. 11 mean that there is no corresponding optical element, and the corresponding portion is occupied by a space.
  • the optical system 16 according to Example 1 has a total angle of view of 151.3 degrees at the wide-angle end, and satisfies the above-described condition 2.
  • Example 13 shows an aspheric lens of the optical system 16 according to Example 1 (particularly, the surface numbers “11” (see “R11” in FIG. 10A)) and “12” (see “R12” in FIG. 10A). ]
  • Is a table (Table 3) showing aspherical coefficients ("KA” and "Ai (i 3 to 20)").
  • the aspheric depth Z of the surface numbers “11” and “12” is expressed by the following Expression 14.
  • E represents exponential notation, for example, “E-05” means 10 to the power of “ ⁇ 5” (ie, “10 ⁇ 5 ”).
  • FIG. 14 is a diagram (graph 1) showing the relationship between the position from the optical axis L of the optical system 16 according to Example 1 and the limit spatial frequency, and shows the optical performance at the wide-angle end and the optical performance at the telephoto end. Has been.
  • the horizontal axis (“image height (ratio)”) in FIG. 14 indicates the position of the optical system 16 from the optical axis, and “the length of the half of the diagonal J of the imaging surface of the imaging element 22” is used as a reference. It is represented by the ratio (percentage (%)) of the distance from the center of the imaging surface of the optical system 16. For example, “70%” on the horizontal axis is 70% of the distance in the radial direction from the optical axis of the optical system 16 that is “the length of the half of the diagonal J of the imaging surface of the imaging element 22”. Indicates the position.
  • “100%” on the horizontal axis indicates the optical system 16 in which the radial distance from the optical axis of the optical system 16 is the same as “half the length of the diagonal J of the imaging surface of the imaging element 22”. Indicates the position.
  • frequency [LP / mm (Line Pairs / mm)] represents the spatial frequency.
  • FIG. 14 plots a spatial frequency (limit spatial frequency) at which the MTF value of the optical system 16 according to the first embodiment acquired using the evaluation wavelength is 30%.
  • the evaluation wavelength used in this example is composed of a wavelength component of 435.83 nm (g-line), a wavelength component of 546.07 nm (e-line) and a wavelength component of 656.27 nm (C-line).
  • the wavelength of white light included at a ratio of “wavelength component of 435.83 nm: wavelength component of 546.07 nm: wavelength component of 656.27 nm 1: 5: 1”.
  • the optical system 16 according to Example 1 having the characteristics shown in FIGS. 10 to 14 is a variable magnification optical system having a magnification of about 2.7 times, and is designed with an emphasis on optical performance at the wide-angle end. 1 to Condition 3 (first photographing condition) are satisfied.
  • the focal length on the telephoto side of the captured image acquired using the optical system 16 of Example 1 having such optical characteristics (Condition 4 (second condition expressed by Equation 1 above)
  • the restoration process based on the optical transfer function is performed as a sharpening process on the image shot based on the shooting condition (see (2)). Thereby, it is possible to provide an image having a good image quality with respect to the entire zoom range.
  • FIGS. 15A and 15B are cross-sectional views of the optical system 16 according to the second embodiment.
  • FIG. 15A shows the arrangement of the optical system 16 at the wide-angle end
  • FIG. 15B shows the arrangement of the optical system 16 at the telephoto end.
  • FIGS. 15A and 15B respectively show the arrangement state of the optical system 16 in a state in which an object at infinity is focused.
  • the left side of the figure is the object side (subject side), and the right side of the figure is the image. This is the side (image plane Sim side).
  • the optical system 16 according to the second embodiment enables wide-angle shooting with a larger angle of view than the optical system 16 of the first embodiment (see FIG. 17 described later).
  • the optical system 16 of this example is arranged in order from the object side, “first lens group G1 having negative refractive power”, “stop St”, “second lens group G2 having positive refractive power”, and “parallel”.
  • a flat optical member PP ".
  • the first lens group G1 includes a first lens L1, a second lens L2, a third lens L3, a fourth lens L4, and a fifth lens L5.
  • the second lens group G2 includes a sixth lens L6, a seventh lens L7, an eighth lens L8, a ninth lens L9, and a tenth lens L10.
  • the diaphragm St is disposed between the first lens group G1 and the second lens group G2
  • the optical member PP is disposed between the second lens group G2 and the image plane Sim
  • the positions of the diaphragm St and the optical member PP are also fixed during zooming for changing the distance.
  • the distance in the direction of the optical axis L between the first lens group G1 and the second lens group G2 changes.
  • the first lens L1 to the fifth lens L5 constituting the first lens group G1 are integrally moved in the direction of the optical axis L while maintaining the mutual position, and the second lens group G2 is constituted.
  • the sixth lens L6 to the tenth lens L10 move integrally in the direction of the optical axis L while maintaining the position between them.
  • FIG. 16 is a table (Table 4) showing basic data of the optical system 16 according to the second embodiment.
  • the columns of “R”, “r”, “D”, “Nd”, “ ⁇ d”, and “ ⁇ gF” in FIG. 16 have the same meanings as those in FIG. R1 to R22 (see FIG. 15A)), image plane Sim, radius of curvature, surface interval, refractive index, Abbe number, and partial dispersion ratio between g-line and F-line are shown.
  • FIG. 17 shows the focal length, F value (“Fno”), total angle of view (“2 ⁇ ”), and surface distance on the optical axis L (at the wide-angle end and the telephoto end of the optical system 16 according to Example 2).
  • “Variable D10 (interval between the fifth lens L5 and the diaphragm St)”
  • “Variable D11 (interval between the diaphragm St and the sixth lens L6)”
  • Variable D21 interval between the tenth lens L10 and the optical member PP)
  • the columns of “focal length”, “Fno”, “2 ⁇ ”, “variable D10”, “variable D11”, and “variable D21” in FIG. 17 are the same as those in FIG.
  • the optical system 16 according to Example 2 has a total angle of view of 164.3 degrees at the wide-angle end, and satisfies the above-described condition 2.
  • FIG. 19 is a diagram (graph 2) showing the relationship between the position from the optical axis L of the optical system 16 according to Example 2 and the limit spatial frequency, and shows the optical performance at the wide-angle end and the optical performance at the telephoto end.
  • the horizontal axis, vertical axis, plot, and evaluation wavelength in FIG. 19 are the same as those in FIG. 14 according to Example 1 described above.
  • FIG. 19 shows the optical system 16 according to Example 2 that is acquired using the evaluation wavelength.
  • the spatial frequency (limit spatial frequency) at which the MTF value of 30% is plotted is plotted.
  • the optical system 16 according to the second embodiment having the characteristics shown in FIGS. 15 to 19 is also designed with an emphasis on the optical performance at the wide-angle end, and satisfies the above conditions 1 to 3 (first imaging conditions).
  • the focal length on the telephoto side condition 4 (second condition expressed by the above equation 1) (second) expressed using the optical system 16 of the second example having such optical characteristics is used.
  • the restoration process based on the optical transfer function is performed as a sharpening process on the image shot based on the shooting condition (see (2)). Thereby, it is possible to provide an image having a good image quality with respect to the entire zoom range.
  • FIG. 20 is a flowchart illustrating an example of image processing according to the first mode.
  • This mode is suitable for the case where the optical system 16 used for photographing the target image is fixed without being changed, and this mode can be applied to the image processing apparatus 40 shown in FIG.
  • the “imaging device such as the digital camera 50 (see FIG. 7) in which the optical system 16 is difficult to replace” and the “monitoring camera system 20 (see FIG. 2) in which the optical system 16 cannot be replaced” are used for image processing according to this mode. Can be adopted.
  • This mode is based on the premise that the optical system 16 used for shooting satisfies the above conditions 1 to 3 (first shooting conditions), and the focal length at the time of shooting is a condition represented by the above equation 1. Whether or not to execute the restoration process is determined according to a determination result of whether or not 4 (second imaging condition) is satisfied.
  • the target image is acquired by the sharpening processing unit 41 of the image processing apparatus 40 (S11 in FIG. 20), the optical imaging condition is acquired (S12), and the condition 4 (second imaging condition) expressed by the above equation 1 is obtained. ) Is satisfied based on the optical imaging conditions (S13).
  • the sharpening processing unit 41 performs “restoration processing based on an optical transfer function” on the target image (S14).
  • the “restoration process based on the optical transfer function (see S14)” is skipped. In this way, the sharpening processing unit 41 in this mode performs the restoration process only when the condition 4 “F ⁇ ⁇ (Fw ⁇ Ft)” is satisfied.
  • the specific method of the restoration process (see S14) based on the optical transfer function is not particularly limited.
  • the restoration filter may be applied to all the pixels constituting the target image to perform restoration processing on the entire target image, or the restoration filter may be applied to only a part of the pixels constituting the target image.
  • a restoration process may be performed on a part of the image. In the case where the restoration process is performed on only a part of the target image, it is preferable to preferentially perform the restoration process on a portion where the image quality is likely to be deteriorated. It is preferable to apply it preferentially.
  • This mode is suitable for a case where the optical system 16 used for capturing the target image can be changed without being fixed, and this mode can be applied to the image processing apparatus 40 shown in FIG.
  • “See FIG. 9)" can employ image processing according to this mode.
  • FIG. 21 is a flowchart illustrating an image processing example according to the second mode.
  • the sharpening processing unit 41 of the image processing apparatus 40 acquires the target image (S21 in FIG. 21) and the optical photographing conditions (S22).
  • the sharpening processing unit 41 determines whether or not the above conditions 1 to 3 (first imaging conditions) and condition 4 (second imaging conditions) are satisfied based on the optical imaging conditions. (S23).
  • the sharpening processing unit 41 performs “restoration processing based on the optical transfer function”. This is performed on the image (S24).
  • “restoration process based on optical transfer function” See S24
  • the restoration process based on the optical characteristics of the optical system 16 and the optical transfer function is appropriately performed. They are combined in a complementary manner, and it becomes possible to provide a high-quality image over the entire range from the wide-angle end to the telephoto end.
  • FIG. 22 is a flowchart showing an image processing example according to the third mode.
  • the sharpening processing unit 41 acquires the luminance component of the target image and performs the restoration process only on the luminance component.
  • the target image is acquired by the sharpening processing unit 41 of the image processing apparatus 40 (S31 in FIG. 22), the optical imaging conditions are acquired (S32), and the above-described conditions Whether or not conditions 1 to 4 (first imaging condition and second imaging condition) are satisfied is determined based on the optical imaging condition (S33).
  • the sharpening processing unit 41 acquires the luminance component of the target image.
  • S34 “Restoration process based on optical transfer function” is performed on the acquired luminance component (S35).
  • the process of acquiring the luminance component of the target image” and “ The “restoration process based on the optical transfer function” is skipped.
  • the timing for acquiring the luminance component of the target image is not particularly limited, and may be after step S33 described above or before.
  • the method for acquiring the luminance component of the target image is not particularly limited.
  • the sharpening processing unit 41 can acquire the luminance component Y of the target image according to the following Expression 15.
  • Each coefficient of the RGB data used in the following formula 15 is only an example, and other coefficients may be used.
  • Formula 15 Y 0.299 ⁇ R + 0.587 ⁇ G + 0.114 ⁇ B
  • R R data of the target image
  • G G data of the target image
  • B B data of the target image
  • the sharpening processing unit 41 performs magnification chromatic aberration correction processing as the sharpening processing. Is performed on the target image. That is, the sharpening processing unit 41 satisfies the condition 5 (third imaging condition) in which the optical imaging condition satisfies the conditions 1 to 3 (first imaging condition) and the optical imaging condition is expressed by the following Expression 16. In the case of satisfying, “a magnification chromatic aberration correction process for adjusting the magnification of the color component constituting the target image” is performed as a sharpening process.
  • Formula 16 F ⁇ (Fw ⁇ Ft) Note that the condition 5 (third imaging condition) expressed by Expression 16 has a correlation with the condition 4 (second imaging condition) expressed by Expression 1 described above, and “condition 4 (second imaging condition)”. “Determining whether or not is satisfied” and “determining whether or not condition 5 (third imaging condition) is satisfied” can be performed simultaneously. That is, “condition 4 (second imaging condition) is satisfied” and “condition 5 (third imaging condition) are not satisfied” are equivalent, and “condition 4 (second imaging condition) is satisfied”. “Not to be performed” and “Condition 5 (third imaging condition) are satisfied” are equivalent. Therefore, in this mode described below, only “determination of whether or not the condition 4 (second imaging condition) is satisfied” is performed, but substantially “condition 5 (third imaging condition) is satisfied. “Determining whether or not it is satisfied” is also performed.
  • FIG. 23 is a flowchart showing an image processing example according to the fourth mode.
  • the target image is acquired by the sharpening processing unit 41 of the image processing apparatus 40 (S41 in FIG. 23), and the optical photographing conditions are acquired (S42). ).
  • the sharpening processing unit 41 determines whether or not the optical imaging conditions satisfy the conditions 1 to 3 (first imaging conditions) (S43), and the conditions 1 to 3 (first imaging conditions) are satisfied. If it is determined (YES in S43), it is determined whether or not the optical imaging condition satisfies condition 4 (second imaging condition) (S44). As described above, this step S44 is “determination of whether or not the optical photographing condition satisfies condition 4 (second photographing condition)” and “optical photographing condition satisfies condition 5 (third photographing condition). It is also “determination of whether or not it is satisfied”.
  • the sharpening processing unit 41 When the condition 4 (second imaging condition) is satisfied (YES in S44), the “restoration process based on the optical transfer function” is performed on the target image by the sharpening processing unit 41 (S45). On the other hand, when the condition 4 (second imaging condition) is not satisfied (NO in S44), that is, when the condition 5 (third imaging condition) is satisfied, the sharpening processing unit 41 performs the magnification chromatic aberration correction process on the target image. (S46).
  • a specific method of the magnification chromatic aberration correction processing performed by the sharpening processing unit 41 is not particularly limited.
  • the sharpening processing unit 41 may perform magnification chromatic aberration correction processing based on the optical transfer function of the optical system 16.
  • the sharpening processing unit 41 uses a restoration filter based on the optical transfer function of the optical system 16 relating to the first color component as the first color component.
  • the restoration chromatic aberration correction processing may be performed by applying the restoration filter based on the optical transfer function of the optical system 16 related to the second color component to the second color component.
  • the sharpening processing unit 41 applies a restoration filter based on the optical transfer function of the optical system 16 related to the R component to the R component of the target image, and the optical of the optical system 16 related to the G component.
  • the magnification chromatic aberration correction process may be performed by applying a restoration filter based on the transfer function to the G component of the target image and applying a restoration filter based on the optical transfer function of the optical system 16 related to the B component to the B component of the target image.
  • the restoration process based on the optical transfer function is performed, while the condition 4 (the first imaging condition). If the second imaging condition) is not satisfied, the magnification chromatic aberration correction processing is performed.
  • the image quality of the target image taken on the telephoto side but also the image quality of the target image taken on the wide angle side can be further improved by image processing.
  • the sharpening processing unit 41 performs “magnification chromatic aberration correction” as a sharpening process. Instead of “processing (see S67 in FIG. 25)”, “restoration processing based on an optical transfer function” is performed on the target image.
  • the processing content is different from “restoration processing”.
  • the optical photographing condition satisfies the conditions 1 to 3 (first photographing condition), and the optical photographing condition does not satisfy the condition 4 (second photographing condition) expressed by the above formula 1 ( That is, when the optical photographing condition satisfies the condition 5 (third photographing condition) expressed by the above equation 16, the sharpening processing unit 41 performs the restoration process based on the optical transfer function of the optical system 16 at the center of the target image. This is performed only for the region of the target image that shows 80% or more of the half length of the diagonal of the imaging surface.
  • FIG. 24 is a flowchart illustrating an image processing example according to the fifth mode.
  • the sharpening processing unit 41 of the image processing apparatus 40 acquires the target image (S51 in FIG. 24), and acquires the optical imaging conditions (S52).
  • the sharpening processing unit 41 determines whether or not the optical photographing conditions satisfy the conditions 1 to 3 (first photographing conditions) (S53), and the conditions 1 to 3 (first photographing conditions) are satisfied. If it is determined (YES in S53), it is determined whether or not the optical imaging condition satisfies condition 4 (second imaging condition) (S54). Note that this step S54 is “determination of whether or not the optical imaging condition satisfies condition 4 (second imaging condition)” and “whether or not the optical imaging condition satisfies condition 5 (third imaging condition). It is also a "determination"
  • condition 4 second imaging condition
  • the sharpening processing unit 41 performs "restoration processing based on optical transfer function (first restoration processing)" on the target image ( S55).
  • this “first restoration process (see S55)” is performed on the entire target image, and the sharpening processing unit 41 is based on the optical transfer function for all the pixels constituting the target image. Apply the restoration filter created.
  • the sharpening processing unit 41 performs “restoration processing based on the optical transfer function”. (Second restoration process) "is performed on the target image (S56). In this example, this “second restoration process” is performed only on a part of the target image, and the sharpening processing unit 41 applies to the pixels constituting the outer peripheral part which is a part of the target image. Only apply a restoration filter created based on the optical transfer function.
  • optical imaging conditions do not satisfy at least a part of conditions 1 to 3 (first imaging conditions) (NO in S53), the above-described first restoration process (see S55) and second restoration process (S56). Reference) is skipped.
  • the restoration process based on the optical transfer function is performed only on a partial region of the target image.
  • Restoration processing is performed only on image areas where the image quality is likely to deteriorate due to the influence of 16 aberrations and the like. Accordingly, the image quality of the target image taken on the wide-angle side can be further improved by the image processing while effectively preventing the image from being damaged by the restoration processing.
  • the optical photographing condition does not satisfy the condition 4 (second photographing condition) (see NO in S44 in FIG. 23 and NO in S54 in FIG. 24), the chromatic aberration of magnification. Correction processing (S46 in FIG. 23) and second restoration processing (S56 in FIG. 24) are performed.
  • this mode when the optical photographing condition does not satisfy the condition 4 (second photographing condition), it is determined whether or not the optical photographing condition satisfies the condition 5 (third photographing condition).
  • the magnification chromatic aberration correction process and the second restoration process are performed only when the image capturing condition (3) is satisfied.
  • the second imaging condition and the third imaging condition are correlated, and “the second imaging condition is satisfied” and “the third imaging condition is not satisfied” are equivalent to “the second imaging condition”
  • the above-described fourth mode and fifth mode can be suitably employed.
  • the third shooting condition is not particularly limited, and may be a condition related to a focal length when the target image is shot, or may be another condition.
  • FIG. 25 is a flowchart illustrating an example of image processing according to the sixth mode.
  • the target image is acquired by the sharpening processing unit 41 (S61 in FIG. 25), the optical imaging condition is acquired (S62), and the optical imaging condition, as in the fourth mode (see FIG. 23).
  • Whether or not satisfies conditions 1 to 3 (first imaging conditions) is determined (S63). If at least a part of condition 1 to condition 3 (first imaging condition) is not satisfied (NO in S63), the process described later (see S64 to S67) is skipped.
  • the sharpening processing unit 41 determines whether the optical imaging condition satisfies condition 4 (second imaging condition). When the determination is made (S64) and the condition 4 (second imaging condition) is satisfied (YES in S64), a restoration process is performed (S65).
  • the sharpening processing unit 41 determines whether or not the optical imaging condition satisfies the condition 5 (third imaging condition) (S66). ). When the condition 5 (third imaging condition) is satisfied (YES in S66), the sharpening processing unit 41 performs magnification chromatic aberration correction processing as the sharpening process (S67), and the condition 5 (third imaging condition) is satisfied. If not (NO in S66), the restoration process (see S65) and the magnification chromatic aberration correction process (see S67) are skipped.
  • FIG. 26 is a flowchart showing another example of image processing according to the sixth mode.
  • the target image is acquired by the sharpening processing unit 41 (S71 in FIG. 26), the optical imaging condition is acquired (S72), and the optical imaging condition, as in the fifth mode (see FIG. 24).
  • Whether or not satisfies conditions 1 to 3 (first imaging conditions) is determined (S73). If at least a part of condition 1 to condition 3 (first imaging condition) is not satisfied (NO in S73), the processing described later (see S74 to S77) is skipped.
  • the sharpening processing unit 41 determines whether the optical imaging condition satisfies the condition 4 (second imaging condition). If it is determined (S74) and the condition 4 (second imaging condition) is satisfied (YES in S74), the first restoration process is performed (S75).
  • the sharpening processing unit 41 determines whether or not the optical imaging condition satisfies the condition 5 (third imaging condition) (S76). ). When the condition 5 (third imaging condition) is satisfied (YES in S76), the sharpening processing unit 41 performs the second restoration process as the sharpening process (S77), and the condition 5 (third imaging condition) is satisfied. If not satisfied (NO in S76), the first restoration process (see S75) and the second restoration process (see S77) are skipped.
  • the optical imaging condition satisfies the first imaging condition and the second imaging condition described above, and the total angle of view at the wide angle end of the optical system 16 exceeds 100 degrees. May be done in some cases.
  • the optical imaging condition satisfies the first imaging condition and the second imaging condition described above, and the distance from the center of the imaging plane of the optical system 16 is the imaging of the imaging element 22.
  • the spatial frequency at which the MTF value obtained using the evaluation wavelength is 30% or less in the region on the image plane that shows 70% or more of the half length of the diagonal of the surface is the optical system 16. This may be performed when the condition that the wide-angle end is higher than the telephoto end is satisfied.
  • the above modes may be combined, for example, the above third mode may be combined with other modes. That is, the restoration process of the fourth mode and the sixth mode (see S45 of FIG. 23 and S65 of FIG. 25), the first restoration process of the fifth mode and the sixth mode (S55 of FIG. 24 and FIG. 26). S75) and / or the second restoration process (see S56 in FIG. 24 and S77 in FIG. 26) may be performed on the luminance component of the target image.
  • Each functional configuration described above can be realized by arbitrary hardware, software, or a combination of both.
  • CPU Central Processing Unit
  • volatile RAM Random Access Memory
  • EEPROM Electrically Erasable Programmable Read- This can be realized by appropriately combining a non-volatile memory such as “Only Memory” and / or various operation programs such as an OS (Operating System) and application programs.
  • the present invention can also be applied to a computer that can install the program.
  • the aspect to which the present invention is applicable is not limited to the surveillance camera system 20 (camera device 10) shown in FIGS. 1 and 2, the digital camera 50 shown in FIGS. 7 and 8, and the computer 60 shown in FIG.
  • the present invention is also applied to mobile devices having functions other than imaging (calling function, communication function, or other computer functions) in addition to the imaging function. It is possible.
  • Other aspects to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Personal Digital Assistants), and portable game machines.
  • PDAs Personal Digital Assistants
  • portable game machines an example of a smartphone to which the present invention can be applied will be described.
  • FIG. 27 is a diagram illustrating an appearance of a smartphone 101 that is an embodiment of the imaging apparatus of the present invention.
  • a smartphone 101 illustrated in FIG. 27 includes a flat housing 102, and a display panel 121 as a display unit and an operation panel 122 as an input unit are integrally formed on one surface of the housing 102.
  • a display input unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141. Note that the configuration of the housing 102 is not limited to this, and for example, a configuration in which a display unit and an input unit are provided independently, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 28 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone 101 include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output.
  • Unit 160 GPS (Global Positioning System) receiving unit 170, motion sensor unit 180, power supply unit 190, and main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station device connected to the mobile communication network in accordance with an instruction from the main control unit 100.
  • the wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, and receive Web data and streaming data.
  • the display input unit 120 is a so-called touch panel including a display panel 121 and an operation panel 122, and displays images (still images and moving images), character information, and the like visually to the user under the control of the main control unit 100. , And detects user operations on the displayed information.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is provided in a state where an image displayed on the display surface of the display panel 121 is visible and detects one or more coordinates operated by a user's finger or stylus. When the device is operated by the user's finger or stylus, the operation panel 122 outputs a detection signal generated due to the operation to the main control unit 100. Next, the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 illustrated in FIG. 27 integrally form the display input unit 120, and the operation panel 122 completely covers the display panel 121. It is arranged to cover.
  • the operation panel 122 may have a function of detecting a user operation even in an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as “display area”) for the overlapping portion overlapping the display panel 121 and a detection area (hereinafter referred to as “display area”) for the other outer edge portion that does not overlap the display panel 121. (Referred to as “non-display area”).
  • the operation panel 122 may be provided with two sensitive areas of an outer edge part and the other inner part. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. It may be adopted.
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 110 or the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is switched on when pressed by a finger or the like, and is switched off by a restoring force such as a spring when the finger is released. It is a push button type switch that is in a state.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, and Stores downloaded content data and the like, and temporarily stores streaming data and the like.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • Each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type, a hard disk type, a multimedia card micro type, and a multimedia card micro type. This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), or a ROM (Read Only Memory).
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, such as communication (for example, universal serial bus (USB), IEEE (The Institute of Electrical and Electronics Engineers)). , Inc.) or network (for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (W), U (Ultra Wideband) ( Recording trademark), etc. ZigBee (ZigBee) (registered trademark)) by direct or indirect connection to another external device.
  • communication for example, universal serial bus (USB), IEEE (The Institute of Electrical and Electronics Engineers)). , Inc.
  • network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (W), U (Ultra Wideband) ( Recording trademark), etc.
  • ZigBee ZigBee (ZigBee) (
  • Examples of the external device connected to the smartphone 101 include a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, and a SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video device connected via audio / video I / O (Input / Output) terminal
  • external audio / video device connected wirelessly wired /
  • the external input / output unit 160 is configured to transmit data received from such an external device to each component inside the smartphone 101, or to transmit data inside the smartphone 101 to the external device. May be.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1, ST2 to STn according to instructions from the main control unit 100, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 101. Detect the position specified by longitude and altitude. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 and / or the external input / output unit 160 (for example, a wireless LAN (Local Area Network)), the GPS receiving unit 170 detects the position using the position information. You can also.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function for performing data communication with an opposite device by controlling the external input / output unit 160, an e-mail function for transmitting and receiving e-mails, and a web browsing function for browsing web pages. There is.
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image obtained through the image processing on the display input unit 120. .
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 or the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to correspond to the overlapping portion (display area) overlapping the display panel 121 or the outer edge portion not overlapping the other display panel 121.
  • a touch panel control function is provided for determining whether it corresponds to (non-display area) and controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 is a digital camera that performs electronic photography using an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor).
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Experts) under the control of the main control unit 100, and records the image data in the storage unit 150.
  • the data can be output through the external input / output unit 160 or the wireless communication unit 110.
  • the camera unit 141 is mounted on the same surface as the display input unit 120.
  • the mounting position of the camera unit 141 is not limited to this, and the housing 102 in which the display input unit 120 is provided.
  • the camera unit 141 may be mounted not on the front surface of the housing 102 but on the back surface of the housing 102, or a plurality of camera units 141 may be mounted on the housing 102.
  • the camera unit 141 used for shooting may be switched and shooting may be performed by the single camera unit 141, or a plurality of camera units 141 may be used simultaneously. Then, shooting may be performed.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 may be displayed on the display panel 121, or an image captured and acquired by the camera unit 141 may be used as one of the operation input methods of the operation panel 122.
  • the GPS receiving unit 170 detects the position, the position may be detected by referring to an image from the camera unit 141.
  • the image from the camera unit 141 is referred to, and the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • image processing device 40 (particularly the sharpening processing unit 41) can be realized by the main control unit 100, for example.
  • DESCRIPTION OF SYMBOLS 10 ... Camera device, 12 ... Imaging part, 12A ... Imaging support part, 14A ... Support frame, 14B ... Mount, 14 ... Support part, 16 ... Optical system, 18 ... Control panel, 20 ... Surveillance camera system, 22 ... Imaging element , 23 ... Camera side control processing unit, 24 ... Camera side communication unit, 30 ... Control terminal, 31 ... User interface, 32 ... Terminal side control processing unit, 33 ... Terminal side communication unit, 40 ... Image processing device, 41 ... Sharp Conversion processing unit, 42 ... image acquisition unit, 43 ... condition acquisition unit, 50 ... digital camera, 51 ... imaging control processing unit, 52 ... communication unit, 53 ... imaging user interface, 54 ...
  • main body unit 55 ... optical system control unit 56 ... Optical system input / output unit, 57 ... Main unit control unit, 58 ... Optical system mounting unit, 59 ... Main unit input / output unit, 60 ... Computer, 61 ... Computer control processing unit, 62 ... Computer Input / output unit, 63 ... Computer user interface, 100 ... Main control unit, 101 ... Smartphone, 102 ... Case, 110 ... Wireless communication unit, 120 ... Display input unit, 121 ... Display panel, 122 ... Operation panel, 130 ...

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Lenses (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Image Processing (AREA)
  • Nonlinear Science (AREA)

Abstract

本発明は、光学系の光学特性と光学伝達関数に基づく復元処理との組み合わせの最適化を行って、焦点距離が可変な光学系を使って撮影された画像の画質を改善する撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体を提供する。本発明の態様では、光学系は焦点距離が可変であり、広角端における全画角が90度を超える。また光学系は、光学系の結像面の中心からの距離が対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高い。鮮鋭化処理部41は、対象画像を撮影した際の光学系の焦点距離F、広角端の焦点距離Fw及び望遠端の焦点距離FtがF≧√(Fw×Ft)を満たす場合に、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理を行う。

Description

撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
 本発明は、撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体に係り、特に、焦点距離が可変である光学系を使った撮影により取得される画像の画質を改善する技術に関する。
 デジタルカメラ等の撮像装置によって得られる撮影画像は、光学系の収差等に起因するボケや歪み等の劣化成分を含む。良画質の画像を得るためには、収差が小さい光学系を用いて撮影を行うことが望ましいが、サイズ及びコスト等のために実際に使用可能な光学系は制限され、性能の高い光学系を必ずしも使用することができない。
 そのため、撮影後の画像処理により劣化成分を低減する方法が提案されている。
 特許文献1は、光学伝達関数(OTF:Optical Transfer Function)に応じて作成された画像回復フィルタを用いて画像回復処理を行う撮像装置を開示する。
特開2014-138196号公報
 防犯目的や記録目的のために使用される監視カメラの場合には、広範囲の画像を取得するために広角撮影が可能であることが求められる一方で、特定の被写体の詳細な情報を取得するために必要に応じて望遠撮影が可能であることが求められる。そのため近年では、焦点距離が可変であるズームレンズを具備する監視カメラの需要が高まっている。
 一般に、監視カメラ等の場合には撮影画像の中央部の画質だけではなく撮影画像の周辺部の画質も重視され、特に広角画像の周辺部の画質が重視される傾向があるが、ズームレンズを使った撮影では広角側で画像周辺の解像度低下等の画質劣化が生じ易い。非球面レンズ等を使ってこのような広角側における画像周辺の画質劣化を低減すると望遠側のレンズ性能に大きな影響がもたらされ、望遠側で収差バラツキが非常に大きくなり、製造感度が上がって歩留まりが下がり、レンズコストが高くなる傾向がある。
 そこで画像処理として光学伝達関数に基づく復元処理を行って、ズームレンズを使って取得される撮影画像の画質を、広角側及び望遠側の両者において改善することが考えられる。
 ただし光学伝達関数に基づく復元処理は万能ではなく、例えばボケの程度が過大な画像に対して光学伝達関数に基づく復元処理を適用しても、ボケを取り除くことができず、却って画質を悪化させてしまう懸念もある。すなわち処理対象の画像におけるボケの程度が大き過ぎずまた小さ過ぎない場合に、光学伝達関数に基づく復元処理が大きな効果を発揮する。
 したがって撮影画像に生じるボケの程度が最適な範囲に含まれるように設計されたズームレンズと光学伝達関数に基づく復元処理とを組み合わせることで、広角側から望遠側のズーム域の全域にわたって良質の画像を提供することが可能となる。また光学伝達関数に基づく復元処理を行うことを前提とすることで、ある程度のボケ等の画質劣化を許容したレンズ設計が可能となり、画質劣化を許容することのトレードオフとして余剰リソースをレンズの他の性能の向上に役立てることも可能となる。
 一般に、監視カメラでは望遠側の画質よりも広角側の画質が優先されるため、監視カメラ用の光学系を設計する際には、望遠側の光学性能を犠牲にしてでも広角側の光学性能を上げることが好ましい。そのため、監視カメラ用途として十分な画角を持つ画像の撮影を可能とするズームレンズに関して広角側の光学性能を優先してレンズ設計を行う一方で、望遠側の撮影画像に対しては復元処理を適用することで、全ズーム域において良質な画像を提供することが可能となる。
 しかしながら、従来の撮像装置では、全ズーム域にわたって良質な撮影画像を得るために復元処理を前提としてズームレンズの光学設計を最適化することは行われていない。特に、復元処理を前提として監視カメラ等に好適な「最大で90度以上の対角線画角を有する超広角ズームレンズ」の光学設計を行うことを開示する文献は見当たらない。例えば特許文献1に開示される撮像装置は、そのような復元処理を前提とした光学設計の最適化とは異なる設計思想を前提として構成されており、撮影可能な画角が比較的狭く、最大で全画角「74度」(半画角「37」度)の撮影しか行うことができず、監視カメラ等の広角撮影用途には必ずしも向いていない。
 また監視カメラ用の撮像装置では、画像周辺部の画質も画像中央部と同等或いはそれ以上に重視される傾向があるが、特許文献1の撮像装置では画像中央部の画質が優先されている。そもそも特許文献1の撮像装置は、全ズーム域で全画素に対して回復処理を行うとフィルタ量が膨大になってしまうため、フィルタ量及び演算量の低減を図ることを目的としている。特許文献1の撮像装置では、画像中央部の画質を優先しつつ上記目的を達成するために、特定のズーム域において画像中心部の収差を抑えつつ画像周辺部ではコマ収差を許容するようにレンズ設計が行われ、画像周辺部では画像処理によって画質の回復を図るものとなっている。
 このように特許文献1の撮像装置は、監視カメラ等に適用される広角撮影技術に対しては必ずしも適合しておらず、そのような広角撮影において画像周辺部の画質を重視しつつ広角側から望遠側にわたって良質な画像を提供するための技術を特許文献1は開示も示唆もしていない。
 本発明は上述の事情に鑑みてなされたものであり、光学系の光学特性と光学伝達関数に基づく復元処理との組み合わせの最適化を行って、焦点距離が可変な光学系を使って撮影された画像の画質を改善する技術を提供することを目的とする。
 本発明の一態様は、光学系と、光学系を介して撮影光を受光して対象画像を出力する撮像素子と、対象画像を撮影した際の光学系の情報を示す光学撮影条件に応じて対象画像の鮮鋭化処理を行う鮮鋭化処理部とを備え、光学系は焦点距離が可変であり、光学系は広角端における全画角が90度を超え、且つ光学系は、光学系の結像面の中心からの距離が撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高く、鮮鋭化処理部は、対象画像を撮影した際の光学系の焦点距離をFで表し、光学系の広角端の焦点距離をFwで表し、光学系の望遠端の焦点距離をFtで表し、F≧√(Fw×Ft)によって表される条件が満たされるか否かを光学撮影条件に基づいて判定し、F≧√(Fw×Ft)によって表される条件が満たされる場合に、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理を行う撮像装置に関する。
 本態様によれば、光学系のMTF(Modulation Transfer Function)と光学伝達関数に基づく復元処理とが最適に組み合わされ、焦点距離が可変な光学系を使って撮影された画像の画質を焦点距離に応じて改善することができる。
 本発明の他の態様は、対象画像を取得する画像取得部と、対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する条件取得部と、光学撮影条件に応じて対象画像の鮮鋭化処理を行う鮮鋭化処理部とを備え、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、鮮鋭化処理部は、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理を行い、第1の撮影条件は、光学系は焦点距離が可変であり、光学系は広角端における全画角が90度を超え、且つ光学系は、光学系の結像面の中心からの距離が撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高いという条件を含み、第2の撮影条件は、対象画像を撮影した際の光学系の焦点距離をFで表し、光学系の広角端の焦点距離をFwで表し、光学系の望遠端の焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表される画像処理装置に関する。
 本態様によれば、光学系のMTF(光学性能)と光学伝達関数に基づく復元処理とが最適に組み合わされ、焦点距離が可変な光学系を使って撮影された画像の画質を焦点距離に応じて改善することができる。
 望ましくは、鮮鋭化処理部は、対象画像の輝度成分を取得し、輝度成分に対してのみ復元処理を行う。
 本態様によれば、光学伝達関数に基づく復元処理を輝度成分に対して簡便に行うことができる。
 望ましくは、光学撮影条件が第1の撮影条件を満たし、且つ、光学撮影条件がF<√(Fw×Ft)で表される第3の撮影条件を満たす場合、鮮鋭化処理部は鮮鋭化処理として倍率色収差補正処理を行う。
 本態様によれば、対象画像を撮影した際の光学系の焦点距離が小さいために復元処理が行われない場合であっても、倍率色収差補正処理によって画像の画質を改善することができる。
 望ましくは、鮮鋭化処理部は、対象画像を構成する色成分の倍率を調整して倍率色収差補正処理を行う。
 本態様によれば、倍率色収差補正処理を簡便に行うことができる。
 望ましくは、鮮鋭化処理部は、光学伝達関数に基づいて倍率色収差補正処理を行う。
 本態様によれば、倍率色収差補正処理を簡便に行うことができる。
 望ましくは、対象画像は、少なくとも第1の色成分及び第2の色成分を含み、鮮鋭化処理部は、第1の色成分に関する光学伝達関数に基づくフィルタを第1の色成分に適用し、第2の色成分に関する光学伝達関数に基づくフィルタを第2の色成分に適用して倍率色収差補正処理を行う。
 本態様によれば、光学伝達関数に基づくフィルタを使って倍率色収差補正処理を精度良く行うことができる。
 望ましくは、光学撮影条件が第1の撮影条件を満たし、且つ、光学撮影条件がF<√(Fw×Ft)で表される第3の撮影条件を満たす場合、鮮鋭化処理部は、復元処理を、対象画像の中心からの距離が撮像面の対角線の2分の1の長さの80%以上を示す対象画像の領域に対してのみ行う。
 本態様によれば、画像の中央領域の画質を損なうことなく、画像の周辺領域の画質を改善しうる。
 望ましくは、復元処理は、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たし、且つ、光学系の広角端における全画角が100度を超える条件を満たす場合に行われる。
 本態様によれば、全画角が100度を超える光学系を使った広角撮影画像の画質を焦点距離に応じて改善することができる。
 望ましくは、復元処理は、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たし、且つ、光学系の結像面の中心からの距離が撮像面の対角線の2分の1の長さの70%以上を示す結像面上の領域において、評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高いという条件を満たす場合に行われる。
 本態様によれば、対象画像の画質を、焦点距離に応じて更に効果的に改善することができる。
 本発明の他の態様は、光学系が着脱可能に取り付けられる光学系装着部と、光学系装着部に装着された光学系を介して撮影光を受光して画像を出力する撮像素子と、上記の画像処理装置とを備え、撮像素子から出力される画像を対象画像とする撮像装置に関する。
 本態様によれば、光学系のMTF(光学性能)と光学伝達関数に基づく復元処理とが最適に組み合わされ、焦点距離が可変な光学系を使って撮影された画像の画質を焦点距離に応じて改善することができる。
 本発明の他の態様は、光学系と、光学系を介して撮影光を受光して画像を出力する撮像素子と、撮像素子に接続されるカメラ側制御処理部と、カメラ側制御処理部に接続されるカメラ側通信部とを有するカメラデバイスと、カメラ側通信部と通信可能な端末側通信部と、端末側通信部に接続される端末側制御処理部と、端末側制御処理部に接続されるユーザインターフェースとを有する制御端末とを備え、カメラ側制御処理部及び端末側制御処理部のうち少なくともいずれか一方は、上記の画像処理装置を有し、撮像素子から出力される画像を対象画像とする撮像装置に関する。
 本態様によれば、光学系のMTF(光学性能)と光学伝達関数に基づく復元処理とが最適に組み合わされ、焦点距離が可変な光学系を使って撮影された画像の画質を焦点距離に応じて改善することができる。
 本発明の他の態様は、対象画像を取得するステップと、対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得するステップと、光学撮影条件に応じて対象画像の鮮鋭化処理を行うステップとを備え、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理が行われ、第1の撮影条件は、光学系は焦点距離が可変であり、光学系は広角端における全画角が90度を超え、且つ光学系は、光学系の結像面の中心からの距離が対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高いという条件を含み、第2の撮影条件は、対象画像を撮影した際の光学系の焦点距離をFで表し、光学系の広角端の焦点距離をFwで表し、光学系の望遠端の焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表される画像処理方法に関する。
 本発明の他の態様は、対象画像を取得する手順と、対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する手順と、光学撮影条件に応じて対象画像の鮮鋭化処理を行う手順とをコンピュータに実行させるためのプログラムであって、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理が行われ、第1の撮影条件は、光学系は焦点距離が可変であり、光学系は広角端における全画角が90度を超え、且つ光学系は、光学系の結像面の中心からの距離が対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高いという条件を含み、第2の撮影条件は、対象画像を撮影した際の光学系の焦点距離をFで表し、光学系の広角端の焦点距離をFwで表し、光学系の望遠端の焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表されるプログラムに関する。
 本発明の他の態様は、対象画像を取得する手順と、対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する手順と、光学撮影条件に応じて対象画像の鮮鋭化処理を行う手順とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な非一時的有形記録媒体(a non-transitory computer-readable tangible medium)であって、光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、鮮鋭化処理として光学系の光学伝達関数に基づく復元処理が行われ、第1の撮影条件は、光学系は焦点距離が可変であり、光学系は広角端における全画角が90度を超え、且つ光学系は、光学系の結像面の中心からの距離が対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系の望遠端よりも広角端の方が高いという条件を含み、第2の撮影条件は、対象画像を撮影した際の光学系の焦点距離をFで表し、光学系の広角端の焦点距離をFwで表し、光学系の望遠端の焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表されるプログラムを記録したコンピュータ読み取り可能な非一時的有形記録媒体に関する。
 本発明によれば、光学系のMTF(光学性能)と光学伝達関数に基づく復元処理とが最適に組み合わされ、焦点距離が可変な光学系を使って撮影された画像の画質を焦点距離に応じて改善することができる。
図1は、監視カメラシステムで用いられるカメラデバイスの一例を示す外観図である。 図2は、撮像装置の機能構成の一例を示すブロック図であり、特に監視カメラシステムに好適な機能構成例を示す。 図3は、画像処理装置の機能構成の一例を示すブロック図である。 図4は、光学系の焦点距離の範囲を概念的に示す図である。 図5は、撮像素子の撮像面を示す平面図であり、光学系の評価領域を定めるために用いられる撮像面の範囲を説明するための図である。 図6は、画像処理装置の機能構成の他の例を示すブロック図である。 図7は、撮像装置の機能構成の他の例を示すブロック図であり、特に光学系及び撮像素子が一体的に設けられるコンパクトデジタルカメラ等のデジタルカメラに好適な機能構成例を示す。 図8は、撮像装置の機能構成の他の例を示すブロック図であり、特に本体部に光学系が着脱可能に装着されるレンズ交換式カメラ等のデジタルカメラに好適な機能構成例を示す。 図9は、コンピュータの機能構成の一例を示すブロック図であり、特に上述の画像処理装置(特に図6参照)を適用可能な機能構成例を示す。 図10は、実施例1に係る光学系の断面図を示し、(a)は望遠端における光学系の配置を示し、(b)は広角端における光学系の配置を示す。 図11は、実施例1に係る光学系の基本データを示す表(表1)である。 図12は、実施例1に係る光学系の広角端及び望遠端における全系の焦点距離、F値(「Fno」)、全画角(「2ω」)及び光軸上の可変面間隔(「可変D10(第5レンズと絞りとの間隔)」、「可変D11(絞りと第6レンズとの間隔)」及び「可変D21(第10レンズと光学部材との間隔)」)を示す表(表2)である。 図13は、実施例1に係る光学系の非球面レンズ(特に面番号「12(図10(a)の「R12」参照)」及び「13(図10(a)の「R13」参照)」)の非球面係数(「KA」及び「Ai(i=3~20)」)を示す表(表3)である。 図14は、実施例1に係る光学系の光軸からの位置と限界空間周波数との関係を示す図(グラフ1)であり、広角端における光学性能と望遠端における光学性能とが示されている。 図15は、実施例2に係る光学系の断面図を示し、(a)は望遠端における光学系の配置を示し、(b)は広角端における光学系の配置を示す。 図16は、実施例2に係る光学系の基本データを示す表(表4)である。 図17は、実施例2に係る光学系の広角端及び望遠端における全系の焦点距離、F値(「Fno」)、全画角(「2ω」)及び光軸上の面間隔(「可変D10(第5レンズと絞りとの間隔)」、「可変D11(絞りと第6レンズとの間隔)」及び「可変D21(第10レンズと光学部材との間隔)」)を示す表(表5)である。 図18は、実施例2に係る光学系の非球面レンズ(特に面番号「12(図15(a)の「R12」参照)」及び「13(図15(a)の「R13」参照)」)の非球面係数(「KA」及び「Ai(i=3~20)」)を示す表(表6)である。 図19は、実施例2に係る光学系の光軸からの位置と限界空間周波数との関係を示す図(グラフ2)であり、広角端における光学性能と望遠端における光学性能とが示されている。 図20は、第1のモードに係る画像処理例を示すフローチャートである。 図21は、第2のモードに係る画像処理例を示すフローチャートである。 図22は、第3のモードに係る画像処理例を示すフローチャートである。 図23は、第4のモードに係る画像処理例を示すフローチャートである。 図24は、第5のモードに係る画像処理例を示すフローチャートである。 図25は、第6のモードに係る画像処理の一例を示すフローチャートである。 図26は、第6のモードに係る画像処理の他の例を示すフローチャートである。 図27は、本発明の撮像装置の一実施形態であるスマートフォンの外観を示す図である。 図28は、図27に示すスマートフォンの構成を示すブロック図である。
 図面を参照して本発明の実施形態について説明する。以下の実施形態では、監視カメラシステムに本発明を適用する例について説明する。ただし、本発明の適用対象はこれに限定されず、監視カメラシステム以外の撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体にも本発明を適用することが可能である。
 一般に広角ズームレンズでは、広角側におけるズーム変動に伴う光学性能及び収差の変化が比較的激しく、望遠側ほど光学性能及び収差の変動がなだらかになる傾向がある。そのため広角側の撮影画像に対して復元処理を行う場合よりも、望遠側の撮影画像に対して復元処理を行う場合のほうが、より広いズーム域に関して同様の処理を適用することが容易であり、処理を行う領域を拡張する場合にも、少ない変更によって広い領域に対応することができる。
 本件発明者は、鋭意研究の結果、上記メカニズムに注目し、焦点距離が可変であり広角撮影を可能とする光学系の光学設計と光学伝達関数に基づく復元処理との組み合わせの最適化を行って、全ズーム域に関して良質な画質を有する画像を提供することができる手法を新たに見いだした。
 すなわち監視カメラシステム等の本実施形態の撮像装置では、焦点距離が可変な光学系(ズームレンズ)の広角側における撮影画像の画質を望遠側の画質よりも優先したレンズ設計が行われる一方で、望遠側における撮影画像に対して光学伝達関数に基づく画像処理が行われる。このように望遠側の光学性能を犠牲にして広角側の光学性能を向上させるように設計される光学系として、例えばレンズ周辺部におけるMTF値として30%以上を確保することができる限界周波数が望遠端よりも広角端のほうが高い光学系が用いられる。このような条件下で光学系の設計及び画像処理を行うことで、全ズーム域において良好な解像度を有する良画質の撮影画像を提供することができる。
 以下、具体的な実施形態について例示する。
 図1は、監視カメラシステムで用いられるカメラデバイス10の一例を示す外観図である。
 本例のカメラデバイス10は、パン機能及びチルト機能を備え、後述の制御端末(図2参照)のコントロール下で撮影を行うことができる。すなわちカメラデバイス10は、被写体を撮像する撮像部12と、撮像部12をパン及びチルト可能に支持する支持部14と、を具備する。
 撮像部12は、撮像支持部12Aに支持される光学系16を有する。光学系16は、図示しないレンズ駆動部に駆動され、フォーカス、ズーム及び絞り開度が調節される。
 支持部14は、支持フレーム14A及び架台14Bを含み、パン軸Pを中心に支持フレーム14Aが回転することができるように架台14Bが支持フレーム14Aを支持する。架台14Bには制御パネル18が設けられ、この制御パネル18に含まれる電源ボタン等の各種操作ボタン類をユーザが操作することによってもカメラデバイス10をコントロールすることができる。支持フレーム14Aは、撮像部12が配置される溝状のスペースを有し、パン軸Pと直交するチルト軸Tを中心に撮像部12が回転することができるように撮像部12を支持する。支持フレーム14Aには、撮像部12をチルト軸Tまわりに回転させるチルト駆動部(図示省略)が設けられ、架台14Bには、支持フレーム14Aをパン軸Pまわりに回転させるパン駆動部(図示省略)が設けられている。このようにパンチルト可能に支持される光学系16の光軸Lは、パン軸P及びチルト軸Tと直交する。
 なお図1にはパンチルト動作可能なカメラデバイス10が示されているが、カメラデバイス10はパンチルト機構を必ずしも必要とせず、撮像部12が支持部14に固定的に据え付けられていてもよい。
 図2は、撮像装置の機能構成の一例を示すブロック図であり、特に監視カメラシステム20に好適な機能構成例を示す。説明の便宜上、図2には撮影及び通信の主たる機能構成のみが図示されており、例えば上述のパン駆動部やチルト駆動部などの図示は省略されている。
 本例の監視カメラシステム20は、カメラデバイス10と、カメラデバイス10をコントロール可能な制御端末30とを備える。
 カメラデバイス10は、光学系16と、光学系16を介して撮影光を受光して画像(対象画像)を出力する撮像素子22と、光学系16及び撮像素子22に接続されるカメラ側制御処理部23と、カメラ側制御処理部23に接続されるカメラ側通信部24とを有する。一方、制御端末30は、カメラ側通信部24と通信可能(図2中の符号「C」参照)な端末側通信部33と、端末側通信部33に接続される端末側制御処理部32と、端末側制御処理部32に接続されるユーザインターフェース31とを有する。
 光学系16は、複数のレンズ及び絞りを含み、被写体からの撮影光を撮像素子22に導く。撮像素子22は、CCD(CCD:Charge Coupled Device)又はCMOS(CMOS:Complementary Metal Oxide Semiconductor)などのイメージセンサによって構成される。制御端末30のユーザインターフェース31は、ユーザによって直接的に操作可能なボタン類やタッチパネル等の操作部に加え、ユーザに各種の情報を提示可能な表示部を含む。
 カメラ側制御処理部23は、光学系16、撮像素子22及びカメラ側通信部24を制御し、例えば撮像素子22から出力される画像を対象画像として画像処理を行う。一方、端末側制御処理部32は、ユーザインターフェース31及び端末側通信部33を制御し、例えばユーザインターフェース31を介してユーザにより入力されるデータやコマンドを受信し、各種の処理に反映させる。また端末側制御処理部32は、カメラデバイス10(カメラ側通信部24)から送られてくるデータやコマンドを、端末側通信部33を介して受信して各種の処理に反映させる。
 なおカメラ側制御処理部23及び端末側制御処理部32は、カメラ側通信部24と端末側通信部33との間の通信Cを介し、例えば画像データやその他のデータの送受信を行うことができる。したがってユーザは、制御端末30のユーザインターフェース31を介して各種のデータ及びコマンドを端末側制御処理部32に入力することで、カメラデバイス10を制御することができる。すなわちカメラ側制御処理部23をコントロールするためのデータやコマンドが端末側制御処理部32から端末側通信部33及びカメラ側通信部24を介してカメラ側制御処理部23に送信され、カメラ側制御処理部23を介して光学系16及び撮像素子22を制御することができる。
 なお、撮像素子22から出力される画像の処理はカメラ側制御処理部23で行われてもよいし、端末側制御処理部32で行われてもよいし、カメラ側制御処理部23及び端末側制御処理部32の両者において行われてもよい。すなわち撮像素子22から出力される画像は、カメラ側制御処理部23において処理を受けた後にカメラ側通信部24及び端末側通信部33を介して端末側制御処理部32に送られてもよいし、端末側制御処理部32において処理を受けてもよい。
 したがって本例の監視カメラシステム20では、下述の画像処理装置を、カメラ側制御処理部23及び端末側制御処理部32のうち少なくともいずれか一方に設けることができる。
 図3は、画像処理装置40の機能構成の一例を示すブロック図である。本例の画像処理装置40は鮮鋭化処理部41を有し、対象画像及び光学撮影条件のデータが鮮鋭化処理部41に入力される。
 対象画像は撮像素子22から出力される画像であり、撮像素子22から直接的又は間接的に鮮鋭化処理部41(画像処理装置40)に入力される。光学撮影条件は、対象画像を撮影した際の光学系16の情報を示し、少なくとも対象画像を撮影した際の焦点距離の情報を含む。
 鮮鋭化処理部41は、光学撮影条件に応じて対象画像の鮮鋭化処理を行う。特に本例の鮮鋭化処理部41は、対象画像を撮影した際の光学系16の焦点距離をFで表し、光学系16の広角端の焦点距離をFwで表し、光学系16の望遠端の焦点距離をFtで表し、下記の式1によって表される条件が満たされる場合に、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を行う。
 式1     F≧√(Fw×Ft)
 図4は、光学系16の焦点距離の範囲を概念的に示す図である。図4において、Ft≧F≧√(Fw×Ft)の範囲が「Ra」により表され、√(Fw×Ft)>F≧Fwの範囲が「Rb」により表されている。光学系16の焦点距離Fが広角端の焦点距離Fwと望遠端の焦点距離Ftとの間で可変である場合に、上記式1で表される焦点距離Fの範囲は図4において「Ra」で表される望遠側範囲に相当する。したがって「対象画像を撮影した際の焦点距離F」が「光学系16の広角端における焦点距離Fw及び光学系16の望遠端における焦点距離Ftの積の平方根」以上であって図4の範囲「Ra」に含まれる場合、鮮鋭化処理部41は、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を対象画像に適用する。
 なお鮮鋭化処理部41が対象画像及び光学撮影条件のデータを取得する手法は特に限定されず、監視カメラシステム20を構成する各部から鮮鋭化処理部41に対して対象画像及び光学撮影条件のデータが入力可能である。例えば画像処理装置40がカメラデバイス10のカメラ側制御処理部23に設けられる場合、画像処理装置40は、撮像素子22から出力される画像を対象画像として取得し、またカメラ側制御処理部23が光学系16及び撮像素子22を制御するために使ったデータから光学撮影条件を取得してもよい。一方、画像処理装置40が制御端末30の端末側制御処理部32に設けられる場合、画像処理装置40は、撮像素子22からカメラ側制御処理部23、カメラ側通信部24及び端末側通信部33を介して対象画像を取得し、またカメラ側制御処理部23又は端末側制御処理部32が保持する「光学系16及び撮像素子22を制御するために使ったデータ」から光学撮影条件を取得してもよい。
 またExif(Exchangeable image file format)などのフォーマットに従ってメタデータが対象画像のデータに付加されている場合、画像処理装置40は対象画像のデータに付加されているメタデータを読み込んで光学撮影条件を取得してもよい。
 監視カメラシステム20(カメラ側制御処理部23及び/又は端末側制御処理部32)が図3に示す画像処理装置40を具備する場合において、光学系16は以下の条件1~条件3(第1の撮影条件)の全てを満たす。
(条件1)
 光学系16は焦点距離が可変である。
(条件2)
 光学系16は広角端における全画角が90度を超える。
(条件3)
 光学系16は、光学系16の結像面の中心からの距離が対象画像を出力する撮像素子22の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系16の望遠端よりも広角端の方が高い。
 上述の条件1は、光学系16がズームレンズを含むことを意味し、最短の焦点距離を示す「広角端」と最長の焦点距離を示す「望遠端」との間で光学系16の焦点距離を変えることができる。なお光学系16の焦点距離の具体的な調整手法は特に限定されず、ユーザが制御端末30のユーザインターフェース31を使って焦点距離(ズームレベル)を手動的に決定してもよいし、カメラ側制御処理部23及び/又は端末側制御処理部32が自動的に焦点距離を決定してもよい。
 上述の条件2は、光学系16が最短焦点距離を示す広角端において、光学系16の全画角が90度を超えることを意味する。例えば室内監視用途を想定した場合、死角を作らずに部屋の隅部から部屋全体を監視するには最低でも90度の画角が必要となるため、監視用途等を想定した場合には光学系16の全画角が90度を超えることができるように光学系16の焦点距離が調整可能であることが望ましい。
 なお撮像装置の大きさを考慮すると、撮像装置を部屋の隅部に配置しても、部屋の隅部から少し部屋の内側に光学系16の頂点が配置されることになる。そのため、光学系16の全画角が90度より広い画角(例えば100度程度)を超えることができるように、光学系16の焦点距離が調整可能であることが望ましい。さらに、撮像装置の配置の自由度を向上させる観点からは、光学系16の全画角が100度よりも広い画角を超えることができることが好ましい。したがって、光学系16の全画角が100度を超えることがより好ましく、110度を超えることが更に好ましく、120度を超えることが更に好ましい。
 上述の条件3は、光学系16の「広角端」において光学系16の「評価領域」に関して「評価波長」を使って取得される「MTFの値が30%以下になる空間周波数」が、光学系16の「望遠端」において光学系16の「評価領域」に関して「評価波長」を使って取得される「MTFの値が30%以下になる空間周波数」よりも大きいことを示す。ここでいう「評価領域」は、撮像素子22の撮像面を基準に定められている。
 図5は、撮像素子22の撮像面を示す平面図であり、光学系16の評価領域を定めるために用いられる撮像面の範囲を説明するための図である。矩形状の撮像素子22の撮像面において対角線Jの2分の1の長さは、対角線J同士の交点によって表される撮像面中心Ioから撮像面の頂点までの距離に相当する。図5において、撮像面中心Ioからの距離が「対角線Jの2分の1の長さ」の80%の長さに相当する位置が「B80(80%像高線)」によって表されている。また図5において、撮像面中心Ioからの距離が「対角線Jの2分の1の長さ」の95%の長さに相当する位置が「B95(95%像高線)」によって表されている。また図5において、80%像高線B80と95%像高線B95とによって囲まれる範囲が「基準範囲Rs」として表されている。
 上述の条件3は、光学系16の結像面の中心からの距離が「撮像面中心Ioから図5に示す基準範囲Rsまでの距離」に相当する結像面上の領域において、評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系16の望遠端よりも広角端の方が高いことを示す。
 上述の図3に示す画像処理装置40は、光学系16と撮像素子22とが一体的に設けられ、上述の条件1~条件3(第1の撮影条件)を満たす特定の光学系16が固定的に使用されて撮影が行われるケースにおいて好適であるが、光学系16は交換可能であってもよい。
 図6は、画像処理装置40の機能構成の他の例を示すブロック図である。本例の画像処理装置40は、鮮鋭化処理部41に加え、対象画像を取得する画像取得部42と、対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する条件取得部43と、を含む。
 本例の鮮鋭化処理部41は、条件取得部43によって取得される光学撮影条件が上記の条件1~条件3(第1の撮影条件)及び上記式1によって表される条件4(第2の撮影条件)を満たす場合、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を、画像取得部42によって取得される対象画像に対して行う。本例の画像処理装置40によれば、上記式1によって表される条件4(第2の撮影条件)に加えて上記の条件1~条件3(第1の撮影条件)が満たされるか否かが鮮鋭化処理部41において判定され、その判定結果に応じて鮮鋭化処理としての復元処理が行われる。したがって、光学系16が交換可能であり、撮影に使用される光学系16が変わりうるケースであっても、図6に示す画像処理装置40は好適に用いられる。
 なお、上述の画像処理装置40(図3及び図6参照)の適用対象は監視カメラシステム20に限定されない。光学系16及び撮像素子22が一体的に設けられるデジタルカメラ、撮像素子22が設けられる本体部に光学系16が着脱可能に装着されるデジタルカメラ、及び画像処理を行うことができるコンピュータ等の他の機器類に対し、画像処理装置40が適用されてもよい。
 図7は、撮像装置の機能構成の他の例を示すブロック図であり、特に光学系16及び撮像素子22が一体的に設けられるコンパクトデジタルカメラ等のデジタルカメラ50に好適な機能構成例を示す。本例のデジタルカメラ50は、光学系16、撮像素子22、撮像制御処理部51、通信部52及び撮像ユーザインターフェース53が一体的に設けられており、撮像制御処理部51が、光学系16、撮像素子22、通信部52及び撮像ユーザインターフェース53を統括的に制御する。ユーザが撮像ユーザインターフェース53を介して入力する各種のデータ及びコマンドに応じて撮像制御処理部51が光学系16及び撮像素子22を制御することで撮影が行われる。撮像制御処理部51は、撮像素子22から出力される画像を対象画像として各種の処理を行うことができ、通信部52を介して処理前後の画像を外部機器類に送信できる。
 したがって上述の画像処理装置40(特に図3参照)は、図7に示すデジタルカメラ50の撮像制御処理部51に設けられてもよい。撮像制御処理部51(画像処理装置40)は、上述の条件1~条件3(第1の撮影条件)及び上述の式1で表される条件4(第2の撮影条件)が満たされる場合には、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を行うことができる。
 図8は、撮像装置の機能構成の他の例を示すブロック図であり、特に本体部54に光学系16が着脱可能に装着されるレンズ交換式カメラ等のデジタルカメラ50に好適な機能構成例を示す。本例のデジタルカメラ50は光学系16及び本体部54を具備する。光学系16は、光学系制御部55及び光学系入出力部56と一体的に設けられ、本体部54の光学系装着部58に嵌合することで本体部54に装着される。本体部54は、撮像素子22、光学系装着部58、本体制御部57、本体入出力部59、通信部52及び撮像ユーザインターフェース53を有する。光学系装着部58は光学系16が着脱可能に取り付けられ、撮像素子22は光学系装着部58に装着された光学系16を介して撮影光を受光して画像を出力する。本体入出力部59は、光学系16が光学系装着部58に嵌合した際に光学系入出力部56と接続してデータの送受信を行うことができる。光学系制御部55及び本体制御部57は、光学系入出力部56及び本体入出力部59を介してデータの送受信を行うことができる。
 ユーザが撮像ユーザインターフェース53を介して入力する各種のデータ及びコマンドに応じて本体制御部57が光学系制御部55に制御信号を送信し、この制御信号に応じて光学系制御部55が光学系16を制御する。その一方で、本体制御部57が撮像素子22を制御することで、撮影を行うことができる。本体制御部57は、撮像素子22から出力される画像を対象画像として各種の処理を行うことができ、通信部52を介して処理前後の画像を外部機器類に送信できる。
 したがって上述の画像処理装置40(特に図6参照)は、図8に示すデジタルカメラ50の本体制御部57に設けられてもよい。本体制御部57(画像処理装置40)は、上述の条件1~条件3(第1の撮影条件)及び上述の式1で表される条件4(第2の撮影条件)が満たされる場合には、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を行うことができる。
 図9は、コンピュータ60の機能構成の一例を示すブロック図であり、特に上述の画像処理装置40(特に図6参照)を適用可能な機能構成例を示す。本例のコンピュータ60は、コンピュータ制御処理部61、コンピュータ入出力部62及びコンピュータユーザインターフェース63を有する。コンピュータ入出力部62は、上述のデジタルカメラ50等の外部機器類に接続され、その外部機器類との間でデータの送受信を行う。コンピュータユーザインターフェース63は、ユーザによって直接的に操作可能なマウス等のポインティングデバイス及びキーボード等の操作部に加え、ユーザに各種の情報を提示可能な表示部を含む。コンピュータ制御処理部61は、コンピュータ入出力部62及びコンピュータユーザインターフェース63に接続され、コンピュータ入出力部62を介して画像データ等のデータを受信し、またコンピュータユーザインターフェース63を介してユーザにより入力される各種のデータ及びコマンドに応じて各種の処理を行う。
 したがって上述の画像処理装置40(特に図6参照)は、図9に示すコンピュータ60のコンピュータ制御処理部61に設けられてもよい。コンピュータ制御処理部61(画像処理装置40)は、上述の条件1~条件3(第1の撮影条件)及び上述の式1で表される条件4(第2の撮影条件)が満たされる場合には、鮮鋭化処理として光学系16の光学伝達関数に基づく復元処理を行うことができる。
 上述の画像処理装置40を含む撮像装置(監視カメラシステム20及びデジタルカメラ50)によれば、広角撮影を行う場合には、中央部だけではなく周辺部においても良好な画質を有する撮影画像を提供することができる。特に本実施形態では、「広角側ではズーム変化に伴う光学性能及び収差の変化が比較的激しく、望遠側になるほど光学性能及び収差がなだらかに変化する」というズームレンズの特性が考慮されて光学系16の設計及び復元処理の最適化が行われている。すなわち、光学系16の望遠側の光学性能を犠牲にして広角側の光学性能を高めつつ、望遠側の焦点距離で撮影される画像に生じうる不具合については光学伝達関数に基づく復元処理によってケアすることで、全ズーム域に関して良質な撮影画像を提供することができる。
 なおここでいう「光学伝達関数に基づく復元処理」は、光学系16の点拡がり関数(PSF:Point Spread Function)の二次元フーリエ変換によって得られる光学伝達関数(OTF)から導かれる画像回復処理を意味し、点像復元処理とも呼ばれる。この「光学伝達関数に基づく復元処理」は、OTFに基づいて作成されるフィルタを使った処理であってもよいし、OTFの絶対値成分であるMTF及び/又は位相のずれを表すPTF(Phase Transfer Function)に基づいて作成されるフィルタを使った処理であってもよいし、PSFに基づいて作成されるフィルタを使った処理であってもよい。以下に説明する「光学伝達関数」は、OTFだけではなく、これらのMTF、PTF及びPSFを含みうる概念である。
 光学伝達関数に基づく復元処理は、光学系16の光学伝達関数に応じて劣化した像を、光学伝達関数から直接的又は間接的に求められる復元フィルタ(逆フィルタ)を使って補正することで、像劣化をキャンセルして本来の像を復元する処理である。単純な復元フィルタを使った復元処理として、例えば本来の像成分に対して1/100に減衰した劣化像成分に、像成分を100倍にするゲインを持つ復元フィルタを適用することで本来の像を復元する処理が考えられる。しかしながら、減衰特性の逆数から単純に求められるゲインを劣化像成分に適用しただけでは、撮像素子22等の撮像系に起因するノイズ成分も増幅されてしまう。そのため大きな増幅率を持つ復元フィルタがノイズ成分を含む画像に適用されると、復元処理後の画像において無視できない像劣化がもたらされる。
 撮像系に起因するノイズを考慮して作成される復元フィルタとして、Wienerフィルタが広い分野で用いられている。Wienerフィルタを使った復元処理によれば、光学系16の光学伝達関数に起因するボケの影響が大き過ぎて撮像系に起因するノイズ量と比べて画像の周波数特性が極端に減衰している場合には、大きなゲインが画像に適用されるのが避けられ、撮像系に起因するノイズ量を低減することを優先するような減衰ゲインが画像に適用されることもある。
 このWienerフィルタは本実施形態の撮像装置においても有効に活用することができる。Wienerフィルタを用いた復元処理の適用を前提として光学系16の設計を行うことで、光学性能の一部の劣化を許容する代わりに他の性能を向上させることができる。とりわけ監視撮影用途向けの光学系16に関しては、光学性能の一部の劣化を許容することでもたらされる余剰リソースを、光学系16の広角側の限界周波数を向上させることに割り当てることが望ましい。
 以下、光学伝達関数に基づく復元処理の実施を前提とした光学系16の最適設計に関する具体例について説明する。
 <復元処理の実施を前提とした光学系の最適設計>
 Wienerフィルタは、画像劣化が線形で既知な場合において復元画像と元画像との間の平均二乗誤差を最小とすることを目的として作成されるフィルタであって、線形フィルタ設計基準の一つとして利用されている。Wienerフィルタの周波数特性F(f,h)は、下記の式2により表される。
Figure JPOXMLDOC01-appb-M000001
 上記の式2に関し、H(f,h)は光学系の設計情報に基づいて得られるパラメータであり、S(f)及びN(f)は想定される撮像系に基づいて得られるパラメータである。
 上記の式2によって定義されるWienerフィルタを撮影画像に適用した場合の復元画像のレスポンスX(f,h)は、下記の式3によって表される。
Figure JPOXMLDOC01-appb-M000002
 ここで、光学系16の設計に関して、下記の式4によって表される性能要件が課せられている場合を想定する。
Figure JPOXMLDOC01-appb-M000003
 光学伝達関数に基づく復元処理を行うことを前提として光学系16の設計を行う場合、復元処理後のMTF値に基づいて性能要件を評価することができる。そのため、下記の式5によって表されるように、性能要件の基準が実質的に緩和される。
Figure JPOXMLDOC01-appb-M000004
 この式5から、光学系16の光学伝達関数に関する下記の式6及び式7が導き出される。
Figure JPOXMLDOC01-appb-M000005
 この「θ」は、下記の式8が成立する範囲において「θ≦θ」となり、それに応じて光学系16のMTFの条件を緩和することが許容される。この条件はSN比(Signal-Noise ratio)がある程度高ければ、0%及び100%の付近を除くほとんどのθに関して成立する。
Figure JPOXMLDOC01-appb-M000006
 <広角端における解像度を重視する光学系の最適設計>
 光学系16の望遠端及び広角端における光学特性として、下記の式9及び式10によって表される解像性能が求められる場合について考える。
Figure JPOXMLDOC01-appb-M000007
 光学伝達関数に基づく復元処理を行うことを前提とすると、上記の式9及び式10の条件を下記の式11及び式12で表される条件に緩和することができる。
Figure JPOXMLDOC01-appb-M000008
 このように条件が緩和されて閾値が下がったことにより生まれるリソースを、光学系16の広角端における限界解像性能の向上に割り当てることで、下記式13を成立させることができる。
Figure JPOXMLDOC01-appb-M000009
 光学系16の光学伝達関数に基づく復元処理を行うことを前提とすることにより、上述のようにして広角端における限界解像性能が向上した光学系16を設計することができる。
 次に、光学系16の具体的な構成例について説明する。
 <実施例1>
 図10は、実施例1に係る光学系16の断面図を示し、(a)は広角端における光学系16の配置を示し、(b)は望遠端における光学系16の配置を示す。図10(a)及び(b)はそれぞれ、無限遠物体に合焦した状態における光学系16の配置状態を示しており、図の左側が物体側(被写体側)であり、図の右側が像側(像面Sim側)である。
 本例の光学系16は、物体側から順に配置される「負の屈折力を有する第1レンズ群G1」、「絞りSt」、「正の屈折力を有する第2レンズ群G2」及び「平行平板状の光学部材PP」を含む。第1レンズ群G1は、第1レンズL1、第2レンズL2、第3レンズL3、第4レンズL4及び第5レンズL5を含む(図10(b)参照)。第2レンズ群G2は、第6レンズL6、第7レンズL7、第8レンズL8、第9レンズL9及び第10レンズL10を含む(図10(b)参照)。
 光学系16が撮像装置に搭載される際には、撮像素子22の撮像面を保護するカバーガラス、撮像装置の仕様に応じた色分解プリズム等のプリズム、及びローパスフィルタや赤外線カットフィルタ等の各種フィルタに代表される光学部材が設けられることが好ましい。図10(a)及び(b)に示す例では、これらの光学部材を想定した平行平板状の光学部材PPが、第2レンズ群G2と像面Simとの間に配置される。
 本例の光学系16では、絞りStは第1レンズ群G1と第2レンズ群G2との間に配置され、焦点距離を変える変倍時に絞りSt及び像面Simの位置は固定されている。また像面Simは、光学系16の結像面を表し、撮影の際には、撮像素子22の撮像面が像面Simの位置に配置される。なお図10(a)及び(b)に示す絞りStは大きさや形状を表すものではなく、光軸L上での位置を示す。また図10(a)及び(b)において、光学系16の結像面の中心に対応する箇所が符号「S0」によって表される。
 光学系16の焦点距離を変える場合、第1レンズ群G1と第2レンズ群G2との間の光軸Lの方向に関する距離が変化する。この場合、第1レンズ群G1を構成する第1レンズL1~第5レンズL5は相互間の位置を保ったまま一体的に光軸Lの方向に移動し、第2レンズ群G2を構成する第6レンズL6~第10レンズL10は相互間の位置を保ったまま一体的に光軸Lの方向に移動する。このような2群構成で、物体側から順に第1レンズ群G1による負のパワー及び第2レンズ群G2による正のパワーを配置し、第1レンズ群G1及び第2レンズ群G2の間隔変動によりズーム調整を行う構成は、光学系16の広角化に有利である。
 図11は、実施例1に係る光学系16の基本データを示す表(表1)である。図11において「R」の欄(「1」~「21」及び「Sim」)は、最も物体側の構成要素の面を1番目として像側に向かうに従い順次増加するi番目(i=1、2、3、…、21)の面番号(図10(a)の「R1」~「R21」参照)及び像面Simを示す。
 図11の「r」の欄は、各面番号の曲率半径(mm:ミリメートル)を示す。曲率半径の符号は、面形状が物体側に凸の場合を正、像側に凸の場合を負としている。また面番号「3」、「20」及び「21」の曲率半径は無限大を意味し、面形状が光軸Lに直交して法線方向が光軸Lの方向と一致する平面であることを意味する。また図11における絞りStに相当する面(面番号「10」)の曲率半径の欄にはハイフンを示す記号「-」を記載する。
 図11の「D」の欄は、各面番号(i)の面と像側(図10(a)及び(b)の右側)に隣接する面番号(i+1)の面との光軸L上の面間隔(mm)を示す。図11における「可変D10(第5レンズL5と絞りStとの間隔)」、「可変D11(絞りStと第6レンズL6との間隔)」及び「可変D21(第10レンズL10と光学部材PPとの間隔)」は、ズーム(焦点距離)に応じて変化することを意味する(後述の図12参照)。
 図11の「Nd」の欄は、各面番号(i)の面と像側(図10(a)及び(b)の右側)に隣接する面番号(i+1)の面との間の光学要素のd線(波長587.6nm)に関する屈折率を示す。
 図11の「νd」の欄は、各面番号(i)の面と像側(図10(a)及び(b)の右側)に隣接する面番号(i+1)の面との間の光学要素のd線に関するアッベ数を示す。
 図11の「θgF」の欄は、各面番号(i)の面と像側(図10(a)及び(b)の右側)に隣接する面番号(i+1)の面との間の光学要素の、g線(波長435.8nm)とF線(486.1nm)との間の部分分散比を示す。
 なお、図11の「Nd」、「νd」及び「θgF」の欄における空欄は、対応する光学要素が存在しないことを意味し、対応箇所は空間によって占められる。
 図12は、実施例1に係る光学系16の広角端及び望遠端における全系の焦点距離、F値(「Fno」)、全画角(「2ω」)及び光軸L上の可変面間隔(「可変D10(第5レンズL5と絞りStとの間隔)」、「可変D11(絞りStと第6レンズL6との間隔)」及び「可変D21(第10レンズL10と光学部材PPとの間隔)」)を示す表(表2)である。図12に示す焦点距離、光軸L上の面間隔(「可変D10」、「可変D11」及び「可変D21」)の単位は「ミリメートル(mm)」であり、全画角(「2ω」)の単位は「度(°)」である。ただし光学系は比例拡大又は比例縮小して使用することが可能なため、他の適当な単位が用いられてもよい。また、本明細書に添付する図面に記載される各表に示される数値は、所定の桁でまるめられている。
 図12に示すように、実施例1に係る光学系16は広角端における全画角が151.3度となっており、上述の条件2を満たす。
 図13は、実施例1に係る光学系16の非球面レンズ(特に面番号「11(図10(a)の「R11」参照)」及び「12(図10(a)の「R12」参照)」)の非球面係数(「KA」及び「Ai(i=3~20)」)を示す表(表3)である。
 図13の非球面係数に関し、面番号「11」及び「12」の非球面深さZは下記の式14によって表される。
Figure JPOXMLDOC01-appb-M000010
 なお図13において、「E」は指数表記を表し、例えば「E-05」は10の「-5」乗(すなわち「10-5」)を意味する。
 図14は、実施例1に係る光学系16の光軸Lからの位置と限界空間周波数との関係を示す図(グラフ1)であり、広角端における光学性能と望遠端における光学性能とが示されている。
 図14の横軸(「像高(割合)」)は、光学系16の光軸からの位置を示し、「撮像素子22の撮像面の対角線Jの2分の1の長さ」を基準とした光学系16の結像面の中心からの距離の割合(パーセンテージ(%))によって表されている。例えば横軸の「70%」は、光学系16の光軸からの径方向の距離が「撮像素子22の撮像面の対角線Jの2分の1の長さ」の70%である光学系16の位置を示す。同様に横軸の「100%」は、光学系16の光軸からの径方向の距離が「撮像素子22の撮像面の対角線Jの2分の1の長さ」と同じになる光学系16の位置を示す。
 図14の縦軸(「周波数[LP/mm(Line Pairs/mm)]」)は、空間周波数を表す。
 そして図14には、評価波長を使って取得される実施例1に係る光学系16のMTFの値が30%を示す空間周波数(限界空間周波数)がプロットされている。本例において用いられた評価波長は、435.83nmの波長成分(g線)、546.07nmの波長成分(e線)及び656.27nmの波長成分(C線)によって構成され、各波長成分を「435.83nmの波長成分:546.07nmの波長成分:656.27nmの波長成分=1:5:1」の割合で含む白色光の波長である。
 図10~図14に示す特性を有する実施例1に係る光学系16は、倍率が2.7倍程度の変倍光学系であり、広角端の光学性能を重視した設計がなされ、上述の条件1~条件3(第1の撮影条件)を満たす。本実施形態の撮像装置では、このような光学特性を有する実施例1の光学系16を使って取得される撮影画像のうち望遠側の焦点距離(上記式1によって表される条件4(第2の撮影条件)参照)に基づいて撮影された画像に対し、鮮鋭化処理として光学伝達関数に基づく復元処理が行われる。それにより、全ズーム域に関して良質な画質を有する画像を提供することができる。
 <実施例2>
 図15は、実施例2に係る光学系16の断面図を示し、(a)は広角端における光学系16の配置を示し、(b)は望遠端における光学系16の配置を示す。図15(a)及び(b)はそれぞれ、無限遠物体に合焦した状態における光学系16の配置状態を示しており、図の左側が物体側(被写体側)であり、図の右側が像側(像面Sim側)である。
 本実施例2に係る光学系16は、上述の実施例1の光学系16よりも画角の大きい広角撮影を可能とする(後述の図17参照)。本例の光学系16は、物体側から順に配置される「負の屈折力を有する第1レンズ群G1」、「絞りSt」、「正の屈折力を有する第2レンズ群G2」及び「平行平板状の光学部材PP」を含む。第1レンズ群G1は、第1レンズL1、第2レンズL2、第3レンズL3、第4レンズL4及び第5レンズL5を含む。第2レンズ群G2は、第6レンズL6、第7レンズL7、第8レンズL8、第9レンズL9及び第10レンズL10を含む。本例の光学系16では、絞りStは第1レンズ群G1と第2レンズ群G2との間に配置され、光学部材PPは第2レンズ群G2と像面Simとの間に配置され、焦点距離を変える変倍時にも絞りSt及び光学部材PPの位置は固定されている。
 光学系16の焦点距離を変える場合、第1レンズ群G1と第2レンズ群G2との間の光軸Lの方向に関する距離が変化する。この場合、第1レンズ群G1を構成する第1レンズL1~第5レンズL5は相互間の位置を保ったまま一体的に光軸Lの方向に移動し、第2レンズ群G2を構成する第6レンズL6~第10レンズL10は相互間の位置を保ったまま一体的に光軸Lの方向に移動する。
 図16は、実施例2に係る光学系16の基本データを示す表(表4)である。図16における「R」、「r」、「D」、「Nd」、「νd」及び「θgF」の欄は、上述の実施例1に係る図11と同様の意味であり、それぞれ面番号(R1~R22(図15(a)参照))及び像面Sim、曲率半径、面間隔、屈折率、アッベ数及びg線とF線との間の部分分散比を示す。
 図17は、実施例2に係る光学系16の広角端及び望遠端における全系の焦点距離、F値(「Fno」)、全画角(「2ω」)及び光軸L上の面間隔(「可変D10(第5レンズL5と絞りStとの間隔)」、「可変D11(絞りStと第6レンズL6との間隔)」及び「可変D21(第10レンズL10と光学部材PPとの間隔)」)を示す表(表5)である。図17における「焦点距離」、「Fno」、「2ω」、「可変D10」、「可変D11」及び「可変D21」の欄は、上述の実施例1に係る図12と同様である。
 図17に示すように、実施例2に係る光学系16は広角端における全画角が164.3度となっており、上述の条件2を満たす。
 図18は、実施例2に係る光学系16の非球面レンズ(特に面番号「12(図15(a)の「R12」参照)」及び「13(図15(a)の「R13」参照)」)の非球面係数(「KA」及び「Ai(i=3~20)」)を示す表(表6)である。図18における各欄は、上述の実施例1に係る図13と同様である。
 図19は、実施例2に係る光学系16の光軸Lからの位置と限界空間周波数との関係を示す図(グラフ2)であり、広角端における光学性能と望遠端における光学性能とが示されている。図19の横軸、縦軸、プロット及び評価波長は、上述の実施例1に係る図14と同様であり、図19には、評価波長を使って取得される実施例2に係る光学系16のMTFの値が30%を示す空間周波数(限界空間周波数)がプロットされている。
 図15~図19に示す特性を有する実施例2に係る光学系16も、広角端の光学性能を重視した設計がなされ、上述の条件1~条件3(第1の撮影条件)を満たす。本実施形態の撮像装置では、このような光学特性を有する実施例2の光学系16を使って取得される撮影画像のうち望遠側の焦点距離(上記式1によって表される条件4(第2の撮影条件)参照)に基づいて撮影された画像に対し、鮮鋭化処理として光学伝達関数に基づく復元処理が行われる。それにより、全ズーム域に関して良質な画質を有する画像を提供することができる。
 次に、上述のような「広角側において優れた光学性能を有する光学系16」と「光学伝達関数に基づく復元処理」との組み合わせに関して好ましい実施モードについて説明する。
 <第1のモード>
 図20は、第1のモードに係る画像処理例を示すフローチャートである。
 本モードは、対象画像の撮影に使用される光学系16が変更されずに固定されているケースに好適であり、図3に示す画像処理装置40に本モードを適用することが可能である。例えば「光学系16の交換が難しいデジタルカメラ50(図7参照)」や「光学系16が交換不可能な監視カメラシステム20(図2参照)等の撮像装置」は、本モードに係る画像処理を採用することができる。
 本モードは、撮影に使用される光学系16が上述の条件1~条件3(第1の撮影条件)を満たすことを前提としており、撮影の際の焦点距離が上記式1によって表される条件4(第2の撮影条件)を満たすか否かの判定結果に応じて復元処理の実行の有無が決められる。
 すなわち画像処理装置40の鮮鋭化処理部41によって、対象画像が取得され(図20のS11)、光学撮影条件が取得され(S12)、上記式1によって表される条件4(第2の撮影条件)が満たされるか否かが光学撮影条件に基づいて判定される(S13)。条件4が満たされると判定される場合(S13のYES)、鮮鋭化処理部41によって「光学伝達関数に基づく復元処理」が対象画像に対して行われる(S14)。一方、条件4が満たされないと判定される場合(S13のNO)、「光学伝達関数に基づく復元処理(S14参照)」はスキップされる。このように本モードの鮮鋭化処理部41は、条件4「F≧√(Fw×Ft)」が満たされる場合のみ復元処理を行う。
 なお光学伝達関数に基づく復元処理(S14参照)の具体的な手法は特に限定されない。例えば、対象画像を構成する画素の全てに復元フィルタを適用して対象画像の全体に復元処理が行われてもよいし、対象画像を構成する画素の一部のみに復元フィルタを適用して対象画像の一部に復元処理が行われてもよい。なお対象画像の一部のみに復元処理を行う場合、画質劣化が生じ易い箇所に対して優先的に復元処理を行うことが好ましく、例えば対象画像の周辺部を構成する画素に対して復元フィルタを優先的に適用することが好ましい。
 以上説明したように、広角側における撮影では光学系16の優れた光学特性の恩恵を受けて良画質の画像を取得することができる。また上記式1によって表される条件4が満たされる望遠側において撮影された対象画像は、「光学伝達関数に基づく復元処理」によって良好な画質を持つように復元される。このように本モードによれば、広角端~望遠端の全域にわたって良画質の画像を提供することができる。
 <第2のモード>
 本モードにおいて、上述の第1のモードと同一又は類似の要素に関しては同一の符号を付し、その詳細な説明を省略する。
 本モードは、対象画像の撮影に使用される光学系16が固定されずに変更可能なケースに好適であり、図6に示す画像処理装置40に本モードを適用することが可能である。例えば「光学系16を交換可能な監視カメラシステム20(図2参照)やデジタルカメラ50(図8参照)」及び「複数の撮像装置で撮影された画像の画像処理を行うことができるコンピュータ60(図9参照)」は、本モードに係る画像処理を採用することができる。
 図21は、第2のモードに係る画像処理例を示すフローチャートである。
 本モードは、「上記式1によって表される条件4(第2の撮影条件)が満たされるか否かの判定結果」だけではなく「対象画像の撮影に使用される光学系16が上述の条件1~条件3(第1の撮影条件)を満たすか否かの判定結果」に応じて復元処理の実行の有無が決められる。
 すなわち本モードにおいても第1のモードと同様に、画像処理装置40の鮮鋭化処理部41によって、対象画像が取得され(図21のS21)、また光学撮影条件が取得される(S22)。
 ただし本モードでは、鮮鋭化処理部41によって、上述の条件1~条件3(第1の撮影条件)及び条件4(第2の撮影条件)が満たされるか否かが光学撮影条件に基づいて判定される(S23)。光学撮影条件が第1の撮影条件及び第2の撮影条件(条件1~条件4)の全てを満たす場合(S23のYES)、鮮鋭化処理部41によって「光学伝達関数に基づく復元処理」が対象画像に対して行われる(S24)。一方、光学撮影条件が第1の撮影条件及び第2の撮影条件(条件1~条件4)の少なくとも一部を満たさないと判定される場合(S23のNO)、「光学伝達関数に基づく復元処理(S24参照)」はスキップされる。
 以上説明したように本モードによれば、対象画像の撮影に使用される光学系16を変更可能な場合であっても、光学系16の光学特性と光学伝達関数に基づく復元処理とが適切に相補的に組み合わされており、広角端~望遠端の全域にわたって良画質の画像を提供することが可能になる。
 <第3のモード>
 本モードにおいて、上述の第2のモードと同一又は類似の要素に関しては同一の符号を付し、その詳細な説明を省略する。
 図22は、第3のモードに係る画像処理例を示すフローチャートである。
 本モードにおいて「光学伝達関数に基づく復元処理」が行われる場合には、鮮鋭化処理部41は、対象画像の輝度成分を取得し、その輝度成分に対してのみ復元処理を行う。
 すなわち本モードにおいても第2のモードと同様に、画像処理装置40の鮮鋭化処理部41によって、対象画像が取得され(図22のS31)、光学撮影条件が取得され(S32)、上述の条件1~条件4(第1の撮影条件及び第2の撮影条件)が満たされるか否かが光学撮影条件に基づいて判定される(S33)。
 ただし本モードでは、第1の撮影条件及び第2の撮影条件(条件1~条件4)の全てが満たされる場合(S33のYES)、鮮鋭化処理部41によって、対象画像の輝度成分が取得され(S34)、その取得された輝度成分に対して「光学伝達関数に基づく復元処理」が行われる(S35)。一方、第1の撮影条件及び第2の撮影条件(条件1~条件4)の少なくとも一部が満たされないと判定される場合(S33のNO)、「対象画像の輝度成分の取得処理」及び「光学伝達関数に基づく復元処理」はスキップされる。
 なお、対象画像の輝度成分を取得するタイミングは特に限定されず、上述のステップS33の後であってもよいし前であってもよい。また対象画像の輝度成分の取得手法は特に限定されない。例えば対象画像がRGBデータ(赤緑青データ)によって表される場合、鮮鋭化処理部41は下記式15に従って対象画像の輝度成分Yを取得することが可能である。なお下記式15で使用されているRGBデータの各々の係数は一例に過ぎず、他の係数が用いられてもよい。
 式15    Y=0.299×R+0.587×G+0.114×B
 R:対象画像のRデータ
 G:対象画像のGデータ
 B:対象画像のBデータ
 以上説明したように本モードによれば、対象画像の輝度成分に対して復元処理が行われるため、良好な復元精度を確保しつつ、復元処理の演算負荷を軽減して処理を高速化することができる。
 <第4のモード>
 本モードにおいて、上述の第1のモード~第3のモードと同一又は類似の要素に関しては同一の符号を付し、その詳細な説明を省略する。
 本モードでは、条件1~条件3(第1の撮影条件)は満たされるが、条件4(第2の撮影条件)は満たされない場合に、鮮鋭化処理部41は鮮鋭化処理として倍率色収差補正処理を対象画像に対して行う。すなわち鮮鋭化処理部41は、光学撮影条件が条件1~条件3(第1の撮影条件)を満たし、且つ、光学撮影条件が下記式16によって表される条件5(第3の撮影条件)を満たす場合、鮮鋭化処理として「対象画像を構成する色成分の倍率を調整する倍率色収差補正処理」を行う。
 式16    F<√(Fw×Ft)
 なお式16で表される条件5(第3の撮影条件)は、上述の式1で表される条件4(第2の撮影条件)と相関があり、「条件4(第2の撮影条件)が満たされるか否かの判定」及び「条件5(第3の撮影条件)が満たされないか否かの判定」を同時に行うことができる。すなわち「条件4(第2の撮影条件)が満たされること」と「条件5(第3の撮影条件)が満たされないこと」とは等価であり、「条件4(第2の撮影条件)が満たされないこと」と「条件5(第3の撮影条件)が満たされること」とは等価である。したがって下述の本モードでは、「条件4(第2の撮影条件)が満たされるか否かの判定」のみが行われているが、実質的には「条件5(第3の撮影条件)が満たされないか否かの判定」も行われている。
 図23は、第4のモードに係る画像処理例を示すフローチャートである。
 本モードにおいても第1のモード~第3のモードと同様に、画像処理装置40の鮮鋭化処理部41によって、対象画像が取得され(図23のS41)、光学撮影条件が取得される(S42)。
 そして、光学撮影条件が条件1~条件3(第1の撮影条件)を満たすか否かが鮮鋭化処理部41によって判定され(S43)、条件1~条件3(第1の撮影条件)が満たされると判定される場合(S43のYES)、光学撮影条件が条件4(第2の撮影条件)を満たすか否かが判定される(S44)。なお上述のように、このステップS44は「光学撮影条件が条件4(第2の撮影条件)を満たすか否かの判定」であるとともに「光学撮影条件が条件5(第3の撮影条件)を満たさないか否かの判定」でもある。
 条件4(第2の撮影条件)が満たされる場合(S44のYES)、鮮鋭化処理部41によって「光学伝達関数に基づく復元処理」が対象画像に対して行われる(S45)。一方、条件4(第2の撮影条件)が満たされない場合(S44のNO)、すなわち条件5(第3の撮影条件)が満たされる場合、鮮鋭化処理部41によって倍率色収差補正処理が対象画像に対して行われる(S46)。
 鮮鋭化処理部41によって行われる倍率色収差補正処理の具体的な手法は特に限定されない。例えば鮮鋭化処理部41は、光学系16の光学伝達関数に基づいて倍率色収差補正処理を行ってもよい。対象画像が少なくとも第1の色成分及び第2の色成分を含む場合、鮮鋭化処理部41は、第1の色成分に関する光学系16の光学伝達関数に基づく復元フィルタを第1の色成分に適用し、第2の色成分に関する光学系16の光学伝達関数に基づく復元フィルタを第2の色成分に適用して倍率色収差補正処理を行ってもよい。例えば対象画像がRGBデータによって構成される場合、鮮鋭化処理部41はR成分に関する光学系16の光学伝達関数に基づく復元フィルタを対象画像のR成分に適用し、G成分に関する光学系16の光学伝達関数に基づく復元フィルタを対象画像のG成分に適用し、B成分に関する光学系16の光学伝達関数に基づく復元フィルタを対象画像のB成分に適用することで倍率色収差補正処理を行ってもよい。
 なお本例では、条件1~条件3(第1の撮影条件)の少なくとも一部が満たされない場合(S43のNO)、上述の復元処理(S45参照)及び倍率色収差補正処理(S46参照)はスキップされる。
 以上説明したように本モードによれば、上記式1によって表される条件4(第2の撮影条件)が満たされる場合には光学伝達関数に基づく復元処理が行われる一方で、条件4(第2の撮影条件)が満たされない場合には倍率色収差補正処理が行われる。このように、望遠側で撮影された対象画像の画質だけではなく、広角側で撮影された対象画像の画質を画像処理によって更に向上させることができる。
 <第5のモード>
 本モードにおいて、上述の第4のモードと同一又は類似の要素に関しては同一の符号を付し、その詳細な説明を省略する。
 本モードでは、条件1~条件3(第1の撮影条件)は満たされるが、条件4(第2の撮影条件)は満たされない場合に、鮮鋭化処理部41は鮮鋭化処理として「倍率色収差補正処理(図25のS67参照)」ではなく「光学伝達関数に基づく復元処理」を対象画像に対して行う。
 本モードにおける「条件4(第2の撮影条件)が満たされる場合の復元処理(第1の復元処理)」と「条件4(第2の撮影条件)が満たされない場合の復元処理(第2の復元処理)」とは、処理内容が異なる。具体的には、光学撮影条件が条件1~条件3(第1の撮影条件)を満たし、且つ、光学撮影条件が上記式1で表される条件4(第2の撮影条件)を満たさない(すなわち光学撮影条件が上記式16で表される条件5(第3の撮影条件)を満たす)場合、鮮鋭化処理部41は、光学系16の光学伝達関数に基づく復元処理を、対象画像の中心からの距離が撮像面の対角線の2分の1の長さの80%以上を示す対象画像の領域に対してのみ行う。
 図24は、第5のモードに係る画像処理例を示すフローチャートである。
 本モードにおいても第4のモードと同様に、画像処理装置40の鮮鋭化処理部41によって、対象画像が取得され(図24のS51)、光学撮影条件が取得される(S52)。
 そして、光学撮影条件が条件1~条件3(第1の撮影条件)を満たすか否かが鮮鋭化処理部41によって判定され(S53)、条件1~条件3(第1の撮影条件)が満たされると判定される場合(S53のYES)、光学撮影条件が条件4(第2の撮影条件)を満たすか否かが判定される(S54)。なお本ステップS54は、「光学撮影条件が条件4(第2の撮影条件)を満たすか否かの判定」であるとともに「光学撮影条件が条件5(第3の撮影条件)を満たさないか否かの判定」でもある。
 条件4(第2の撮影条件)が満たされる場合(S54のYES)、鮮鋭化処理部41によって「光学伝達関数に基づく復元処理(第1の復元処理)」が対象画像に対して行われる(S55)。本例において、この「第1の復元処理(S55参照)」は対象画像の全体に対して行われ、鮮鋭化処理部41は、対象画像を構成する画素の全てに対して光学伝達関数に基づいて作成される復元フィルタを適用する。
 一方、条件4(第2の撮影条件)が満たされない場合(S54のNO)、すなわち条件5(第3の撮影条件)が満たされる場合、鮮鋭化処理部41によって「光学伝達関数に基づく復元処理(第2の復元処理)」が対象画像に対して行われる(S56)。本例において、この「第2の復元処理」は対象画像の一部に対してのみ行われ、鮮鋭化処理部41は、対象画像の一部の領域である外周部を構成する画素に対してのみ、光学伝達関数に基づいて作成される復元フィルタを適用する。
 なお光学撮影条件が条件1~条件3(第1の撮影条件)の少なくとも一部が満たされない場合(S53のNO)、上述の第1の復元処理(S55参照)及び第2の復元処理(S56参照)はスキップされる。
 以上説明したように本モードによれば、条件4(第2の撮影条件)が満たされない場合には、対象画像の一部領域のみに光学伝達関数に基づく復元処理が行われ、特に、光学系16の収差等の影響を受けて画質が劣化しやすい画像領域に対してのみ復元処理が行われる。したがって、広角側で撮影された対象画像の画質を、復元処理によって損なうことを効果的に防ぎつつ、画像処理によって更に向上させることができる。
 <第6のモード>
 本モードにおいて、上述の第4のモード及び第5のモードと同一又は類似の要素に関しては同一の符号を付し、その詳細な説明を省略する。
 上述の第4のモード及び第5のモードでは、光学撮影条件が条件4(第2の撮影条件)を満たさない場合(図23のS44のNO及び図24のS54のNO参照)には倍率色収差補正処理(図23のS46)や第2の復元処理(図24のS56)が行われる。一方、本モードでは、光学撮影条件が条件4(第2の撮影条件)を満たさない場合、光学撮影条件が条件5(第3の撮影条件)を満たすか否かが判定され、条件5(第3の撮影条件)が満たされる場合にのみ倍率色収差補正処理や第2の復元処理が行われる。
 第2の撮影条件と第3の撮影条件とが相関し、「第2の撮影条件が満たされること」と「第3の撮影条件が満たされないこと」とが等価であり、「第2の撮影条件が満たされないこと」と「第3の撮影条件が満たされること」とが等価である場合には、上述の第4のモード及び第5のモードを好適に採用することができる。一方、「第2の撮影条件が満たされること」と「第3の撮影条件が満たされないこと」とが等価ではない場合や「第2の撮影条件が満たされないこと」と「第3の撮影条件が満たされること」とが等価ではない場合には、本モードのように「第3の撮影条件が満たされるか否かの判定」を「第2の撮影条件が満たされるか否かの判定」とは別個に行って倍率色収差補正処理や第2の復元処理の実行の有無を判定することが好ましい。
 なお第3の撮影条件は特に限定されず、対象画像を撮影した際の焦点距離に関する条件であってもよいし、他の条件であってもよい。
 図25は、第6のモードに係る画像処理の一例を示すフローチャートである。
 本例では、上述の第4のモード(図23参照)と同様に鮮鋭化処理部41によって、対象画像が取得され(図25のS61)、光学撮影条件が取得され(S62)、光学撮影条件が条件1~条件3(第1の撮影条件)を満たすか否かが判定される(S63)。条件1~条件3(第1の撮影条件)の少なくとも一部が満たされない場合(S63のNO)、後述の処理(S64~S67参照)はスキップされる。一方、条件1~条件3(第1の撮影条件)が満たされる場合(S63のYES)、鮮鋭化処理部41によって、光学撮影条件が条件4(第2の撮影条件)を満たすか否かが判定され(S64)、条件4(第2の撮影条件)が満たされる場合(S64のYES)には復元処理が行われる(S65)。
 一方、条件4(第2の撮影条件)が満たされない場合(S64のNO)、鮮鋭化処理部41は光学撮影条件が条件5(第3の撮影条件)を満たすか否かを判定する(S66)。条件5(第3の撮影条件)が満たされる場合(S66のYES)、鮮鋭化処理部41は鮮鋭化処理として倍率色収差補正処理を行い(S67)、条件5(第3の撮影条件)が満たされない場合(S66のNO)には復元処理(S65参照)及び倍率色収差補正処理(S67参照)がスキップされる。
 図26は、第6のモードに係る画像処理の他の例を示すフローチャートである。
 本例では、上述の第5のモード(図24参照)と同様に鮮鋭化処理部41によって、対象画像が取得され(図26のS71)、光学撮影条件が取得され(S72)、光学撮影条件が条件1~条件3(第1の撮影条件)を満たすか否かが判定される(S73)。条件1~条件3(第1の撮影条件)の少なくとも一部が満たされない場合(S73のNO)、後述の処理(S74~S77参照)はスキップされる。一方、条件1~条件3(第1の撮影条件)が満たされる場合(S73のYES)、鮮鋭化処理部41によって、光学撮影条件が条件4(第2の撮影条件)を満たすか否かが判定され(S74)、条件4(第2の撮影条件)が満たされる場合(S74のYES)には第1の復元処理が行われる(S75)。
 一方、条件4(第2の撮影条件)が満たされない場合(S74のNO)、鮮鋭化処理部41は光学撮影条件が条件5(第3の撮影条件)を満たすか否かを判定する(S76)。条件5(第3の撮影条件)が満たされる場合(S76のYES)、鮮鋭化処理部41は鮮鋭化処理として第2の復元処理を行い(S77)、条件5(第3の撮影条件)が満たされない場合(S76のNO)には、第1の復元処理(S75参照)及び第2の復元処理(S77参照)はスキップされる。
 <他の変形例>
 本発明の応用は上述の実施形態に限定されるものではなく、上述の実施形態に各種の変形が加えられてもよい。
 例えば光学伝達関数に基づく復元処理は、光学撮影条件が上述の第1の撮影条件及び第2の撮影条件を満たし、且つ、光学系16の広角端における全画角が100度を超える条件を満たす場合に行われてもよい。
 また光学伝達関数に基づく復元処理は、光学撮影条件が上述の第1の撮影条件及び第2の撮影条件を満たし、且つ、光学系16の結像面の中心からの距離が撮像素子22の撮像面の対角線の2分の1の長さの70%以上を示す結像面上の領域において、評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、光学系16の望遠端よりも広角端の方が高いという条件を満たす場合に行われてもよい。
 また上述のモード同士を組み合わせてもよく、例えば上述の第3のモードを他のモードと組み合わせてもよい。すなわち第4のモード及び第6のモードの復元処理(図23のS45及び図25のS65参照)、第5のモード及び第6のモードの第1の復元処理(図24のS55及び図26のS75参照)及び/又は第2の復元処理(図24のS56及び図26のS77参照)を、対象画像の輝度成分に対して行ってもよい。
 また上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能であり、例えばCPU(Central Processing Unit)、揮発性のRAM(Random Access Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の不揮発性のメモリ、及び/又はOS(Operating System)やアプリケーションプログラム等の各種の動作プログラムが適宜組み合わされることで実現することができる。また上述の撮像装置(画像処理装置40)の各部における画像処理方法及び撮像方法に関する各種処理の手順をコンピュータに実行させるプログラム、そのプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的有形記録媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
 また本発明を適用可能な態様は、図1及び図2に示す監視カメラシステム20(カメラデバイス10)、図7及び図8に示すデジタルカメラ50及び図9に示すコンピュータ60には限定されない。
 例えば撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、或いはその他のコンピュータ機能)を備えるモバイル機器に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)及び携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図27は、本発明の撮像装置の一実施形態であるスマートフォン101の外観を示す図である。図27に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となって形成される表示入力部120が設けられる。また、その筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立して設けられる構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図28は、図27に示すスマートフォン101の構成を示すブロック図である。図28に示すように、スマートフォン101の主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に接続された基地局装置との間で無線通信を行う。その無線通信が使用されて、音声データ及び画像データ等の各種ファイルデータや電子メールデータなどの送受信、及びWebデータやストリーミングデータなどの受信が行われる。
 表示入力部120は、表示パネル121及び操作パネル122を備える所謂タッチパネルであり、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、また表示した情報に対するユーザ操作を検出する。
 表示パネル121は、LCD(Liquid Crystal Display)又はOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いる。操作パネル122は、表示パネル121の表示面上に表示される画像が視認可能な状態で設けられ、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。そのデバイスがユーザの指や尖筆によって操作されると、操作パネル122は、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 本発明の撮像装置の一実施形態として図27に例示されるスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成し、操作パネル122が表示パネル121を完全に覆うような配置となっている。その配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分及びそれ以外の内側部分の2つの感応領域を備えていてもよい。さらに、その外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、及び静電容量方式などが挙げられ、いずれの方式が採用されてもよい。
 通話部130は、スピーカ131及びマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力したりする。また、図27に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付ける。例えば、図27に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとスイッチオン状態となり、指を離すとバネなどの復元力によってスイッチオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータ等を記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152とにより構成される。なお、記憶部150を構成する内部記憶部151及び外部記憶部152のそれぞれは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、或いはROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結される全ての外部機器とのインターフェースの役割を果たし、通信等(例えば、ユニバーサルシリアルバス(USB:Universal Serial Bus)、IEEE(The Institute of Electrical and Electronics Engineers, Inc.)が定めるIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により他の外部機器に直接的又は間接的に接続する。
 スマートフォン101に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるパーソナルコンピュータ、有線/無線接続されるPDA、及び有線/無線接続されるイヤホンなどがある。外部入出力部160は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達したり、スマートフォン101の内部のデータが外部機器に伝送されたりするように構成されてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1、ST2~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度及び高度によって特定される位置を検出する。GPS受信部170は、無線通信部110及び/又は外部入出力部160(例えば、無線LAN(Local Area Network))から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。その検出の結果は、主制御部100に出力される。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御する。また、主制御部100は、無線通信部110を通じて音声通信及びデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現される。アプリケーション処理機能としては、例えば、外部入出力部160を制御することで対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、及びWebページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、その復号結果に画像処理を施して、その画像処理を経て得られる画像を表示入力部120に表示する機能のことをいう。
 さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140や操作パネル122を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)に該当するか、或いはそれ以外の表示パネル121に重ならない外縁部分(非表示領域)に該当するかを判定し、操作パネル122の感応領域やソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic Experts)などの圧縮した画像データに変換し、その画像データを記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることができる。図27に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120が設けられる筐体102の表面ではなく筐体102の背面にカメラ部141が搭載されてもよいし、或いは複数のカメラ部141が筐体102に搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り替えて単独のカメラ部141によって撮影が行われてもよいし、或いは、複数のカメラ部141を同時に使用して撮影が行われてもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、カメラ部141で取得した画像が表示パネル121に表示さてもよいし、操作パネル122の操作入力手法の1つとして、カメラ部141で撮影取得される画像が利用さてもよい。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像が参照されて位置が検出されてもよい。さらには、カメラ部141からの画像が参照されて、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、GPS受信部170により取得された位置情報、マイクロホン132により取得された音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、及びモーションセンサ部180により取得された姿勢情報等などを静止画像又は動画像のデータに付加して得られるデータを、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることもできる。
 なお上述の画像処理装置40(特に鮮鋭化処理部41)は、例えば主制御部100によって実現可能である。
10…カメラデバイス、12…撮像部、12A…撮像支持部、14A…支持フレーム、14B…架台、14…支持部、16…光学系、18…制御パネル、20…監視カメラシステム、22…撮像素子、23…カメラ側制御処理部、24…カメラ側通信部、30…制御端末、31…ユーザインターフェース、32…端末側制御処理部、33…端末側通信部、40…画像処理装置、41…鮮鋭化処理部、42…画像取得部、43…条件取得部、50…デジタルカメラ、51…撮像制御処理部、52…通信部、53…撮像ユーザインターフェース、54…本体部、55…光学系制御部、56…光学系入出力部、57…本体制御部、58…光学系装着部、59…本体入出力部、60…コンピュータ、61…コンピュータ制御処理部、62…コンピュータ入出力部、63…コンピュータユーザインターフェース、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (15)

  1.  光学系と、
     前記光学系を介して撮影光を受光して対象画像を出力する撮像素子と、
     前記対象画像を撮影した際の前記光学系の情報を示す光学撮影条件に応じて前記対象画像の鮮鋭化処理を行う鮮鋭化処理部とを備え、
     前記光学系は焦点距離が可変であり、
     前記光学系は広角端における全画角が90度を超え、且つ
     前記光学系は、前記光学系の結像面の中心からの距離が前記撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す前記結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の望遠端よりも前記広角端の方が高く、
     前記鮮鋭化処理部は、前記対象画像を撮影した際の前記光学系の前記焦点距離をFで表し、前記光学系の前記広角端の前記焦点距離をFwで表し、前記光学系の前記望遠端の前記焦点距離をFtで表し、F≧√(Fw×Ft)によって表される条件が満たされるか否かを前記光学撮影条件に基づいて判定し、F≧√(Fw×Ft)によって表される条件が満たされる場合に、前記鮮鋭化処理として前記光学系の光学伝達関数に基づく復元処理を行う撮像装置。
  2.  対象画像を取得する画像取得部と、
     前記対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する条件取得部と、
     前記光学撮影条件に応じて前記対象画像の鮮鋭化処理を行う鮮鋭化処理部とを備え、
     前記光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、前記鮮鋭化処理部は、前記鮮鋭化処理として前記光学系の光学伝達関数に基づく復元処理を行い、
     前記第1の撮影条件は、
     前記光学系は焦点距離が可変であり、
     前記光学系は広角端における全画角が90度を超え、且つ
     前記光学系は、前記光学系の結像面の中心からの距離が前記撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す前記結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の望遠端よりも前記広角端の方が高いという条件を含み、
     前記第2の撮影条件は、
     前記対象画像を撮影した際の前記光学系の前記焦点距離をFで表し、前記光学系の前記広角端の前記焦点距離をFwで表し、前記光学系の前記望遠端の前記焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表される画像処理装置。
  3.  前記鮮鋭化処理部は、前記対象画像の輝度成分を取得し、当該輝度成分に対してのみ前記復元処理を行う請求項2に記載の画像処理装置。
  4.  前記光学撮影条件が前記第1の撮影条件を満たし、且つ、前記光学撮影条件がF<√(Fw×Ft)で表される第3の撮影条件を満たす場合、前記鮮鋭化処理部は前記鮮鋭化処理として倍率色収差補正処理を行う請求項2又は3に記載の画像処理装置。
  5.  前記鮮鋭化処理部は、前記対象画像を構成する色成分の倍率を調整して前記倍率色収差補正処理を行う請求項4に記載の画像処理装置。
  6.  前記鮮鋭化処理部は、前記光学伝達関数に基づいて前記倍率色収差補正処理を行う請求項4に記載の画像処理装置。
  7.  前記対象画像は、少なくとも第1の色成分及び第2の色成分を含み、
     前記鮮鋭化処理部は、前記第1の色成分に関する前記光学伝達関数に基づくフィルタを前記第1の色成分に適用し、前記第2の色成分に関する前記光学伝達関数に基づくフィルタを前記第2の色成分に適用して前記倍率色収差補正処理を行う請求項6に記載の画像処理装置。
  8.  前記光学撮影条件が前記第1の撮影条件を満たし、且つ、前記光学撮影条件がF<√(Fw×Ft)で表される第3の撮影条件を満たす場合、前記鮮鋭化処理部は、前記復元処理を、前記対象画像の中心からの距離が前記撮像面の対角線の2分の1の長さの80%以上を示す前記対象画像の領域に対してのみ行う請求項2~7のいずれか一項に記載の画像処理装置。
  9.  前記復元処理は、前記光学撮影条件が前記第1の撮影条件及び前記第2の撮影条件を満たし、且つ、前記光学系の前記広角端における全画角が100度を超える条件を満たす場合に行われる請求項2~8のいずれか一項に記載の画像処理装置。
  10.  前記復元処理は、前記光学撮影条件が前記第1の撮影条件及び前記第2の撮影条件を満たし、且つ、前記光学系の前記結像面の中心からの距離が前記撮像面の対角線の2分の1の長さの70%以上を示す前記結像面上の領域において、前記評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の前記望遠端よりも前記広角端の方が高いという条件を満たす場合に行われる請求項2~9のいずれか一項に記載の画像処理装置。
  11.  光学系が着脱可能に取り付けられる光学系装着部と、
     前記光学系装着部に装着された前記光学系を介して撮影光を受光して画像を出力する撮像素子と、
     請求項2~10のいずれか一項に記載の画像処理装置とを備え、
     前記撮像素子から出力される前記画像を前記対象画像とする撮像装置。
  12.  光学系と、当該光学系を介して撮影光を受光して画像を出力する撮像素子と、当該撮像素子に接続されるカメラ側制御処理部と、当該カメラ側制御処理部に接続されるカメラ側通信部とを有するカメラデバイスと、
     前記カメラ側通信部と通信可能な端末側通信部と、当該端末側通信部に接続される端末側制御処理部と、当該端末側制御処理部に接続されるユーザインターフェースとを有する制御端末とを備え、
     前記カメラ側制御処理部及び前記端末側制御処理部のうち少なくともいずれか一方は、請求項2~10のいずれか一項に記載の画像処理装置を有し、
     前記撮像素子から出力される前記画像を前記対象画像とする撮像装置。
  13.  対象画像を取得するステップと、
     前記対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得するステップと、
     前記光学撮影条件に応じて前記対象画像の鮮鋭化処理を行うステップとを備え、
     前記光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、前記鮮鋭化処理として前記光学系の光学伝達関数に基づく復元処理が行われ、
     前記第1の撮影条件は、
     前記光学系は焦点距離が可変であり、
     前記光学系は広角端における全画角が90度を超え、且つ
     前記光学系は、前記光学系の結像面の中心からの距離が前記対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す前記結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の望遠端よりも前記広角端の方が高いという条件を含み、
     前記第2の撮影条件は、
     前記対象画像を撮影した際の前記光学系の前記焦点距離をFで表し、前記光学系の前記広角端の前記焦点距離をFwで表し、前記光学系の前記望遠端の前記焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表される画像処理方法。
  14.  対象画像を取得する手順と、
     前記対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する手順と、
     前記光学撮影条件に応じて前記対象画像の鮮鋭化処理を行う手順とをコンピュータに実行させるためのプログラムであって、
     前記光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、前記鮮鋭化処理として前記光学系の光学伝達関数に基づく復元処理が行われ、
     前記第1の撮影条件は、
     前記光学系は焦点距離が可変であり、
     前記光学系は広角端における全画角が90度を超え、且つ
     前記光学系は、前記光学系の結像面の中心からの距離が前記対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す前記結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の望遠端よりも前記広角端の方が高いという条件を含み、
     前記第2の撮影条件は、
     前記対象画像を撮影した際の前記光学系の前記焦点距離をFで表し、前記光学系の前記広角端の前記焦点距離をFwで表し、前記光学系の前記望遠端の前記焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表されるプログラム。
  15.  対象画像を取得する手順と、
     前記対象画像を撮影した際の光学系の情報を示す光学撮影条件を取得する手順と、
     前記光学撮影条件に応じて前記対象画像の鮮鋭化処理を行う手順とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な非一時的有形記録媒体であって、
     前記光学撮影条件が第1の撮影条件及び第2の撮影条件を満たす場合、前記鮮鋭化処理として前記光学系の光学伝達関数に基づく復元処理が行われ、
     前記第1の撮影条件は、
     前記光学系は焦点距離が可変であり、
     前記光学系は広角端における全画角が90度を超え、且つ
     前記光学系は、前記光学系の結像面の中心からの距離が前記対象画像を出力する撮像素子の撮像面の対角線の2分の1の長さの80%以上且つ95%未満を示す前記結像面上の領域において、435.83nmの波長成分、546.07nmの波長成分及び656.27nmの波長成分を含む評価波長を使って取得されるMTFの値が30%以下になる空間周波数が、前記光学系の望遠端よりも前記広角端の方が高いという条件を含み、
     前記第2の撮影条件は、
     前記対象画像を撮影した際の前記光学系の前記焦点距離をFで表し、前記光学系の前記広角端の前記焦点距離をFwで表し、前記光学系の前記望遠端の前記焦点距離をFtで表した場合に、F≧√(Fw×Ft)によって表されるプログラムを記録したコンピュータ読み取り可能な非一時的有形記録媒体。
PCT/JP2016/061511 2015-04-16 2016-04-08 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体 WO2016167188A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680022303.0A CN107534726B (zh) 2015-04-16 2016-04-08 摄像装置、图像处理装置、图像处理方法、及记录介质
JP2017512511A JP6259165B2 (ja) 2015-04-16 2016-04-08 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
US15/783,471 US10249028B2 (en) 2015-04-16 2017-10-13 Imaging device, image processing device, image processing method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-084394 2015-04-16
JP2015084394 2015-04-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/783,471 Continuation US10249028B2 (en) 2015-04-16 2017-10-13 Imaging device, image processing device, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
WO2016167188A1 true WO2016167188A1 (ja) 2016-10-20

Family

ID=57125758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061511 WO2016167188A1 (ja) 2015-04-16 2016-04-08 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US10249028B2 (ja)
JP (1) JP6259165B2 (ja)
CN (1) CN107534726B (ja)
WO (1) WO2016167188A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020522751A (ja) * 2017-06-02 2020-07-30 アウル ラブス、インク. 周辺視野イメージング用の広角レンズとカメラシステム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107534733B (zh) * 2015-04-23 2019-12-20 富士胶片株式会社 摄像装置、该摄像装置的图像处理方法及介质
CN108389204B (zh) * 2018-03-16 2021-08-27 华南理工大学 一种面向高速在线检测的退化图像模糊核双参数直接估算方法
JP2022172978A (ja) * 2021-05-07 2022-11-17 シャープ株式会社 撮像装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021312A (ja) * 2012-07-19 2014-02-03 Canon Inc ズームレンズおよび撮像装置
JP2014021313A (ja) * 2012-07-19 2014-02-03 Canon Inc 光学系および撮像装置
JP2014138196A (ja) * 2013-01-15 2014-07-28 Canon Inc 画像処理装置、撮像装置および画像処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5162029B2 (ja) * 2008-12-10 2013-03-13 キヤノン株式会社 画像処理装置および画像処理方法、並びに、データ処理装置およびデータ処理方法
US8976271B2 (en) 2012-07-19 2015-03-10 Canon Kabushiki Kaisha Optical system and image pickup apparatus
JP5619124B2 (ja) * 2012-12-20 2014-11-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
CN105453534B (zh) * 2013-05-13 2018-07-06 富士胶片株式会社 图像处理装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021312A (ja) * 2012-07-19 2014-02-03 Canon Inc ズームレンズおよび撮像装置
JP2014021313A (ja) * 2012-07-19 2014-02-03 Canon Inc 光学系および撮像装置
JP2014138196A (ja) * 2013-01-15 2014-07-28 Canon Inc 画像処理装置、撮像装置および画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020522751A (ja) * 2017-06-02 2020-07-30 アウル ラブス、インク. 周辺視野イメージング用の広角レンズとカメラシステム

Also Published As

Publication number Publication date
US10249028B2 (en) 2019-04-02
JP6259165B2 (ja) 2018-01-10
CN107534726B (zh) 2020-06-26
CN107534726A (zh) 2018-01-02
JPWO2016167188A1 (ja) 2018-03-08
US20180047140A1 (en) 2018-02-15

Similar Documents

Publication Publication Date Title
US9906732B2 (en) Image processing device, image capture device, image processing method, and program
US10095004B2 (en) Imaging apparatus and focusing control method
US20150010247A1 (en) Image processing device, imaging device, computer-readable storage medium, and image processing method
EP2592822A2 (en) Zoom control method and apparatus, and digital photographing apparatus
JP6259165B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
JPWO2013168505A1 (ja) 撮像装置及び信号補正方法
US9965833B2 (en) Optical system characteristic data storing device, method, and program for image restoration filtering
US9619871B2 (en) Image processing device, imaging apparatus, image processing method, and program
WO2015015935A1 (ja) 撮像装置及び画像処理方法
JP6255540B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP6127949B2 (ja) ズームレンズ、レンズユニット及び撮像装置
JP6240811B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JPWO2014171423A1 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
JP6387455B2 (ja) カメラ装置、画像処理装置及び画像処理方法
JP5832673B2 (ja) 撮像装置およびその動作制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779979

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017512511

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16779979

Country of ref document: EP

Kind code of ref document: A1