WO2006106737A1 - 撮像装置および撮像方法 - Google Patents

撮像装置および撮像方法 Download PDF

Info

Publication number
WO2006106737A1
WO2006106737A1 PCT/JP2006/306478 JP2006306478W WO2006106737A1 WO 2006106737 A1 WO2006106737 A1 WO 2006106737A1 JP 2006306478 W JP2006306478 W JP 2006306478W WO 2006106737 A1 WO2006106737 A1 WO 2006106737A1
Authority
WO
WIPO (PCT)
Prior art keywords
conversion coefficient
image
imaging
lens
imaging device
Prior art date
Application number
PCT/JP2006/306478
Other languages
English (en)
French (fr)
Inventor
Yusuke Hayashi
Original Assignee
Kyocera Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corporation filed Critical Kyocera Corporation
Priority to US11/910,225 priority Critical patent/US7812296B2/en
Publication of WO2006106737A1 publication Critical patent/WO2006106737A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/009Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras having zoom function
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • G02B13/002Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface
    • G02B13/0045Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface having five or more lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/006Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element at least one element being a compound optical element, e.g. cemented elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • H04N25/6153Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF] for colour signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/125Wavefront coding

Definitions

  • the present invention relates to a digital still camera equipped with a zoom optical system using an image pickup device, a mobile phone mounted camera, a portable information terminal mounted camera, an image inspection device, an industrial camera for automatic control, and the like. And an imaging method.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • an imaging lens device using a CCD or CMOS sensor as an image pickup device takes an image of a subject optically by an optical system and extracts it as an electric signal by the image pickup device.
  • they are used in video cameras, digital video units, personal computers, mobile phones, personal digital assistants (PDAs), image inspection devices, industrial cameras for automatic control, and the like.
  • FIG. 1 is a diagram schematically showing a configuration and a light flux state of a general imaging lens device.
  • This imaging lens device 1 has an optical system 2 and an imaging element 3 such as a CCD or a CMOS sensor. .
  • the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are arranged in order by directing the object side (OBJS) force on the image sensor 3 side.
  • OBJS object side
  • the best focus surface is matched with the imaging element surface.
  • FIG. 2A to 2C show spot images on the light receiving surface of the image sensor 3 of the imaging lens device 1.
  • FIG. [0006] Further, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase plate (Wavefront Coding optical element) and restored by digital processing to enable depth of field and image shooting. (For example, see Non-Patent Documents 1 and 2 and Patent Documents 1 to 5).
  • Non-Patent Document 2 “Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems”, Edward R. Dows iJr., Gregory E.Johnson.
  • Patent Document 1 USP6, 021, 005
  • Patent Document 2 USP6, 642, 504
  • Patent Document 3 USP6, 525, 302
  • Patent Document 4 USP6, 069, 738
  • Patent Document 5 Japanese Patent Laid-Open No. 2003-235794
  • the zoom system and AF system which are extremely difficult to use with a single focus lens, have great problems in adopting due to the high accuracy of the optical design and the associated cost increase.
  • the PSF is in each optical design. It must be designed to have the same size and shape in the optical system, but this increases the design difficulty, and is a major problem for adoption due to the high accuracy of the lens and the associated cost increase.
  • An object of the present invention is to provide an imaging apparatus and an imaging method capable of appropriate image restoration in any imaging system in which a plurality of optical systems can be exchanged, regardless of which optical system is used. It is in.
  • An imaging apparatus includes a plurality of interchangeable lenses, a light wavefront modulation element, and a subject that has passed through at least one lens and the light wavefront modulation element among the plurality of lenses.
  • An imaging device capable of capturing an aberration image, a conversion unit that generates an aberration-free image signal from an aberration image signal from the imaging device, a conversion coefficient acquisition unit that acquires a conversion coefficient corresponding to the one lens, The conversion unit converts an image signal using the conversion coefficient obtained from the conversion coefficient acquisition unit.
  • An imaging apparatus includes a plurality of optical systems including a lens and a light wavefront modulation element, an imaging element capable of capturing a subject aberration image, and one of the plurality of optical systems.
  • a switching control unit that selectively enters the subject aberration image that has passed through at least one of the lenses and the light wavefront modulation element in the optical system, and an aberration image signal from the aberration image signal of the imaging element force;
  • a conversion unit that generates a non-image signal, and a conversion coefficient acquisition unit that acquires a conversion coefficient corresponding to the one lens, and the conversion unit uses the conversion coefficient obtained from the conversion coefficient acquisition unit to generate an image. Perform signal conversion.
  • the image processing apparatus further includes a conversion coefficient storage unit that stores conversion coefficients corresponding to the plurality of lenses, and the conversion coefficient acquisition unit stores conversion coefficients corresponding to the one lens from the conversion coefficient storage unit.
  • the conversion coefficient acquisition unit acquires a conversion coefficient from the one lens attached to the imaging apparatus.
  • the conversion coefficient includes a plurality of coefficients corresponding to the distance to the subject, and the conversion coefficient acquisition unit calculates one coefficient from the plurality of coefficients based on information corresponding to the distance to the subject. Then, the conversion unit converts the image signal with the one coefficient selected by the conversion coefficient acquisition unit.
  • the conversion coefficient includes a kernel size of the subject aberration image as a variable.
  • the plurality of optical systems have different magnifications.
  • An imaging method includes the step of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element, with the imaging element, and the one lens And a step of generating an image signal having no aberration from the aberration image signal from the image pickup device by the acquired conversion coefficient.
  • FIG. 1 is a diagram schematically showing a configuration of an ordinary imaging lens device and a light beam state.
  • FIGS. 2A to 2C are diagrams showing spot images on the light receiving surface of the image sensor of the imaging lens apparatus of FIG. 1.
  • FIG. 2B is a diagram showing each spot image when the focus is in focus (Best focus)
  • FIG. 3 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention.
  • FIG. 4 is a diagram schematically showing a configuration example of a zoom optical system on the wide angle side of the imaging lens device according to the present embodiment.
  • FIG. 5 is a diagram for explaining the principle of WFCO.
  • FIG. 6 is a configuration example of a zoom optical system on the telephoto side of the imaging lens device according to the present embodiment.
  • FIG. 7 is a diagram showing a spot shape at the center of the image height on the wide angle side.
  • FIG. 8 is a diagram showing a spot shape at the center of the image height on the telephoto side.
  • FIG. 9 is a diagram showing an example of data stored in the kernel data ROM.
  • FIG. 10 is a flowchart showing an outline of an optical system setting process of the system control device.
  • FIG. 12A and FIG. 12B are diagrams for explaining the MTF of the primary image formed by the image sensor according to the present embodiment, and FIG. 12A shows the light reception of the image sensor of the imaging lens device. Fig. 12B shows the spot image on the surface, and Fig. 12B shows the MTF characteristics with respect to the spatial frequency.
  • FIG. 13 is a diagram for explaining an MTF correction process in the image processing apparatus according to the present embodiment.
  • FIG. 14 is a diagram for specifically explaining the MTF correction processing in the image processing apparatus according to the present embodiment.
  • 100 imaging device
  • 110 optical unit, 110-1, 110— 2 ... optical system, 120 ... imaging element
  • 130 analog front end (AFE)
  • 140 optical system switching control unit
  • 150 Image processing device
  • 160 Camera signal processing unit
  • 190 Operation unit
  • 200 System control device
  • 1 ⁇ 11 ⁇ Object side lens
  • 152 convolution operation section
  • 153 kernel data RO M
  • 154 ... convolution control section.
  • FIG. 3 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention.
  • the imaging apparatus 100 includes an optical unit 110, an imaging element (IDV) 120, an analog front end unit (AFE) 130, an optical system switching control unit (OPSWC).
  • IDV imaging element
  • AFE analog front end unit
  • OPSWC optical system switching control unit
  • IPRC image processing device
  • CPRC camera signal processing unit
  • MEM image display memory
  • OPU operation rod
  • SYSCON system controller
  • the optical unit 110 includes a plurality (2 in this embodiment) of optical systems 110-1 (OPSl), 110-2.
  • OPS2 optical system switching control unit 140
  • the optical systems 110-1 and 110-2 have different optical magnifications, and optically capture an image of the imaging target object (subject) OBJ.
  • the optical magnification of the optical system 110-1 is set to Ml
  • the optical magnification of the optical system 110-2 is set to M2.
  • the imaging device 120 forms an image captured by the optical systems 110-1 and 110-2, and forms the primary image information as the primary image signal FIM of the electrical signal via the analog front end unit 130.
  • the CCD and CMOS sensor power output to the image processing device 150 is also obtained.
  • the image sensor 120 is described as a CCD as an example.
  • the analog front end unit 130 includes a timing generator (TG) 131 and an analog Z digital (AZD) converter (ADC) 132.
  • TG timing generator
  • ADC analog Z digital converter
  • the timing generator 131 generates the CCD drive timing of the image sensor 120, and the AZD converter 132 converts the analog signal input to the CCD force into a digital signal and outputs the digital signal to the image processing device 150.
  • the image processing device (two-dimensional convolution unit) 150 inputs a digital signal of a captured image from the AFE 130 in the previous stage, performs a two-dimensional convolution process, and performs a camera signal processing unit (DSP) in the subsequent stage. Pass to 160.
  • the camera signal processing unit (DSP) 160 performs processing such as color interpolation, white balance, YCbCr conversion processing, compression, and failing, and stores it in the image display memory 170 and image display on the image monitoring device 180. Do.
  • the system control device 200 has operation inputs from the operation unit 190 and the like, and determines the operation of the entire system according to those inputs, and the optical system switching control unit 140, AFE 130, image processing It controls the device 150, DSP160, etc., and controls arbitration of the entire system.
  • FIG. 4 is a diagram schematically showing a configuration example of the zoom optical systems 110-1 and 110-2 according to the present embodiment. This figure shows the wide angle side.
  • the zoom optical system 110 in FIG. 4 includes an object-side lens 111 disposed on the object-side OBJS, an imaging lens 112 for forming an image on the image sensor 120, and an object-side lens 111 and an imaging lens 112.
  • An optical wavefront modulation element (for example, a wavefront forming optical element) composed of a phase plate (Cubic Phase Plate) having a three-dimensional curved surface, for example, which deforms the wavefront of the image formed on the light receiving surface of the image sensor 120 by the imaging lens 112.
  • Element Wavefront Coding Optical Element
  • An aperture (not shown) is disposed between the object side lens 111 and the imaging lens 112.
  • any optical wavefront modulation element according to the present invention may be used as long as it deforms the wavefront.
  • an optical element whose refractive index changes e.g., a gradient index wavefront modulation lens
  • an optical element whose thickness changes due to coding on the lens surface e.g., wavefront
  • a light wavefront modulation element such as a modulation hybrid lens
  • a liquid crystal element capable of modulating the phase distribution of light for example, a liquid crystal spatial phase modulation element
  • a zoom optical system 110 in FIG. 4 is an example in which an optical phase plate 113a is inserted into a 3 ⁇ zoom system used in a digital camera.
  • the phase plate 113a shown in the figure is an optical lens that regularly disperses the light beam converged by the optical system. By inserting the phase plate 113a, an image that matches the focus anywhere on the image sensor 120 is realized.
  • phase plate 113a forms a deep depth, light flux (which plays a central role in image formation) and flare (blurred portion).
  • Wavefront aberration control optical system (WFCO: Wavefront Coding Optical) is a system that restores this regularly dispersed image to a focused image through digital processing. system), and this processing is performed in the image processing apparatus 150.
  • zoom position be ⁇ , ⁇ — 1. Also, let each ⁇ function be ⁇ , ⁇ 1, '".
  • each power function is as follows.
  • the difference in the number of rows and Z or the number of columns of this matrix is the kernel size, and each number is the operation coefficient.
  • each H function may be stored in the memory, and PSF is set as a function of the object distance, calculated based on the object distance, and optimal for any object distance by calculating the H function. It may be possible to set so as to create a simple filter. Alternatively, the H function may be obtained directly from the object distance using the H function as a function of the object distance.
  • SPOT shape is a simple display method of PSF, and different SPOT shapes indicate different PSFs.
  • H in Fig. 5 is different.
  • a general imaging device could not perform proper computation, and optical design was required to eliminate astigmatism, coma, zoom chromatic aberration, and other aberrations that would cause this spot shape shift.
  • optical design that eliminates these aberrations has increased the difficulty of optical design, causing problems such as increased design man-hours, increased costs, and larger lenses.
  • images from the optical systems 110-1 and 110-2 having different magnifications are received by the image sensor 120 and input to the image processing device 150.
  • a conversion coefficient corresponding to the optical system is obtained, and an image signal is generated with a dispersion coefficient obtained from the image pickup device 120 with the obtained conversion coefficient.
  • the optical system shown in FIG. 3 is mainly useful for image inspection devices and industrial cameras for automatic control.
  • the optical system itself is switched by switching the optical system itself, which is not a zoom lens, so that objects of various dimensions can be inspected. It becomes a system that can switch the magnification.
  • dispersion means that an image that does not fit anywhere on the image sensor 120 is formed on the image sensor 120 by inserting the phase plate 113a, and the depth is formed by the phase plate 113a.
  • Depth of light a phenomenon that forms a light flux (which plays a central role in image formation) and flare (blurred part)! Matches are included. Therefore, in this embodiment, it may be described as aberration.
  • Image processing apparatus (IPR 150 has a raw (RAW) buffer memory (BUF.
  • the convolution control unit 154 controls the convolution processing on / off, the screen size, the replacement of kernel data, and the like, and is controlled by the system control device 200.
  • the kernel data storage ROM 153 stores kernel data KDT for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG.
  • the control device 200 acquires optical system information used from the optical system switching control unit 140 when setting the optical system, and selects and controls kernel data through the convolution control unit 154.
  • kernel data KDT—A is optical magnification M (X I. 5)
  • kernel data KDT—B is optical magnification M (X 5)
  • kernel data KDT—C is optical magnification M (X Data corresponding to 10).
  • FIG. 10 is a flowchart showing an outline of the optical system setting process of the system control apparatus 200.
  • the optical system is checked (ST1), and kernel data KDT is set (ST2).
  • ST3 When an optical system switching instruction is given by operating the operation unit 190 (ST3), the optical system switching control unit 140 switches the output of the optical system of the optical unit 110, and the process of step ST1 is performed (ST4).
  • FIGS. 4 and 6 are examples, and the present invention is not necessarily used for the optical systems in FIGS.
  • FIG. 7 and FIG. 8 are also examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 7 and FIG.
  • the kernel data storage ROM in FIG. 9 is not necessarily used for the optical magnification, the size and value of each kernel. Also, the number of kernel data K DT to be prepared is not necessarily three.
  • the image processing within the predetermined focal length range is appropriate by image processing.
  • the image signal can be generated, but there is a limit to the correction of the image processing when it is out of the predetermined focal length range. End up.
  • image processing in which no aberration occurs within a predetermined narrow range it is possible to bring out a blur to an image outside the predetermined narrow range.
  • WFCO is employed to obtain high-definition image quality.
  • the optical system can be simplified and the cost can be reduced.
  • FIG. 11A to FIG. 11C show spot images on the light receiving surface of the image sensor 120.
  • Fig. 11B shows a case where the focus is in focus (Best focus)
  • the wavefront forming optical element group 113 including the phase plate 113a causes the depth of the depth and the luminous flux (which plays a central role in image formation). And flare (blurred part).
  • the primary image FIM formed in the imaging apparatus 100 according to the present embodiment has a very deep depth and a light flux condition.
  • FIG. 12A and FIG. 12B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment, and FIG. FIG. 12B shows a spot image on the light receiving surface of the image sensor of the imaging lens device, and FIG. 12B shows the MTF characteristics with respect to the spatial frequency Sfreq.
  • MTF modulation transfer function
  • the high-definition final image is left to the correction processing of the image processing apparatus 150 including a digital signal processor, for example, as shown in FIGS. 12A and 12B.
  • the MTF is essentially low.
  • the image processing device 150 receives the primary image FIM from the image sensor 120, and performs a predetermined correction process that lifts the MTF in the spatial frequency Sfreq of the primary image and performs high-definition.
  • Final image FNLIM is formed.
  • the MTF correction processing of the image processing device 150 is performed by edge enhancement using the spatial frequency Sfreq as a parameter, as shown in the curve A of FIG.
  • post-processing such as chroma enhancement, the characteristics shown by curve B in Fig. 13 are approached (reached) ).
  • the characteristic indicated by curve B in FIG. 13 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment.
  • the MTF characteristic curve A with respect to the spatial frequency Sfreq obtained optically is finally realized! /
  • the original image (primary image) is corrected by applying strength such as edge enhancement to each spatial frequency Sfreq.
  • the desired MTF characteristic curve B is obtained by performing correction by weakening edge enhancement on the low frequency side and high frequency side within the predetermined band of the spatial frequency Sfreq and strengthening edge enhancement in the intermediate frequency region. Realize virtually.
  • the imaging apparatus 100 basically includes the optical unit 110 and the imaging element 120 including the plurality of optical systems 110-1 and 110-2 having different magnifications for forming the primary image. And an image processing device 150 that forms a primary image into a high-definition final image, such as the ability to newly install an optical element for wavefront shaping in an optical system, such as glass, plastic, etc.
  • an image processing device 150 that forms a primary image into a high-definition final image, such as the ability to newly install an optical element for wavefront shaping in an optical system, such as glass, plastic, etc.
  • the imaging wavefront is deformed, and such a wavefront is connected to the imaging surface (light-receiving surface) of the image sensor 120 that also has a CCD or CMOS sensor force.
  • the image forming system obtains a high-definition image through the image processing device 150 from the imaged primary image.
  • the primary image from the image sensor 120 has a light flux condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 150.
  • the imaging process in the imaging apparatus 100 in the present embodiment will be considered in terms of wave optics.
  • Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
  • the wavefront information at the exit pupil position of the imaging optical system is important.
  • the calculation of MTF is obtained by Fourier transform of the wave optical intensity distribution at the imaging point.
  • the wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
  • MTF can be calculated if the wavefront aberration can be precisely calculated through the optical system 110-1, 110-2.
  • the MTF value on the imaging plane can be arbitrarily changed.
  • the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
  • the exit light flux from the exit pupil is formed from a dense portion and a sparse portion of the light beam so as to exert the geometric optical spot image force shown in FIGS. 11A to 11C.
  • the MTF in this luminous flux state shows a low spatial frequency Sfreq, a low value, and a high spatial frequency Sfreq.
  • this low MTF value (or such a spot image state in terms of geometrical optics) will not cause aliasing.
  • the optical unit 110 and the image sensor 120 including the plurality of optical systems 110-1, 110-2 having different magnifications for forming the primary image, and the primary image
  • An image processing device 150 that forms an image into a high-definition final image.
  • the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are determined according to the magnification of the optical system.
  • the lens design can be made variable without worrying about the magnification or defocus range by knowing the input from the operation unit 190, etc., and making the kernel size appropriate for the magnification of the optical system and the above-mentioned coefficient correspond. This is advantageous in that image restoration can be performed using a highly accurate convolution.
  • V is a very natural way to focus on an object that you want to shoot without driving an expensive and large optical lens that is difficult, and without driving the lens, and the background is blurred. There is an advantage that an image can be obtained.
  • the imaging apparatus 100 can be used for a WFCO of a zoom lens considering the small size, light weight, and cost of a consumer device such as a digital camera or a camcorder.
  • an imaging lens system having a wavefront forming optical element that deforms a wavefront of an image formed on the light receiving surface of the imaging element 120 by the imaging lens 112, and a primary by the imaging element 120
  • the image processing device 150 that receives the image FIM and performs a predetermined correction process for raising the MTF at the spatial frequency of the primary image so as to form a high-definition final image FNLIM is provided.
  • the configuration of the optical systems 110-1 and 110-2 can be simplified, manufacturing becomes easy, and cost can be reduced.
  • the imaging lens device is not made of a uniaxial crystal system.
  • a low-pass filter is also used to avoid aliasing.
  • Using a low-pass filter in this way is correct in principle, but it is expensive and difficult to manage because the low-pass filter itself is made of crystal.
  • use in an optical system is disadvantageous if the optical system is made more complicated.
  • the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.
  • the optical element for forming the wavefront of the optical system is arranged in the same direction as the force diaphragm shown in the example in which the optical element for the wavefront is arranged closer to the lens on the object side than the diaphragm, or on the imaging lens side from the diaphragm. The same effect can be obtained.
  • FIGS. 4 and 6 are examples, and the present invention is not necessarily used for the optical systems of FIGS.
  • FIG. 7 and FIG. 8 are also examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 7 and FIG.
  • the kernel data storage ROM in FIG. 9 is not necessarily used for the optical magnification, the size and value of each kernel. Also, the number of kernel data to be prepared is not necessarily three.
  • the imaging apparatus and imaging method of the present invention can perform lens design without worrying about the zoom position or the zoom amount, and can perform image restoration by highly accurate calculation.
  • Digital still camera with mobile phone, mobile phone camera, mobile phone It can be applied to cameras equipped with information terminals, image inspection devices, industrial cameras for automatic control, and the like.

Abstract

 ズーム位置またはズーム量を気にすることなく、レンズ設計を行うことができ、かつ精度の高い演算による画像復元が可能な撮像装置およびその方法であって、1次画像を形成する倍率の異なる複数の光学系110-1,2を含む光学ユニット110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置150とを含み、画像処理装置150において、光学系の倍率に応じて、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部190等の入力により知り、その光学系の倍率に応じた適性となるカーネルサイズや上述した係数を対応させる。

Description

明 細 書
撮像装置および撮像方法
技術分野
[0001] 本発明は、撮像素子を用い、ズーム光学系を備えたデジタルスチルカメラゃ携帯電 話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等に 適用可能な撮像装置および撮像方法に関するものである。
背景技術
[0002] 近年急峻に発展を遂げて 、る情報のデジタルィ匕に相俟って映像分野にぉ 、てもそ の対応が著しい。
特に、デジタルカメラに象徴されるように撮像面はフィルムに変わって固体撮像素 子である CCD (Charge Coupled Device) , CMOS (Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
[0003] このように、撮像素子に CCDや CMOSセンサを使った撮像レンズ装置は、被写体 の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出する ものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パー ソナルコンピュータ、携帯電話機、携帯情報端末 (PDA: Personal DigitalAssista nt)、画像検査装置、自動制御用産業カメラ等に用いられている。
[0004] 図 1は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である この撮像レンズ装置 1は、光学系 2と CCDや CMOSセンサ等の撮像素子 3とを有 する。
光学系は、物体側レンズ 21, 22、絞り 23、および結像レンズ 24を物体側(OBJS) 力 撮像素子 3側に向力つて順に配置されている。
[0005] 撮像レンズ装置 1においては、図 1に示すように、ベストフォーカス面を撮像素子面 上に合致させている。
図 2A〜図 2Cは、撮像レンズ装置 1の撮像素子 3の受光面でのスポット像を示して いる。 [0006] また、位相板 (Wavefront Coding optical element)により光束を規則的に分 散し、デジタル処理により復元させ被写界深度の深 、画像撮影を可能にする等の撮 像装置が提案されている (たとえば非特許文献 1, 2、特許文献 1〜5参照)。
特干文献 1: avefrontし oding;jointly optimized optical and digital imaging syste ms , Edward R.DowskiJr., Robert H.Cormack, Scott D.Sarama.
非特許文献 2: "Wavefront Coding;A modern method of achieving high performance a nd/or low cost imaging systems " , Edward R.Dows iJr., Gregory E.Johnson.
特許文献 1 : USP6, 021, 005
特許文献 2 : USP6, 642, 504
特許文献 3 : USP6, 525, 302
特許文献 4 : USP6, 069, 738
特許文献 5:特開 2003 - 235794号公報
発明の開示
発明が解決しょうとする課題
[0007] 上述した各文献にて提案された撮像装置にお!、ては、その全ては通常光学系に 上述の位相板を挿入した場合の PSF (Point— Spread— Function)が一定になつ ていることが前提であり、 PSFが変化した場合は、その後のカーネルを用いたコンボ リューシヨンにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかぐズーム系や AF系などのレンズでは、そ の光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな 問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューシヨン演算を行うこと ができず、ワイド (Wide)時ゃテレ(Tele)時のスポット(SPOT)像のズレを引き起こす 非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。 しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計ェ 数の増大、コスト増大、レンズの大型化の問題を引き起こす。
[0008] また、たとえば画像検査装置や自動制御装置等のような光学系システムにお!/、て は、検査、制御するため、光学系を切替えた時にフォーカス合わせをすることが必要 になるが、測定物自体の高さのバラツキ、測定物の置き方のバラツキ、測定物を運ぶ 運送部のバラツキ、温度によるバラツキなどの影響により、常に合焦しているようにす ることは困難である。
したがって、複数の光学系を備えた光学系システムにおいて、上述した位相板とそ の後の信号処理によって被写界深度を拡大する等の技術を適用する場合、その光 学設計において PSFがそれぞれの光学系で同じ大きさ、形状になるように設計しな ければならないが、そのためには設計の難度が増し、またレンズの精度の高さやそれ に伴うコストアップが原因となり採用するには大きな問題を抱えている。
[0009] 本発明の目的は、複数の光学系を交換可能な撮像装置において、いずれの光学 系を用いた場合であっても、適切な画像復元が可能な撮像装置および撮像方法を 提供することにある。
課題を解決するための手段
[0010] 本発明の第 1の観点の撮像装置は、交換可能な複数のレンズと、光波面変調素子 と、前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被 写体収差像を撮像可能な撮像素子と、前記撮像素子からの収差画像信号より収差 のな ヽ画像信号を生成する変換部と、前記一のレンズに応じた変換係数を取得する 変換係数取得部と、を備え、前記変換部は、前記変換係数取得部から得られた変換 係数によって、画像信号の変換行う。
[0011] 本発明の第 2の観点の撮像装置は、レンズおよび光波面変調素子を含む複数の光 学系と、被写体収差像を撮像可能な撮像素子と、前記複数の光学系のうち一つの光 学系における前記レンズの内少なくとも一のレンズおよび光波面変調素子を通過し た被写体収差像を前記撮像素子に選択的に入射する切替制御部と、前記撮像素子 力 の収差画像信号より収差のない画像信号を生成する変換部と、前記一のレンズ に応じた変換係数を取得する変換係数取得部と、を備え、前記変換部は、前記変換 係数取得部から得られた変換係数によって、画像信号の変換行う。
[0012] 好適には、前記複数のレンズに応じた変換係数をそれぞれ記憶する変換係数記憶 部を更に備え、前記変換係数取得部は、前記変換係数記憶部より前記一のレンズに 応じた変換係数を取得する。 [0013] 好適には、前記変換係数取得部は、撮像装置に装着された前記一のレンズより変 換係数を取得する。
[0014] 好適には、前記変換係数は、被写体までの距離の応じた複数の係数を含み、前記 変換係数取得部は、被写体までの距離に相当する情報より当該複数の係数より一の 係数を選択し、前記変換部は、前記変換係数取得部により選択された一の係数によ つて、画像信号の変換を行う。
[0015] 好適には、前記変換係数は前記被写体収差像のカーネルサイズを変数として含む
[0016] 好適には、前記複数の光学系はそれぞれ倍率が異なる。
[0017] 本発明の第 3の観点の撮像方法は、前記複数のレンズの内少なくとも一のレンズお よび光波面変調素子を通過した被写体収差像を撮像素子により撮像するステップと 、前記一のレンズに応じた変換係数を取得するステップと、前記取得した変換係数に よって、前記撮像素子からの収差画像信号より収差のな!ヽ画像信号を生成するステ ップと、を含む。
発明の効果
[0018] 本発明によれば、光学系を交換しても適切な画像復元が可能な利点がある。
図面の簡単な説明
[0019] [図 1]図 1は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図で ある。
[図 2]図 2A〜図 2Cは、図 1の撮像レンズ装置の撮像素子の受光面でのスポット像を 示す図であって、図 2Aは焦点が 0. 2mmずれた場合(Defocus = 0. 2mm)、図 2B は合焦点の場合(Best focus)、図 2Cは焦点が 0. 2mmずれた場合(Defocus = 0. 2mm)の各スポット像を示す図である。
[図 3]図 3は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。
[図 4]図 4は、本実施形態に係る撮像レンズ装置の広角側のズーム光学系の構成例 を模式的に示す図である。
[図 5]図 5は、 WFCOの原理を説明するための図である。
[図 6]図 6は、本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例 を模式的に示す図である。
[図 7]図 7は、広角側の像高中心のスポット形状を示す図である。
[図 8]図 8は、望遠側の像高中心のスポット形状を示す図である。
[図 9]図 9は、カーネルデータ ROMの格納データの一例を示す図である。
[図 10]図 10は、システム制御装置の光学系設定処理の概要を示すフローチャートで ある。
[図 11]図 11 A〜図 11Cは、本実施形態に係る撮像素子の受光面でのスポット像を示 す図であって、図 11Aは焦点が 0. 2mmずれた場合(Defocus = 0. 2mm)、図 11B は合焦点の場合(Best focus)、図 11Cは焦点が 0. 2mmずれた場合(Defocus = 0. 2mm)の各スポット像を示す図である。
[図 12]図 12Aおよび図 12Bは、本実施形態に係る撮像素子により形成される 1次画 像の MTFについて説明するための図であって、図 12Aは撮像レンズ装置の撮像素 子の受光面でのスポット像を示す図で、図 12Bが空間周波数に対する MTF特性を 示している。
[図 13]図 13は、本実施形態に係る画像処理装置における MTF補正処理を説明す るための図である。
[図 14]図 14は、本実施形態に係る画像処理装置における MTF補正処理を具体的 に説明するための図である。
符号の説明
[0020] 100…撮像装置、 110…光学ユニット、 110- 1, 110— 2…光学系、 120· ··撮像 素子、 130…アナログフロントエンド部(AFE)、 140…光学系切替制御部、 150· "画 像処理装置、 160· ··カメラ信号処理部、 190…操作部、 200…システム制御装置、 1 11…物体側レンズ、 112…結像レンズ、 113…波面形成用光学素子、 113a…位相 板 (光波面変調素子)、 152…コンボリューシヨン演算部、 153…カーネルデータ RO M、 154· ··コンボリューシヨン制御部。
発明を実施するための最良の形態
[0021] 以下、本発明の実施形態を添付図面に関連付けて説明する。
[0022] 図 3は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。 [0023] 本実施形態に係る撮像装置 100は、図 3に示すように、光学ユニット 110、撮像素 子 (IDV)120、アナログフロントエンド部(AFE) 130、光学系切替制御部(OPSWC
TL) 140、画像処理装置 (IPRC) 150、カメラ信号処理部(CPRC) 160、画像表示メ モリ(MEM) 170、画像モニタリング装置(MNT) 180、操作咅 (OPU) 190、および システム制御装置(SYSCON) 200を有して!/、る。
[0024] 光学ユニット 110は、複数 (本実施形態では 2)の光学系 110— l(OPSl), 110— 2
(OPS2)を有し、光学系切替制御部 140の切り替え処理に応じて被写体物体 OBJを 撮影した像を順番に撮像素子 120に供給する。
各光学系 110—1, 110— 2は、光学倍率が異なり、撮像対象物体 (被写体) OBJの 像を光学的に取り込む。本実施形態においては、光学系 110— 1の光学倍率は Ml に設定され、光学系 110— 2の光学倍率は M2に設定される。
[0025] 撮像装置 120は、光学系 110—1, 110— 2で取り込んだ像が結像され、結像 1次 画像情報を電気信号の 1次画像信号 FIMとして、アナログフロントエンド部 130を介 して画像処理装置 150に出力する CCDや CMOSセンサ力もなる。
図 3においては、撮像素子 120を一例として CCDとして記載している。
[0026] アナログフロントエンド部 130は、タイミングジェネレータ (TG)131、アナログ Zデジ タル (AZD)コンバータ (ADC)132とを有する。
タイミングジェネレータ 131では、撮像素子 120の CCDの駆動タイミングを生成して おり、 AZDコンバータ 132は、 CCD力 入力されるアナログ信号をデジタル信号に 変換し、画像処理装置 150に出力する。
[0027] 画像処理装置(二次元コンボリューシヨン部) 150は、前段の AFE 130からくる撮像 画像のデジタル信号を入力し、二次元のコンボリューシヨン処理を施し、後段のカメラ 信号処理部(DSP) 160に渡す。
[0028] カメラ信号処理部(DSP) 160は、カラー補間、ホワイトバランス、 YCbCr変換処理、 圧縮、フアイリング等の処理を行い、画像表示メモリ 170への格納や画像モニタリング 装置 180への画像表示等を行う。
[0029] システム制御装置 200は、操作部 190などの操作入力を持ち、それらの入力に応 じて、システム全体の動作を決定し、光学系切替制御部 140、 AFE130、画像処理 装置 150、 DSP160等を制御し、システム全体の調停制御を司るものである。
[0030] 以下、本実施形態の光学系、画像処理装置の構成および機能について具体的に は説明する。
[0031] 図 4は、本実施形態に係るズーム光学系 110— 1, 110— 2の構成例を模式的に示 す図である。この図は広角側を示している。
[0032] 図 4のズーム光学系 110は、物体側 OBJSに配置された物体側レンズ 111と、撮像 素子 120に結像させるための結像レンズ 112と、物体側レンズ 111と結像レンズ 112 間に配置され、結像レンズ 112による撮像素子 120の受光面への結像の波面を変形 させる、たとえば 3次元的曲面を有する位相板 (Cubic Phase Plate)からなる光波 面変調素子(波面形成用光学素子: Wavefront Coding Optical Element)群 1 13を有する。また、物体側レンズ 111と結像レンズ 112間には図示しない絞りが配置 される。
なお、本実施形態においては、位相板を用いた場合について説明したが、本発明 の光波面変調素子としては、波面を変形させるものであればどのようなものでもよぐ 厚みが変化する光学素子 (たとえば、上述の 3次の位相板)、屈折率が変化する光学 素子 (たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚 み、屈折率が変化する光学素子 (たとえば、波面変調ハイブリッドレンズ)、光の位相 分布を変調可能な液晶素子 (たとえば、液晶空間位相変調素子)等の光波面変調素 子であればよい。
[0033] 図 4のズーム光学系 110は、デジタルカメラに用いられる 3倍ズーム系に光学位相 板 113aを挿入した例である。
図で示された位相板 113aは、光学系により収束される光束を規則正しく分散する 光学レンズである。この位相板 113aを挿入することにより、撮像素子 120上ではピン トのどこにも合わな 、画像を実現する。
換言すれば、位相板 113aによって深度の深 、光束 (像形成の中心的役割を成す) とフレアー(ボケ部分)が形成される。
この規則的に分光した画像をデジタル処理により、ピントの合った画像に復元する システムを波面収差制御光学系システム(WFCO : Wavefront Coding Optical system)といい、この処理を画像処理装置 150において行う。
[0034] ここで、 WFCOの基本原理について説明する。
図 5に示すように、被写体の画像 fが WFCO光学系 Hに入ることにより、 g画像が生 成される。
これは、次のような式で表される。
[0035] (数 1)
g = H水 f
ただし、 *はコンボリューシヨンを表す。
[0036] 生成された画像力 被写体を求めるためには、次の処理を要する。
[0037] (数 2)
f=H_1水 g
[0038] ここで、 Hに関するカーネルサイズと演算係数について説明する。
ズームポジションを ΖΡη, ΖΡη— 1 · · ·とする。また、それぞれの Η関数を Ηη, Ηη— 1、 ' "とする。
各々のスポット像が異なるため、各々の Η関数は、次のようになる。
[0039] [数 3]
Figure imgf000010_0001
(な, b、
一丄 = d, ex /
レ h、 V
[0040] この行列の行数および Zまたは列数の違 、をカーネルサイズ、各々の数字を演算 係数とする。
ここで、各々の H関数はメモリに格納しておいても構わないし、 PSFを物体距離の 関数としておき、物体距離によって計算し、 H関数を算出することによって任意の物 体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、 H 関数を物体距離の関数として、物体距離によって H関数を直接求めても構わない。 [0041] ところ力 図 6に示すような画角 20度程度の望遠レンズに位相板を挿入した光学系 を通った光のスポット形状は図 7および図 8に示されるように、その広角側と望遠側で は、異なったスポット形状を示す。ここで、 SPOT形状は PSFの簡易的な表示方法で あり、 SPOT形状が異なることは、 PSFが異なることを表す。このような、光学系の光 学倍率切替えによって異なるスポット像を持つ光学系においては図 5の Hが異なる。 一般的な撮像装置では適正なコンポルーシヨン演算を行うことができず、このスポッ ト形状のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光 学設計が要求された。しかしながら、これらの収差を無くす光学設計は光学設計の難 易度を増し,設計工数の増大、コストアップ、レンズの大型化の問題を引き起こしてい た。
[0042] そこで、本実施形態においては、図 3に示すように、倍率の異なる光学系 110—1, 110— 2からの像を撮像素子 120で受像して、画像処理装置 150に入力させ、光学 系に応じた変換係数を取得して、取得した変換係数をもって撮像素子 120からの分 散画像信号より分散のな 、画像信号を生成するように構成して 、る。
この図 3に示す光学系システムは、主に画像検査装置や自動制御用産業カメラ等 で有用であり、例えば様々な寸法の物体を検査できるようにズームレンズではなぐ 光学系自体を切換えることで光学倍率を切換できるシステムになって ヽる。
[0043] なお、本実施形態において、分散とは、上述したように、位相板 113aを挿入するこ とにより、撮像素子 120上ではピントのどこにも合わない画像を形成し、位相板 113a によって深度の深 、光束 (像形成の中心的役割を成す)とフレアー (ボケ部分)を形 成する現象を!、 、、像が分散してボケ部分を形成する振る舞 、から収差と同様の意 味合いが含まれる。したがって、本実施形態においては、収差として説明する場合も ある。
[0044] 次に、画像処理装置 150の構成および処理について説明する。
[0045] 画像処理装置 (IPR 150は、図 3に示すように、生(RAW)バッファメモリ(BUF.
MEM) 151、 2次元コンボリューシヨン演算部(2D'CONV'OPE) 152、記憶手段と してのカーネルデータ格納 ROM (KNEL 'ROM) 153、およびコンボリューシヨン制 御部(CONV'CTL) 154を有する。 [0046] コンボリューシヨン制御部 154は、コンボリューシヨン処理のオンオフ、画面サイズ、 カーネルデータの入れ替え等の制御を行 、、システム制御装置 200により制御され る。
[0047] また、カーネルデータ格納 ROM 153には、図 9に示すように予め用意されたそれ ぞれの光学系の PSFにより算出されたコンボリューシヨン用のカーネルデータ KDT が格納されており、システム制御装置 200によって光学系設定時に光学系切替制御 部 140から使用される光学系情報を取得し、コンボリューシヨン制御部 154を通じて カーネルデータを選択制御する。
[0048] 図 9の例では、カーネルデータ KDT— Aは光学倍率 M ( X I. 5) ,カーネルデータ KDT— Bは光学倍率 M ( X 5)、カーネルデータ KDT— Cは光学倍率 M ( X 10)に 対応したデータとなって 、る。
[0049] 図 10は、システム制御装置 200の光学系設定処理の概要を示すフローチャートで ある。
まず、光学系を確認し(ST1)、カーネルデータ KDTをセットする(ST2)。 そして、操作部 190の操作により光学系の切り替え指示がなされると(ST3)、光学 系切替制御部 140により光学ユニット 110の光学系の出力を切り替え、ステップ ST1 の処理を行う(ST4)。
[0050] なお、図 4や図 6の光学系は一例であり、本発明は図 4や図 6の光学系に対して用 いられるものとは限らない。また、スポット形状についても図 7および図 8は一例であり 、本実施形態のスポット形状は、図 7および図 8に示すものとは限らない。
また、図 9のカーネルデータ格納 ROMに関しても、光学倍率やそれぞれのカーネ ルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータ K DTの数についても 3個とは限らない。
[0051] なお、上述のように、光波面変調素子としての位相板 (Wavefront Coding optical ele ment)を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し 画像処理によって適正な収差のな!、画像信号を生成できるが、所定の焦点距離範 囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収 差のある画像信号となってしまう。 また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の 狭い範囲外の画像にぼけ味を出すことも可能になる。
[0052] 本実施形態においては、 WFCOを採用し、高精細な画質を得ることが可能で、しか も、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
[0053] 図 11A〜図 11Cは、撮像素子 120の受光面でのスポット像を示している。
図 11Aは焦点が 0. 2mmずれた場合(Defocus = 0. 2mm)、図 11Bは合焦点の 場合(Best focus)、図 11Cは焦点が 0. 2mmずれた場合(Defocus=—0. 2m m)の各スポット像を示して!/、る。
図 11A〜図 11C力ももわ力るように、本実施形態に係る撮像装置 100においては、 位相板 113aを含む波面形成用光学素子群 113によって深度の深 、光束 (像形成の 中心的役割を成す)とフレアー (ボケ部分)が形成される。
[0054] このように、本実施形態の撮像装置 100にお ヽて形成された 1次画像 FIMは、深度 が非常に深 、光束条件にして 、る。
[0055] 図 12Aおよび図 12Bは、本実施形態に係る撮像レンズ装置により形成される 1次画 像の変調伝達関数(MTF: Modulation Transfer Function)について説明する ための図であって、図 12Aは撮像レンズ装置の撮像素子の受光面でのスポット像を 示す図で、図 12Bが空間周波数 Sfreqに対する MTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナル プロセッサ(Digital Signal Processor)からなる画像処理装置 150の補正処理に 任せるため、図 12Aおよび図 12Bに示すように、 1次画像の MTFは本質的に低い値 になっている。
[0056] 画像処理装置 150は、上述したように、撮像素子 120による 1次画像 FIMを受けて 、 1次画像の空間周波数 Sfreqにおける MTFを 、わゆる持ち上げる所定の補正処理 等を施して高精細な最終画像 FNLIMを形成する。
[0057] 画像処理装置 150の MTF補正処理は、たとえば図 13の曲線 Aで示すように、本 質的に低い値になっている 1次画像の MTFを、空間周波数 Sfreqをパラメータとして エッジ強調、クロマ強調等の後処理にて、図 13中曲線 Bで示す特性に近づく(達する )ような補正を行う。
図 13中曲線 Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子 を用いずに波面を変形させな 、場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数 Sfreqのパラメータによる。
[0058] 本実施形態においては、図 13に示すように、光学的に得られる空間周波数 Sfreq に対する MTF特性曲線 Aに対して、最終的に実現した!/、MTF特性曲線 Bを達成す るためには、それぞれの空間周波数 Sfreqに対し、エッジ強調等の強弱を付け、元の 画像(1次画像)に対して補正をかける。
たとえば、図 13の MTF特性の場合、空間周波数 Sfreqに対するエッジ強調度の曲 線は、図 14に示すようになる。
[0059] すなわち、空間周波数 Sfreqの所定帯域内における低周波数側および高周波数側 でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うこと により、所望の MTF特性曲線 Bを仮想的に実現する。
[0060] このように、実施形態に係る撮像装置 100は、基本的に、 1次画像を形成する倍率 の異なる複数の光学系 110—1, 110— 2を含む光学ユニット 110および撮像素子 1 20と、 1次画像を高精細な最終画像に形成する画像処理装置 150とを有し、光学系 システムの中に、波面成形用の光学素子を新たに設ける力 またはガラス、プラスチ ックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像 の波面を変形し、そのような波面を CCDや CMOSセンサ力もなる撮像素子 120の撮 像面 (受光面)に結像させ、その結像 1次画像を、画像処理装置 150を通して高精細 画像を得る画像形成システムである。
本実施形態では、撮像素子 120による 1次画像は深度が非常に深い光束条件にし ている。そのために、 1次画像の MTFは本質的に低い値になっており、その MTFの 補正を画像処理装置 150で行う。
[0061] ここで、本実施形態における撮像装置 100における結像のプロセスを、波動光学的 に考察する。
物点の 1点力 発散された球面波は結像光学系を通過後、収斂波となる。そのとき 、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な 形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象 を取り扱う場合に便利である。
結像面における波動光学的 MTFを扱うとき、結像光学系の射出瞳位置における波 面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。そ の波動光学的強度分布は波動光学的振幅分布を 2乗して得られるが、その波動光 学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報 (波面収差)そのものから であることから、その光学系 110— 1, 110— 2を通して波面収差が厳密に数値計算 できれば MTFが計算できることになる。
[0062] したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意 に結像面における MTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主で あるが、まさに phase (位相、光線に沿った光路長)に増減を設けて目的の波面形成 を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図 11A〜図 11Cに 示す幾何光学的なスポット像力 わ力るように、光線の密な部分と疎の部分から形成 される。
この光束状態の MTFは空間周波数 Sfreqの低 、ところでは低 、値を示し、空間周 波数 Sfreqの高 、ところまでは何とか解像力は維持して 、る特徴を示して 、る。
すなわち、この低い MTF値 (または、幾何光学的にはこのようなスポット像の状態) であれば、エリアジングの現象を発生させな ヽこと〖こなる。
つまり、ローパスフィルタが必要ないのである。
そして、後段の DSP等力もなる画像処理装置 150で MTF値を低くしている原因の フレアー的画像を除去すれば良いのである。それによつて MTF値は著しく向上する
[0063] 以上説明したように、本実施形態によれば、 1次画像を形成する倍率の異なる複数 の光学系 110— 1, 110— 2を含む光学ユニット 110および撮像素子 120と、 1次画 像を高精細な最終画像に形成する画像処理装置 150とを含み、画像処理装置 150 において、光学系の倍率に応じて、コンボリューシヨン演算時に用いるカーネルサイ ズやその数値演算で用いられる係数を可変とし、操作部 190等の入力により知り、そ の光学系の倍率に応じた適性となるカーネルサイズや上述した係数を対応させること により、倍率やデフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高 いコンボリュ一シヨンによる画像復元が可能となる利点がある。
また、難度が高ぐ高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズ を駆動させること無ぐ撮影したい物体に対してピントが合い、背景はぼかすといった 、 V、わゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置 100は、デジタルカメラやカムコーダ一等の民 生機器の小型、軽量、コストを考慮されたズームレンズの WFCOに使用することが可 能である。
[0064] また、本実施形態においては、結像レンズ 112による撮像素子 120の受光面への 結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子 1 20による 1次画像 FIMを受けて、 1次画像の空間周波数における MTFをいわゆる持 ち上げる所定の補正処理等を施して高精細な最終画像 FNLIMを形成する画像処 理装置 150とを有することから、高精細な画質を得ることが可能となるという利点があ る。
また、光学系 110— 1, 110— 2の構成を簡単ィ匕でき、製造が容易となり、コスト低減 を図ることができる。
[0065] ところで、 CCDや CMOSセンサを撮像素子として用いた場合、画素ピッチから決ま る解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジン グのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。 画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性 能なレンズ系を必要とする。
[0066] しかし、上述したように、 CCDや CMOSセンサを撮像素子として用いた場合、エリ アジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からな るローパスフィルタを併用し、エリアジングの現象の発生を避けている。 このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタ そのものが結晶でできているため、高価であり、管理が大変である。また、光学系に 使用することは光学系をより複雑にして 、ると 、う不利益がある。
[0067] 以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわら ず、高精細な画像を形成するためには、一般的な撮像レンズ装置では光学系を複雑 にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローバ スフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象 の発生を避けることができ、高精細な画質を得ることができる。
また、図 1に示したような交換レンズ式の実施形態によれば、異なる光学系に切換 した場合であっても適切なコンボリューシヨン演算が行え、適切な画像復元を実現す ることができ、結果として、たとえば画像検査装置などに用いた場合、測定物自体の 寸法のバラツキ、測定物の設置位置のバラツキ等があっても、より適切に合焦した画 像を得ることができる。
[0068] なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レン ズよりに配置した例を示した力 絞りと同一あるいは絞りより結像レンズ側に配置して も上記と同様の作用効果を得ることができる。
[0069] また、図 4や図 6の光学系は一例であり、本発明は図 4や図 6の光学系に対して用 いられるものとは限らない。また、スポット形状についても図 7および図 8は一例であり 、本実施形態のスポット形状は、図 7および図 8に示すものとは限らない。
また、図 9のカーネルデータ格納 ROMに関しても、光学倍率やそれぞれのカーネ ルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータ の数についても 3個とは限らない。
産業上の利用可能性
[0070] 本発明の撮像装置および撮像方法は、ズーム位置またはズーム量を気にすること なぐレンズ設計を行うことができ、かつ精度の高い演算による画像復元が可能であ ることから、ズーム光学系を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯 情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等に適用可能である。

Claims

請求の範囲
[1] 交換可能な複数のレンズと、
光波面変調素子と、
前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被 写体収差像を撮像可能な撮像素子と、
前記撮像素子力ゝらの収差画像信号より収差のない画像信号を生成する変換部と、 前記一のレンズに応じた変換係数を取得する変換係数取得部と、を備え、 前記変換部は、前記変換係数取得部から得られた変換係数によって、画像信号の 変換行う
撮像装置。
[2] 前記複数のレンズに応じた変換係数をそれぞれ記憶する変換係数記憶部を更に 備え、
前記変換係数取得部は、前記変換係数記憶部より前記一のレンズに応じた変換係 数を取得する
請求項 1に記載の撮像装置。
[3] 前記変換係数取得部は、撮像装置に装着された前記一のレンズより変換係数を取 得する
請求項 1に記載の撮像装置。
[4] 前記変換係数は、被写体までの距離の応じた複数の係数を含み、
前記変換係数取得部は、被写体までの距離に相当する情報より当該複数の係数よ り一の係数を選択し、
前記変換部は、前記変換係数取得部により選択された一の係数によって、画像信 号の変換を行う
請求項 1に記載の撮像装置。
[5] 前記変換係数は前記被写体収差像のカーネルサイズを変数として含む
請求項 1に記載の撮像装置。
[6] レンズおよび光波面変調素子を含む複数の光学系と、
被写体収差像を撮像可能な撮像素子と、 前記複数の光学系のうち一つの光学系における前記レンズの内少なくとも一のレン ズおよび光波面変調素子を通過した被写体収差像を前記撮像素子に選択的に入 射する切替制御部と、
前記撮像素子力ゝらの収差画像信号より収差のない画像信号を生成する変換部と、 前記一のレンズに応じた変換係数を取得する変換係数取得部と、を備え、 前記変換部は、前記変換係数取得部から得られた変換係数によって、画像信号の 変換行う
撮像装置。
[7] 前記複数のレンズに応じた変換係数をそれぞれ記憶する変換係数記憶部を更に 備え、
前記変換係数取得部は、前記変換係数記憶部より前記一のレンズに応じた変換係 数を取得する
請求項 6に記載の撮像装置。
[8] 前記変換係数取得部は、撮像装置に装着された前記一のレンズより変換係数を取 得する
請求項 6に記載の撮像装置。
[9] 前記変換係数は、被写体までの距離の応じた複数の係数を含み、
前記変換係数取得部は、被写体までの距離に相当する情報より当該複数の係数よ り一の係数を選択し、
前記変換部は、前記変換係数取得部により選択された一の係数によって、画像信 号の変換を行う
請求項 6に記載の撮像装置。
[10] 前記変換係数は前記被写体収差像のカーネルサイズを変数として含む
請求項 6に記載の撮像装置。
[11] 前記複数の光学系はそれぞれ倍率が異なる
請求項 6に記載の撮像装置。
[12] 前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被 写体収差像を撮像素子により撮像するステップと、 前記一のレンズに応じた変換係数を取得するステップと、
前記取得した変換係数によって、前記撮像素子力 の収差画像信号より収差のな Vヽ画像信号を生成するステップと、
を含む撮像方法。
PCT/JP2006/306478 2005-03-30 2006-03-29 撮像装置および撮像方法 WO2006106737A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/910,225 US7812296B2 (en) 2005-03-30 2006-03-29 Imaging apparatus and method for generating an aberration free image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-100128 2005-03-30
JP2005100128 2005-03-30
JP2005-217804 2005-07-27
JP2005217804A JP2006311473A (ja) 2005-03-30 2005-07-27 撮像装置および撮像方法

Publications (1)

Publication Number Publication Date
WO2006106737A1 true WO2006106737A1 (ja) 2006-10-12

Family

ID=37073300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/306478 WO2006106737A1 (ja) 2005-03-30 2006-03-29 撮像装置および撮像方法

Country Status (3)

Country Link
US (1) US7812296B2 (ja)
JP (1) JP2006311473A (ja)
WO (1) WO2006106737A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188894A (ja) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp 撮像装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5103637B2 (ja) * 2008-09-30 2012-12-19 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
US9124797B2 (en) * 2011-06-28 2015-09-01 Microsoft Technology Licensing, Llc Image enhancement via lens simulation
US9137526B2 (en) 2012-05-07 2015-09-15 Microsoft Technology Licensing, Llc Image enhancement via calibrated lens simulation
US10007098B2 (en) 2013-10-09 2018-06-26 Northrop Grumman Systems Corporation Optical systems and methods
JP6300673B2 (ja) * 2014-07-16 2018-03-28 オリンパス株式会社 位相変調素子調整システムおよび位相変調素子調整方法
WO2016056148A1 (ja) * 2014-10-08 2016-04-14 オリンパス株式会社 結像光学系、照明装置および観察装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (ja) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd 内視鏡システム
JP2000098301A (ja) * 1998-09-21 2000-04-07 Olympus Optical Co Ltd 拡大被写界深度光学系
JP2000101845A (ja) * 1998-09-23 2000-04-07 Seiko Epson Corp 階層的エッジ検出及び適応的長さの平均化フィルタを用いたスクリ―ンされた画像におけるモアレの改善された低減
JP2000275582A (ja) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd 被写界深度拡大システム
JP2001281554A (ja) * 2000-03-29 2001-10-10 Nikon Corp 顕微鏡用デジタルカメラ及び該カメラを備える顕微鏡システム
JP2003235794A (ja) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd 電子内視鏡システム
JP2003241078A (ja) * 2002-02-22 2003-08-27 Canon Inc 光学機器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6911638B2 (en) * 1995-02-03 2005-06-28 The Regents Of The University Of Colorado, A Body Corporate Wavefront coding zoom lens imaging systems
US6021005A (en) * 1998-01-09 2000-02-01 University Technology Corporation Anti-aliasing apparatus and methods for optical imaging
US6069738A (en) * 1998-05-27 2000-05-30 University Technology Corporation Apparatus and methods for extending depth of field in image projection systems
US6421656B1 (en) * 1998-10-08 2002-07-16 International Business Machines Corporation Method and apparatus for creating structure indexes for a data base extender
US6642504B2 (en) * 2001-03-21 2003-11-04 The Regents Of The University Of Colorado High speed confocal microscope
US6525302B2 (en) * 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (ja) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd 内視鏡システム
JP2000098301A (ja) * 1998-09-21 2000-04-07 Olympus Optical Co Ltd 拡大被写界深度光学系
JP2000101845A (ja) * 1998-09-23 2000-04-07 Seiko Epson Corp 階層的エッジ検出及び適応的長さの平均化フィルタを用いたスクリ―ンされた画像におけるモアレの改善された低減
JP2000275582A (ja) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd 被写界深度拡大システム
JP2001281554A (ja) * 2000-03-29 2001-10-10 Nikon Corp 顕微鏡用デジタルカメラ及び該カメラを備える顕微鏡システム
JP2003235794A (ja) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd 電子内視鏡システム
JP2003241078A (ja) * 2002-02-22 2003-08-27 Canon Inc 光学機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188894A (ja) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp 撮像装置

Also Published As

Publication number Publication date
US7812296B2 (en) 2010-10-12
US20090251588A1 (en) 2009-10-08
JP2006311473A (ja) 2006-11-09

Similar Documents

Publication Publication Date Title
JP4712631B2 (ja) 撮像装置
JP4749959B2 (ja) 撮像装置、並びにその製造装置および製造方法
JP4663737B2 (ja) 撮像装置およびその画像処理方法
JP4749984B2 (ja) 撮像装置、並びにその製造装置および製造方法
JP4818957B2 (ja) 撮像装置およびその方法
WO2006022373A1 (ja) 撮像装置および撮像方法
JP2008268937A (ja) 撮像装置および撮像方法
JP2007322560A (ja) 撮像装置、並びにその製造装置および製造方法
US8462213B2 (en) Optical system, image pickup apparatus and information code reading device
JP2008048293A (ja) 撮像装置、およびその製造方法
JP2008085697A (ja) 撮像装置、並びにその製造装置および製造方法
JP2007300208A (ja) 撮像装置
WO2006106737A1 (ja) 撮像装置および撮像方法
JP4364847B2 (ja) 撮像装置および画像変換方法
JP2008245266A (ja) 撮像装置および撮像方法
JP2009086017A (ja) 撮像装置および撮像方法
JP2006094468A (ja) 撮像装置および撮像方法
JP4818956B2 (ja) 撮像装置およびその方法
JP2008245265A (ja) 撮像装置、並びにその製造装置および製造方法
JP5197784B2 (ja) 撮像装置
JP2008058540A (ja) 撮像装置、および画像処理方法
JP4722748B2 (ja) 撮像装置およびその画像生成方法
JP2009134023A (ja) 撮像装置および情報コード読取装置
JP2009008935A (ja) 撮像装置
JP4948967B2 (ja) 撮像装置、並びにその製造装置および製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11910225

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06730426

Country of ref document: EP

Kind code of ref document: A1