WO2009119838A1 - 光学系、撮像装置および情報コード読取装置 - Google Patents

光学系、撮像装置および情報コード読取装置 Download PDF

Info

Publication number
WO2009119838A1
WO2009119838A1 PCT/JP2009/056376 JP2009056376W WO2009119838A1 WO 2009119838 A1 WO2009119838 A1 WO 2009119838A1 JP 2009056376 W JP2009056376 W JP 2009056376W WO 2009119838 A1 WO2009119838 A1 WO 2009119838A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical system
wavefront modulation
optical
light wavefront
Prior art date
Application number
PCT/JP2009/056376
Other languages
English (en)
French (fr)
Inventor
佑介 林
丈也 杉田
直人 大原
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US12/934,796 priority Critical patent/US8462213B2/en
Priority to JP2010505866A priority patent/JPWO2009119838A1/ja
Publication of WO2009119838A1 publication Critical patent/WO2009119838A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • G02B13/005Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having spherical lenses only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • G02B13/006Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element at least one element being a compound optical element, e.g. cemented elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/009Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras having zoom function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10831Arrangement of optical elements, e.g. lenses, mirrors, prisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • H04N25/6153Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF] for colour signals

Definitions

  • the present invention relates to an imaging apparatus and an information code reading apparatus using the imaging apparatus. More specifically, the present invention realizes an image having a deep depth of field even when an optical transfer function (OTF) or a point spread function (PSF) changes.
  • OTF optical transfer function
  • PSF point spread function
  • the present invention relates to an imaging device that can handle the information and an information code reader using the same.
  • the present invention also relates to an optical system applied to the imaging apparatus.
  • CMOS Complementary Metal Oxide Semiconductor
  • an imaging lens device using an optical system including a plurality of lenses and a CCD or CMOS sensor as an imaging device optically captures an image of a subject by the optical system, and the captured image is an electrical signal by the imaging device.
  • an imaging lens device is used for a digital camera, a video camera, a digital video unit, a personal computer, a mobile phone, a personal digital assistant (PDA), an image inspection device, an industrial camera for automatic control, and the like. It has been.
  • FIG. 27 is a diagram schematically illustrating the configuration of the imaging lens device and the ray trajectory.
  • the imaging lens device 1 includes an optical system 2 having a plurality of lenses and an imaging element 3 such as a CCD or CMOS sensor.
  • the imaging surface of the imaging device 3 is illustrated as being located at the in-focus position BFP of the optical system 2.
  • the optical system 2 includes lenses 21 and 22 positioned on the object side OBJS, an aperture stop 23, and an imaging lens 24.
  • the object-side lenses 21 and 22, the aperture stop 23, and the imaging lens 24 are sequentially arranged from the lens object-side OBJS toward the image sensor 3 side.
  • FIG. 28A to 28C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.
  • FIG. 28A, 28B, and 28C the horizontal axis indicates the center of gravity, and the vertical axis indicates the object scene.
  • FIG. 28 (B) shows a spot image at the time of focusing.
  • FIGS. 28 (A) and 28 (C) are states in which 0.2 mm is deviated from the focused state to positive (+) negative ( ⁇ ). A spot image is shown.
  • Patent Document 6 proposes an automatic exposure control system for a digital camera that performs filter processing using an optical transfer function (OTF).
  • OTF optical transfer function
  • a device having an image input function using a CCD, a CMOS sensor or the like it is extremely useful to read a close still image close to an imaging device such as a barcode together with a desired image such as a landscape.
  • a technique is known in which a lens in an optical system is moved to focus on an autofocus system.
  • a method of applying a depth extension technique is known.
  • this depth expansion technology for example, in a camera, a technology is known in which the depth of field is expanded by adjusting the aperture stop to reduce the F number to a fixed focus with a fixed focus.
  • the point spread function (PSF: point spread function) when the above-described phase plate is inserted into the optical system is generally assumed to be constant. is there.
  • PSF point spread function
  • the image after the image restoration processing in the signal processing means becomes unfavorable as it becomes out of focus out of focus.
  • the reason is that if the OTF at the time of out-focus is constant, a good restoration result is obtained, but as a practical problem, the OTF decreases. That is, OTF changes. Therefore, even if image restoration processing is performed by convolution calculation or the like in the signal processing means, it is difficult to completely restore an accurate image because of the nature that the processing originally blurs and restores the image. As a result, it is difficult to obtain a good restored image with the above technique.
  • phase modulation elements used in depth-enhanced optical systems are difficult to mitigate the effects of aberrations on the periphery of the screen due to phase modulation.
  • the difference in size tends to increase.
  • the depth extension optical system proposed in the above document has a disadvantage that it is difficult to obtain uniform image quality over the entire screen.
  • an optical system that can provide an image suitable for image restoration processing.
  • an optical system it is desired to provide an optical system that can simplify the configuration of the optical system and can reduce the price.
  • an imaging device that can reduce the difference in size of the spot image over the entire screen, obtain uniform image quality, and obtain a good restored image. Is desired.
  • an imaging apparatus that employs the above optical system, has a simple apparatus configuration, and can be reduced in price.
  • an optical element having a light wavefront modulation function is used as an optical system that provides a captured image that can be subjected to image restoration processing in the signal processing means while avoiding the complexity of the configuration of the optical system.
  • An optical element having a light wavefront modulation function has the performance of reducing the change in the optical transfer function (OTF) of the entire screen due to a difference in subject distance, and the absolute focal length of the optical element having a light wavefront modulation function. The value is larger than the absolute value of the focal length of the entire optical system.
  • An image pickup apparatus of the present invention includes an optical system having the above-described optical element having a light wavefront modulation function, and an image pickup element that is disposed at a focal length of the optical system and picks up an image of a subject that has passed through the optical system. .
  • An optical element having a light wavefront modulation function has a performance of reducing a change in the optical transfer function of the entire screen due to a difference in subject distance.
  • the absolute value of the focal length of the optical element having the light wavefront modulation function is larger than the absolute value of the focal length of the entire optical system.
  • the optical element having a light wavefront modulation function includes a light wavefront modulation element formed on a light emitting surface or a light incident surface of a lens.
  • the difference between the shape when the light wavefront modulation element is formed on the lens and the shape when the light wavefront modulation element is not formed on the lens is defined as a “phase shape”
  • the light wave The shape of the optical element having a surface modulation function is formed so that the phase shape is rotationally symmetric around the optical axis of the optical system and monotonously increases or decreases monotonously from the optical axis toward the periphery. ing.
  • the optical system includes an aperture stop, and the aperture stop is disposed in the vicinity of the exit side of the light wavefront modulation element.
  • the optical element having the light wavefront modulation function generates a dispersed image in which the subject image is dispersed in the arrangement portion of the imaging element.
  • the imaging apparatus performs signal processing on the dispersed image of the subject from the imaging element that has captured the dispersed image dispersed by the optical element having the light wavefront modulation function, and restores the image to a non-dispersed image. It further has a part. More preferably, the image processing unit performs a convolution operation process to restore the image without the dispersion.
  • an information code reading device that optically reads an information code, which has the above imaging device, can read an information code by the imaging device, and obtain an image without dispersion.
  • an optical system capable of providing an image suitable for image restoration processing can be provided. Further, according to the present invention, it is possible to provide an optical system capable of simplifying the configuration of the optical system and reducing the cost. Furthermore, according to the present invention, there is provided an imaging apparatus that employs the optical system described above, can reduce the difference in the size of the spot image over the entire screen, can obtain uniform image quality, and can obtain a good restored image. could be provided. In addition, according to the present invention, it is possible to provide an imaging apparatus that employs the above-described optical system, has a simple apparatus configuration, and can reduce the price. Furthermore, according to the present invention, an information code reading device using the imaging device can be provided.
  • FIG. 1 is an external view showing an example of an information code reading apparatus according to an embodiment of the present invention.
  • 2A to 2C are diagrams showing examples of information codes to be read by the information code reading device of FIG.
  • FIG. 3 is a block diagram illustrating a configuration example of an imaging apparatus applied to the information code reading apparatus of FIG.
  • FIG. 4 is an enlarged view of the arrangement of the optical system and the image sensor illustrated in FIG.
  • FIG. 5 (A) is a diagram showing the spherical aberration of the optical system having no optical wavefront modulation function
  • FIG. 5 (B) is a diagram showing the spherical aberration of the optical system having the optical wavefront modulation function illustrated in FIG. is there.
  • FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system
  • FIG. 6B is a diagram showing the “surface shape” of the light wavefront modulation surface of the optical system.
  • FIG. 7 is a diagram for explaining FIGS. 6 (A) and 6 (B).
  • FIG. 8 is a diagram showing a defocus change of a spot image of an optical system that does not have a light wavefront modulation function.
  • FIG. 9 is a diagram showing a defocus change of a spot image of an optical system having an optical wavefront modulation function without an inflection point.
  • FIG. 8 is a diagram showing a defocus change of a spot image of an optical system having an optical wavefront modulation function without an inflection point.
  • FIG. 10 is a diagram showing a defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element included in the optical system is smaller than the absolute value of the focal length of the entire optical system.
  • FIG. 11 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element included in the optical system is larger than the absolute value of the focal length of the entire optical system.
  • FIG. 12 is a diagram for explaining the principle of the depth extension optical system (WFCO).
  • FIG. 13 is a diagram for explaining the MTF correction processing in the image processing apparatus illustrated in FIG.
  • FIG. 14 is a diagram for specifically explaining the MTF correction processing in the image processing apparatus illustrated in FIG. FIG.
  • FIG. 15 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
  • FIG. 16 is a diagram illustrating the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system having the light wavefront modulation element according to the present embodiment.
  • FIG. 17 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.
  • FIG. 18 is a diagram illustrating optical magnification as an example of kernel data stored in the ROM.
  • FIG. 19 is a diagram showing an F number of an aperture stop as an example of a kernel stored in a ROM.
  • FIG. 20 is a diagram showing object distance information as another example of kernel data stored in the ROM.
  • FIG. 21 is a flowchart showing an outline of the optical system setting process in the control apparatus illustrated in FIG.
  • FIG. 22 is a diagram showing a first configuration example of signal processing means in the image signal processing apparatus illustrated in FIG.
  • FIG. 23 is a diagram showing a second configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
  • FIG. 24 is a diagram showing a third configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
  • FIG. 25 is a diagram showing a fourth configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
  • FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that performs image processing by combining subject distance information and exposure information.
  • FIG. 27 is a diagram schematically illustrating the configuration of the imaging lens device and the ray trajectory.
  • FIGS. 28A to 28C are views showing spot images on the light receiving surface of the imaging element of the imaging lens apparatus illustrated in FIG. 27, and FIG. 28A is focused on the positive (+) side.
  • FIG. 28B is a diagram showing each spot image at the time of in-focus
  • FIG. 28C is a diagram showing when the focus is shifted to the negative ( ⁇ ) side. It is a figure which shows each spot image of.
  • DESCRIPTION OF SYMBOLS 100 Information code reading device, 110 ... Main body (imaging device), 121 ... Code to be read, 200 ... Imaging device, 210 ... Optical system, 211-213 ... First to third lenses, 213a ... Light wavefront modulation surface, 214 ... Aperture stop, 215 ... Fourth lens, 220 ... Image sensor, 230 ... Analog front end unit, 240 ... Image processing device, 242 ... Two-dimensional convolution operation unit, 243 ... Kernel data storage ROM, 244 ... Convolution Control unit, 250... Camera signal processing unit, 280... Operation unit, 290.
  • an imaging apparatus will be described as an embodiment of the present invention, and an optical system applied to the imaging apparatus will be described.
  • Such an imaging apparatus can be applied to the information code reading apparatus of the present embodiment.
  • FIG. 1 is an external view showing an example of an information code reading apparatus according to an embodiment of the present invention.
  • FIGS. 2A to 2C are diagrams showing examples of information codes to be read by the information code reader of FIG.
  • FIG. 3 is a block diagram illustrating a configuration example of an imaging apparatus applicable to the information code reading apparatus of FIG.
  • the information code reading device 100 has a reflectance printed on the reading object 120, for example, shown in any of FIGS. 2 (A) to (C). It is a device that can read the information code 121 such as a different symbol or code.
  • the information code reading apparatus 100 has a main body 110 and a cable 111.
  • the main body 110 is connected to a processing device 140 such as an electronic register via a cable 111.
  • a processing device 140 such as an electronic register via a cable 111.
  • a one-dimensional barcode 122 such as a JAN code shown in FIG. 2A and a two-dimensional code 49 such as a stack-type CODE 49 shown in FIG.
  • a barcode 123 or a two-dimensional barcode 123 such as a matrix-type QR code shown in FIG.
  • the imaging apparatus 200 has an optical system 210.
  • the optical system 210 includes an optical element having a light wavefront modulation function (hereinafter referred to as a light wavefront modulation element).
  • the light wavefront modulation function refers to a function of regularly dispersing and emitting a light beam incident on an optical element.
  • the imaging apparatus 200 can generate an image with a deep depth of field by regularly dispersing the light flux by the light wavefront modulation element and restoring the image dispersed by the digital signal processing.
  • a one-dimensional bar code 122 such as a JAN code illustrated in FIG. 2A and a two-dimensional such as a QR code illustrated in FIG.
  • the information code such as the bar code 123 can be accurately read with high accuracy.
  • a wavefront aberration control optical system or a depth extension optical system WFCO: Wave Front Coding Optical System
  • the optical system is different from a normal optical system as described below.
  • the imaging device 200 incorporated in the information code reading device 100 includes an optical system 210, an imaging element 220, an analog front end unit (AFE) 230, an image processing device 240, camera signal processing. Unit 250, image display memory 260, image monitoring device 270, operation unit 280, and control device 290.
  • the output signal FNLIM of the image processing device 240 or the output signal of the camera signal processing unit 250 is sent to the processing device 140 such as an electronic register via the cable 111.
  • Optical system 4 is a diagram showing a basic configuration of an imaging lens unit which constitutes an optical system according to the present embodiment of the optical system 210 illustrated in FIG.
  • FIG. 4 shows a configuration of the optical system 210, particularly illustrating the case where the light wavefront modulation surface 213a is disposed adjacent to the aperture stop 214.
  • the optical system 210 provides an image of the subject object OBJ to the image sensor 220.
  • the optical system 210 includes a first (plano-concave) lens 211, a second (biconvex) lens 212, and a third (biconcave) in order along the optical axis 0-0 from the object side OBJ toward the image sensor 220.
  • a lens 213, an aperture stop 214, a fourth (plano-concave) lens 215, and a fifth (biconvex) lens 216 are arranged.
  • the fourth lens 215 and the fifth lens 216 are configured as one thick plano-convex lens, with the convex surface on the incident side of the fifth lens joined to the concave surface on the output side of the fourth lens 215.
  • the lens unit of the optical system 210 of the present embodiment is configured to include the cemented lenses (215, 216) that function as the imaging lens.
  • an optical wavefront modulation surface 213 a that modulates the wavefront of light incident on the lens 213 is formed on the exit surface of the lens 213.
  • a lens having a light wavefront modulation element (not shown) having a light wavefront modulation function corresponding to the light wavefront modulation surface 213a is adjacent to the aperture stop 214.
  • the optical system 210 includes an element having a function of modulating the light wavefront.
  • the light wavefront modulation function refers to a function of regularly dispersing and emitting a light beam incident on an optical element.
  • a lens 213 provided with a light wavefront modulation surface 213a will be representatively described as an element having a function of modulating the light wavefront.
  • a lens 213 provided with a light wavefront modulation surface 213 a in the vicinity of the aperture stop 214 is used as the optical system 210.
  • the light wavefront modulation surface 213a is formed on the concave surface on the emission side of the plano-concave lens 213, and the aperture stop 214 is disposed adjacent to the emission side.
  • the change in the optical transfer function (OTF) according to the object distance is made smaller than that of the optical system having the lens 213 that does not include the light wavefront modulation surface 213a.
  • the absolute value of the focal point (facal point) of the lens 213 having the light wavefront modulation surface 213a is larger than the absolute value of the focal length of the entire optical system 210.
  • the absolute value of the focal length of the lens 213 having the light wavefront modulation surface 213a is larger than the absolute value of the focal length of the entire optical system 210, the influence on the peripheral portion of the screen due to the light wavefront modulation is mitigated. A uniform image quality can be obtained on the entire screen regardless of the center and the periphery of the screen. The reason will be described later.
  • phase shape A difference between the shape of the light wavefront modulation surface 213a when the phase shape light wavefront modulation function is provided and the shape of the lens when the light wavefront modulation function is not provided is referred to as a “phase shape”.
  • the light wavefront modulation surface 213a formed on the exit-side concave surface of the lens 213 has a “phase shape” that is rotationally symmetric about the optical axis OO and has an optical axis O ⁇ . It is formed so as to monotonously increase or decrease monotonously from the central portion of O toward the peripheral portion of the screen.
  • the phase shape rotationally symmetric with respect to the optical axis OO By making the phase shape rotationally symmetric with respect to the optical axis OO, the light wavefront modulation surface 213a, the light wavefront modulation element, or the phase modulation element can be easily manufactured.
  • the mounting accuracy in the rotation direction around the lens is not strict, and the influence of reflection is small, and the difference in contrast depending on the direction of the image is eliminated.
  • the phase shape monotonously increase or monotonously decrease from the central portion of the optical axis OO toward the peripheral portion the change in OTF according to the object distance can be made extremely small.
  • an optical wavefront modulation surface (for example, a phase modulation surface) that makes this “phase shape” monotonically increase or decrease without having an inflection point from the center portion of the optical axis OO toward the peripheral portion of the screen will be described. To do.
  • the “phase shape” of the light wavefront modulation surface is rotationally symmetric with respect to the optical axis OO.
  • the spherical wave SA is intentionally generated larger than that of a normal optical system having no light wavefront modulation element.
  • the change in OTF corresponding to the object distance can be made smaller than in a normal optical system that does not have a modulation element.
  • the phase shape of the light wavefront modulation surface 213a (phase modulation surface) is formed so as not to have an inflection point from the central portion of the optical axis OO to the peripheral portion of the screen, and to increase or decrease monotonously.
  • FIG. 5A shows the spherical aberration before the light wavefront modulation surface is formed
  • FIG. 5B shows the spherical aberration after the light wavefront modulation surface is formed.
  • the optical system 210 can be a high-performance fixed focus lens with a small range of spherical aberration. As a result, the final output image signal of the imaging apparatus 200 can be made highly accurate.
  • FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system.
  • FIG. 6B is a diagram showing the “surface shape” of the light wavefront modulation surface of the optical system.
  • the horizontal axis indicates the distance in the optical axis direction.
  • the numerical value on the vertical axis indicates the position of the focal point with the exit pupil diameter normalized to 1.
  • the line indicated by the curve A indicates the phase shape when the optical system does not have the light wavefront modulation element
  • the line indicated by the curve C indicates the phase shape when the optical system has the light wavefront modulation element. Show.
  • FIG. 6A the line indicated by the curve A indicates the phase shape when the optical system does not have the light wavefront modulation element
  • the line indicated by the curve C indicates the phase shape when the optical system has the light wavefront modulation element. Show.
  • FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system.
  • FIG. 6B is a diagram
  • the line indicated by the curve AA indicates the surface shape when the optical system does not have the light wavefront modulation element
  • the line indicated by the curve CC indicates the surface shape when the optical system has the light wavefront modulation element.
  • FIG. 7 is a diagram showing the relationship between the effective imaging area ID of the image sensor and the image cycle IC as a specific example.
  • the coordinates of the center spot position are (0, 0)
  • the coordinates of the upper end of the image sensor ID are (0, 0.6)
  • the coordinates of the vertical upper end are (0, 1.0).
  • the absolute value of the focal length f phase of the light wavefront modulation surface 213a formed on the lens 213 and functioning as the light wavefront modulation element is the absolute value of the focal length ftotal of the entire optical system 210.
  • the absolute value of the focal length f phase of the lens 213 including the optical wavefront modulation surface 213a or the optical wavefront modulation element is larger than the absolute value of the focal length ftotal of the entire optical system 210. That is, / f phase /> / f total /.
  • the power at the light wavefront modulation surface 213 a formed on the lens 213 that functions as a light wavefront modulation element is made weaker than the overall power of the optical system 210.
  • the power of the lens 213 provided with the light wavefront modulation surface 213a is made weaker than the power of the entire optical system 210.
  • a uniform OTF can be obtained from the center of the image (optical axis OO) to the periphery of the image.
  • the absolute value of the focal length f phase of the optical wavefront modulation surface 213a (phase modulation surface) has the following relationship with respect to the focal length f total of the entire optical system 210.
  • Equation 1
  • f phase shows the focal distance of the lens 213 provided with the light wavefront modulation surface 213a
  • f total indicates the focal length of the entire optical system 210.
  • the absolute value of the focal length f phase of the light wavefront modulation element means the absolute value of the focal length of the lens 213 having the light wavefront modulation surface or the light wavefront modulation surface 213a.
  • the phase of the light wavefront modulation surface is monotonously increasing or decreasing monotonically without the inflection point from the center (optical axis OO) to the periphery of the screen, so that the change in OTF according to the object distance is extremely small. can do. That is, in FIG. 6, the optical system having the surface shape indicated by the curve CC than the surface shape indicated by the curve BB can reduce the change in OTF. Further, by making the absolute value of the focal length f phase of the light wavefront modulation surface larger than the focal length f total of the entire optical system 210, it is uniform from the center portion (optical axis OO) of the image to the peripheral portion of the image. OTF can be used.
  • the lens 213 provided with the light wavefront modulation surface 213a of the present embodiment is formed in a rotationally symmetric shape with the optical axis OO as the center, so that the light wavefront is formed on the lens barrel that accommodates the lens of the optical system 210.
  • the modulation element When the modulation element is incorporated, it is not necessary to adjust the position by rotating it around the optical axis OO, and the lens having the light wavefront modulation surface 213a can be arranged in the same manner as other lenses. The manufacturing process becomes easy. Further, according to the present embodiment, it is possible to extend the depth of field while suppressing the generation of false images and maintaining a natural blurred image.
  • Example of Spot Image With reference to FIGS. 8 to 11, a spot image according to the presence or absence of the light wavefront modulation element 213a and the presence or absence of an inflection point of the phase shape in the optical system 210 will be considered. 8 to 11, the vertical axis represents the defocus amount, and the horizontal axis represents the image height.
  • FIG. 8 is a diagram showing a defocus change of a spot image of a general optical system having no light wavefront modulation element. Since the optical system of this example does not have a light wavefront modulation element, the spot image changes greatly according to the object distance.
  • FIG. 9 is a diagram showing a defocus change of a spot image of an optical system including an optical wavefront modulation element having no inflection point in the phase shape.
  • the change of the spot image according to the object distance is small due to the action of the light wavefront modulation element.
  • FIG. 10 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element is smaller than the absolute value of the focal length of the entire optical system.
  • the absolute value of the focal length of the light wavefront modulation element is smaller than the absolute value of the focal length of the entire optical system, the difference in the size of the spot image is large between the center of the screen and the periphery of the screen.
  • FIG. 11 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element is larger than the absolute value of the focal length of the entire optical system.
  • the focal length of the light wavefront modulation element since the focal length of the light wavefront modulation element is large, the difference in the size of the spot image between the center of the screen and the periphery of the screen is small.
  • the absolute value of the focal length f phase of the optical wavefront modulation surface (or the lens 213 having the optical wavefront modulation surface) is smaller than the absolute value of the focal length ftotal of the entire optical system 210, as shown in FIG. It is difficult to mitigate the influence on the periphery of the screen, and there is a large difference in the size of the spot image between the center of the screen and the periphery of the screen. In this case, it is difficult to obtain uniform image quality over the entire screen.
  • the absolute value of the focal length f phase of the light wavefront modulation surface (or the lens having the light wavefront modulation surface) is larger than the absolute value of the focal length ftotal of the entire optical system, according to the present embodiment. As shown in FIG.
  • the influence of the light wavefront modulation on the periphery of the screen can be alleviated, and the difference in the size of the spot image between the center of the screen and the periphery of the screen is small.
  • This embodiment follows such an example, and in this embodiment, uniform image quality can be obtained on the entire screen regardless of the center in the screen and the periphery of the screen.
  • the characteristic configuration, function, and effect of the optical system 210 having the light wavefront modulation function which has been discussed by exemplifying the configuration in FIG.
  • the configuration and functions of other components such as the image sensor and the image processing unit will be described.
  • the image pickup device 220 illustrated in FIG. 3 is, for example, a glass parallel plane plate (cover glass) 221 from the fifth lens 216 side in the optical system 210 as schematically shown in FIG.
  • the image pickup surface 222 of the image pickup element made up of a CCD or CMOS sensor is arranged in order.
  • Light from the subject OBJ via the imaging optical system 210 is imaged on the imaging surface 222 of the imaging element 220.
  • the dispersed image of the subject picked up by the image pickup device 220 is not focused (not focused) on the image pickup surface 222 of the image pickup device 220 by the light wavefront modulation surface 213a in the optical system 210. Is an image formed.
  • the imaging apparatus 200 is configured such that the image processing apparatus 240 can supplement the resolution of the distance between objects by applying a filtering process to the image.
  • the optical system 210 will be described in detail later.
  • an image captured by the optical system 210 is formed on the imaging surface 222 of the imaging device 220, and the imaging device 220 uses the primary image information of the imaging as a primary image signal FIM of an electrical signal. It consists of a CCD or CMOS sensor that outputs to an image processing device 240 via an analog front end (AFE) unit 230.
  • AFE analog front end
  • the CCD is described by taking the image sensor 220 as an example.
  • the AFE unit 230 includes a timing generator 231 and an analog / digital (A / D) converter 232.
  • the timing generator 231 generates a drive timing signal for the CCD of the image sensor 220 using a CCD based on a control signal S250 from a camera signal processing unit 250, which will be described later, and outputs it to the image sensor 220.
  • the A / D converter 232 converts the analog signal input from the image sensor 220 into a digital signal and outputs the digital signal to the image processing device 240.
  • the image processing apparatus 240 constituting a part of the signal processing unit of the present invention is preferably realized using a computer.
  • the image processing device 240 inputs a digital signal of a captured image in the image sensor 220 input from the previous stage AFE 230, performs a two-dimensional convolution calculation process, and sends the result to the subsequent camera signal processing unit (DSP) 250. Output.
  • the image processing device 240 performs filter processing on the OTF in accordance with the exposure information RP input from the control device 290.
  • the aperture information is included as the exposure information RP.
  • the image processing device 240 performs a filtering process, for example, a convolution filtering process, so as to improve the response of the OTF and eliminate the change of the OTF according to the object distance with respect to a plurality of images captured by the image sensor 220.
  • a filtering process for example, a convolution filtering process
  • the image processing apparatus 240 has a function of performing noise reduction filtering in the initial stage. Further, the image processing apparatus 240 has a function of performing filter processing on the OTF and performing processing for improving contrast. The processing of the image processing device 240 will be described in further detail later.
  • the camera signal processing unit 250 can be configured using a computer, but is preferably configured with a digital signal processor (DSP) capable of high-speed arithmetic processing.
  • DSP digital signal processor
  • the camera signal processing unit 250 performs, for example, color interpolation, white balance, conversion processing between luminance Y and color difference CbCr, image compression, filing, etc., storage in the memory 260, image display on the image monitoring device 270, and the like. I do.
  • the control device 290 is configured using, for example, a computer, performs exposure control by controlling the aperture stop 214, and determines the entire operation of the imaging device 200 in accordance with a user operation input from the operation unit 280 or the like.
  • the AFE 230, the image processing device 240, the camera signal processing unit 250, the diaphragm 214 in the optical system 210, and the like are controlled, and arbitration and control of each element of the entire imaging device 200 is controlled.
  • the filter process in the image processing apparatus 240 will be described.
  • the light beam converged by the optical system 210 is regularly dispersed from the optical axis OO toward the periphery by the lens 213 on which the light wavefront modulation surface 213a functioning as a light wavefront modulation element is formed.
  • the dispersion of the light flux by inserting the light wavefront modulation element 213a into the optical system 210 realizes an image that is out of focus anywhere on the imaging surface 222 of the imaging element 220.
  • the optical system 210 having the light wavefront modulation surface 213a forms a light beam having a deep focal depth, which plays a central role in image formation, and a flare (blurred portion).
  • this regularly dispersed image generated by the optical system 210 having the lens 213 (light wavefront modulation element) on which the light wavefront modulation surface 213a is formed is digitally processed in the optical system 210.
  • Means for restoring the focused image without moving the lens is called a wavefront aberration control optical system or depth extension optical system (WFCO), and the restoration processing is performed in the image processing device 240.
  • WFCO depth extension optical system
  • H ⁇ 1 means an inverse function of the function H.
  • each H function is as follows when conversion coefficients a, b, c, d, e, and f are used.
  • each H function may be stored in a memory in the image processing apparatus 240.
  • the PSF is set as a function of the object distance
  • the coefficients a, b, c, d, e, and f are calculated according to the object distance
  • the H function is calculated by applying the coefficients a, b, c, d, e. You may enable it to set so that the optimal filter for a convolution process may be made.
  • the H function may be directly obtained from the object distance using the H function as a function of the object distance.
  • the image data received by the image sensor 220 is “when the aperture is open”. Is input to the image processing apparatus 240.
  • a conversion coefficient corresponding to the optical system 210 is acquired.
  • the image processing apparatus 240 further generates an image signal having no dispersion from the dispersion image signal from the image sensor 220 using the acquired conversion coefficient.
  • WFCO is employed to obtain high-definition image quality, and the configuration of the optical system 210 can be simplified, and the cost of the imaging apparatus 200 can be reduced.
  • the image processing apparatus 240 receives the primary image FIM from the image sensor 220 via the A / D converter 232, performs a process of extending the depth of field by a convolution process using a filter, and the like, and performs a high-definition final image FNLIM Form.
  • the correction processing of the modified optical transfer function (MTF: Modified opitiacl Transfer Functio) in the image processing apparatus 140 is, for example, the MTF of the primary image which is essentially a low value as shown by a curve CV1 in FIG. Then, correction is performed so as to approximate the characteristic indicated by the curve CV2 in FIG. 13 by processing such as edge enhancement and chroma enhancement using the spatial frequency as a parameter.
  • the characteristic indicated by the curve CV1 is a characteristic obtained when the wavefront is not deformed (modulated) without using the wavefront forming optical element, for example, the optical wavefront modulating element 213a, as in this embodiment. is there. It should be noted that all corrections in the image processing apparatus 140 of the present embodiment are based on spatial frequency parameters.
  • each spatial frequency is obtained.
  • strength such as edge enhancement is added, and the original image (primary image) is corrected.
  • the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.
  • the edge enhancement is weakened on the low frequency (LF) side and the high frequency (HF) side within a predetermined spatial frequency band, and the edge enhancement is enhanced in the intermediate frequency region (MF) within the predetermined spatial frequency band.
  • LF low frequency
  • HF high frequency
  • MF intermediate frequency region
  • the imaging apparatus 200 basically forms an optical system 210 and an imaging element 220 having a light wavefront modulation function to form a primary image, and a primary image into a high-definition final image.
  • Image processing device 240 An optical element for wavefront shaping, for example, an optical wavefront modulation element 213a is newly provided in the optical system 210, or the surface of an optical element (lens 213) such as glass or plastic is molded for wavefront shaping. (Light wavefront modulation surface 213a) is provided.
  • the lens 213 having the optical wavefront modulation surface 213a deforms (modulates) the wavefront of the image formation, and forms an image of such a modulated wavefront on the image pickup surface (light receiving surface) 222 of the image pickup device 220 including a CCD or CMOS sensor.
  • this formed image on the image pickup surface of the image pickup device 220 is not a focused image, a high-definition image is obtained from the formed primary image through the image processing device 240.
  • the primary image from the image sensor 220 has a light beam condition with a very deep focal depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 240.
  • Wave Optical Consideration The image forming process in the imaging apparatus 200 in this embodiment will be considered in terms of wave optics.
  • a spherical wave diverged from one of the object points becomes a convergent wave after passing through an imaging optical system, for example, the optical system 210.
  • the wavefront is not a spherical surface but a complicated shape.
  • Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
  • the MTF can be calculated by Fourier transform of the wave optical intensity distribution at the imaging point.
  • the wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution can be obtained from the Fourier transform of the pupil function in the exit pupil. Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, for example, if the wavefront aberration can be strictly numerically calculated through the optical system 210, the MTF can be calculated.
  • the wavefront shape change is mainly performed by the wavefront forming optical element, for example, the lens 213 on which the light wavefront modulation element 213a is formed, but the phase and the optical path length along the light beam are exactly the same.
  • the target wavefront is formed by increasing and decreasing. If the intended wavefront formation is performed, the exiting light flux from the exit pupil is formed from dense and sparse portions of the light, as can be seen from the geometric optical spot image.
  • This MTF in the luminous flux state shows a characteristic that it shows a low value at a low spatial frequency and somehow maintains the resolution up to a high spatial frequency. That is, if the MTF value is low, or if it is in the state of such a spot image geometrically, the phenomenon of aliasing will not occur. That is, a low-pass filter is not necessary. Then, the flare-like image that causes the MTF value to be lowered by the image processing device 240 may be removed. Thereby, the MTF value is significantly improved.
  • FIG. 15 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
  • FIG. 16 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
  • FIG. 17 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment. 15 to 17, the horizontal axis indicates the frequency normalized with the Nyquist frequency, and the vertical axis indicates the MTF. 15 to 17, curved lines CV11, CV21, and CV31 indicated by broken lines indicate MTFs when out of focus, and curved lines CV12, CV22, and CV32 indicated by solid lines are when focused (focused). The MTF is shown.
  • the change in the MTF response is inserted even when the object is out of the focal position. Less than the optical system that is not. If the convolution calculation process in the convolution calculation part 242 in the image processing apparatus 240 is performed about the image imaged by this optical system, the response of MTF will improve.
  • the absolute value (MTF) of the OTF of the optical system having the light wavefront modulation element shown in FIG. 16 is preferably 0.1 or more at the Nyquist frequency.
  • MTF The absolute value of the OTF of the optical system having the light wavefront modulation element shown in FIG. 16 is preferably 0.1 or more at the Nyquist frequency.
  • the restoration filter does not need to increase the OTF gain at the Nyquist frequency.
  • the MTF before restoration is less than 0.1, the restored image is unfavorably affected by noise.
  • the image processing apparatus 240 includes a raw (RAW) data buffer memory 241, a two-dimensional convolution operation unit 242, a kernel data storage ROM 243 as a storage unit, and a convolution control unit 244.
  • RAW raw
  • the image processing apparatus 240 includes a raw (RAW) data buffer memory 241, a two-dimensional convolution operation unit 242, a kernel data storage ROM 243 as a storage unit, and a convolution control unit 244.
  • the convolution control unit 244 is controlled by the control device 290 to control on / off of convolution processing, screen size, replacement of kernel data, and the like.
  • the kernel data storage ROM 243 stores kernel data for convolution and / or calculation coefficients calculated by the PSF of each optical system prepared in advance as shown in FIG. 18, FIG. 19, or FIG. Has been.
  • the convolution control unit 244 acquires the exposure information RP determined at the time of exposure setting by the control device 290, and the convolution control unit 244 responds to the switching signal SW corresponding to the exposure information RP.
  • the kernel data is selected and controlled through.
  • the exposure information RP includes aperture information indicating the aperture state of the aperture 214 in the optical system 210.
  • the aperture state of the aperture stop 214 is controlled by the control device 290 according to the exposure.
  • the kernel data KA is data corresponding to the optical magnification ( ⁇ 1.5)
  • the kernel data KB is data corresponding to the optical magnification factor ( ⁇ 5)
  • the kernel data KC is data corresponding to the optical magnification ( ⁇ 10).
  • the kernel data KA is data corresponding to the F number (2.8) as aperture information
  • the kernel data KB is data corresponding to the F number (4).
  • the kernel data KA is data corresponding to the object distance information of 100 mm
  • the kernel data KB is data corresponding to the object distance of 500 mm
  • the kernel data KC is data corresponding to the object distance of 4 m.
  • FIG. 21 is a flowchart of kernel data switching processing based on the exposure information RP (including aperture information) of the control device 290.
  • exposure information RP is detected from the degree of aperture of aperture stop 214, and supplied to convolution control unit 244 (ST101).
  • the convolution control unit 244 selects the kernel size and numerical operation coefficient stored in the kernel data storage ROM 243 according to the switching signal SW based on the exposure information RP, and reads the selected kernel size and numerical operation coefficient from the ROM 243. Therefore, it is set in a register in the two-dimensional convolution operation unit 242 (ST102).
  • Convolution calculation is performed on image data captured by the image sensor 220 and input to the two-dimensional convolution calculation unit 242 via the AFE 230 based on the kernel size and the number calculation coefficient stored in the register.
  • the converted data is transferred to the camera signal processing unit 250 (ST103).
  • FIG. 22 is a diagram illustrating a first configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
  • the example of FIG. 22 is a block diagram when a filter kernel corresponding to the exposure information RP is prepared in advance.
  • the image processing apparatus 240 acquires exposure information RP determined at the time of setting the exposure from the exposure information detection unit 253, and selects and controls kernel data stored in the kernel data storage ROM 243 through the convolution control unit 244.
  • the two-dimensional convolution operation unit 242 performs convolution processing using kernel data.
  • FIG. 23 is a diagram illustrating a second configuration example of the signal processing unit and the kernel data storage ROM. Note that the AFE 232 and the like are omitted for simplification.
  • the example of FIG. 23 is a block diagram in the case where the noise reduction filter processing step is provided at the beginning of the processing of the image processing apparatus 240 and the noise reduction filter processing ST1 corresponding to the exposure information RP is prepared as filter kernel data in advance. .
  • the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data is selected and controlled through the convolution control unit 244.
  • the two-dimensional convolution operation unit 242 after performing the noise reduction filter process (1) and step ST1, the color space is converted by the color conversion process and step ST2, and then the convolution process (using the kernel data) ( OTF restoration filter processing) and step ST3 are performed.
  • the noise reduction filter process (2) and step ST4 are performed again, and the original color space is restored by the color conversion process and step ST5.
  • Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that it is also possible to omit the noise processing again, step ST4.
  • FIG. 24 is a diagram illustrating a third configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
  • the example of FIG. 24 is a block diagram when an OTF restoration filter corresponding to the exposure information RP is prepared in advance.
  • the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data stored in the ROM 243 is selected and controlled through the convolution control unit 244.
  • the two-dimensional convolution operation unit 242 performs a convolution process and step ST13 using the OTF restoration filter.
  • the noise reduction filter process (2) and step ST14 are performed again, and the original color space is restored by the color conversion process and step ST15.
  • Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that only one of the noise reduction filter processing and steps ST11 and ST14 may be performed.
  • FIG. 25 is a diagram illustrating a fourth configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
  • the example of FIG. 25 is a block diagram in the case of having a noise reduction filter processing step and preparing in advance a noise reduction filter corresponding to the exposure information RP as filter kernel data.
  • the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data stored in the ROM 243 is selected and controlled through the convolution control unit 244.
  • the two-dimensional convolution calculation unit 242 after performing the noise reduction filter process (1) step ST21, the color space is converted by the color conversion process, step ST22, and then the convolution process using the kernel data, step ST23. Apply.
  • the noise reduction filter process (2) corresponding to the exposure information RP, step ST24 is performed, and the original color space is restored by the color conversion process, step ST25.
  • Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that the noise reduction filter process, step ST21, can be omitted.
  • the filter processing is performed in the two-dimensional convolution operation unit 242 according to only the exposure information RP has been described above, but other methods can be used. For example, by combining subject distance information, zoom information, or shooting mode information and exposure information, it is possible to extract suitable calculation coefficients or perform calculations.
  • FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
  • the imaging apparatus 200 ⁇ / b> A includes a convolution apparatus 401, a kernel / numerical calculation coefficient storage register 402, and an image processing calculation processor 403.
  • the image processing arithmetic processor 403 that has obtained the information about the approximate object distance of the subject read from the object approximate distance information detection apparatus 500 and the exposure information RP is appropriate for the object separation position.
  • the kernel size and its calculation coefficient used in a simple calculation are stored in the kernel / numerical calculation coefficient storage register 402.
  • An appropriate calculation is performed by the convolution apparatus 401 that calculates using the value stored in the register 402 to restore the image.
  • the distance to the main subject is detected by the object approximate distance information detection apparatus 500 including the distance detection sensor, and different image correction processing is performed according to the detected distance.
  • the image processing in the convolution calculation unit 242 is performed by convolution calculation.
  • one type of calculation coefficient for convolution calculation is stored in common, and the correction coefficient is set according to the focal length. It is possible to adopt a configuration in which the calculation coefficient is corrected using the correction coefficient, and an appropriate convolution calculation is performed using the corrected calculation coefficient. In addition to this configuration, the following configuration can be employed.
  • Modification 1 Depending on the focal length, the kernel size and the convolution calculation coefficient itself are stored in advance, and the convolution calculation is performed using the stored kernel size and calculation coefficient.
  • Modification 2 A calculation coefficient corresponding to the focal length is stored in advance as a function, a calculation coefficient is obtained from this function based on the focal length, and a convolution calculation is performed using the calculated calculation coefficient.
  • Configuration example 1 In accordance with the subject distance, at least two or more conversion coefficients corresponding to the aberration caused by the resin lens corresponding to the phase plate are stored in advance in the kernel / numerical calculation coefficient storage register 402 serving as conversion coefficient storage means.
  • the image processing arithmetic processor 403 selects a conversion coefficient according to the distance from the kernel / numerical calculation coefficient storage register 402 to the subject based on the information generated by the object approximate distance information detection device 500 as the subject distance information generating means. It functions as a coefficient selection means. Then, the convolution device 401 as the conversion unit converts the image signal using the conversion coefficient selected by the image processing arithmetic processor 403 as the coefficient selection unit.
  • the image processing arithmetic processor 403 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 500 as the subject distance information generation unit, and the kernel / numerical value Stored in the arithmetic coefficient storage register 402. Then, the convolution device 401 serving as a conversion unit converts the image signal using the conversion coefficient obtained by the image processing calculation processor 403 serving as the conversion coefficient calculation unit and stored in the kernel / numerical calculation coefficient storage register 402.
  • At least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 210 is stored in advance in the kernel / numerical calculation coefficient storage register 402 serving as a correction value storage unit.
  • This correction value includes the kernel size of the subject aberration image.
  • the image processing calculation processor 403 as the correction value selection unit stores the kernel and numerical calculation coefficient as the correction value storage unit. A correction value corresponding to the distance from the register 402 to the subject is selected.
  • the convolution apparatus 401 serving as the conversion means performs the conversion coefficient obtained from the kernel / numerical calculation coefficient storage register 402 serving as the second conversion coefficient storage means and the correction selected by the image processing arithmetic processor 403 serving as the correction value selection means.
  • the image signal is converted based on the value.
  • the optical system 210 and the image sensor 220 that form a primary image, and the image processing device 240 that forms the primary image into a high-definition final image are included.
  • the optical system 210 includes an optical wavefront modulation element or a lens provided with an optical wavefront modulation surface that reduces the change in OTF according to the object distance (due to the difference in object distance).
  • the absolute value of the focal length of the light wavefront modulation element or the light wavefront modulation surface (or the lens having the light wavefront modulation surface) is larger than the absolute value of the focal length of the entire optical system.
  • the optical system has a light wavefront modulation surface of the light wavefront modulation element that is rotationally symmetric with respect to the optical axis, and the “phase shape” monotonically increases from the center to the periphery. Or it is formed so as to decrease monotonously.
  • the light wavefront modulation surface has a rotationally symmetric shape with respect to the optical axis, and generates a spherical aberration larger than that of a general optical system having no light wavefront modulation element. It is possible to make the change of the OTF according to the object distance extremely smaller than a typical optical system.
  • the spot image can be reduced while having the effect of reducing the change in OTF according to the object distance. It can be made smaller. Further, in the present embodiment, it is possible to obtain a uniform OTF from the center of the screen to the periphery of the screen by increasing the focal length of the light wavefront modulation surface with respect to the focal length of the entire optical system 210. It becomes. Further, by increasing the focal length of the light wavefront modulation element (lens) having the light wavefront modulation surface with respect to the focal length of the entire optical system 210, a uniform OTF from the center of the screen to the periphery of the screen can be obtained.
  • the structure of the optical system 210 can be simplified and cost reduction can be aimed at. Furthermore, it is possible to obtain a good restored image having an appropriate image quality and little influence of noise.
  • the imaging device is easy to manufacture and does not require high accuracy with respect to the lens mounting in the optical system. In addition, an influence of reflection can be suppressed, and an imaging device in which contrast does not vary depending on the image direction can be realized.
  • the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable, and the kernel size and the above-described coefficients that are known by input from the operation unit 280 shown in FIG.
  • the lens can be designed without worrying about the optical magnification and the defocus range, and the image can be reconstructed by a highly accurate convolution.
  • a natural image can be obtained without requiring an expensive and large-sized optical lens, and without moving the lens within the optical diameter 210, which is difficult to manufacture.
  • the imaging apparatus 200 according to the present embodiment is used in an optical system of a WFCO that is required to be reduced in size, weight, and price for electronic devices used by ordinary users such as digital cameras and camcorders. Is possible.
  • the configuration of the optical system 210 can be simplified, the optical system 210 can be easily manufactured, and the cost can be reduced.
  • Aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
  • the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing. It is theoretically correct to use a low-pass filter in this way, but the low-pass filter itself is made of crystal, so it is expensive and management of temperature and the like is difficult. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.
  • the conventional imaging lens apparatus in order to form a high-definition image in spite of the demand for higher-definition image quality, the conventional imaging lens apparatus must have a complicated optical system. If the optical system is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the price increases. However, according to the present embodiment, as described above, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.
  • the kernel data storage ROM of FIGS. 18, 19, and 20 is also used for the values of optical magnification, F number, size of each kernel, and object distance. It is not always possible. Also, the number of kernel data prepared for the convolution calculation is not limited to three.
  • the optical system of the present invention can be applied not only to the above-described imaging apparatus but also to various other imaging apparatuses. Further, the imaging apparatus of the present invention is not limited to the information code reading apparatus, and can be applied to this image processing apparatus.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Lenses (AREA)

Abstract

 撮像装置は、1次画像を形成する光学系(210)と、撮像素子(220)と、画像処理装置(240)とを含む。光学系(210)は、物体距離に応じた光学的伝達関数(OTF)の変化を小さくする光波面変調面(213a)を備えたレンズ(213)、もしくは、光波面変調面を持つレンズを含む。光波面変調面(213a)を有するレンズ(213)の焦点距離(fphase)の絶対値が、レンズ(213)を含む光学系(210)全体の焦点距離(ftotal )の絶対値より大きい。その結果、物体の像が、光学系(210)の焦点距離(ftotal )に配置された撮像素子(220)において合焦されずに、分散した画像となる。画像処理装置(240)において、撮像素子(220)が撮像した分散画像に対して畳み込み演算を行い、高精細な最終画像を生成する。撮像装置は、情報コードを読み取る情報コード読取装置に適用される。

Description

光学系、撮像装置および情報コード読取装置
 本発明は、撮像装置、および、その撮像装置を用いた情報コード読取装置に関する。
 より特定的には、本発明は、光学的伝達関数(OTF:Optical Transfer Function)が変化した場合または点像強度分布関数(PSF)が変化した場合でも、被写界深度の深い画像を実現することが可能な撮像装置と、それを用いた情報コード読み取り装置に関する。
 また本発明は、上記撮像装置に適用する光学系に関する。
 近年、急激に発展を遂げている情報のデジタル化に相俟って映像処理分野においてもデジタル処理が行われている。
 特に、デジタルカメラに象徴されるように、撮像面は従来の銀塩フィルムに代わって、固体撮像素子、たとえば、CCD(Charge Coupled Device ),CMOS(Complementary Metal Oxide Semiconductor)センサなどが使用されているのが大半である。
 このように、複数のレンズを含む光学系と、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、取り込んだ映像を撮像素子により電気信号に変換する。
 このような撮像レンズ装置は、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、画像検査装置、自動制御用産業カメラ等に用いられている。
 図27は、撮像レンズ装置の構成および光線軌跡を模式的に示す図である。
 図27において、撮像レンズ装置1は、複数のレンズを有する光学系2と、CCDやCMOSセンサ等の撮像素子3とを有する。図27において、撮像素子3の撮像面は、光学系2の合焦位置BFPに位置しているとして図解されている。
 光学系2は、物体側OBJSに位置するレンズ21,22と、開口絞り23と、結像レンズ24とを有する。光軸O-Oに沿って、物体側のレンズ21,22、開口絞り23、および、結像レンズ24が、レンズ物体側OBJSから撮像素子3側に向かって順に配置されている。
 撮像レンズ装置1においては、光学系2の合焦面BFPを撮像素子3の面上に合致させている。
 図28(A)~(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。図28(A)、(B)、(C)において、横軸は重力の中心を示し、縦軸は被写界を示す。
  図28(B)が合焦の時のスポット像を示しており、図28(A)、(C)はそれぞれ、合焦状態から正(+)負(-)に0.2mm外れた状態のスポット像を示している。
 たとえば、非特許文献1,2、および、特許文献1~5には、位相板により光束を規則的に分散させ、分散させた光速をデジタル処理により復元させて、被写界深度の深い画像撮影を可能にする撮像装置が提案されている。
 特許文献6には、光学的伝達関数(OTF)を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている。
 CCD、CMOSセンサなどを用いた画像入力機能を持った装置においては、たとえば風景などの所望の映像とともに、バーコード等の撮像装置に接近した近接静止画像を読み取ることが、極めて有用であることが多い。
 バーコードの読み取りは、たとえば、第一の例として、光学系におけるレンズを移動させて自動焦点方式で焦点(ピント)を合わせる技術が知られている。また、第二の例として深度拡張技術を適用する方法が知られている。この深度拡張技術は、たとえば、カメラにおいて、開口絞りを調整してF数を小さく絞ることで被写界深度を広げて、ピントを固定した固定ピントとしている技術が知られている。
USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003-235794号公報 特開2004-153497号公報 "Wavefront Coding;jointly optimized optical and digital imaging systems",Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. "Wavefront Coding;A modern method of achieving high performance and/or lowcost imaging systems",Edward R.Dowski,Jr.,Gregory E.Johnson.
 上述した文献において提案された撮像装置においては、その全てについて、通常、光学系に上述の位相板を挿入した場合の点像強度分布関数(PSF:point spread function)が一定であることが前提である。
 PSFが変化した場合は、撮像素子の撮像画像を信号処理する信号処理手段におけるカーネル(Kernel)を用いた畳み込み演算処理により、被写界深度の深い画像を実現することは極めて難しい。
 したがって、光学系で対策を講ずる必要があるが、焦点距離が固定の単焦点でのレンズ(1個のレンズ)を用いたPSFが一定の場合は除いて、ズーム系や自動焦点系などの光学系では、光学設計が難しい。その結果、その光学設計の精度の高さや、それに伴う長時間の作業時間に起因する価格上昇が原因となり、そのような光学系を採用するには、大きな問題に遭遇する。
 換言すれば、PSFが変化する撮像装置においては、信号処理手段において適正なコンボリューション演算を行うことができない。そのため、ズームなどを行ったときのワイド(Wide)時やテレ(Tele)時のスポット像のズレを引き起こす、非点収差、コマ収差、ズーム色収差等の種々の収差を無くすため、高度な光学設計が要求される。
 これらの収差を無くすための光学設計は非常に難しい。そのような光学設計を行うと、長時間の労働を要し、高性能、高精度のレンズなどが必要になり、光学系の価格の高騰に遭遇する。また、光学系が大型になるという問題に遭遇する。その結果として、そのような光学系を用いた撮像装置の価格も高くなり、大型になる。
 上記技術では、信号処理手段における画像復元処理後の画像は、合焦状態から外れるアウトフォーカスとなるに伴い、良好ではなくなる。
 その理由は、アウトフォーカス時のOTFが一定であれば良好な復元結果となるのであるが、現実問題としてはOTFは低下してくる。つまり、OTFが変化する。したがって、信号処理手段においてコンボリューション演算などによって画像の復元処理を行っても、その処理がもともと画像をボカして復元するという性質上、完全には正確な画像を復元することが難しい。その結果、上記技術では良好な復元画像を得ることが困難である。
 これまで知られている、深度拡張光学系に用いる位相変調素子は、位相変調による画面の周辺部における収差の影響を緩和することが困難であり、画面の中心と画面の周辺部でスポット像の大きさの差が大きくなる傾向がある。
 このように、上記の文献において提案されている深度拡張光学系においては、画面全体で均一な画質が得られ難いという不利益がある。
 かかる観点から、画像の復元処理に適した画像を提供可能な光学系を提供することが望まれている。
 また、そのような光学系としては、光学系の構成を簡単化でき、価格の低減を図ることができる光学系を提供することが望まれている。
 さらに、そのような光学系を採用して、画面全体でスポット像の大きさの差を小さくでき、均一な画質が得られ、良好な復元画像を得ることが可能な、撮像装置を提供することが望まれている。
 また、上記光学系を採用し、装置構成が簡単で、価格の低減が可能な、撮像装置を提供することが望まれている。
 さらに、そのような撮像装置を用いた情報コード読取装置を提供することが望まれている。
 本発明において、光学系の構成の複雑さを回避しながら、信号処理手段における画像復元処理が可能な撮像画像を提供する、光学系として、光学系に光波面変調機能を有する光学素子を用いる。
 光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数(OTF)の変化を小さくする性能を有し、かつ、光波面変調機能を有する光学素子の焦点距離の絶対値が、光学系全体の焦点距離の絶対値に対して大きい。
 本発明の撮像装置は、上述した光波面変調機能を有する光学素子を有する光学系と、この光学系の焦点距離に配置され、この光学系を通過した被写体の像を撮像する撮像素子とを有する。
 光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有する。光波面変調機能を有する光学素子の焦点距離の絶対値が、光学系全体の焦点距離の絶対値に対して大きい。その結果、撮像素子における被写体の像は、分散された像となり、その後の信号処理に適したものとなる。
 好ましくは、光波面変調機能を有する光学素子は、レンズの光出射面または光入射面に形成された光波面変調要素とを有する。
 また好ましくは、上記レンズに上記光波面変調要素が形成された場合の形状と、上記レンズに上記光波面変調要素を形成させない場合の形状との差分を「位相形状」と規定したとき、上記光波面変調機能を有する光学素子の形状は、上記位相形状が上記光学系の光軸の周りに回転対称であり、光軸から周辺部に向かって単調に増加または単調に減少するように、形成されている。
 好ましくは、上記光学系は開口絞りを含み、当該開口絞りは上記光波面変調素子の出射側の近傍に配置されている。
 好ましくは、上記光波面変調機能を有する光学素子は、被写体画像を分散した分散画像を前記撮像素子の配置部分に生成する。
 また好ましくは、当該撮像装置は、上記光波面変調機能を有する光学素子によって分散された分散画像を撮像した上記撮像素子からの被写体の分散画像について信号処理を行い分散のない画像に復元する画像処理部をさらに有する。
 さらに好ましくは、上記画像処理部は、畳み込み演算処理を行い、上記分散のない画像に復元する。
 本発明によれば、上記撮像装置を有し、上記撮像装置によって情報コードを読み取り、分散のない画像を入手できる、情報コードを光学的に読み取る情報コード読取装置が提供される。
 本発明によれば、画像の復元処理に適した画像を提供可能な光学系を提供することができた。
 また本発明によれば、光学系の構成を簡単化でき、価格の低減を図ることができる光学系を提供することができた。
 さらに本発明によれば、上記光学系を採用して、画面全体でスポット像の大きさの差を小さくでき、均一な画質が得られ、良好な復元画像を得ることが可能な、撮像装置を提供することができた。
 また本発明によれば、上記光学系を採用し、装置構成が簡単で、価格の低減が可能な、撮像装置を提供することができた。
 さらに本発明によれば、上記撮像装置を用いた情報コード読取装置を提供することができた。
図1は本発明の実施形態に係る情報コード読取装置の一例を示す外観図である。 図2(A)~(C)は図1の情報コード読取装置によって読み取りの対象となる情報コードの例を示す図である。 図3は図1の情報コード読取装置に適用される撮像装置の構成例を示すブロック図である。 図4は図3に図解した光学系と撮像素子の配置を拡大して図解した図である。 図5(A)は光波面変調機能を持たない光学系の球面収差を示す図であり、図5(B)は図3に図解した光波面変調機能を持つ光学系の球面収差を示す図である。 図6(A)は光学系の光波面変調面の「位相形状」を示す図であり、図6(B)は光学系の光波面変調面の「面形状」を示す図である。 図7は図6(A)、(B)について説明するための図である。 図8は光波面変調機能を持たない光学系のスポット像のディフォーカス変化を示す図である。 図9は変曲点を持たない、光波面変調機能を有する光学系のスポット像のディフォーカス変化を示す図である。 図10は光学系に含まれる光波面変調素子の焦点距離の絶対値が、光学系全体の焦点距離の絶対値より小さい光学系のスポット像のディフォーカス変化を示す図である。 図11は光学系に含まれる光波面変調素子の焦点距離が絶対値が、光学系全体の焦点距離の絶対値より大きい光学系のスポット像のディフォーカス変化を示す図である。 図12は深度拡張光学系(WFCO)の原理を説明するための図である。 図13は図3に図解した画像処理装置におけるMTF補正処理を説明するための図である。 図14は図3に図解した画像処理装置におけるMTF補正処理を具体的に説明するための図である。 図15は従来の光学系の場合において物体が焦点位置にあるときと、物体がが焦点位置から外れたときのMTFの応答を示す図である。 図16は本実施の形態に係る光波面変調素子を有する光学系の場合において、物体が焦点位置にあるときと、物体が焦点位置から外れたときのMTFの応答を示す図である。 図17は本実施形態に係る撮像装置のデータ復元後のMTFの応答を示す図である。 図18はROMに格納されるカーネルデータの一例として、光学倍率を示す図である。 図19はROMに格納されるカーネルの一例として、開口絞りのFナンバを示す図である。 図20はROMに格納されるカーネルデータの他の例として、物体距離情報を示す図である。 図21は図3に図解した制御装置における光学系設定処理の概要を示すフローチャートである。 図22は図3に図解した画像信号処理装置における信号処理手段の第1の構成例を示す図である。 図23は図3に図解した画像信号処理装置における信号処理手段の第2の構成例を示す図である。 図24は図3に図解した画像信号処理装置における信号処理手段の第3の構成例を示す図である。 図25は図3に図解した画像信号処理装置における信号処理手段の第4の構成例を示す図である。 図26は被写体距離情報と露出情報とを組み合わせて画像処理を行う画像処理装置の構成例を示す図である。 図27は撮像レンズ装置の構成および光線軌跡を模式的に示す図である。 図28(A)~(C)は、図27に図解した撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、図28(A)は焦点が正(+)側にずれた時の各スポット像を示す図であり、図28(B)は合焦点の時の各スポット像を示す図であり、図28(C)は焦点が負(-)側にずれた時の各スポット像を示す図である。
符号の説明
 100…情報コード読取装置、110…本体(撮像装置)、121…読み取り対象のコード、200…撮像装置、210…光学系、211~213…第1~第3レンズ、213a…光波面変調面、214…開口絞り、215…第4レンズ、220…撮像素子、230…アナログ・フロントエンド部、240…画像処理装置、242…二次元コンボリューション演算部、243…カーネルデータ格納ROM、244…コンボリューション制御部、250…カメラ信号処理部、280…操作部、290…制御装置。
 上述した本発明の要望および他の要望を達成する本発明の種々の実施形態を添付図面に関連付けて述べる。
 ここでは、本発明の実施の形態として撮像装置について述べ、その撮像装置に適用される光学系について述べる。本実施の形態の情報コード読取装置にはそのような撮像装置を適用することができる。
 図1は、本発明の実施形態に係る情報コード読取装置の一例を示す外観図である。
 図2(A)~(C)は、図1の情報コード読取装置によって読み取りの対象となる情報コードの例を示す図である。
 図3は、図1の情報コード読取装置に適用可能な撮像装置の構成例を示すブロックである。
 情報コード読取装置
 図1に示す本実施形態に係る情報コード読取装置100は、読み取り対象物120に印刷された、たとえば、図2(A)~(C)のいずれかに図示された、反射率の異なるシンボル、コード等の情報コード121を読み取り可能な装置である。情報コード読取装置100は、本体110とケーブル111を有している。本体110がケーブル111を介して、たとえば、電子レジスタ等の処理装置140と接続されている。
 本体110によって読み取り対象の情報コードとしては、たとえば、図2(A)に示すJANコードのような1次元のバーコード122と、図2(B)に示すスタック式のCODE49のような2次元のバーコード123、あるいは、図2(C)に示すマトリックス方式のQRコードのような2次元のバーコード123が挙げられる。
 情報コード読取装置100の本体110内に、読み取り対象の情報コードに光を照射する、図示しない照明光源と、図3に示すような撮像装置200とが配置されている。
 撮像装置200は光学系210を有する。この光学系210は、図4を参照して後述するように、光波面変調機能を有する光学素子(以下、光波面変調素子という)を含む。
 本発明において、光波面変調機能とは、光学素子に入射した光束を規則的に分散させて出射させる機能を言う。
 撮像装置200は、光波面変調素子により光束を規則的に分散させ、さらに、デジタル信号処理により分散した画像を復元させて被写界深度の深い画像を生成することを可能にする。
 このような撮像装置200を情報コード読取装置に用い、図2(A)に図解したJANコードのような1次元のバーコード122と、図2(C)に図解したQRコードのような2次元のバーコード123のような情報コードを的確に高精度で読み取ることが可能に構成されている。
 被写界深度の深い画像を生成する光学系としては、たとえば、波面収差制御光学系、あるいは、深度拡張光学系(WFCO:Wave Front Coding Optical System)が知られているが、本実施の形態の光学系は、通常の光学系とは下記に述べるように異なる。
 撮像装置
 図3に示すように、情報コード読取装置100に組み込まれている撮像装置200は、光学系210、撮像素子220、アナログ・フロントエンド部(AFE)230、画像処理装置240、カメラ信号処理部250、画像表示メモリ260、画像モニタリング装置270、操作部280、および、制御装置290を有している。
 画像処理装置240の出力信号FNLIM、または、カメラ信号処理部250の出力信号が、ケーブル111を経由して、電子レジスタ等の処理装置140に送出される。
 光学系
 図4は、図3に図解した光学系210の本実施形態に係る光学系を構成する撮像レンズユニットの基本構成を示す図である。図4は、特に、光波面変調面213aが開口絞り214に隣接して配置されている場合を図解した、光学系210の構成を示す。
 光学系210は、被写体物体OBJの像を撮像素子220に提供する。
  光学系210は、物体側OBJから撮像素子220に向かって、光軸0-0に沿って、順に、第1(平凹)レンズ211、第2(両凸)レンズ212、第3(両凹)レンズ213、開口絞り214、第4(平凹)レンズ215および第5(両凸)レンズ216が配置されて、構成されている。
 光学系210において、第4レンズ215と第5レンズ216が、第4レンズ215の出射側の凹面に第5レンズの入射側の凸面が接合されて、あたかも、1個の厚い平凸レンズとして構成されている。このように、本実施形態の光学系210のレンズユニットは、結像レンズとして機能する接合レンズ(215、216)を含んで構成されている。
 光波面変調素子
 光学系210において、レンズ213の出射面に、レンズ213に入射された光の波面を変調する光波面変調面213aが形成されている。
 なお、光波面変調面213aを備えたレンズ213に代えて、光波面変調面213aに相当する光波面変調機能を有する光波面変調素子(図示せず)を備えたレンズを開口絞り214に隣接して配置することもできる。
 このように、光学系210は、光波面を変調する機能を有する素子を含んで構成されている。光波面変調機能とは、光学素子に入射した光束を規則的に分散させて出射させる機能を言う。
 以下、光波面を変調する機能を有する素子として、光波面変調面213aを備えたレンズ213を代表して述べる。
 本実施形態の撮像装置220においては、光学系210として、開口絞り214の近傍に光波面変調面213aを備えたレンズ213を用いる。あるいは、平凹レンズ213の出射側の凹面に光波面変調面213aを形成し、この出射側に隣接して開口絞り214を配設する。その結果、物体距離に応じた(物体距離の違いによる)光学的伝達関数(OTF:optical transfer function)の変化を、光波面変調面213aを備えないレンズ213を有する光学系のOTFよりも小さくする深度拡張光学系に対して、最適化する。
 焦点距離
 光学系210においては、光波面変調面213aを持つレンズ213の焦点距離(facal point)の絶対値が、この光学系210全体の焦点距離の絶対値より大きい。このように、光波面変調面213aを持つレンズ213の焦点距離の絶対値が、光学系210全体の焦点距離の絶対値より大きいことにより、光波面変調による画面周辺部における影響を緩和し、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られるようになる。その理由は後述する。
 位相形状
 光波面変調機能を持つ場合の光波面変調面213aの形状と、光波面変調機能を持たない場合のレンズの形状の差分を「位相形状」と言う。
 本実施形態においては、レンズ213の出射側の凹面に形成された光波面変調面213aの形状は、「位相形状」が、光軸O-Oの周りに回転対称で、かつ、光軸O-Oの中心部分から画面の周辺部分に向かって単調増加もしくは単調減少するように、形成されている。
 位相形状を、光軸O-Oに対して回転対称とすることで、光波面変調面213aの製造、または、光波面変調素子、あるいは、位相変調素子の製造が容易で、光軸O-Oの周りの回転方向の取り付け精度も厳しくなく、さらには反射の影響が少なくて、画像の方向によるコントラストの違いも無くなる。
 位相形状を光軸O-Oの中心部分から周辺部分に向かって単調増加もしくは単調減少とすることで、物体距離に応じたOTFの変化を極めて小さくすることができる。
 以下、この「位相形状」を光軸O-O中心部分から画面の周辺部分に向かって変曲点を持つことなく、単調増加もしくは単調減少とする光波面変調面(たとえば位相変調面)について説明する。 
 この場合、基本的には上述したように、光波面変調面の「位相形状」を光軸O-Oに対して回転対称な形状とする。本実施の形態において、光波面変調機能を有する光学系210を用いることにより、光波面変調素子を持たない通常の光学系よりも球面収差SAを、意図的に、大きく発生させることにより、光波面変調素子を持たない通常の光学系よりも物体距離に応じたOTFの変化を小さくすることが可能となる。
 光波面変調面213a(位相変調面)の位相形状は、光軸O-Oの中心部分から画面の周辺部分にかけて、変曲点を持たず、単調増加もしくは単調減少するように形成されている。
 図5(A)に光波面変調面を形成する前の球面収差を示し、図5(B)に光波面変調面を形成した後の球面収差を示す。
 図5(A)および図5(B)の図解から理解されるように、光波面変調面213aを開口絞り214の近傍に、あるいは光波面変調面213a自身に開口絞り機能を持たせることにより、光波面変調面213aのみの球面収差を最適化(最小化)することで、光学系210を、広範囲に球面収差が少ない、性能の高い固定焦点レンズとすることができる。その結果、撮像装置200の最終出力画像信号を高精度にすることができる。
 図6(A)は光学系の光波面変調面の「位相形状」を示す図である。図6(B)は、光学系の光波面変調面の「面形状」を示す図である。横軸は、光軸方向の距離を示している。縦軸の数値は、射出瞳の直径を1 と正規化した焦点の位置を示す。
 図6(A)において、曲線Aで示す線が光学系に光波面変調素子を持たない場合の位相形状を示し、曲線Cで示す線が光学系に光波面変調素子を持つ場合の位相形状を示している。
 図6(B)において、曲線AAで示す線が光学系に光波面変調素子を持たない場合の面形状を示し、曲線CCで示す線が光学系に光波面変調素子を持つ場合の面形状を示している。
 図6(A)は光波面変調素子がある場合と、ない場合との差分、すなわち、図6(B)において、横軸方向に、差=(曲線CCの値)-(線AAの値)の演算を行った状態を示している。
 図7は、具体例として、撮像素子の有効撮像領域IDと、イメージサイクルICとの関係を示す図である。中心スポット位置の座標が(0,0)となり、撮像素子IDの上端の座標が(0,0.6)となり、垂直上方の端部の座標が(0,1.0)となる。
 前述したように、本実施形態においては、レンズ213に形成されて光波面変調素子として機能する光波面変調面213aの焦点距離fphaseの絶対値が、光学系210全体の焦点距離ftotal の絶対値対して大きい。言い換えれば、光波面変調面213aを含むレンズ213または光波面変調素子の焦点距離fphaseの絶対値が、光学系210全体の焦点距離ftotal の絶対値に対して大きい。すなわち、/fphase/>/ftotal /。
 つまり,光波面変調素子として機能する、レンズ213に形成された光波面変調面213aにおけるパワーを光学系210の全体のパワーよりも弱くする。言い換えれば、光波面変調面213aを備えたレンズ213のパワーを、光学系210全体のパワーよりも弱くする。その結果、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
 光波面変調面213a(位相変調面)の焦点距離fphaseの絶対値が、光学系210全体の焦点距離ftotal に対して次の関係を持つことが望ましい。
(数1)
  |fphase|/ftotal ≧ 2
   ただし、fphaseは光波面変調面213aを備えたレンズ213の焦点距離を示し、
       ftotalは光学系210全体の焦点距離を示している。
 なお、本実施形態において、光波面変調素子の焦点距離fphaseの絶対値とは、光波面変調面または光波面変調面213aを有するレンズ213の焦点距離の絶対値を意味するものとする。
 光波面変調面の位相形状が中心(光軸O-O)から画面の周辺にかけて、変曲点を持たずに、単調増加または単調減少することで、物体距離に応じたOTFの変化を極めて小さくすることができる。
 つまり、図6においては、曲線BBで示される面形状よりも曲線CCで示す面形状を持った光学系がOTFの変化を小さくすることができるようになる。
 また、光学系210全体の焦点距離ftotalよりも光波面変調面の焦点距離fphaseの絶対値を大きくすることで、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
 また、光学系210全体の焦点距離ftotalに対して、光波面変調面を備えた光波面変調素子(レンズ213)の焦点距離fphaseの絶対値を大きくすることで、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
 また、本実施の形態の光波面変調面213aを備えたレンズ213を、光軸O-Oを中心として、回転対称な形状にすることにより、光学系210のレンズを収容する鏡筒に光波面変調素子を組み込む際に、光軸O-Oを中心に回転させて位置の調整を行う必要がなく、光波面変調面213aを有するレンズをその他のレンズと同様に配設することができ、組み立て製造工程が容易になる。
 また、本実施の形態によれば、偽像の発生を抑えて、自然なボケ味の画像のまま、被写界深度を拡張することができる。
 スポット像の例
 図8~図11を参照して、光学系210における光波面変調素子213aの有無、位相形状の変曲点の有無に応じたスポット像について考察する。図8~図11において縦軸はディフォーカス量、横軸は像高を示している。
 図8は、光波面変調素子を持たない一般的な光学系のスポット像のディフォーカス変化を示す図である。この例の光学系は、光波面変調素子を持たないため物体距離に応じてスポット像が大きく変化する。
 図9は、位相形状に変曲点を持たない光波面変調素子を備えた光学系のスポット像のディフォーカス変化を示す図である。この例の光学系においては、光波面変調素子の作用で物体距離に応じたスポット像の変化は小さい。
 図10は、光波面変調素子の焦点距離の絶対値が光学系全体の焦点距離の絶対値より小さい光学系のスポット像のディフォーカス変化を示す図である。この例の光学系においては、光波面変調素子の焦点距離の絶対値が光学系全体の焦点距離の絶対値より小さいため、画面の中心と画面の周辺でスポット像の大きさの差が大きい。
 図11は、光波面変調素子の焦点距離の絶対値が光学系全体の焦点距離の絶対値より大きい光学系のスポット像のディフォーカス変化を示す図である。この例の光学系においては、光波面変調素子の焦点距離が大きいため、画面の中心と画面の周辺でスポット像の大きさの差が小さい。
 光波面変調面(もしくは光波面変調面を持つレンズ213)の焦点距離fphaseの絶対値が光学系210全体の焦点距離ftotal の絶対値より小さい場合、図10に示すように、光波面変調による画面の周辺部における影響を緩和することが困難であり、画面中心と画面の周辺部でスポット像の大きさの差が大きい。この場合、画面全体で均一な画質が得られ難い。
 これに対して、光波面変調面(もしくは光波面変調面を持つレンズ)の焦点距離fphaseの絶対値が光学系全体の焦点距離ftotal の絶対値より大きい、本実施形態に係る光学系210によれば、図11に示すように、光波面変調による画面の周辺部における影響を緩和することができ、画面の中心と画面の周辺部でスポット像の大きさの差が小さい。本実施の形態はかかる例に従っており、本実施形態においては、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られる。
 以上、実施の形態として、図4(A)に構成を例示して考察した、光波面変調機能を有する光学系210の特徴的な構成、機能、効果について説明した。
 以下に、撮像素子、画像処理部等の他の構成部分の構成、機能について説明する。
 撮像素子
 図3に図解した撮像素子220は、例えば、図4(A)に概略的に示すように、光学系210内の第5レンズ216側から、ガラス製の平行平面板(カバーガラス)221と、CCDあるいはCMOSセンサ等からなる撮像素子の撮像面222が順に配置されている。
 撮像光学系210を介した被写体OBJからの光が、撮像素子220の撮像面222上に結像される。
 撮像素子220で撮像される被写体の分散像は、光学系210における光波面変調面213aにより撮像素子220の撮像面222上ではピントが合わず(合焦せず)、深度の深い光束とボケ部分が形成された像である。
 撮像装置200は、画像処理装置240にて、上記画像に対してフィルタ処理を加えることにより物体間の距離の解像力を補完することができるように構成されている。
 この光学系210については、後でさらに詳述する。
 図3に示すように撮像素子220の撮像面222上で、光学系210で取り込んだ像が結像され、撮像素子220は、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログ・フロントエンド(AFE)部230を介して画像処理装置240に出力する、CCDやCMOSセンサからなる。
 図3においては、撮像素子220を一例としてCCDについて記載している。
 AFE部230は、タイミングジェネレータ231、アナログ/デジタル(A/D)コンバータ232と、を有する。
 タイミングジェネレータ231は、後述するカメラ信号処理部250からの制御信号S250に基づいて、CCDを用いた撮像素子220のCCDの駆動タイミング信号を生成して撮像素子220に出力する。
 A/Dコンバータ232は、撮像素子220から入力されるアナログ信号をデジタル信号に変換し、画像処理装置240に出力する。
 本発明の二次元コンボリューション手段として、本発明の信号処理部の一部を構成する画像処理装置240は、好ましくは、コンピュータを用いて実現される。
 画像処理装置240は、前段のAFE230から入力される撮像素子220における撮像画像のデジタル信号を入力し、二次元のコンボリューション演算処理を施し、その結果を後段のカメラ信号処理部(DSP)250に出力する。
 画像処理装置240は、制御装置290から入力される露出情報RPに応じて、OTFに対してフィルタ処理を行う。なお、露出情報RPとして開口絞り情報を含む。
 画像処理装置240は、撮像素子220における撮像による複数の画像に対して、OTFの応答を向上させ、物体距離に応じたOTFの変化をなくすようにフィルタ処理、たとえば、コンボリューションフィルタ処理を行う機能を有する。その結果、複数の物体距離に依存しながらも、深い被写界深度の画像を得ることができる。
 また、画像処理装置240は、初期段階でノイズ低減フィルタリングを施す機能を有する。
 さらに、画像処理装置240は、OTFに対してフィルタ処理を行い、コントラストを改善する処理を施す機能を有する。
 画像処理装置240の処理については後で、さらに詳述する。
 カメラ信号処理部250は、コンピュータを用いた構成することもできるが、好ましくは、高速演算処理が可能なデジタル信号プロセッサ(DSP)で構成される。カメラ信号処理部250は、たとえば、カラー補間、ホワイトバランス、輝度Yと色差CbCrとの変換処理、画像圧縮、ファイリング等の処理を行い、メモリ260への格納や画像モニタリング装置270への画像表示等を行う。
 制御装置290は、たとえば、コンピュータを用いて構成され、開口絞り214を制御して露出制御を行うとともに、操作部280などからのユーザの操作入力に応じて、撮像装置200全体の動作を決定し、AFE230、画像処理装置240、カメラ信号処理部250、光学系210内の絞り214等を制御し、撮像装置200全体の各要素の調停および制御を司る。
 以下、本実施形態の光学系210、画像処理装置の構成および機能について具体的に説明する。
 画像処理装置240におけるフィルタ処理について説明する。
 本実施形態においては、光学系210により収束される光束を、光波面変調素子として機能する光波面変調面213aが形成されたレンズ213によって、光軸O-Oから周辺に向かって、規則正しく分散させる。このように、光学系210に光波面変調素子213aを挿入することによる光束の分散により、撮像素子220の撮像面222上ではどこにも、ピント(焦点)が合わない画像を実現する。
 換言すれば、光波面変調面213a(光波面変調素子)を有する光学系210によって、像形成の中心的役割を成す焦点深度の深い光束と、フレアー(ボケ部分)を形成している。
 前述したように、光波面変調面213aが形成されたレンズ213(光波面変調素子)を有する光学系210によって生成される、この規則的に分散した画像を、デジタル処理により、光学系210内のレンズを移動させずにピントの合った画像に復元する手段を、波面収差制御光学系、あるいは深度拡張光学系(WFCO)といい、その復元処理を画像処理装置240において行う。
 図12を参照してWFCOの基本原理について説明する。
 被写体OBJの画像fが、関数Hで示される特性を持つWFCOに入ることにより、画像gが生成される。この作用は、次のような式で表される。
(数2)
   g=H*f
    ただし、*はコンボリューション演算を表す演算子である。
 生成された画像gから被写体の画像fを求めるためには、次の逆変換処理を行う。H-1は、関数Hの逆関関数を意味する。
(数3)
    f=H-1*g
 ここで、関数Hに関するカーネルサイズと演算係数について説明する。
 ズームのためにレンズを移動させたズームポジションをZPn,ZPn-1・・・とする。また、それぞれのH関数をHn,Hn-1、・・・・とする。
 各々のスポット像が異なるため、各々のH関数は、変換係数a,b,c,d,e,fを用いると、次のようになる。
Figure JPOXMLDOC01-appb-M000001
 この行列の行数、および/または、列数の違いをカーネル(Kernel) サイズ、各々の数字を演算係数とする。
 ここで、各々のH関数は画像処理装置240内のメモリに格納しておいても構わない。あるいは、PSFを物体距離の関数としておき、物体距離によって係数a,b,c,d,e,fを計算し、それを適用してH関数を算出することによって任意の物体距離に対して、コンボリューション処理のための最適なフィルタを作るように設定できるようにしても構わない。
  また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
 本実施形態においては、図3に示すように、光学系210からの像を撮像素子220で受像して、開口絞り214を開放した「絞り開放時」には、撮像素子220で受像した画像データを画像処理装置240に入力させる。
 画像処理装置240において光学系210に応じた変換係数を取得する。
 画像処理装置240はさらに、取得した変換係数を用いて撮像素子220からの分散画像信号より分散のない画像信号を生成する。
 本実施形態においては、WFCOを採用し、高精細な画質を得ることが可能で、しかも、光学系210の構成を簡単化でき、撮像装置200のコスト低減を図ることが可能となっている。
 画像処理装置240は、撮像素子220による1次画像FIMをA/Dコンバータ232を介して受けて、フィルタによるコンボリューション処理によって被写界深度を拡張する処理等を施して高精細な最終画像FNLIMを形成する。
 画像処理装置140における修正した光学伝達関数(MTF:Modified opitiacl Transfer Functio) の補正処理は、たとえば、図13の曲線CV1で示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の処理にて、図13中、曲線CV2で示す特性に近づくような補正を行う。
 図13中、曲線CV1で示す特性は、たとえば、本実施形態のように、波面形成用光学素子、たとえば、光波面変調素子213aを用いずに波面を変形(変調)させない場合に得られる特性である。
 なお、本実施形態の画像処理装置140における全ての補正は、空間周波数のパラメータによる。
 本実施形態においては、図13に示すように、光学的に得られる空間周波数に対するMTFの特性曲線CV1に対して、最終的に実現したいMTF特性曲線CV2を達成するためには、それぞれの空間周波数に対し、図14に示すようにエッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
 たとえば、図13に図解したMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図14に示すようになる。
 図14において、空間周波数の所定帯域内における低周波数(LF)側および高周波数(HF)側でエッジ強調を弱くし、空間周波数の所定帯域内における中間周波数領域(MF)においてエッジ強調を強くして補正を行うことにより、図13に図解した所望のMTF特性曲線CV2を仮想的に実現する。
 このように、実施形態に係る撮像装置200は、基本的に、光波面変調機能を有し1次画像を形成する光学系210および撮像素子220と、1次画像を高精細な最終画像に形成する画像処理装置240からなる。
 光学系210の中に、波面成形用の光学素子、たとえば、光波面変調素子213aを新たに設けるか、またはガラス、プラスチックなどのような光学素子(レンズ213)の面を波面成形用に成形したもの(光波面変調面213a)を設ける。
 光波面変調面213aを有するレンズ213によって、結像の波面を変形(変調)し、そのような変調された波面をCCDやCMOSセンサからなる撮像素子220の撮像面(受光面)222に結像させる。
 撮像素子220の撮像面におけるこの結像画像は合焦した画像ではないが、その結像1次画像を、画像処理装置240を通して高精細画像を得る。
 本実施形態では、撮像素子220による1次画像は焦点深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置240で行う。
 波動光学的考察
 本実施形態における撮像装置200における結像のプロセスを、波動光学的に考察する。
 物点の1点から発散された球面波は結像光学系、たとえば、光学系210を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ種々の収差が発生する。波面は球面でなく複雑な形状となる。
 幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
 結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求めることができる。その波動光学的強度分布は、波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求めることができる。
 さらに、その瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、たとえば、光学系210を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
 したがって、所定の手法によって射出瞳位置での波面情報を信号処理すれば、任意の結像面におけるMTF値は変更可能である。
 本実施形態においても、波面の形状変化を波面形成用光学素子、たとえば、光波面変調素子213aが形成されたレンズ213で行うのが主であるが、まさに、位相、光線に沿った光路長に増減を設けて目的とする波面形成を行っている。
 目的とする波面形成を行えば、射出瞳からの射出光束は、幾何光学的なスポット像から判るように、光線の密な部分と疎の部分から形成される。
 この光束状態のMTFは、空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像度は維持しているという特徴を示している。
 すなわち、MTF値が低い状態であれば、または、幾何光学的にはこのようなスポット像の状態であれば、エリアジングの現象を発生させないことになる。
 つまり、ローパスフィルタが必要ないのである。
 そして、画像処理装置240でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
 MTFのレスポンス
 図15~図17を参照して、本実施形態および従来光学系のMTFのレスポンスについて考察する。
 図15は、従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFの応答を示す図である。
 図16は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと、焦点位置から外れたときのMTFの応答を示す図である。
 図17は本実施形態に係る撮像装置のデータ復元後のMTFの応答を示す図である。
 図15~図17において、横軸はナイキスト周波数で正規化した周波数を示し、縦軸はMTFを示す。
 図15~図17において、破線で示した曲線CV11、CV21、CV31はピントが外れた時のMTFを示しており、実線で示した曲線CV12、CV22、CV32はピントが合った(合焦)時のMTFを示している。
 破線の曲線CV11、CV21、CV31から判るように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が、実線で示した光波面変調素子を挿入してない光学系よりも少なくなる。
 この光学系によって結像された画像について、画像処理装置240内のコンボリューション演算部242におけるコンボリューション演算処理を行うと、MTFの応答が向上する。
 図16に示した、光波面変調素子を持つ光学系のOTFの絶対値(MTF)はナイキスト周波数において0.1以上であることが好ましい。その理由は、図17に示した復元後のOTFを達成するためには、コンボリューション演算部242における復元フィルタを用いてOTFのゲインを上げることになるが、撮像素子のノイズも同時に上げることになる。そのため、ナイキスト周波数付近の高周波ではできるたけOTFのゲインを上げずにOTFの復元を行うことが好ましい。
 通常の光学系の場合、ナイキスト周波数でのMTFが0.1以上あれば解像する。
 したがって、復元前のMTFが0.1以上あれば復元フィルタでナイキスト周波数でのOTFのゲインを上げずに済む。
 他方、復元前のMTFが0.1未満であると、復元画像がノイズの影響を大きく受けた画像になるため好ましくない。
 上述した処理を行う画像処理装置240の構成および処理について説明する。
 画像処理装置240は、図3に示すように、生(RAW)データ・バッファメモリ241、二次元コンボリューション演算部242、記憶手段としてのカーネルデータ格納ROM243、および、コンボリューション制御部244を有する。
 コンボリューション制御部244は、制御装置290により制御されて、コンボリューション処理のオン・オフ、画面サイズ、カーネルデータの入れ替え等の制御を行う。
 カーネルデータ格納ROM243には、図18、図19、または、図20に示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータ、および/または、演算係数が格納されている。
 ROM243に格納されたカーネルデータは、コンボリューション制御部244が、制御装置290によって露出設定時に決まる露出情報RPを取得し、その露出情報RPに応じた切り替え信号SWに応じて、コンボリューション制御部244を通じてカーネルデータを選択制御される。
 なお、露出情報RPには、光学系210における絞り214の絞り状態を示す絞り情報が含まれる。開口絞り214の絞り状態は、露出に応じて、制御装置290によって制御される。
 図18の例では、カーネルデータKAは、光学倍率(×1.5)、カーネルデータKBは光学倍率率(×5)、カーネルデータKCは光学倍率(×10)に対応したデータとなっている。
 図19の例では、カーネルデータKAは絞り情報としてのFナンバ(2.8)、カーネルデータKBはFナンバ(4)に対応したデータとなっている。
 図20の例では、カーネルデータKAは物体距離情報が100mm、カーネルデータKBは物体距離が500mm、カーネルデータKCは物体距離が4mに対応したデータとなっている。
 カーネルデータの切り替え処理
 図21は、制御装置290の露出情報RP(絞り情報を含む)によるカーネルデータの切り替え処理のフローチャートである。
 まず、制御装置290において、たとえば、開口絞り214の絞り程度から、露出情報RPが検出され、コンボリューション制御部244に供給される(ST101)。
 コンボリューション制御部244が、露出情報RPに基づいた切り替え信号SWに応じて、カーネルデータ格納ROM243に格納されたカーネルサイズ、数値演係数を選択し、選択したカーネルサイズ、数値演算係数をROM243から読みだして、二次元コンボリューション演算部242内のレジスタにセットされる(ST102)。
 撮像素子220で撮像され、AFE230を介して二次元コンボリューション演算部242に入力された画像データに対して、レジスタに格納されたカーネルサイズ、数演算係数に基づいてコンボリューション演算が行われ、演算され変換されたデータがカメラ信号処理部250に転送される(ST103)。
 以下に、画像処理装置240の信号処理部とカーネルデータ格納ROMについてさらに具体的な例について説明する。
 図22は、信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。簡単化のためにAFE232等は省略している。
 図22の例は露出情報RPに応じたフィルタカーネルを予め用意した場合のブロック図である。
 画像処理装置240が、露出情報検出部253から露出設定時に決まる露出情報RPを取得し、コンボリューション制御部244を通じてカーネルデータ格納ROM243に格納されているカーネルデータを選択制御する。二次元コンボリューション演算部242においては、カーネルデータを用いてコンボリューション処理を施す。
 図23は、信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。なお、簡単化のためにAFE232等は省略している。
 図23の例は、画像処理装置240の処理の最初にノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報RPに応じたノイズ低減フィルタ処理ST1を予め用意した場合のブロック図である。
 露出設定時に決まる露出情報RPを露出情報検出部253より取得し、コンボリューション制御部244を通じてカーネルデータを選択制御する。
 二次元コンボリューション演算部242においては、前記ノイズ低減フィルタ処理(1)、ステップST1、を施した後、カラーコンバージョン処理、ステップST2、によって色空間を変換、その後カーネルデータを用いてコンボリューション処理(OTF復元フィルタ処理)、ステップST3、を施す。
 再度、ノイズ低減フィルタ処理(2)、ステップST4、を行い、カラーコンバージョン処理、ステップST5、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
 なお、再度のノイズ処理、ステップST4、は省略することも可能である。
 図24は、信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。簡単化のためにAFE232等は省略している。
 図24の例は、露出情報RPに応じたOTF復元フィルタを予め用意した場合のブロック図である。
 露出設定時に決まる露出情報RPを露出情報検出部253より取得し、コンボリューション制御部244を通じて、ROM243に格納されているカーネルデータを選択制御する。
 二次元コンボリューション演算部242は、ノイズ低減フィルタ処理(1)、ステップST11、カラーコンバージョン処理、ステップST12、の後に、前記OTF復元フィルタを用いてコンボリューション処理、ステップST13、を施す。
 再度、ノイズ低減フィルタ処理(2)、ステップST14、を行い、カラーコンバージョン処理、ステップST15、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
 なお、ノイズ低減フィルタ処理、ステップST11、ST14は、いずれか一方のみでもよい。
 図25は、信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。簡単化のためにAFE232等は省略している。
 図25の例は、ノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報RPに応じたノイズ低減フィルタを予め用意した場合のブロック図である。
 露出設定時に決まる露出情報RPを露出情報検出部253より取得し、コンボリューション制御部244を通じて、ROM243に格納されているカーネルデータを選択制御する。
 二次元コンボリューション演算部242においては、ノイズ低減フィルタ処理(1)ステップST21、を施した後、カラーコンバージョン処理、ステップST22によって色空間を変換、その後、カーネルデータを用いてコンボリューション処理、ステップST23、を施す。
 再度、露出情報RPに応じたノイズ低減フィルタ処理(2)、ステップST24を行い、カラーコンバージョン処理、ステップST25、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
 なお、ノイズ低減フィルタ処理、ステップST21、は省略することも可能である。
 以上は露出情報RPのみに応じて二次元コンボリューション演算部242においてフィルタ処理を行う例を説明したが、その他の方法をとることもできる。
 たとえば、被写体距離情報、ズーム情報、あるいは、撮影モード情報と露出情報とを組み合わせることにより、適した演算係数の抽出、あるいは演算を行うことが可能である。
 図26は、被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
 撮像装置200Aは、コンボリューション装置401、カーネル・数値演算係数格納レジスタ402、および、画像処理演算プロセッサ403を有する。
 この撮像装置200Aにおいては、物体概略距離情報検出装置500から読み出した被写体の物体距離の概略距離に関する情報、および、露出情報RPを得た画像処理演算プロセッサ403は、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル・数値演算係数格納レジスタ402に格納する。レジスタ402に格納したその値を用いて演算するコンボリューション装置401にて適正な演算を行い、画像を復元する。
 本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置500により検出し、検出した距離に応じて異なる画像補正の処理を行うように構成されている。
 上記のコンボリューション演算部242における画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適正なコンボリューション演算を行う構成をとることができる。
 この構成の他にも、以下の構成を採用することが可能である。
 本発明の実施の形態においては、たとえば、下記き変形態様をとることができる。
 (1)変形例1
    焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、
 (2)変形例2
    焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成
 図26の構成に対応付けると次のような構成をとることができる。
 構成例1
 変換係数記憶手段としてのカーネル・数値演算係数格納レジスタ402に被写体距離に応じて、少なくとも位相板に相当する樹脂レンズに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。
 画像処理演算プロセッサ403が、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき、カーネル・数値演算係数格納レジスタ402から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
 そして、変換手段としてのコンボリューション装置401が、係数選択手段としての画像処理演算プロセッサ403で選択された変換係数によって、画像信号の変換を行う。
 構成例2
 または、前述したように、変換係数演算手段としての画像処理演算プロセッサ403が、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき変換係数を演算し、カーネル・数値演算係数格納レジスタ402に格納する。 そして、変換手段としてのコンボリューション装置401が、変換係数演算手段としての画像処理演算プロセッサ403で得られカーネル・数値演算係数格納レジスタ402に格納された変換係数によって、画像信号の変換を行う。
 構成例3
 または、補正値記憶手段としてのカーネル・数値演算係数格納レジスタ402にズーム光学系210のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
 そして、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ403が、補正値記憶手段としてのカーネル・数値演算係数格納レジスタ402から被写体までの距離に応じた補正値を選択する。
 変換手段としてのコンボリューション装置401が、第2変換係数記憶手段としてのカーネル・数値演算係数格納レジスタ402から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ403により選択された補正値とに基づいて画像信号の変換を行う。
 以上説明したように、本実施形態によれば、1次画像を形成する光学系210および撮像素子220と、1次画像を高精細な最終画像に形成する画像処理装置240とを含む。 光学系210は、物体距離に応じた(物体距離の違いによる)OTFの変化を小さくする光波面変調素子または光波面変調面を備えたレンズを含む。
 光波面変調素子または光波面変調面(もしくは光波面変調面を持つレンズ)の焦点距離の絶対値が光学系全体の焦点距離の絶対値より大きい。
 以上から、以下の効果を得ることができる。
 光波面変調による画面の周辺部における収差などの影響を緩和することができ、画面の中心と画面の周辺部でスポット像の大きさの差を小さくできる。その結果、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られるという利点がある。
 また、本実施形態によれば、光学系は、光波面変調素子の光波面変調面が光軸に対して回転対称な形状であり、かつ、「位相形状」が中心部から周辺部にかけて単調増加もしくは単調減少するように形成されている。
 その結果、光波面変調面を光軸に対して回転対称な形状とし、光波面変調素子を持たない一般的な光学系よりも球面収差を大きく発生させることにより、光波面変調素子を持たない一般的な光学系よりも物体距離に応じたOTFの変化を極めて小さくすることが可能となる。
 また、画面の中央部分から画面の周辺部分にかけて、「位相形状」が単調増加もしくは単調減少するように形成することにより、物体距離に応じたOTFの変化を小さくする作用を持ちつつ、スポット像を小さくすることが可能となる。
 また、本実施形態においては、光学系210全体の焦点距離に対して、光波面変調面の焦点距離を大きくすることで、画面の中心部から画面の周辺部にかけて均一なOTFとすることが可能となる。
 また、光学系210全体の焦点距離に対して、光波面変調面を備えた光波面変調素子(レンズ)の焦点距離を大きくすることで、画面の中心部から画面の周辺部にかけて均一なOTFとすることが可能となる。
 そして、光学系210の構成を簡単化でき、コスト低減を図ることができる。さらに、適切な画質の、ノイズの影響が少ない良好な復元画像を得ることが可能である。さらに、撮像装置の製造が容易で、光学系におけるレンズの取り付けに関して高い精度を必要としない。また、反射の影響も抑止でき、画像の方向によりコントラストが異なることがない撮像装置を実現することができる。
 また、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、図3に示す操作部280等の入力により知り、適性となるカーネルサイズや上述した係数を対応させる。これにより、光学倍率やディフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ-ションによる画像復元が可能となるという利点がある。
 また、製造の難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、光学径210内のレンズを移動させること無く、自然な画像を得ることができるという利点がある。
 そして、本実施形態に係る撮像装置200には、デジタルカメラやカムコーダー等の通常のユーザが使用する電子機器について、小型化、軽量化、低価格化が求められる、WFCOの光学系に使用することが可能である。
 また、光学系210の構成を簡単化でき、光学系210の製造が容易となり、コスト低減を図ることができる。
 ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力の限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、撮像装置の最終画像に悪影響を及ぼす。
 画質向上のため、可能な限りコントラストを上げることが望ましいが、そのためには、高性能なレンズを用いた光学系を必要とする。
 CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
 現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、温度などの管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
 以上のように、ますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。光学系を複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりすると価格上昇につながる。
 しかし、本実施形態によれば、上述したように、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
 上述した実施の形態は例示に過ぎず、たとえば、図18、図19、および図20のカーネルデータ格納ROMに関しても、光学倍率、Fナンバやそれぞれのカーネルのサイズ、物体距離の値に対して用いられるものとは限らない。
 またコンボリュション演算のために用意するカーネルデータの数についても3個とは限らない。
 本発明の実施に際しては、上述した例示に限らず、上述した実施の形態と実質的に等価、または、代替の種々の変形態様をとることができる。
 本発明の光学系は、上述した撮像装置はもとより他の種々の撮像装置に適用することができる。また、本発明の撮像装置は情報コード読取装置に限らず、この画像処理装置に適用することができる。

Claims (19)

  1.  光波面変調機能を有する光学素子を有する光学系と、
     前記光学系の焦点位置に配置され、前記光学系を通過した被写体像を撮像する撮像素子と、
     を有し、
     前記光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有し、かつ、前記光波面変調機能を有する光学素子の焦点距離の絶対値が、前記光学系全体の焦点距離の絶対値に対して大きい、
     撮像装置。
  2.  前記光波面変調機能を有する光学素子は、被写体画像を分散した分散画像を前記撮像素子の撮像面に生成する、
     請求項1に記載の撮像装置。
  3.  前記光学系は開口絞りを含み、
     当該開口絞りは、前記光波面変調機能を有する光学素子の光出射側または光入射側の近傍に配置されている、
     請求項1または2に記載の撮像装置。
  4.  前記光波面変調機能を有する光学素子は、レンズの光出射面または光入射側に形成された光波面変調要素を有する、
     請求項1~3のいずれかに記載の撮像装置。
  5.  前記開口絞りは、前記光波面変調機能を有する光学素子の光出射側または光入射側に隣接して配置されている、
     請求項4に記載の撮像装置。
  6.  前記レンズに前記光波面変調要素が形成された場合の形状と、前記レンズに前記光波面変調要素が形成されない場合の形状との差分を位相形状と規定したとき、
     前記光波面変調機能を有する光学素子の形状は、前記位相形状が前記光学系の光軸の周りに回転対称であり、前記光軸から周辺部に向かって単調に増加または単調に減少するように、形成されている、
     請求項4に記載の撮像装置。
  7.  前記開口絞りに隣接して、当該光学系の出射端側に、平凹レンズと両凸レンズとを接合した結像用の接合レンズが配設されている、
     請求項4、5、6のいずれかに記載の撮像装置。
  8.  前記開口絞りは、絞りが変更可能に構成されている、
     請求項1~7のいずれかに記載の撮像装置。
  9.  前記光波面変調機能を有する光学素子の光入射側に、前記光学系に入射する像を平行にするレンズが配設されている、
     請求項1~8のいずれかに記載の撮像装置。
  10.  前記光波面変調機能を有する光学素子は、被写体画像を分散した分散画像を前記撮像素子の配置部分に生成し、
     当該撮像装置は、前記光波面変調機能を有する光学素子によって分散された分散画像を撮像した前記撮像素子からの被写体の分散画像について信号処理を行い分散のない画像に復元する画像処理部をさらに有する、
     請求項1~9のいずれかに記載の撮像装置。
  11.  前記画像処理部は、畳み込み演算処理を行い、前記分散のない画像に復元する、
     請求項10に記載の撮像装置。
  12.  前記画像処理部は、
      前記分散画像についてカラー畳み込み演算処理を行い、
      当該カラー畳み込み演算処理結果について光学的伝達関数を復元する処理を行う、
     請求項11に記載の撮像装置。
  13.  前記画像処理部は、カーネルデータを用いて畳み込み演算処理および前記光学的伝達関数を復元する処理を行う、
     請求項12に記載の撮像装置。
  14.  前記カーネルデータは、光学倍率、絞り、物体距離情報のいずれかである、
     請求項13に記載の撮像装置。
  15.  前記カーネルデータは、露出状態に応じて規定される複数有し、
     前記画像処理部は、前記光学系の露出に応じて前記カーネルデータを選択して、上記処理を行う、
     請求項14に記載の撮像装置。
  16.  当該撮像装置は、前記光学系内の開口絞りの絞りを調整して露出を調整し、調整した露出に応じて前記カーネルデータを選択して、上記画像処理部の処理を制御する、
     請求項15に記載の撮像装置。
  17.  請求項1~16のいずれかに記載の撮像装置を有し、情報コードを光学的に読み取る情報コード読取装置。
  18.  前記情報コード読取装置による読み取り対象の前記情報コードは、一次元バーコード、スタック式のコード、二次元バーコードのいずれかを含む、
     請求項17に記載の情報コード読取装置。
  19.  光波面変調機能を有する光学素子を有し、
     前記光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有し、かつ、前記光波面変調機能を有する光学素子の焦点距離の絶対値が、前記光学系全体の焦点距離の絶対値に対して大きい、
     光学系。
PCT/JP2009/056376 2008-03-27 2009-03-27 光学系、撮像装置および情報コード読取装置 WO2009119838A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/934,796 US8462213B2 (en) 2008-03-27 2009-03-27 Optical system, image pickup apparatus and information code reading device
JP2010505866A JPWO2009119838A1 (ja) 2008-03-27 2009-03-27 光学系、撮像装置および情報コード読取装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008084330 2008-03-27
JP2008-084330 2008-03-27

Publications (1)

Publication Number Publication Date
WO2009119838A1 true WO2009119838A1 (ja) 2009-10-01

Family

ID=41114023

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/056376 WO2009119838A1 (ja) 2008-03-27 2009-03-27 光学系、撮像装置および情報コード読取装置

Country Status (3)

Country Link
US (1) US8462213B2 (ja)
JP (1) JPWO2009119838A1 (ja)
WO (1) WO2009119838A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049760A (ja) * 2010-08-26 2012-03-08 Fujifilm Corp 撮像モジュールおよび画像信号処理方法
JP2014132724A (ja) * 2013-01-07 2014-07-17 Olympus Imaging Corp 撮像装置及び撮像方法
JP2014222893A (ja) * 2010-01-22 2014-11-27 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク 光学ディフューザを用いて画像を記録するためのシステム、方法、及びメディア
EP3196686A2 (en) 2016-01-21 2017-07-26 Omron Corporation Optical system and photographing apparatus
WO2019142313A1 (ja) * 2018-01-19 2019-07-25 三菱電機株式会社 波面計測装置および波面計測システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5635844B2 (ja) * 2010-09-06 2014-12-03 キヤノン株式会社 焦点調整装置および撮像装置
US9208570B2 (en) 2012-03-28 2015-12-08 Sony Corporation System and method for performing depth estimation by utilizing an adaptive kernel
US9064850B2 (en) 2012-11-15 2015-06-23 Taiwan Semiconductor Manufacturing Company, Ltd. Through-substrate via formation with improved topography control
JP6033673B2 (ja) * 2012-12-28 2016-11-30 株式会社日立製作所 撮像装置
US9990698B2 (en) * 2014-12-01 2018-06-05 Canon Kabushiki Kaisha Control apparatus, lens apparatus, and non-transitory computer-readable storage medium that determine data as coefficient data corresponding to an order less than a predetermined order of an approximation function
CN114911036A (zh) * 2022-05-18 2022-08-16 Oppo广东移动通信有限公司 镜头及电子设备
CN115130304A (zh) * 2022-06-29 2022-09-30 北京理工大学 一种基于波前编码的小凹计算成像系统及优化方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007013621A1 (ja) * 2005-07-28 2007-02-01 Kyocera Corporation 撮像装置および画像処理方法
JP2007060647A (ja) * 2005-07-28 2007-03-08 Kyocera Corp 撮像装置および撮像方法
WO2007074649A1 (ja) * 2005-12-27 2007-07-05 Kyocera Corporation 撮像装置およびその画像処理方法
JP2007300208A (ja) * 2006-04-27 2007-11-15 Kyocera Corp 撮像装置
JP2008017157A (ja) * 2006-07-05 2008-01-24 Kyocera Corp 撮像装置、並びにその製造装置および製造方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5217841A (en) * 1975-03-12 1977-02-10 Hitachi Ltd Optical image pick up system
US6021005A (en) * 1998-01-09 2000-02-01 University Technology Corporation Anti-aliasing apparatus and methods for optical imaging
US6069738A (en) * 1998-05-27 2000-05-30 University Technology Corporation Apparatus and methods for extending depth of field in image projection systems
US6642504B2 (en) * 2001-03-21 2003-11-04 The Regents Of The University Of Colorado High speed confocal microscope
US6525302B2 (en) * 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
JP3958603B2 (ja) 2002-02-21 2007-08-15 オリンパス株式会社 電子内視鏡システム及び電子内視鏡システム用の信号処理装置
JP2004153497A (ja) 2002-10-30 2004-05-27 Kyocera Corp ディジタルカメラの自動露出制御システム
WO2007001025A1 (ja) * 2005-06-29 2007-01-04 Kyocera Corporation 生体認証装置
JP4503516B2 (ja) 2005-09-09 2010-07-14 株式会社ジェイデータ 携帯電話
JP5188397B2 (ja) * 2006-12-27 2013-04-24 京セラ株式会社 撮像装置および情報コード読取装置
US7663813B2 (en) * 2008-01-02 2010-02-16 Newmax Technology Co., Ltd. Imaging lens module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007013621A1 (ja) * 2005-07-28 2007-02-01 Kyocera Corporation 撮像装置および画像処理方法
JP2007060647A (ja) * 2005-07-28 2007-03-08 Kyocera Corp 撮像装置および撮像方法
WO2007074649A1 (ja) * 2005-12-27 2007-07-05 Kyocera Corporation 撮像装置およびその画像処理方法
JP2007300208A (ja) * 2006-04-27 2007-11-15 Kyocera Corp 撮像装置
JP2008017157A (ja) * 2006-07-05 2008-01-24 Kyocera Corp 撮像装置、並びにその製造装置および製造方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222893A (ja) * 2010-01-22 2014-11-27 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク 光学ディフューザを用いて画像を記録するためのシステム、方法、及びメディア
US9407833B2 (en) 2010-01-22 2016-08-02 The Trustees Of Columbia University In The City Of New York Systems, methods, and media for recording an image using an optical diffuser
JP2012049760A (ja) * 2010-08-26 2012-03-08 Fujifilm Corp 撮像モジュールおよび画像信号処理方法
JP2014132724A (ja) * 2013-01-07 2014-07-17 Olympus Imaging Corp 撮像装置及び撮像方法
US9282257B2 (en) 2013-01-07 2016-03-08 Olympus Corporation Image apparatus and imaging method
EP3196686A2 (en) 2016-01-21 2017-07-26 Omron Corporation Optical system and photographing apparatus
JP2017129790A (ja) * 2016-01-21 2017-07-27 オムロン株式会社 光学系および撮像装置
US10194076B2 (en) 2016-01-21 2019-01-29 Omron Corporation Optical system and photographing apparatus
WO2019142313A1 (ja) * 2018-01-19 2019-07-25 三菱電機株式会社 波面計測装置および波面計測システム

Also Published As

Publication number Publication date
US20110017827A1 (en) 2011-01-27
JPWO2009119838A1 (ja) 2011-07-28
US8462213B2 (en) 2013-06-11

Similar Documents

Publication Publication Date Title
WO2009119838A1 (ja) 光学系、撮像装置および情報コード読取装置
JP4663737B2 (ja) 撮像装置およびその画像処理方法
JP4712631B2 (ja) 撮像装置
JP5188397B2 (ja) 撮像装置および情報コード読取装置
JP2008268937A (ja) 撮像装置および撮像方法
JP2007322560A (ja) 撮像装置、並びにその製造装置および製造方法
JP2008017157A (ja) 撮像装置、並びにその製造装置および製造方法
JP2008048293A (ja) 撮像装置、およびその製造方法
JP2007300208A (ja) 撮像装置
JP4658162B2 (ja) 撮像装置および電子機器
JP2009244430A (ja) 撮像装置
JP2008245266A (ja) 撮像装置および撮像方法
WO2006106737A1 (ja) 撮像装置および撮像方法
JP2009086017A (ja) 撮像装置および撮像方法
JP2006094468A (ja) 撮像装置および撮像方法
JP2009033607A (ja) 撮像装置および画像処理方法
JP2009134023A (ja) 撮像装置および情報コード読取装置
JP2008245265A (ja) 撮像装置、並びにその製造装置および製造方法
JP2008167040A (ja) 撮像装置、その製造装置および製造方法、並びに情報コード読取装置
JP4722748B2 (ja) 撮像装置およびその画像生成方法
JP2009033561A (ja) 情報コード読取装置およびその方法
JP2009008935A (ja) 撮像装置
JP2009010783A (ja) 撮像装置
JP2009181367A (ja) 撮像装置および電子機器
JP4948967B2 (ja) 撮像装置、並びにその製造装置および製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09726407

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010505866

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12934796

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09726407

Country of ref document: EP

Kind code of ref document: A1