WO2009119838A1 - 光学系、撮像装置および情報コード読取装置 - Google Patents
光学系、撮像装置および情報コード読取装置 Download PDFInfo
- Publication number
- WO2009119838A1 WO2009119838A1 PCT/JP2009/056376 JP2009056376W WO2009119838A1 WO 2009119838 A1 WO2009119838 A1 WO 2009119838A1 JP 2009056376 W JP2009056376 W JP 2009056376W WO 2009119838 A1 WO2009119838 A1 WO 2009119838A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- optical system
- wavefront modulation
- optical
- light wavefront
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/001—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
- G02B13/0015—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
- G02B13/005—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having spherical lenses only
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/001—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
- G02B13/0055—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
- G02B13/006—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element at least one element being a compound optical element, e.g. cemented elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/001—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
- G02B13/009—Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras having zoom function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10712—Fixed beam scanning
- G06K7/10722—Photodetector array or CCD scanning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10792—Special measures in relation to the object to be scanned
- G06K7/10801—Multidistance reading
- G06K7/10811—Focalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10821—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
- G06K7/10831—Arrangement of optical elements, e.g. lenses, mirrors, prisms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
- H04N25/615—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
- H04N25/615—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
- H04N25/6153—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF] for colour signals
Definitions
- the present invention relates to an imaging apparatus and an information code reading apparatus using the imaging apparatus. More specifically, the present invention realizes an image having a deep depth of field even when an optical transfer function (OTF) or a point spread function (PSF) changes.
- OTF optical transfer function
- PSF point spread function
- the present invention relates to an imaging device that can handle the information and an information code reader using the same.
- the present invention also relates to an optical system applied to the imaging apparatus.
- CMOS Complementary Metal Oxide Semiconductor
- an imaging lens device using an optical system including a plurality of lenses and a CCD or CMOS sensor as an imaging device optically captures an image of a subject by the optical system, and the captured image is an electrical signal by the imaging device.
- an imaging lens device is used for a digital camera, a video camera, a digital video unit, a personal computer, a mobile phone, a personal digital assistant (PDA), an image inspection device, an industrial camera for automatic control, and the like. It has been.
- FIG. 27 is a diagram schematically illustrating the configuration of the imaging lens device and the ray trajectory.
- the imaging lens device 1 includes an optical system 2 having a plurality of lenses and an imaging element 3 such as a CCD or CMOS sensor.
- the imaging surface of the imaging device 3 is illustrated as being located at the in-focus position BFP of the optical system 2.
- the optical system 2 includes lenses 21 and 22 positioned on the object side OBJS, an aperture stop 23, and an imaging lens 24.
- the object-side lenses 21 and 22, the aperture stop 23, and the imaging lens 24 are sequentially arranged from the lens object-side OBJS toward the image sensor 3 side.
- FIG. 28A to 28C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.
- FIG. 28A, 28B, and 28C the horizontal axis indicates the center of gravity, and the vertical axis indicates the object scene.
- FIG. 28 (B) shows a spot image at the time of focusing.
- FIGS. 28 (A) and 28 (C) are states in which 0.2 mm is deviated from the focused state to positive (+) negative ( ⁇ ). A spot image is shown.
- Patent Document 6 proposes an automatic exposure control system for a digital camera that performs filter processing using an optical transfer function (OTF).
- OTF optical transfer function
- a device having an image input function using a CCD, a CMOS sensor or the like it is extremely useful to read a close still image close to an imaging device such as a barcode together with a desired image such as a landscape.
- a technique is known in which a lens in an optical system is moved to focus on an autofocus system.
- a method of applying a depth extension technique is known.
- this depth expansion technology for example, in a camera, a technology is known in which the depth of field is expanded by adjusting the aperture stop to reduce the F number to a fixed focus with a fixed focus.
- the point spread function (PSF: point spread function) when the above-described phase plate is inserted into the optical system is generally assumed to be constant. is there.
- PSF point spread function
- the image after the image restoration processing in the signal processing means becomes unfavorable as it becomes out of focus out of focus.
- the reason is that if the OTF at the time of out-focus is constant, a good restoration result is obtained, but as a practical problem, the OTF decreases. That is, OTF changes. Therefore, even if image restoration processing is performed by convolution calculation or the like in the signal processing means, it is difficult to completely restore an accurate image because of the nature that the processing originally blurs and restores the image. As a result, it is difficult to obtain a good restored image with the above technique.
- phase modulation elements used in depth-enhanced optical systems are difficult to mitigate the effects of aberrations on the periphery of the screen due to phase modulation.
- the difference in size tends to increase.
- the depth extension optical system proposed in the above document has a disadvantage that it is difficult to obtain uniform image quality over the entire screen.
- an optical system that can provide an image suitable for image restoration processing.
- an optical system it is desired to provide an optical system that can simplify the configuration of the optical system and can reduce the price.
- an imaging device that can reduce the difference in size of the spot image over the entire screen, obtain uniform image quality, and obtain a good restored image. Is desired.
- an imaging apparatus that employs the above optical system, has a simple apparatus configuration, and can be reduced in price.
- an optical element having a light wavefront modulation function is used as an optical system that provides a captured image that can be subjected to image restoration processing in the signal processing means while avoiding the complexity of the configuration of the optical system.
- An optical element having a light wavefront modulation function has the performance of reducing the change in the optical transfer function (OTF) of the entire screen due to a difference in subject distance, and the absolute focal length of the optical element having a light wavefront modulation function. The value is larger than the absolute value of the focal length of the entire optical system.
- An image pickup apparatus of the present invention includes an optical system having the above-described optical element having a light wavefront modulation function, and an image pickup element that is disposed at a focal length of the optical system and picks up an image of a subject that has passed through the optical system. .
- An optical element having a light wavefront modulation function has a performance of reducing a change in the optical transfer function of the entire screen due to a difference in subject distance.
- the absolute value of the focal length of the optical element having the light wavefront modulation function is larger than the absolute value of the focal length of the entire optical system.
- the optical element having a light wavefront modulation function includes a light wavefront modulation element formed on a light emitting surface or a light incident surface of a lens.
- the difference between the shape when the light wavefront modulation element is formed on the lens and the shape when the light wavefront modulation element is not formed on the lens is defined as a “phase shape”
- the light wave The shape of the optical element having a surface modulation function is formed so that the phase shape is rotationally symmetric around the optical axis of the optical system and monotonously increases or decreases monotonously from the optical axis toward the periphery. ing.
- the optical system includes an aperture stop, and the aperture stop is disposed in the vicinity of the exit side of the light wavefront modulation element.
- the optical element having the light wavefront modulation function generates a dispersed image in which the subject image is dispersed in the arrangement portion of the imaging element.
- the imaging apparatus performs signal processing on the dispersed image of the subject from the imaging element that has captured the dispersed image dispersed by the optical element having the light wavefront modulation function, and restores the image to a non-dispersed image. It further has a part. More preferably, the image processing unit performs a convolution operation process to restore the image without the dispersion.
- an information code reading device that optically reads an information code, which has the above imaging device, can read an information code by the imaging device, and obtain an image without dispersion.
- an optical system capable of providing an image suitable for image restoration processing can be provided. Further, according to the present invention, it is possible to provide an optical system capable of simplifying the configuration of the optical system and reducing the cost. Furthermore, according to the present invention, there is provided an imaging apparatus that employs the optical system described above, can reduce the difference in the size of the spot image over the entire screen, can obtain uniform image quality, and can obtain a good restored image. could be provided. In addition, according to the present invention, it is possible to provide an imaging apparatus that employs the above-described optical system, has a simple apparatus configuration, and can reduce the price. Furthermore, according to the present invention, an information code reading device using the imaging device can be provided.
- FIG. 1 is an external view showing an example of an information code reading apparatus according to an embodiment of the present invention.
- 2A to 2C are diagrams showing examples of information codes to be read by the information code reading device of FIG.
- FIG. 3 is a block diagram illustrating a configuration example of an imaging apparatus applied to the information code reading apparatus of FIG.
- FIG. 4 is an enlarged view of the arrangement of the optical system and the image sensor illustrated in FIG.
- FIG. 5 (A) is a diagram showing the spherical aberration of the optical system having no optical wavefront modulation function
- FIG. 5 (B) is a diagram showing the spherical aberration of the optical system having the optical wavefront modulation function illustrated in FIG. is there.
- FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system
- FIG. 6B is a diagram showing the “surface shape” of the light wavefront modulation surface of the optical system.
- FIG. 7 is a diagram for explaining FIGS. 6 (A) and 6 (B).
- FIG. 8 is a diagram showing a defocus change of a spot image of an optical system that does not have a light wavefront modulation function.
- FIG. 9 is a diagram showing a defocus change of a spot image of an optical system having an optical wavefront modulation function without an inflection point.
- FIG. 8 is a diagram showing a defocus change of a spot image of an optical system having an optical wavefront modulation function without an inflection point.
- FIG. 10 is a diagram showing a defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element included in the optical system is smaller than the absolute value of the focal length of the entire optical system.
- FIG. 11 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element included in the optical system is larger than the absolute value of the focal length of the entire optical system.
- FIG. 12 is a diagram for explaining the principle of the depth extension optical system (WFCO).
- FIG. 13 is a diagram for explaining the MTF correction processing in the image processing apparatus illustrated in FIG.
- FIG. 14 is a diagram for specifically explaining the MTF correction processing in the image processing apparatus illustrated in FIG. FIG.
- FIG. 15 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
- FIG. 16 is a diagram illustrating the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system having the light wavefront modulation element according to the present embodiment.
- FIG. 17 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.
- FIG. 18 is a diagram illustrating optical magnification as an example of kernel data stored in the ROM.
- FIG. 19 is a diagram showing an F number of an aperture stop as an example of a kernel stored in a ROM.
- FIG. 20 is a diagram showing object distance information as another example of kernel data stored in the ROM.
- FIG. 21 is a flowchart showing an outline of the optical system setting process in the control apparatus illustrated in FIG.
- FIG. 22 is a diagram showing a first configuration example of signal processing means in the image signal processing apparatus illustrated in FIG.
- FIG. 23 is a diagram showing a second configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
- FIG. 24 is a diagram showing a third configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
- FIG. 25 is a diagram showing a fourth configuration example of the signal processing means in the image signal processing apparatus illustrated in FIG.
- FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that performs image processing by combining subject distance information and exposure information.
- FIG. 27 is a diagram schematically illustrating the configuration of the imaging lens device and the ray trajectory.
- FIGS. 28A to 28C are views showing spot images on the light receiving surface of the imaging element of the imaging lens apparatus illustrated in FIG. 27, and FIG. 28A is focused on the positive (+) side.
- FIG. 28B is a diagram showing each spot image at the time of in-focus
- FIG. 28C is a diagram showing when the focus is shifted to the negative ( ⁇ ) side. It is a figure which shows each spot image of.
- DESCRIPTION OF SYMBOLS 100 Information code reading device, 110 ... Main body (imaging device), 121 ... Code to be read, 200 ... Imaging device, 210 ... Optical system, 211-213 ... First to third lenses, 213a ... Light wavefront modulation surface, 214 ... Aperture stop, 215 ... Fourth lens, 220 ... Image sensor, 230 ... Analog front end unit, 240 ... Image processing device, 242 ... Two-dimensional convolution operation unit, 243 ... Kernel data storage ROM, 244 ... Convolution Control unit, 250... Camera signal processing unit, 280... Operation unit, 290.
- an imaging apparatus will be described as an embodiment of the present invention, and an optical system applied to the imaging apparatus will be described.
- Such an imaging apparatus can be applied to the information code reading apparatus of the present embodiment.
- FIG. 1 is an external view showing an example of an information code reading apparatus according to an embodiment of the present invention.
- FIGS. 2A to 2C are diagrams showing examples of information codes to be read by the information code reader of FIG.
- FIG. 3 is a block diagram illustrating a configuration example of an imaging apparatus applicable to the information code reading apparatus of FIG.
- the information code reading device 100 has a reflectance printed on the reading object 120, for example, shown in any of FIGS. 2 (A) to (C). It is a device that can read the information code 121 such as a different symbol or code.
- the information code reading apparatus 100 has a main body 110 and a cable 111.
- the main body 110 is connected to a processing device 140 such as an electronic register via a cable 111.
- a processing device 140 such as an electronic register via a cable 111.
- a one-dimensional barcode 122 such as a JAN code shown in FIG. 2A and a two-dimensional code 49 such as a stack-type CODE 49 shown in FIG.
- a barcode 123 or a two-dimensional barcode 123 such as a matrix-type QR code shown in FIG.
- the imaging apparatus 200 has an optical system 210.
- the optical system 210 includes an optical element having a light wavefront modulation function (hereinafter referred to as a light wavefront modulation element).
- the light wavefront modulation function refers to a function of regularly dispersing and emitting a light beam incident on an optical element.
- the imaging apparatus 200 can generate an image with a deep depth of field by regularly dispersing the light flux by the light wavefront modulation element and restoring the image dispersed by the digital signal processing.
- a one-dimensional bar code 122 such as a JAN code illustrated in FIG. 2A and a two-dimensional such as a QR code illustrated in FIG.
- the information code such as the bar code 123 can be accurately read with high accuracy.
- a wavefront aberration control optical system or a depth extension optical system WFCO: Wave Front Coding Optical System
- the optical system is different from a normal optical system as described below.
- the imaging device 200 incorporated in the information code reading device 100 includes an optical system 210, an imaging element 220, an analog front end unit (AFE) 230, an image processing device 240, camera signal processing. Unit 250, image display memory 260, image monitoring device 270, operation unit 280, and control device 290.
- the output signal FNLIM of the image processing device 240 or the output signal of the camera signal processing unit 250 is sent to the processing device 140 such as an electronic register via the cable 111.
- Optical system 4 is a diagram showing a basic configuration of an imaging lens unit which constitutes an optical system according to the present embodiment of the optical system 210 illustrated in FIG.
- FIG. 4 shows a configuration of the optical system 210, particularly illustrating the case where the light wavefront modulation surface 213a is disposed adjacent to the aperture stop 214.
- the optical system 210 provides an image of the subject object OBJ to the image sensor 220.
- the optical system 210 includes a first (plano-concave) lens 211, a second (biconvex) lens 212, and a third (biconcave) in order along the optical axis 0-0 from the object side OBJ toward the image sensor 220.
- a lens 213, an aperture stop 214, a fourth (plano-concave) lens 215, and a fifth (biconvex) lens 216 are arranged.
- the fourth lens 215 and the fifth lens 216 are configured as one thick plano-convex lens, with the convex surface on the incident side of the fifth lens joined to the concave surface on the output side of the fourth lens 215.
- the lens unit of the optical system 210 of the present embodiment is configured to include the cemented lenses (215, 216) that function as the imaging lens.
- an optical wavefront modulation surface 213 a that modulates the wavefront of light incident on the lens 213 is formed on the exit surface of the lens 213.
- a lens having a light wavefront modulation element (not shown) having a light wavefront modulation function corresponding to the light wavefront modulation surface 213a is adjacent to the aperture stop 214.
- the optical system 210 includes an element having a function of modulating the light wavefront.
- the light wavefront modulation function refers to a function of regularly dispersing and emitting a light beam incident on an optical element.
- a lens 213 provided with a light wavefront modulation surface 213a will be representatively described as an element having a function of modulating the light wavefront.
- a lens 213 provided with a light wavefront modulation surface 213 a in the vicinity of the aperture stop 214 is used as the optical system 210.
- the light wavefront modulation surface 213a is formed on the concave surface on the emission side of the plano-concave lens 213, and the aperture stop 214 is disposed adjacent to the emission side.
- the change in the optical transfer function (OTF) according to the object distance is made smaller than that of the optical system having the lens 213 that does not include the light wavefront modulation surface 213a.
- the absolute value of the focal point (facal point) of the lens 213 having the light wavefront modulation surface 213a is larger than the absolute value of the focal length of the entire optical system 210.
- the absolute value of the focal length of the lens 213 having the light wavefront modulation surface 213a is larger than the absolute value of the focal length of the entire optical system 210, the influence on the peripheral portion of the screen due to the light wavefront modulation is mitigated. A uniform image quality can be obtained on the entire screen regardless of the center and the periphery of the screen. The reason will be described later.
- phase shape A difference between the shape of the light wavefront modulation surface 213a when the phase shape light wavefront modulation function is provided and the shape of the lens when the light wavefront modulation function is not provided is referred to as a “phase shape”.
- the light wavefront modulation surface 213a formed on the exit-side concave surface of the lens 213 has a “phase shape” that is rotationally symmetric about the optical axis OO and has an optical axis O ⁇ . It is formed so as to monotonously increase or decrease monotonously from the central portion of O toward the peripheral portion of the screen.
- the phase shape rotationally symmetric with respect to the optical axis OO By making the phase shape rotationally symmetric with respect to the optical axis OO, the light wavefront modulation surface 213a, the light wavefront modulation element, or the phase modulation element can be easily manufactured.
- the mounting accuracy in the rotation direction around the lens is not strict, and the influence of reflection is small, and the difference in contrast depending on the direction of the image is eliminated.
- the phase shape monotonously increase or monotonously decrease from the central portion of the optical axis OO toward the peripheral portion the change in OTF according to the object distance can be made extremely small.
- an optical wavefront modulation surface (for example, a phase modulation surface) that makes this “phase shape” monotonically increase or decrease without having an inflection point from the center portion of the optical axis OO toward the peripheral portion of the screen will be described. To do.
- the “phase shape” of the light wavefront modulation surface is rotationally symmetric with respect to the optical axis OO.
- the spherical wave SA is intentionally generated larger than that of a normal optical system having no light wavefront modulation element.
- the change in OTF corresponding to the object distance can be made smaller than in a normal optical system that does not have a modulation element.
- the phase shape of the light wavefront modulation surface 213a (phase modulation surface) is formed so as not to have an inflection point from the central portion of the optical axis OO to the peripheral portion of the screen, and to increase or decrease monotonously.
- FIG. 5A shows the spherical aberration before the light wavefront modulation surface is formed
- FIG. 5B shows the spherical aberration after the light wavefront modulation surface is formed.
- the optical system 210 can be a high-performance fixed focus lens with a small range of spherical aberration. As a result, the final output image signal of the imaging apparatus 200 can be made highly accurate.
- FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system.
- FIG. 6B is a diagram showing the “surface shape” of the light wavefront modulation surface of the optical system.
- the horizontal axis indicates the distance in the optical axis direction.
- the numerical value on the vertical axis indicates the position of the focal point with the exit pupil diameter normalized to 1.
- the line indicated by the curve A indicates the phase shape when the optical system does not have the light wavefront modulation element
- the line indicated by the curve C indicates the phase shape when the optical system has the light wavefront modulation element. Show.
- FIG. 6A the line indicated by the curve A indicates the phase shape when the optical system does not have the light wavefront modulation element
- the line indicated by the curve C indicates the phase shape when the optical system has the light wavefront modulation element. Show.
- FIG. 6A is a diagram showing the “phase shape” of the light wavefront modulation surface of the optical system.
- FIG. 6B is a diagram
- the line indicated by the curve AA indicates the surface shape when the optical system does not have the light wavefront modulation element
- the line indicated by the curve CC indicates the surface shape when the optical system has the light wavefront modulation element.
- FIG. 7 is a diagram showing the relationship between the effective imaging area ID of the image sensor and the image cycle IC as a specific example.
- the coordinates of the center spot position are (0, 0)
- the coordinates of the upper end of the image sensor ID are (0, 0.6)
- the coordinates of the vertical upper end are (0, 1.0).
- the absolute value of the focal length f phase of the light wavefront modulation surface 213a formed on the lens 213 and functioning as the light wavefront modulation element is the absolute value of the focal length ftotal of the entire optical system 210.
- the absolute value of the focal length f phase of the lens 213 including the optical wavefront modulation surface 213a or the optical wavefront modulation element is larger than the absolute value of the focal length ftotal of the entire optical system 210. That is, / f phase /> / f total /.
- the power at the light wavefront modulation surface 213 a formed on the lens 213 that functions as a light wavefront modulation element is made weaker than the overall power of the optical system 210.
- the power of the lens 213 provided with the light wavefront modulation surface 213a is made weaker than the power of the entire optical system 210.
- a uniform OTF can be obtained from the center of the image (optical axis OO) to the periphery of the image.
- the absolute value of the focal length f phase of the optical wavefront modulation surface 213a (phase modulation surface) has the following relationship with respect to the focal length f total of the entire optical system 210.
- Equation 1
- f phase shows the focal distance of the lens 213 provided with the light wavefront modulation surface 213a
- f total indicates the focal length of the entire optical system 210.
- the absolute value of the focal length f phase of the light wavefront modulation element means the absolute value of the focal length of the lens 213 having the light wavefront modulation surface or the light wavefront modulation surface 213a.
- the phase of the light wavefront modulation surface is monotonously increasing or decreasing monotonically without the inflection point from the center (optical axis OO) to the periphery of the screen, so that the change in OTF according to the object distance is extremely small. can do. That is, in FIG. 6, the optical system having the surface shape indicated by the curve CC than the surface shape indicated by the curve BB can reduce the change in OTF. Further, by making the absolute value of the focal length f phase of the light wavefront modulation surface larger than the focal length f total of the entire optical system 210, it is uniform from the center portion (optical axis OO) of the image to the peripheral portion of the image. OTF can be used.
- the lens 213 provided with the light wavefront modulation surface 213a of the present embodiment is formed in a rotationally symmetric shape with the optical axis OO as the center, so that the light wavefront is formed on the lens barrel that accommodates the lens of the optical system 210.
- the modulation element When the modulation element is incorporated, it is not necessary to adjust the position by rotating it around the optical axis OO, and the lens having the light wavefront modulation surface 213a can be arranged in the same manner as other lenses. The manufacturing process becomes easy. Further, according to the present embodiment, it is possible to extend the depth of field while suppressing the generation of false images and maintaining a natural blurred image.
- Example of Spot Image With reference to FIGS. 8 to 11, a spot image according to the presence or absence of the light wavefront modulation element 213a and the presence or absence of an inflection point of the phase shape in the optical system 210 will be considered. 8 to 11, the vertical axis represents the defocus amount, and the horizontal axis represents the image height.
- FIG. 8 is a diagram showing a defocus change of a spot image of a general optical system having no light wavefront modulation element. Since the optical system of this example does not have a light wavefront modulation element, the spot image changes greatly according to the object distance.
- FIG. 9 is a diagram showing a defocus change of a spot image of an optical system including an optical wavefront modulation element having no inflection point in the phase shape.
- the change of the spot image according to the object distance is small due to the action of the light wavefront modulation element.
- FIG. 10 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element is smaller than the absolute value of the focal length of the entire optical system.
- the absolute value of the focal length of the light wavefront modulation element is smaller than the absolute value of the focal length of the entire optical system, the difference in the size of the spot image is large between the center of the screen and the periphery of the screen.
- FIG. 11 is a diagram showing the defocus change of the spot image of the optical system in which the absolute value of the focal length of the light wavefront modulation element is larger than the absolute value of the focal length of the entire optical system.
- the focal length of the light wavefront modulation element since the focal length of the light wavefront modulation element is large, the difference in the size of the spot image between the center of the screen and the periphery of the screen is small.
- the absolute value of the focal length f phase of the optical wavefront modulation surface (or the lens 213 having the optical wavefront modulation surface) is smaller than the absolute value of the focal length ftotal of the entire optical system 210, as shown in FIG. It is difficult to mitigate the influence on the periphery of the screen, and there is a large difference in the size of the spot image between the center of the screen and the periphery of the screen. In this case, it is difficult to obtain uniform image quality over the entire screen.
- the absolute value of the focal length f phase of the light wavefront modulation surface (or the lens having the light wavefront modulation surface) is larger than the absolute value of the focal length ftotal of the entire optical system, according to the present embodiment. As shown in FIG.
- the influence of the light wavefront modulation on the periphery of the screen can be alleviated, and the difference in the size of the spot image between the center of the screen and the periphery of the screen is small.
- This embodiment follows such an example, and in this embodiment, uniform image quality can be obtained on the entire screen regardless of the center in the screen and the periphery of the screen.
- the characteristic configuration, function, and effect of the optical system 210 having the light wavefront modulation function which has been discussed by exemplifying the configuration in FIG.
- the configuration and functions of other components such as the image sensor and the image processing unit will be described.
- the image pickup device 220 illustrated in FIG. 3 is, for example, a glass parallel plane plate (cover glass) 221 from the fifth lens 216 side in the optical system 210 as schematically shown in FIG.
- the image pickup surface 222 of the image pickup element made up of a CCD or CMOS sensor is arranged in order.
- Light from the subject OBJ via the imaging optical system 210 is imaged on the imaging surface 222 of the imaging element 220.
- the dispersed image of the subject picked up by the image pickup device 220 is not focused (not focused) on the image pickup surface 222 of the image pickup device 220 by the light wavefront modulation surface 213a in the optical system 210. Is an image formed.
- the imaging apparatus 200 is configured such that the image processing apparatus 240 can supplement the resolution of the distance between objects by applying a filtering process to the image.
- the optical system 210 will be described in detail later.
- an image captured by the optical system 210 is formed on the imaging surface 222 of the imaging device 220, and the imaging device 220 uses the primary image information of the imaging as a primary image signal FIM of an electrical signal. It consists of a CCD or CMOS sensor that outputs to an image processing device 240 via an analog front end (AFE) unit 230.
- AFE analog front end
- the CCD is described by taking the image sensor 220 as an example.
- the AFE unit 230 includes a timing generator 231 and an analog / digital (A / D) converter 232.
- the timing generator 231 generates a drive timing signal for the CCD of the image sensor 220 using a CCD based on a control signal S250 from a camera signal processing unit 250, which will be described later, and outputs it to the image sensor 220.
- the A / D converter 232 converts the analog signal input from the image sensor 220 into a digital signal and outputs the digital signal to the image processing device 240.
- the image processing apparatus 240 constituting a part of the signal processing unit of the present invention is preferably realized using a computer.
- the image processing device 240 inputs a digital signal of a captured image in the image sensor 220 input from the previous stage AFE 230, performs a two-dimensional convolution calculation process, and sends the result to the subsequent camera signal processing unit (DSP) 250. Output.
- the image processing device 240 performs filter processing on the OTF in accordance with the exposure information RP input from the control device 290.
- the aperture information is included as the exposure information RP.
- the image processing device 240 performs a filtering process, for example, a convolution filtering process, so as to improve the response of the OTF and eliminate the change of the OTF according to the object distance with respect to a plurality of images captured by the image sensor 220.
- a filtering process for example, a convolution filtering process
- the image processing apparatus 240 has a function of performing noise reduction filtering in the initial stage. Further, the image processing apparatus 240 has a function of performing filter processing on the OTF and performing processing for improving contrast. The processing of the image processing device 240 will be described in further detail later.
- the camera signal processing unit 250 can be configured using a computer, but is preferably configured with a digital signal processor (DSP) capable of high-speed arithmetic processing.
- DSP digital signal processor
- the camera signal processing unit 250 performs, for example, color interpolation, white balance, conversion processing between luminance Y and color difference CbCr, image compression, filing, etc., storage in the memory 260, image display on the image monitoring device 270, and the like. I do.
- the control device 290 is configured using, for example, a computer, performs exposure control by controlling the aperture stop 214, and determines the entire operation of the imaging device 200 in accordance with a user operation input from the operation unit 280 or the like.
- the AFE 230, the image processing device 240, the camera signal processing unit 250, the diaphragm 214 in the optical system 210, and the like are controlled, and arbitration and control of each element of the entire imaging device 200 is controlled.
- the filter process in the image processing apparatus 240 will be described.
- the light beam converged by the optical system 210 is regularly dispersed from the optical axis OO toward the periphery by the lens 213 on which the light wavefront modulation surface 213a functioning as a light wavefront modulation element is formed.
- the dispersion of the light flux by inserting the light wavefront modulation element 213a into the optical system 210 realizes an image that is out of focus anywhere on the imaging surface 222 of the imaging element 220.
- the optical system 210 having the light wavefront modulation surface 213a forms a light beam having a deep focal depth, which plays a central role in image formation, and a flare (blurred portion).
- this regularly dispersed image generated by the optical system 210 having the lens 213 (light wavefront modulation element) on which the light wavefront modulation surface 213a is formed is digitally processed in the optical system 210.
- Means for restoring the focused image without moving the lens is called a wavefront aberration control optical system or depth extension optical system (WFCO), and the restoration processing is performed in the image processing device 240.
- WFCO depth extension optical system
- H ⁇ 1 means an inverse function of the function H.
- each H function is as follows when conversion coefficients a, b, c, d, e, and f are used.
- each H function may be stored in a memory in the image processing apparatus 240.
- the PSF is set as a function of the object distance
- the coefficients a, b, c, d, e, and f are calculated according to the object distance
- the H function is calculated by applying the coefficients a, b, c, d, e. You may enable it to set so that the optimal filter for a convolution process may be made.
- the H function may be directly obtained from the object distance using the H function as a function of the object distance.
- the image data received by the image sensor 220 is “when the aperture is open”. Is input to the image processing apparatus 240.
- a conversion coefficient corresponding to the optical system 210 is acquired.
- the image processing apparatus 240 further generates an image signal having no dispersion from the dispersion image signal from the image sensor 220 using the acquired conversion coefficient.
- WFCO is employed to obtain high-definition image quality, and the configuration of the optical system 210 can be simplified, and the cost of the imaging apparatus 200 can be reduced.
- the image processing apparatus 240 receives the primary image FIM from the image sensor 220 via the A / D converter 232, performs a process of extending the depth of field by a convolution process using a filter, and the like, and performs a high-definition final image FNLIM Form.
- the correction processing of the modified optical transfer function (MTF: Modified opitiacl Transfer Functio) in the image processing apparatus 140 is, for example, the MTF of the primary image which is essentially a low value as shown by a curve CV1 in FIG. Then, correction is performed so as to approximate the characteristic indicated by the curve CV2 in FIG. 13 by processing such as edge enhancement and chroma enhancement using the spatial frequency as a parameter.
- the characteristic indicated by the curve CV1 is a characteristic obtained when the wavefront is not deformed (modulated) without using the wavefront forming optical element, for example, the optical wavefront modulating element 213a, as in this embodiment. is there. It should be noted that all corrections in the image processing apparatus 140 of the present embodiment are based on spatial frequency parameters.
- each spatial frequency is obtained.
- strength such as edge enhancement is added, and the original image (primary image) is corrected.
- the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.
- the edge enhancement is weakened on the low frequency (LF) side and the high frequency (HF) side within a predetermined spatial frequency band, and the edge enhancement is enhanced in the intermediate frequency region (MF) within the predetermined spatial frequency band.
- LF low frequency
- HF high frequency
- MF intermediate frequency region
- the imaging apparatus 200 basically forms an optical system 210 and an imaging element 220 having a light wavefront modulation function to form a primary image, and a primary image into a high-definition final image.
- Image processing device 240 An optical element for wavefront shaping, for example, an optical wavefront modulation element 213a is newly provided in the optical system 210, or the surface of an optical element (lens 213) such as glass or plastic is molded for wavefront shaping. (Light wavefront modulation surface 213a) is provided.
- the lens 213 having the optical wavefront modulation surface 213a deforms (modulates) the wavefront of the image formation, and forms an image of such a modulated wavefront on the image pickup surface (light receiving surface) 222 of the image pickup device 220 including a CCD or CMOS sensor.
- this formed image on the image pickup surface of the image pickup device 220 is not a focused image, a high-definition image is obtained from the formed primary image through the image processing device 240.
- the primary image from the image sensor 220 has a light beam condition with a very deep focal depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 240.
- Wave Optical Consideration The image forming process in the imaging apparatus 200 in this embodiment will be considered in terms of wave optics.
- a spherical wave diverged from one of the object points becomes a convergent wave after passing through an imaging optical system, for example, the optical system 210.
- the wavefront is not a spherical surface but a complicated shape.
- Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
- the MTF can be calculated by Fourier transform of the wave optical intensity distribution at the imaging point.
- the wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution can be obtained from the Fourier transform of the pupil function in the exit pupil. Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, for example, if the wavefront aberration can be strictly numerically calculated through the optical system 210, the MTF can be calculated.
- the wavefront shape change is mainly performed by the wavefront forming optical element, for example, the lens 213 on which the light wavefront modulation element 213a is formed, but the phase and the optical path length along the light beam are exactly the same.
- the target wavefront is formed by increasing and decreasing. If the intended wavefront formation is performed, the exiting light flux from the exit pupil is formed from dense and sparse portions of the light, as can be seen from the geometric optical spot image.
- This MTF in the luminous flux state shows a characteristic that it shows a low value at a low spatial frequency and somehow maintains the resolution up to a high spatial frequency. That is, if the MTF value is low, or if it is in the state of such a spot image geometrically, the phenomenon of aliasing will not occur. That is, a low-pass filter is not necessary. Then, the flare-like image that causes the MTF value to be lowered by the image processing device 240 may be removed. Thereby, the MTF value is significantly improved.
- FIG. 15 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
- FIG. 16 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
- FIG. 17 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment. 15 to 17, the horizontal axis indicates the frequency normalized with the Nyquist frequency, and the vertical axis indicates the MTF. 15 to 17, curved lines CV11, CV21, and CV31 indicated by broken lines indicate MTFs when out of focus, and curved lines CV12, CV22, and CV32 indicated by solid lines are when focused (focused). The MTF is shown.
- the change in the MTF response is inserted even when the object is out of the focal position. Less than the optical system that is not. If the convolution calculation process in the convolution calculation part 242 in the image processing apparatus 240 is performed about the image imaged by this optical system, the response of MTF will improve.
- the absolute value (MTF) of the OTF of the optical system having the light wavefront modulation element shown in FIG. 16 is preferably 0.1 or more at the Nyquist frequency.
- MTF The absolute value of the OTF of the optical system having the light wavefront modulation element shown in FIG. 16 is preferably 0.1 or more at the Nyquist frequency.
- the restoration filter does not need to increase the OTF gain at the Nyquist frequency.
- the MTF before restoration is less than 0.1, the restored image is unfavorably affected by noise.
- the image processing apparatus 240 includes a raw (RAW) data buffer memory 241, a two-dimensional convolution operation unit 242, a kernel data storage ROM 243 as a storage unit, and a convolution control unit 244.
- RAW raw
- the image processing apparatus 240 includes a raw (RAW) data buffer memory 241, a two-dimensional convolution operation unit 242, a kernel data storage ROM 243 as a storage unit, and a convolution control unit 244.
- the convolution control unit 244 is controlled by the control device 290 to control on / off of convolution processing, screen size, replacement of kernel data, and the like.
- the kernel data storage ROM 243 stores kernel data for convolution and / or calculation coefficients calculated by the PSF of each optical system prepared in advance as shown in FIG. 18, FIG. 19, or FIG. Has been.
- the convolution control unit 244 acquires the exposure information RP determined at the time of exposure setting by the control device 290, and the convolution control unit 244 responds to the switching signal SW corresponding to the exposure information RP.
- the kernel data is selected and controlled through.
- the exposure information RP includes aperture information indicating the aperture state of the aperture 214 in the optical system 210.
- the aperture state of the aperture stop 214 is controlled by the control device 290 according to the exposure.
- the kernel data KA is data corresponding to the optical magnification ( ⁇ 1.5)
- the kernel data KB is data corresponding to the optical magnification factor ( ⁇ 5)
- the kernel data KC is data corresponding to the optical magnification ( ⁇ 10).
- the kernel data KA is data corresponding to the F number (2.8) as aperture information
- the kernel data KB is data corresponding to the F number (4).
- the kernel data KA is data corresponding to the object distance information of 100 mm
- the kernel data KB is data corresponding to the object distance of 500 mm
- the kernel data KC is data corresponding to the object distance of 4 m.
- FIG. 21 is a flowchart of kernel data switching processing based on the exposure information RP (including aperture information) of the control device 290.
- exposure information RP is detected from the degree of aperture of aperture stop 214, and supplied to convolution control unit 244 (ST101).
- the convolution control unit 244 selects the kernel size and numerical operation coefficient stored in the kernel data storage ROM 243 according to the switching signal SW based on the exposure information RP, and reads the selected kernel size and numerical operation coefficient from the ROM 243. Therefore, it is set in a register in the two-dimensional convolution operation unit 242 (ST102).
- Convolution calculation is performed on image data captured by the image sensor 220 and input to the two-dimensional convolution calculation unit 242 via the AFE 230 based on the kernel size and the number calculation coefficient stored in the register.
- the converted data is transferred to the camera signal processing unit 250 (ST103).
- FIG. 22 is a diagram illustrating a first configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
- the example of FIG. 22 is a block diagram when a filter kernel corresponding to the exposure information RP is prepared in advance.
- the image processing apparatus 240 acquires exposure information RP determined at the time of setting the exposure from the exposure information detection unit 253, and selects and controls kernel data stored in the kernel data storage ROM 243 through the convolution control unit 244.
- the two-dimensional convolution operation unit 242 performs convolution processing using kernel data.
- FIG. 23 is a diagram illustrating a second configuration example of the signal processing unit and the kernel data storage ROM. Note that the AFE 232 and the like are omitted for simplification.
- the example of FIG. 23 is a block diagram in the case where the noise reduction filter processing step is provided at the beginning of the processing of the image processing apparatus 240 and the noise reduction filter processing ST1 corresponding to the exposure information RP is prepared as filter kernel data in advance. .
- the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data is selected and controlled through the convolution control unit 244.
- the two-dimensional convolution operation unit 242 after performing the noise reduction filter process (1) and step ST1, the color space is converted by the color conversion process and step ST2, and then the convolution process (using the kernel data) ( OTF restoration filter processing) and step ST3 are performed.
- the noise reduction filter process (2) and step ST4 are performed again, and the original color space is restored by the color conversion process and step ST5.
- Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that it is also possible to omit the noise processing again, step ST4.
- FIG. 24 is a diagram illustrating a third configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
- the example of FIG. 24 is a block diagram when an OTF restoration filter corresponding to the exposure information RP is prepared in advance.
- the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data stored in the ROM 243 is selected and controlled through the convolution control unit 244.
- the two-dimensional convolution operation unit 242 performs a convolution process and step ST13 using the OTF restoration filter.
- the noise reduction filter process (2) and step ST14 are performed again, and the original color space is restored by the color conversion process and step ST15.
- Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that only one of the noise reduction filter processing and steps ST11 and ST14 may be performed.
- FIG. 25 is a diagram illustrating a fourth configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE 232 and the like are omitted.
- the example of FIG. 25 is a block diagram in the case of having a noise reduction filter processing step and preparing in advance a noise reduction filter corresponding to the exposure information RP as filter kernel data.
- the exposure information RP determined at the time of exposure setting is acquired from the exposure information detection unit 253, and the kernel data stored in the ROM 243 is selected and controlled through the convolution control unit 244.
- the two-dimensional convolution calculation unit 242 after performing the noise reduction filter process (1) step ST21, the color space is converted by the color conversion process, step ST22, and then the convolution process using the kernel data, step ST23. Apply.
- the noise reduction filter process (2) corresponding to the exposure information RP, step ST24 is performed, and the original color space is restored by the color conversion process, step ST25.
- Examples of the color conversion process include (luminance Y-color difference CbCr) conversion, but other conversions may be used. Note that the noise reduction filter process, step ST21, can be omitted.
- the filter processing is performed in the two-dimensional convolution operation unit 242 according to only the exposure information RP has been described above, but other methods can be used. For example, by combining subject distance information, zoom information, or shooting mode information and exposure information, it is possible to extract suitable calculation coefficients or perform calculations.
- FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
- the imaging apparatus 200 ⁇ / b> A includes a convolution apparatus 401, a kernel / numerical calculation coefficient storage register 402, and an image processing calculation processor 403.
- the image processing arithmetic processor 403 that has obtained the information about the approximate object distance of the subject read from the object approximate distance information detection apparatus 500 and the exposure information RP is appropriate for the object separation position.
- the kernel size and its calculation coefficient used in a simple calculation are stored in the kernel / numerical calculation coefficient storage register 402.
- An appropriate calculation is performed by the convolution apparatus 401 that calculates using the value stored in the register 402 to restore the image.
- the distance to the main subject is detected by the object approximate distance information detection apparatus 500 including the distance detection sensor, and different image correction processing is performed according to the detected distance.
- the image processing in the convolution calculation unit 242 is performed by convolution calculation.
- one type of calculation coefficient for convolution calculation is stored in common, and the correction coefficient is set according to the focal length. It is possible to adopt a configuration in which the calculation coefficient is corrected using the correction coefficient, and an appropriate convolution calculation is performed using the corrected calculation coefficient. In addition to this configuration, the following configuration can be employed.
- Modification 1 Depending on the focal length, the kernel size and the convolution calculation coefficient itself are stored in advance, and the convolution calculation is performed using the stored kernel size and calculation coefficient.
- Modification 2 A calculation coefficient corresponding to the focal length is stored in advance as a function, a calculation coefficient is obtained from this function based on the focal length, and a convolution calculation is performed using the calculated calculation coefficient.
- Configuration example 1 In accordance with the subject distance, at least two or more conversion coefficients corresponding to the aberration caused by the resin lens corresponding to the phase plate are stored in advance in the kernel / numerical calculation coefficient storage register 402 serving as conversion coefficient storage means.
- the image processing arithmetic processor 403 selects a conversion coefficient according to the distance from the kernel / numerical calculation coefficient storage register 402 to the subject based on the information generated by the object approximate distance information detection device 500 as the subject distance information generating means. It functions as a coefficient selection means. Then, the convolution device 401 as the conversion unit converts the image signal using the conversion coefficient selected by the image processing arithmetic processor 403 as the coefficient selection unit.
- the image processing arithmetic processor 403 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 500 as the subject distance information generation unit, and the kernel / numerical value Stored in the arithmetic coefficient storage register 402. Then, the convolution device 401 serving as a conversion unit converts the image signal using the conversion coefficient obtained by the image processing calculation processor 403 serving as the conversion coefficient calculation unit and stored in the kernel / numerical calculation coefficient storage register 402.
- At least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 210 is stored in advance in the kernel / numerical calculation coefficient storage register 402 serving as a correction value storage unit.
- This correction value includes the kernel size of the subject aberration image.
- the image processing calculation processor 403 as the correction value selection unit stores the kernel and numerical calculation coefficient as the correction value storage unit. A correction value corresponding to the distance from the register 402 to the subject is selected.
- the convolution apparatus 401 serving as the conversion means performs the conversion coefficient obtained from the kernel / numerical calculation coefficient storage register 402 serving as the second conversion coefficient storage means and the correction selected by the image processing arithmetic processor 403 serving as the correction value selection means.
- the image signal is converted based on the value.
- the optical system 210 and the image sensor 220 that form a primary image, and the image processing device 240 that forms the primary image into a high-definition final image are included.
- the optical system 210 includes an optical wavefront modulation element or a lens provided with an optical wavefront modulation surface that reduces the change in OTF according to the object distance (due to the difference in object distance).
- the absolute value of the focal length of the light wavefront modulation element or the light wavefront modulation surface (or the lens having the light wavefront modulation surface) is larger than the absolute value of the focal length of the entire optical system.
- the optical system has a light wavefront modulation surface of the light wavefront modulation element that is rotationally symmetric with respect to the optical axis, and the “phase shape” monotonically increases from the center to the periphery. Or it is formed so as to decrease monotonously.
- the light wavefront modulation surface has a rotationally symmetric shape with respect to the optical axis, and generates a spherical aberration larger than that of a general optical system having no light wavefront modulation element. It is possible to make the change of the OTF according to the object distance extremely smaller than a typical optical system.
- the spot image can be reduced while having the effect of reducing the change in OTF according to the object distance. It can be made smaller. Further, in the present embodiment, it is possible to obtain a uniform OTF from the center of the screen to the periphery of the screen by increasing the focal length of the light wavefront modulation surface with respect to the focal length of the entire optical system 210. It becomes. Further, by increasing the focal length of the light wavefront modulation element (lens) having the light wavefront modulation surface with respect to the focal length of the entire optical system 210, a uniform OTF from the center of the screen to the periphery of the screen can be obtained.
- the structure of the optical system 210 can be simplified and cost reduction can be aimed at. Furthermore, it is possible to obtain a good restored image having an appropriate image quality and little influence of noise.
- the imaging device is easy to manufacture and does not require high accuracy with respect to the lens mounting in the optical system. In addition, an influence of reflection can be suppressed, and an imaging device in which contrast does not vary depending on the image direction can be realized.
- the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable, and the kernel size and the above-described coefficients that are known by input from the operation unit 280 shown in FIG.
- the lens can be designed without worrying about the optical magnification and the defocus range, and the image can be reconstructed by a highly accurate convolution.
- a natural image can be obtained without requiring an expensive and large-sized optical lens, and without moving the lens within the optical diameter 210, which is difficult to manufacture.
- the imaging apparatus 200 according to the present embodiment is used in an optical system of a WFCO that is required to be reduced in size, weight, and price for electronic devices used by ordinary users such as digital cameras and camcorders. Is possible.
- the configuration of the optical system 210 can be simplified, the optical system 210 can be easily manufactured, and the cost can be reduced.
- Aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
- the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing. It is theoretically correct to use a low-pass filter in this way, but the low-pass filter itself is made of crystal, so it is expensive and management of temperature and the like is difficult. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.
- the conventional imaging lens apparatus in order to form a high-definition image in spite of the demand for higher-definition image quality, the conventional imaging lens apparatus must have a complicated optical system. If the optical system is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the price increases. However, according to the present embodiment, as described above, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.
- the kernel data storage ROM of FIGS. 18, 19, and 20 is also used for the values of optical magnification, F number, size of each kernel, and object distance. It is not always possible. Also, the number of kernel data prepared for the convolution calculation is not limited to three.
- the optical system of the present invention can be applied not only to the above-described imaging apparatus but also to various other imaging apparatuses. Further, the imaging apparatus of the present invention is not limited to the information code reading apparatus, and can be applied to this image processing apparatus.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Lenses (AREA)
Abstract
Description
より特定的には、本発明は、光学的伝達関数(OTF:Optical Transfer Function)が変化した場合または点像強度分布関数(PSF)が変化した場合でも、被写界深度の深い画像を実現することが可能な撮像装置と、それを用いた情報コード読み取り装置に関する。
また本発明は、上記撮像装置に適用する光学系に関する。
特に、デジタルカメラに象徴されるように、撮像面は従来の銀塩フィルムに代わって、固体撮像素子、たとえば、CCD(Charge Coupled Device ),CMOS(Complementary Metal Oxide Semiconductor)センサなどが使用されているのが大半である。
このような撮像レンズ装置は、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、画像検査装置、自動制御用産業カメラ等に用いられている。
図27において、撮像レンズ装置1は、複数のレンズを有する光学系2と、CCDやCMOSセンサ等の撮像素子3とを有する。図27において、撮像素子3の撮像面は、光学系2の合焦位置BFPに位置しているとして図解されている。
光学系2は、物体側OBJSに位置するレンズ21,22と、開口絞り23と、結像レンズ24とを有する。光軸O-Oに沿って、物体側のレンズ21,22、開口絞り23、および、結像レンズ24が、レンズ物体側OBJSから撮像素子3側に向かって順に配置されている。
図28(A)~(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。図28(A)、(B)、(C)において、横軸は重力の中心を示し、縦軸は被写界を示す。
図28(B)が合焦の時のスポット像を示しており、図28(A)、(C)はそれぞれ、合焦状態から正(+)負(-)に0.2mm外れた状態のスポット像を示している。
特許文献6には、光学的伝達関数(OTF)を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている。
バーコードの読み取りは、たとえば、第一の例として、光学系におけるレンズを移動させて自動焦点方式で焦点(ピント)を合わせる技術が知られている。また、第二の例として深度拡張技術を適用する方法が知られている。この深度拡張技術は、たとえば、カメラにおいて、開口絞りを調整してF数を小さく絞ることで被写界深度を広げて、ピントを固定した固定ピントとしている技術が知られている。
PSFが変化した場合は、撮像素子の撮像画像を信号処理する信号処理手段におけるカーネル(Kernel)を用いた畳み込み演算処理により、被写界深度の深い画像を実現することは極めて難しい。
したがって、光学系で対策を講ずる必要があるが、焦点距離が固定の単焦点でのレンズ(1個のレンズ)を用いたPSFが一定の場合は除いて、ズーム系や自動焦点系などの光学系では、光学設計が難しい。その結果、その光学設計の精度の高さや、それに伴う長時間の作業時間に起因する価格上昇が原因となり、そのような光学系を採用するには、大きな問題に遭遇する。
換言すれば、PSFが変化する撮像装置においては、信号処理手段において適正なコンボリューション演算を行うことができない。そのため、ズームなどを行ったときのワイド(Wide)時やテレ(Tele)時のスポット像のズレを引き起こす、非点収差、コマ収差、ズーム色収差等の種々の収差を無くすため、高度な光学設計が要求される。
これらの収差を無くすための光学設計は非常に難しい。そのような光学設計を行うと、長時間の労働を要し、高性能、高精度のレンズなどが必要になり、光学系の価格の高騰に遭遇する。また、光学系が大型になるという問題に遭遇する。その結果として、そのような光学系を用いた撮像装置の価格も高くなり、大型になる。
その理由は、アウトフォーカス時のOTFが一定であれば良好な復元結果となるのであるが、現実問題としてはOTFは低下してくる。つまり、OTFが変化する。したがって、信号処理手段においてコンボリューション演算などによって画像の復元処理を行っても、その処理がもともと画像をボカして復元するという性質上、完全には正確な画像を復元することが難しい。その結果、上記技術では良好な復元画像を得ることが困難である。
このように、上記の文献において提案されている深度拡張光学系においては、画面全体で均一な画質が得られ難いという不利益がある。
また、そのような光学系としては、光学系の構成を簡単化でき、価格の低減を図ることができる光学系を提供することが望まれている。
さらに、そのような光学系を採用して、画面全体でスポット像の大きさの差を小さくでき、均一な画質が得られ、良好な復元画像を得ることが可能な、撮像装置を提供することが望まれている。
また、上記光学系を採用し、装置構成が簡単で、価格の低減が可能な、撮像装置を提供することが望まれている。
さらに、そのような撮像装置を用いた情報コード読取装置を提供することが望まれている。
光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数(OTF)の変化を小さくする性能を有し、かつ、光波面変調機能を有する光学素子の焦点距離の絶対値が、光学系全体の焦点距離の絶対値に対して大きい。
本発明の撮像装置は、上述した光波面変調機能を有する光学素子を有する光学系と、この光学系の焦点距離に配置され、この光学系を通過した被写体の像を撮像する撮像素子とを有する。
光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有する。光波面変調機能を有する光学素子の焦点距離の絶対値が、光学系全体の焦点距離の絶対値に対して大きい。その結果、撮像素子における被写体の像は、分散された像となり、その後の信号処理に適したものとなる。
また好ましくは、上記レンズに上記光波面変調要素が形成された場合の形状と、上記レンズに上記光波面変調要素を形成させない場合の形状との差分を「位相形状」と規定したとき、上記光波面変調機能を有する光学素子の形状は、上記位相形状が上記光学系の光軸の周りに回転対称であり、光軸から周辺部に向かって単調に増加または単調に減少するように、形成されている。
また好ましくは、当該撮像装置は、上記光波面変調機能を有する光学素子によって分散された分散画像を撮像した上記撮像素子からの被写体の分散画像について信号処理を行い分散のない画像に復元する画像処理部をさらに有する。
さらに好ましくは、上記画像処理部は、畳み込み演算処理を行い、上記分散のない画像に復元する。
また本発明によれば、光学系の構成を簡単化でき、価格の低減を図ることができる光学系を提供することができた。
さらに本発明によれば、上記光学系を採用して、画面全体でスポット像の大きさの差を小さくでき、均一な画質が得られ、良好な復元画像を得ることが可能な、撮像装置を提供することができた。
また本発明によれば、上記光学系を採用し、装置構成が簡単で、価格の低減が可能な、撮像装置を提供することができた。
さらに本発明によれば、上記撮像装置を用いた情報コード読取装置を提供することができた。
ここでは、本発明の実施の形態として撮像装置について述べ、その撮像装置に適用される光学系について述べる。本実施の形態の情報コード読取装置にはそのような撮像装置を適用することができる。
図2(A)~(C)は、図1の情報コード読取装置によって読み取りの対象となる情報コードの例を示す図である。
図3は、図1の情報コード読取装置に適用可能な撮像装置の構成例を示すブロックである。
図1に示す本実施形態に係る情報コード読取装置100は、読み取り対象物120に印刷された、たとえば、図2(A)~(C)のいずれかに図示された、反射率の異なるシンボル、コード等の情報コード121を読み取り可能な装置である。情報コード読取装置100は、本体110とケーブル111を有している。本体110がケーブル111を介して、たとえば、電子レジスタ等の処理装置140と接続されている。
本体110によって読み取り対象の情報コードとしては、たとえば、図2(A)に示すJANコードのような1次元のバーコード122と、図2(B)に示すスタック式のCODE49のような2次元のバーコード123、あるいは、図2(C)に示すマトリックス方式のQRコードのような2次元のバーコード123が挙げられる。
撮像装置200は光学系210を有する。この光学系210は、図4を参照して後述するように、光波面変調機能を有する光学素子(以下、光波面変調素子という)を含む。
本発明において、光波面変調機能とは、光学素子に入射した光束を規則的に分散させて出射させる機能を言う。
撮像装置200は、光波面変調素子により光束を規則的に分散させ、さらに、デジタル信号処理により分散した画像を復元させて被写界深度の深い画像を生成することを可能にする。
このような撮像装置200を情報コード読取装置に用い、図2(A)に図解したJANコードのような1次元のバーコード122と、図2(C)に図解したQRコードのような2次元のバーコード123のような情報コードを的確に高精度で読み取ることが可能に構成されている。
被写界深度の深い画像を生成する光学系としては、たとえば、波面収差制御光学系、あるいは、深度拡張光学系(WFCO:Wave Front Coding Optical System)が知られているが、本実施の形態の光学系は、通常の光学系とは下記に述べるように異なる。
図3に示すように、情報コード読取装置100に組み込まれている撮像装置200は、光学系210、撮像素子220、アナログ・フロントエンド部(AFE)230、画像処理装置240、カメラ信号処理部250、画像表示メモリ260、画像モニタリング装置270、操作部280、および、制御装置290を有している。
画像処理装置240の出力信号FNLIM、または、カメラ信号処理部250の出力信号が、ケーブル111を経由して、電子レジスタ等の処理装置140に送出される。
図4は、図3に図解した光学系210の本実施形態に係る光学系を構成する撮像レンズユニットの基本構成を示す図である。図4は、特に、光波面変調面213aが開口絞り214に隣接して配置されている場合を図解した、光学系210の構成を示す。
光学系210は、被写体物体OBJの像を撮像素子220に提供する。
光学系210は、物体側OBJから撮像素子220に向かって、光軸0-0に沿って、順に、第1(平凹)レンズ211、第2(両凸)レンズ212、第3(両凹)レンズ213、開口絞り214、第4(平凹)レンズ215および第5(両凸)レンズ216が配置されて、構成されている。
光学系210において、第4レンズ215と第5レンズ216が、第4レンズ215の出射側の凹面に第5レンズの入射側の凸面が接合されて、あたかも、1個の厚い平凸レンズとして構成されている。このように、本実施形態の光学系210のレンズユニットは、結像レンズとして機能する接合レンズ(215、216)を含んで構成されている。
光学系210において、レンズ213の出射面に、レンズ213に入射された光の波面を変調する光波面変調面213aが形成されている。
なお、光波面変調面213aを備えたレンズ213に代えて、光波面変調面213aに相当する光波面変調機能を有する光波面変調素子(図示せず)を備えたレンズを開口絞り214に隣接して配置することもできる。
このように、光学系210は、光波面を変調する機能を有する素子を含んで構成されている。光波面変調機能とは、光学素子に入射した光束を規則的に分散させて出射させる機能を言う。
以下、光波面を変調する機能を有する素子として、光波面変調面213aを備えたレンズ213を代表して述べる。
本実施形態の撮像装置220においては、光学系210として、開口絞り214の近傍に光波面変調面213aを備えたレンズ213を用いる。あるいは、平凹レンズ213の出射側の凹面に光波面変調面213aを形成し、この出射側に隣接して開口絞り214を配設する。その結果、物体距離に応じた(物体距離の違いによる)光学的伝達関数(OTF:optical transfer function)の変化を、光波面変調面213aを備えないレンズ213を有する光学系のOTFよりも小さくする深度拡張光学系に対して、最適化する。
光学系210においては、光波面変調面213aを持つレンズ213の焦点距離(facal point)の絶対値が、この光学系210全体の焦点距離の絶対値より大きい。このように、光波面変調面213aを持つレンズ213の焦点距離の絶対値が、光学系210全体の焦点距離の絶対値より大きいことにより、光波面変調による画面周辺部における影響を緩和し、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られるようになる。その理由は後述する。
光波面変調機能を持つ場合の光波面変調面213aの形状と、光波面変調機能を持たない場合のレンズの形状の差分を「位相形状」と言う。
本実施形態においては、レンズ213の出射側の凹面に形成された光波面変調面213aの形状は、「位相形状」が、光軸O-Oの周りに回転対称で、かつ、光軸O-Oの中心部分から画面の周辺部分に向かって単調増加もしくは単調減少するように、形成されている。
位相形状を、光軸O-Oに対して回転対称とすることで、光波面変調面213aの製造、または、光波面変調素子、あるいは、位相変調素子の製造が容易で、光軸O-Oの周りの回転方向の取り付け精度も厳しくなく、さらには反射の影響が少なくて、画像の方向によるコントラストの違いも無くなる。
位相形状を光軸O-Oの中心部分から周辺部分に向かって単調増加もしくは単調減少とすることで、物体距離に応じたOTFの変化を極めて小さくすることができる。
以下、この「位相形状」を光軸O-O中心部分から画面の周辺部分に向かって変曲点を持つことなく、単調増加もしくは単調減少とする光波面変調面(たとえば位相変調面)について説明する。
光波面変調面213a(位相変調面)の位相形状は、光軸O-Oの中心部分から画面の周辺部分にかけて、変曲点を持たず、単調増加もしくは単調減少するように形成されている。
図5(A)に光波面変調面を形成する前の球面収差を示し、図5(B)に光波面変調面を形成した後の球面収差を示す。
図5(A)および図5(B)の図解から理解されるように、光波面変調面213aを開口絞り214の近傍に、あるいは光波面変調面213a自身に開口絞り機能を持たせることにより、光波面変調面213aのみの球面収差を最適化(最小化)することで、光学系210を、広範囲に球面収差が少ない、性能の高い固定焦点レンズとすることができる。その結果、撮像装置200の最終出力画像信号を高精度にすることができる。
図6(A)において、曲線Aで示す線が光学系に光波面変調素子を持たない場合の位相形状を示し、曲線Cで示す線が光学系に光波面変調素子を持つ場合の位相形状を示している。
図6(B)において、曲線AAで示す線が光学系に光波面変調素子を持たない場合の面形状を示し、曲線CCで示す線が光学系に光波面変調素子を持つ場合の面形状を示している。
図6(A)は光波面変調素子がある場合と、ない場合との差分、すなわち、図6(B)において、横軸方向に、差=(曲線CCの値)-(線AAの値)の演算を行った状態を示している。
つまり,光波面変調素子として機能する、レンズ213に形成された光波面変調面213aにおけるパワーを光学系210の全体のパワーよりも弱くする。言い換えれば、光波面変調面213aを備えたレンズ213のパワーを、光学系210全体のパワーよりも弱くする。その結果、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
|fphase|/ftotal ≧ 2
ただし、fphaseは光波面変調面213aを備えたレンズ213の焦点距離を示し、
ftotalは光学系210全体の焦点距離を示している。
つまり、図6においては、曲線BBで示される面形状よりも曲線CCで示す面形状を持った光学系がOTFの変化を小さくすることができるようになる。
また、光学系210全体の焦点距離ftotalよりも光波面変調面の焦点距離fphaseの絶対値を大きくすることで、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
また、光学系210全体の焦点距離ftotalに対して、光波面変調面を備えた光波面変調素子(レンズ213)の焦点距離fphaseの絶対値を大きくすることで、画像の中心部(光軸O-O)から画像の周辺部にかけて均一なOTFとすることが可能となる。
また、本実施の形態の光波面変調面213aを備えたレンズ213を、光軸O-Oを中心として、回転対称な形状にすることにより、光学系210のレンズを収容する鏡筒に光波面変調素子を組み込む際に、光軸O-Oを中心に回転させて位置の調整を行う必要がなく、光波面変調面213aを有するレンズをその他のレンズと同様に配設することができ、組み立て製造工程が容易になる。
また、本実施の形態によれば、偽像の発生を抑えて、自然なボケ味の画像のまま、被写界深度を拡張することができる。
図8~図11を参照して、光学系210における光波面変調素子213aの有無、位相形状の変曲点の有無に応じたスポット像について考察する。図8~図11において縦軸はディフォーカス量、横軸は像高を示している。
これに対して、光波面変調面(もしくは光波面変調面を持つレンズ)の焦点距離fphaseの絶対値が光学系全体の焦点距離ftotal の絶対値より大きい、本実施形態に係る光学系210によれば、図11に示すように、光波面変調による画面の周辺部における影響を緩和することができ、画面の中心と画面の周辺部でスポット像の大きさの差が小さい。本実施の形態はかかる例に従っており、本実施形態においては、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られる。
以下に、撮像素子、画像処理部等の他の構成部分の構成、機能について説明する。
図3に図解した撮像素子220は、例えば、図4(A)に概略的に示すように、光学系210内の第5レンズ216側から、ガラス製の平行平面板(カバーガラス)221と、CCDあるいはCMOSセンサ等からなる撮像素子の撮像面222が順に配置されている。
撮像光学系210を介した被写体OBJからの光が、撮像素子220の撮像面222上に結像される。
撮像素子220で撮像される被写体の分散像は、光学系210における光波面変調面213aにより撮像素子220の撮像面222上ではピントが合わず(合焦せず)、深度の深い光束とボケ部分が形成された像である。
撮像装置200は、画像処理装置240にて、上記画像に対してフィルタ処理を加えることにより物体間の距離の解像力を補完することができるように構成されている。
この光学系210については、後でさらに詳述する。
図3においては、撮像素子220を一例としてCCDについて記載している。
タイミングジェネレータ231は、後述するカメラ信号処理部250からの制御信号S250に基づいて、CCDを用いた撮像素子220のCCDの駆動タイミング信号を生成して撮像素子220に出力する。
A/Dコンバータ232は、撮像素子220から入力されるアナログ信号をデジタル信号に変換し、画像処理装置240に出力する。
画像処理装置240は、前段のAFE230から入力される撮像素子220における撮像画像のデジタル信号を入力し、二次元のコンボリューション演算処理を施し、その結果を後段のカメラ信号処理部(DSP)250に出力する。
画像処理装置240は、制御装置290から入力される露出情報RPに応じて、OTFに対してフィルタ処理を行う。なお、露出情報RPとして開口絞り情報を含む。
画像処理装置240は、撮像素子220における撮像による複数の画像に対して、OTFの応答を向上させ、物体距離に応じたOTFの変化をなくすようにフィルタ処理、たとえば、コンボリューションフィルタ処理を行う機能を有する。その結果、複数の物体距離に依存しながらも、深い被写界深度の画像を得ることができる。
また、画像処理装置240は、初期段階でノイズ低減フィルタリングを施す機能を有する。
さらに、画像処理装置240は、OTFに対してフィルタ処理を行い、コントラストを改善する処理を施す機能を有する。
画像処理装置240の処理については後で、さらに詳述する。
本実施形態においては、光学系210により収束される光束を、光波面変調素子として機能する光波面変調面213aが形成されたレンズ213によって、光軸O-Oから周辺に向かって、規則正しく分散させる。このように、光学系210に光波面変調素子213aを挿入することによる光束の分散により、撮像素子220の撮像面222上ではどこにも、ピント(焦点)が合わない画像を実現する。
換言すれば、光波面変調面213a(光波面変調素子)を有する光学系210によって、像形成の中心的役割を成す焦点深度の深い光束と、フレアー(ボケ部分)を形成している。
前述したように、光波面変調面213aが形成されたレンズ213(光波面変調素子)を有する光学系210によって生成される、この規則的に分散した画像を、デジタル処理により、光学系210内のレンズを移動させずにピントの合った画像に復元する手段を、波面収差制御光学系、あるいは深度拡張光学系(WFCO)といい、その復元処理を画像処理装置240において行う。
被写体OBJの画像fが、関数Hで示される特性を持つWFCOに入ることにより、画像gが生成される。この作用は、次のような式で表される。
g=H*f
ただし、*はコンボリューション演算を表す演算子である。
f=H-1*g
ズームのためにレンズを移動させたズームポジションをZPn,ZPn-1・・・とする。また、それぞれのH関数をHn,Hn-1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、変換係数a,b,c,d,e,fを用いると、次のようになる。
ここで、各々のH関数は画像処理装置240内のメモリに格納しておいても構わない。あるいは、PSFを物体距離の関数としておき、物体距離によって係数a,b,c,d,e,fを計算し、それを適用してH関数を算出することによって任意の物体距離に対して、コンボリューション処理のための最適なフィルタを作るように設定できるようにしても構わない。
また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
画像処理装置240において光学系210に応じた変換係数を取得する。
画像処理装置240はさらに、取得した変換係数を用いて撮像素子220からの分散画像信号より分散のない画像信号を生成する。
図13中、曲線CV1で示す特性は、たとえば、本実施形態のように、波面形成用光学素子、たとえば、光波面変調素子213aを用いずに波面を変形(変調)させない場合に得られる特性である。
なお、本実施形態の画像処理装置140における全ての補正は、空間周波数のパラメータによる。
たとえば、図13に図解したMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図14に示すようになる。
光学系210の中に、波面成形用の光学素子、たとえば、光波面変調素子213aを新たに設けるか、またはガラス、プラスチックなどのような光学素子(レンズ213)の面を波面成形用に成形したもの(光波面変調面213a)を設ける。
光波面変調面213aを有するレンズ213によって、結像の波面を変形(変調)し、そのような変調された波面をCCDやCMOSセンサからなる撮像素子220の撮像面(受光面)222に結像させる。
撮像素子220の撮像面におけるこの結像画像は合焦した画像ではないが、その結像1次画像を、画像処理装置240を通して高精細画像を得る。
本実施形態では、撮像素子220による1次画像は焦点深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置240で行う。
本実施形態における撮像装置200における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系、たとえば、光学系210を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ種々の収差が発生する。波面は球面でなく複雑な形状となる。
幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求めることができる。その波動光学的強度分布は、波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求めることができる。
さらに、その瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、たとえば、光学系210を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
本実施形態においても、波面の形状変化を波面形成用光学素子、たとえば、光波面変調素子213aが形成されたレンズ213で行うのが主であるが、まさに、位相、光線に沿った光路長に増減を設けて目的とする波面形成を行っている。
目的とする波面形成を行えば、射出瞳からの射出光束は、幾何光学的なスポット像から判るように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは、空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像度は維持しているという特徴を示している。
すなわち、MTF値が低い状態であれば、または、幾何光学的にはこのようなスポット像の状態であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、画像処理装置240でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
図15~図17を参照して、本実施形態および従来光学系のMTFのレスポンスについて考察する。
図16は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと、焦点位置から外れたときのMTFの応答を示す図である。
図17は本実施形態に係る撮像装置のデータ復元後のMTFの応答を示す図である。
図15~図17において、横軸はナイキスト周波数で正規化した周波数を示し、縦軸はMTFを示す。
図15~図17において、破線で示した曲線CV11、CV21、CV31はピントが外れた時のMTFを示しており、実線で示した曲線CV12、CV22、CV32はピントが合った(合焦)時のMTFを示している。
この光学系によって結像された画像について、画像処理装置240内のコンボリューション演算部242におけるコンボリューション演算処理を行うと、MTFの応答が向上する。
通常の光学系の場合、ナイキスト周波数でのMTFが0.1以上あれば解像する。
したがって、復元前のMTFが0.1以上あれば復元フィルタでナイキスト周波数でのOTFのゲインを上げずに済む。
他方、復元前のMTFが0.1未満であると、復元画像がノイズの影響を大きく受けた画像になるため好ましくない。
ROM243に格納されたカーネルデータは、コンボリューション制御部244が、制御装置290によって露出設定時に決まる露出情報RPを取得し、その露出情報RPに応じた切り替え信号SWに応じて、コンボリューション制御部244を通じてカーネルデータを選択制御される。
なお、露出情報RPには、光学系210における絞り214の絞り状態を示す絞り情報が含まれる。開口絞り214の絞り状態は、露出に応じて、制御装置290によって制御される。
図21は、制御装置290の露出情報RP(絞り情報を含む)によるカーネルデータの切り替え処理のフローチャートである。
まず、制御装置290において、たとえば、開口絞り214の絞り程度から、露出情報RPが検出され、コンボリューション制御部244に供給される(ST101)。
コンボリューション制御部244が、露出情報RPに基づいた切り替え信号SWに応じて、カーネルデータ格納ROM243に格納されたカーネルサイズ、数値演係数を選択し、選択したカーネルサイズ、数値演算係数をROM243から読みだして、二次元コンボリューション演算部242内のレジスタにセットされる(ST102)。
撮像素子220で撮像され、AFE230を介して二次元コンボリューション演算部242に入力された画像データに対して、レジスタに格納されたカーネルサイズ、数演算係数に基づいてコンボリューション演算が行われ、演算され変換されたデータがカメラ信号処理部250に転送される(ST103)。
図22の例は露出情報RPに応じたフィルタカーネルを予め用意した場合のブロック図である。
図23の例は、画像処理装置240の処理の最初にノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報RPに応じたノイズ低減フィルタ処理ST1を予め用意した場合のブロック図である。
二次元コンボリューション演算部242においては、前記ノイズ低減フィルタ処理(1)、ステップST1、を施した後、カラーコンバージョン処理、ステップST2、によって色空間を変換、その後カーネルデータを用いてコンボリューション処理(OTF復元フィルタ処理)、ステップST3、を施す。
再度、ノイズ低減フィルタ処理(2)、ステップST4、を行い、カラーコンバージョン処理、ステップST5、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
なお、再度のノイズ処理、ステップST4、は省略することも可能である。
図24の例は、露出情報RPに応じたOTF復元フィルタを予め用意した場合のブロック図である。
二次元コンボリューション演算部242は、ノイズ低減フィルタ処理(1)、ステップST11、カラーコンバージョン処理、ステップST12、の後に、前記OTF復元フィルタを用いてコンボリューション処理、ステップST13、を施す。
再度、ノイズ低減フィルタ処理(2)、ステップST14、を行い、カラーコンバージョン処理、ステップST15、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減フィルタ処理、ステップST11、ST14は、いずれか一方のみでもよい。
図25の例は、ノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報RPに応じたノイズ低減フィルタを予め用意した場合のブロック図である。
露出設定時に決まる露出情報RPを露出情報検出部253より取得し、コンボリューション制御部244を通じて、ROM243に格納されているカーネルデータを選択制御する。
二次元コンボリューション演算部242においては、ノイズ低減フィルタ処理(1)ステップST21、を施した後、カラーコンバージョン処理、ステップST22によって色空間を変換、その後、カーネルデータを用いてコンボリューション処理、ステップST23、を施す。
再度、露出情報RPに応じたノイズ低減フィルタ処理(2)、ステップST24を行い、カラーコンバージョン処理、ステップST25、によって元の色空間に戻す。カラーコンバージョン処理は、たとえば、(輝度Y-色差CbCr)変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減フィルタ処理、ステップST21、は省略することも可能である。
たとえば、被写体距離情報、ズーム情報、あるいは、撮影モード情報と露出情報とを組み合わせることにより、適した演算係数の抽出、あるいは演算を行うことが可能である。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置500により検出し、検出した距離に応じて異なる画像補正の処理を行うように構成されている。
この構成の他にも、以下の構成を採用することが可能である。
(1)変形例1
焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、
(2)変形例2
焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成
変換係数記憶手段としてのカーネル・数値演算係数格納レジスタ402に被写体距離に応じて、少なくとも位相板に相当する樹脂レンズに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。
画像処理演算プロセッサ403が、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき、カーネル・数値演算係数格納レジスタ402から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置401が、係数選択手段としての画像処理演算プロセッサ403で選択された変換係数によって、画像信号の変換を行う。
または、前述したように、変換係数演算手段としての画像処理演算プロセッサ403が、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき変換係数を演算し、カーネル・数値演算係数格納レジスタ402に格納する。 そして、変換手段としてのコンボリューション装置401が、変換係数演算手段としての画像処理演算プロセッサ403で得られカーネル・数値演算係数格納レジスタ402に格納された変換係数によって、画像信号の変換を行う。
または、補正値記憶手段としてのカーネル・数値演算係数格納レジスタ402にズーム光学系210のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
そして、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ403が、補正値記憶手段としてのカーネル・数値演算係数格納レジスタ402から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置401が、第2変換係数記憶手段としてのカーネル・数値演算係数格納レジスタ402から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ403により選択された補正値とに基づいて画像信号の変換を行う。
光波面変調素子または光波面変調面(もしくは光波面変調面を持つレンズ)の焦点距離の絶対値が光学系全体の焦点距離の絶対値より大きい。
以上から、以下の効果を得ることができる。
光波面変調による画面の周辺部における収差などの影響を緩和することができ、画面の中心と画面の周辺部でスポット像の大きさの差を小さくできる。その結果、画面内の中心、画面の周辺によらず、画面全体で均一な画質が得られるという利点がある。
その結果、光波面変調面を光軸に対して回転対称な形状とし、光波面変調素子を持たない一般的な光学系よりも球面収差を大きく発生させることにより、光波面変調素子を持たない一般的な光学系よりも物体距離に応じたOTFの変化を極めて小さくすることが可能となる。
また、本実施形態においては、光学系210全体の焦点距離に対して、光波面変調面の焦点距離を大きくすることで、画面の中心部から画面の周辺部にかけて均一なOTFとすることが可能となる。
また、光学系210全体の焦点距離に対して、光波面変調面を備えた光波面変調素子(レンズ)の焦点距離を大きくすることで、画面の中心部から画面の周辺部にかけて均一なOTFとすることが可能となる。
そして、光学系210の構成を簡単化でき、コスト低減を図ることができる。さらに、適切な画質の、ノイズの影響が少ない良好な復元画像を得ることが可能である。さらに、撮像装置の製造が容易で、光学系におけるレンズの取り付けに関して高い精度を必要としない。また、反射の影響も抑止でき、画像の方向によりコントラストが異なることがない撮像装置を実現することができる。
また、製造の難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、光学径210内のレンズを移動させること無く、自然な画像を得ることができるという利点がある。
そして、本実施形態に係る撮像装置200には、デジタルカメラやカムコーダー等の通常のユーザが使用する電子機器について、小型化、軽量化、低価格化が求められる、WFCOの光学系に使用することが可能である。
また、光学系210の構成を簡単化でき、光学系210の製造が容易となり、コスト低減を図ることができる。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのためには、高性能なレンズを用いた光学系を必要とする。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、温度などの管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
しかし、本実施形態によれば、上述したように、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
またコンボリュション演算のために用意するカーネルデータの数についても3個とは限らない。
Claims (19)
- 光波面変調機能を有する光学素子を有する光学系と、
前記光学系の焦点位置に配置され、前記光学系を通過した被写体像を撮像する撮像素子と、
を有し、
前記光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有し、かつ、前記光波面変調機能を有する光学素子の焦点距離の絶対値が、前記光学系全体の焦点距離の絶対値に対して大きい、
撮像装置。 - 前記光波面変調機能を有する光学素子は、被写体画像を分散した分散画像を前記撮像素子の撮像面に生成する、
請求項1に記載の撮像装置。 - 前記光学系は開口絞りを含み、
当該開口絞りは、前記光波面変調機能を有する光学素子の光出射側または光入射側の近傍に配置されている、
請求項1または2に記載の撮像装置。 - 前記光波面変調機能を有する光学素子は、レンズの光出射面または光入射側に形成された光波面変調要素を有する、
請求項1~3のいずれかに記載の撮像装置。 - 前記開口絞りは、前記光波面変調機能を有する光学素子の光出射側または光入射側に隣接して配置されている、
請求項4に記載の撮像装置。 - 前記レンズに前記光波面変調要素が形成された場合の形状と、前記レンズに前記光波面変調要素が形成されない場合の形状との差分を位相形状と規定したとき、
前記光波面変調機能を有する光学素子の形状は、前記位相形状が前記光学系の光軸の周りに回転対称であり、前記光軸から周辺部に向かって単調に増加または単調に減少するように、形成されている、
請求項4に記載の撮像装置。 - 前記開口絞りに隣接して、当該光学系の出射端側に、平凹レンズと両凸レンズとを接合した結像用の接合レンズが配設されている、
請求項4、5、6のいずれかに記載の撮像装置。 - 前記開口絞りは、絞りが変更可能に構成されている、
請求項1~7のいずれかに記載の撮像装置。 - 前記光波面変調機能を有する光学素子の光入射側に、前記光学系に入射する像を平行にするレンズが配設されている、
請求項1~8のいずれかに記載の撮像装置。 - 前記光波面変調機能を有する光学素子は、被写体画像を分散した分散画像を前記撮像素子の配置部分に生成し、
当該撮像装置は、前記光波面変調機能を有する光学素子によって分散された分散画像を撮像した前記撮像素子からの被写体の分散画像について信号処理を行い分散のない画像に復元する画像処理部をさらに有する、
請求項1~9のいずれかに記載の撮像装置。 - 前記画像処理部は、畳み込み演算処理を行い、前記分散のない画像に復元する、
請求項10に記載の撮像装置。 - 前記画像処理部は、
前記分散画像についてカラー畳み込み演算処理を行い、
当該カラー畳み込み演算処理結果について光学的伝達関数を復元する処理を行う、
請求項11に記載の撮像装置。 - 前記画像処理部は、カーネルデータを用いて畳み込み演算処理および前記光学的伝達関数を復元する処理を行う、
請求項12に記載の撮像装置。 - 前記カーネルデータは、光学倍率、絞り、物体距離情報のいずれかである、
請求項13に記載の撮像装置。 - 前記カーネルデータは、露出状態に応じて規定される複数有し、
前記画像処理部は、前記光学系の露出に応じて前記カーネルデータを選択して、上記処理を行う、
請求項14に記載の撮像装置。 - 当該撮像装置は、前記光学系内の開口絞りの絞りを調整して露出を調整し、調整した露出に応じて前記カーネルデータを選択して、上記画像処理部の処理を制御する、
請求項15に記載の撮像装置。 - 請求項1~16のいずれかに記載の撮像装置を有し、情報コードを光学的に読み取る情報コード読取装置。
- 前記情報コード読取装置による読み取り対象の前記情報コードは、一次元バーコード、スタック式のコード、二次元バーコードのいずれかを含む、
請求項17に記載の情報コード読取装置。 - 光波面変調機能を有する光学素子を有し、
前記光波面変調機能を有する光学素子は、被写体距離の違いによる画面全体の光学的伝達関数の変化を小さくする性能を有し、かつ、前記光波面変調機能を有する光学素子の焦点距離の絶対値が、前記光学系全体の焦点距離の絶対値に対して大きい、
光学系。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/934,796 US8462213B2 (en) | 2008-03-27 | 2009-03-27 | Optical system, image pickup apparatus and information code reading device |
JP2010505866A JPWO2009119838A1 (ja) | 2008-03-27 | 2009-03-27 | 光学系、撮像装置および情報コード読取装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008084330 | 2008-03-27 | ||
JP2008-084330 | 2008-03-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2009119838A1 true WO2009119838A1 (ja) | 2009-10-01 |
Family
ID=41114023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2009/056376 WO2009119838A1 (ja) | 2008-03-27 | 2009-03-27 | 光学系、撮像装置および情報コード読取装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8462213B2 (ja) |
JP (1) | JPWO2009119838A1 (ja) |
WO (1) | WO2009119838A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012049760A (ja) * | 2010-08-26 | 2012-03-08 | Fujifilm Corp | 撮像モジュールおよび画像信号処理方法 |
JP2014132724A (ja) * | 2013-01-07 | 2014-07-17 | Olympus Imaging Corp | 撮像装置及び撮像方法 |
JP2014222893A (ja) * | 2010-01-22 | 2014-11-27 | ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク | 光学ディフューザを用いて画像を記録するためのシステム、方法、及びメディア |
EP3196686A2 (en) | 2016-01-21 | 2017-07-26 | Omron Corporation | Optical system and photographing apparatus |
WO2019142313A1 (ja) * | 2018-01-19 | 2019-07-25 | 三菱電機株式会社 | 波面計測装置および波面計測システム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5635844B2 (ja) * | 2010-09-06 | 2014-12-03 | キヤノン株式会社 | 焦点調整装置および撮像装置 |
US9208570B2 (en) | 2012-03-28 | 2015-12-08 | Sony Corporation | System and method for performing depth estimation by utilizing an adaptive kernel |
US9064850B2 (en) | 2012-11-15 | 2015-06-23 | Taiwan Semiconductor Manufacturing Company, Ltd. | Through-substrate via formation with improved topography control |
JP6033673B2 (ja) * | 2012-12-28 | 2016-11-30 | 株式会社日立製作所 | 撮像装置 |
US9990698B2 (en) * | 2014-12-01 | 2018-06-05 | Canon Kabushiki Kaisha | Control apparatus, lens apparatus, and non-transitory computer-readable storage medium that determine data as coefficient data corresponding to an order less than a predetermined order of an approximation function |
CN114911036A (zh) * | 2022-05-18 | 2022-08-16 | Oppo广东移动通信有限公司 | 镜头及电子设备 |
CN115130304A (zh) * | 2022-06-29 | 2022-09-30 | 北京理工大学 | 一种基于波前编码的小凹计算成像系统及优化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007013621A1 (ja) * | 2005-07-28 | 2007-02-01 | Kyocera Corporation | 撮像装置および画像処理方法 |
JP2007060647A (ja) * | 2005-07-28 | 2007-03-08 | Kyocera Corp | 撮像装置および撮像方法 |
WO2007074649A1 (ja) * | 2005-12-27 | 2007-07-05 | Kyocera Corporation | 撮像装置およびその画像処理方法 |
JP2007300208A (ja) * | 2006-04-27 | 2007-11-15 | Kyocera Corp | 撮像装置 |
JP2008017157A (ja) * | 2006-07-05 | 2008-01-24 | Kyocera Corp | 撮像装置、並びにその製造装置および製造方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5217841A (en) * | 1975-03-12 | 1977-02-10 | Hitachi Ltd | Optical image pick up system |
US6021005A (en) * | 1998-01-09 | 2000-02-01 | University Technology Corporation | Anti-aliasing apparatus and methods for optical imaging |
US6069738A (en) * | 1998-05-27 | 2000-05-30 | University Technology Corporation | Apparatus and methods for extending depth of field in image projection systems |
US6642504B2 (en) * | 2001-03-21 | 2003-11-04 | The Regents Of The University Of Colorado | High speed confocal microscope |
US6525302B2 (en) * | 2001-06-06 | 2003-02-25 | The Regents Of The University Of Colorado | Wavefront coding phase contrast imaging systems |
JP3958603B2 (ja) | 2002-02-21 | 2007-08-15 | オリンパス株式会社 | 電子内視鏡システム及び電子内視鏡システム用の信号処理装置 |
JP2004153497A (ja) | 2002-10-30 | 2004-05-27 | Kyocera Corp | ディジタルカメラの自動露出制御システム |
WO2007001025A1 (ja) * | 2005-06-29 | 2007-01-04 | Kyocera Corporation | 生体認証装置 |
JP4503516B2 (ja) | 2005-09-09 | 2010-07-14 | 株式会社ジェイデータ | 携帯電話 |
JP5188397B2 (ja) * | 2006-12-27 | 2013-04-24 | 京セラ株式会社 | 撮像装置および情報コード読取装置 |
US7663813B2 (en) * | 2008-01-02 | 2010-02-16 | Newmax Technology Co., Ltd. | Imaging lens module |
-
2009
- 2009-03-27 JP JP2010505866A patent/JPWO2009119838A1/ja active Pending
- 2009-03-27 US US12/934,796 patent/US8462213B2/en not_active Expired - Fee Related
- 2009-03-27 WO PCT/JP2009/056376 patent/WO2009119838A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007013621A1 (ja) * | 2005-07-28 | 2007-02-01 | Kyocera Corporation | 撮像装置および画像処理方法 |
JP2007060647A (ja) * | 2005-07-28 | 2007-03-08 | Kyocera Corp | 撮像装置および撮像方法 |
WO2007074649A1 (ja) * | 2005-12-27 | 2007-07-05 | Kyocera Corporation | 撮像装置およびその画像処理方法 |
JP2007300208A (ja) * | 2006-04-27 | 2007-11-15 | Kyocera Corp | 撮像装置 |
JP2008017157A (ja) * | 2006-07-05 | 2008-01-24 | Kyocera Corp | 撮像装置、並びにその製造装置および製造方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014222893A (ja) * | 2010-01-22 | 2014-11-27 | ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク | 光学ディフューザを用いて画像を記録するためのシステム、方法、及びメディア |
US9407833B2 (en) | 2010-01-22 | 2016-08-02 | The Trustees Of Columbia University In The City Of New York | Systems, methods, and media for recording an image using an optical diffuser |
JP2012049760A (ja) * | 2010-08-26 | 2012-03-08 | Fujifilm Corp | 撮像モジュールおよび画像信号処理方法 |
JP2014132724A (ja) * | 2013-01-07 | 2014-07-17 | Olympus Imaging Corp | 撮像装置及び撮像方法 |
US9282257B2 (en) | 2013-01-07 | 2016-03-08 | Olympus Corporation | Image apparatus and imaging method |
EP3196686A2 (en) | 2016-01-21 | 2017-07-26 | Omron Corporation | Optical system and photographing apparatus |
JP2017129790A (ja) * | 2016-01-21 | 2017-07-27 | オムロン株式会社 | 光学系および撮像装置 |
US10194076B2 (en) | 2016-01-21 | 2019-01-29 | Omron Corporation | Optical system and photographing apparatus |
WO2019142313A1 (ja) * | 2018-01-19 | 2019-07-25 | 三菱電機株式会社 | 波面計測装置および波面計測システム |
Also Published As
Publication number | Publication date |
---|---|
US20110017827A1 (en) | 2011-01-27 |
JPWO2009119838A1 (ja) | 2011-07-28 |
US8462213B2 (en) | 2013-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009119838A1 (ja) | 光学系、撮像装置および情報コード読取装置 | |
JP4663737B2 (ja) | 撮像装置およびその画像処理方法 | |
JP4712631B2 (ja) | 撮像装置 | |
JP5188397B2 (ja) | 撮像装置および情報コード読取装置 | |
JP2008268937A (ja) | 撮像装置および撮像方法 | |
JP2007322560A (ja) | 撮像装置、並びにその製造装置および製造方法 | |
JP2008017157A (ja) | 撮像装置、並びにその製造装置および製造方法 | |
JP2008048293A (ja) | 撮像装置、およびその製造方法 | |
JP2007300208A (ja) | 撮像装置 | |
JP4658162B2 (ja) | 撮像装置および電子機器 | |
JP2009244430A (ja) | 撮像装置 | |
JP2008245266A (ja) | 撮像装置および撮像方法 | |
WO2006106737A1 (ja) | 撮像装置および撮像方法 | |
JP2009086017A (ja) | 撮像装置および撮像方法 | |
JP2006094468A (ja) | 撮像装置および撮像方法 | |
JP2009033607A (ja) | 撮像装置および画像処理方法 | |
JP2009134023A (ja) | 撮像装置および情報コード読取装置 | |
JP2008245265A (ja) | 撮像装置、並びにその製造装置および製造方法 | |
JP2008167040A (ja) | 撮像装置、その製造装置および製造方法、並びに情報コード読取装置 | |
JP4722748B2 (ja) | 撮像装置およびその画像生成方法 | |
JP2009033561A (ja) | 情報コード読取装置およびその方法 | |
JP2009008935A (ja) | 撮像装置 | |
JP2009010783A (ja) | 撮像装置 | |
JP2009181367A (ja) | 撮像装置および電子機器 | |
JP4948967B2 (ja) | 撮像装置、並びにその製造装置および製造方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09726407 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010505866 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12934796 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 09726407 Country of ref document: EP Kind code of ref document: A1 |