WO2006064770A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2006064770A1
WO2006064770A1 PCT/JP2005/022792 JP2005022792W WO2006064770A1 WO 2006064770 A1 WO2006064770 A1 WO 2006064770A1 JP 2005022792 W JP2005022792 W JP 2005022792W WO 2006064770 A1 WO2006064770 A1 WO 2006064770A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
imaging
imaging optical
optical systems
Prior art date
Application number
PCT/JP2005/022792
Other languages
English (en)
French (fr)
Inventor
Katsumi Imada
Tsuguhiro Korenaga
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006548830A priority Critical patent/JPWO2006064770A1/ja
Priority to US11/720,684 priority patent/US7742087B2/en
Publication of WO2006064770A1 publication Critical patent/WO2006064770A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration

Definitions

  • the present invention relates to an imaging apparatus that synthesizes one high-definition image by performing parallax correction from a plurality of images obtained using a plurality of imaging optical systems.
  • a general compound eye imaging apparatus will be described with reference to FIG.
  • a subject image is formed on each of a plurality of imaging optical systems 101, 102, and 103, and a plurality of image sensors 104, 105, and 106, respectively.
  • the imaging light receiving characteristics of the plurality of image sensors 104, 105, and 106 are different from each other.
  • the image sensor 104 images the red (R) wavelength region
  • the image sensor 105 images the green (G) wavelength region
  • 106 images the blue ( ⁇ ) wavelength region.
  • the plurality of images captured by the plurality of image sensors 104, 105, and 106 are subjected to image processing by the R signal processing circuit 107, the G signal processing circuit 108, and the ⁇ signal processing circuit 109, respectively, and then the image composition processing circuit 110. Are combined and output as a color image.
  • the optical axes of the plurality of imaging optical systems 101, 102, 103 are different from each other, and are inclined by an angle 0 (radiation angle) symmetrically with respect to the normal line of a subject at a certain position. Be placed.
  • the radiation angle ⁇ is set to be optimal with respect to the subject position b in FIG.
  • the radiation angle ⁇ is different from the optimum radiation angle for the subject positions a and c. Deviation occurs between the images captured by 106.
  • FIGS. 16A, 16B, and 16C are diagrams each showing a composite image obtained by the compound-eye imaging device shown in FIG. 15, and FIG. 16A shows a case where the subject at position a in FIG. 15 is imaged.
  • FIG. 16B shows a case where the subject at position b is taken, and
  • FIG. 16C shows a case where the subject at position c is taken.
  • the red image (R) and the blue image (with respect to the green image) because the radiation angles of the plurality of imaging optical systems 101, 102, 103 are not appropriate.
  • B) is an image that is shifted to the left and right, and the combined image is output as a color misregistration. That is, the part where the blue image is missing becomes yellow (Ye) due to the green image and the red image, and the part where the red image is missing becomes cyan (Cy) due to the green image and the blue image, and the blue image and red image are missing
  • the image is green image (G).
  • An object of the present invention is to provide an imaging apparatus that can synthesize a high-quality image from a plurality of images having a difference in an imaging apparatus having a compound-eye imaging system in view of the above-described conventional problems.
  • the imaging apparatus of the present invention corresponds to a plurality of imaging optical systems and the plurality of imaging optical systems on a one-to-one basis, and a plurality of images that respectively capture a plurality of images via the plurality of imaging optical systems.
  • an image composition unit having a function of aligning a shift between the plurality of images and a function of synthesizing one image from the plurality of images.
  • the imaging device of the present invention since the deviations other than the parallax between the plurality of images are aligned before the plurality of images are combined, the plurality of images can be combined with high accuracy. Can be obtained.
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing a flow of imaging in the imaging apparatus according to one embodiment of the present invention.
  • FIG. 3 shows the relationship between a subject and an image in an imaging apparatus according to an embodiment of the present invention.
  • FIG. 4 is a diagram schematically showing an apparatus for measuring a focal length of an imaging optical system in an imaging apparatus according to an embodiment of the present invention.
  • FIG. 5A is a diagram showing a method of measuring the focal length when the principal point of the lens to be tested and the rotation center axis of the apparatus of FIG.
  • FIG. 5B is a diagram showing a focal length measurement method in the case where the principal point of the lens to be tested and the rotation center axis do not match in the apparatus of FIG.
  • FIG. 6 is a flowchart showing an algorithm for magnification correction processing of the imaging apparatus according to the embodiment of the present invention.
  • FIG. 7 is a diagram for explaining interpolation processing of the imaging apparatus according to one embodiment of the present invention.
  • FIG. 8 is a diagram showing an example of a positional relationship between each image sensor and a subject image in the imaging apparatus according to one embodiment of the present invention.
  • FIG. 9 is a diagram showing an example of an image obtained via each image sensor in the imaging apparatus according to one embodiment of the present invention.
  • FIG. 10A is a diagram for explaining a method of detecting the rotation angle of the image sensor in the imaging apparatus according to one embodiment of the present invention.
  • FIG. 10B is a diagram for explaining a method of detecting the rotation angle of the image sensor in the imaging apparatus according to one embodiment of the present invention.
  • FIG. 11 is a flowchart showing an algorithm for rotation correction processing of the imaging apparatus according to the embodiment of the present invention.
  • FIG. 12A is a diagram showing a grid-like subject.
  • FIG. 12B is a diagram showing an example of a grid-like subject image captured through the first imaging optical system in the imaging apparatus according to the embodiment of the present invention.
  • FIG. 12C is a diagram showing an example of a grid-like subject image imaged through the second imaging optical system in the imaging device according to one embodiment of the present invention.
  • FIG. 12D is a diagram showing an example of a grid-like subject image imaged through the third imaging optical system in the imaging device according to one embodiment of the present invention.
  • FIG. 13 is a diagram for explaining a method for detecting the distortion amount of the imaging optical system in the imaging apparatus according to the embodiment of the present invention.
  • FIG. 14 is a flowchart showing an algorithm for distortion correction processing of the imaging apparatus according to the embodiment of the present invention.
  • FIG. 15 is a block diagram showing a schematic configuration of a conventional compound eye imaging apparatus.
  • FIG. 16A is a diagram showing a composite image when a white circle subject at position a is imaged by the compound-eye imaging apparatus of FIG.
  • FIG. 16B is a diagram showing a composite image when a white circle subject at position b is imaged by the compound-eye imaging apparatus of FIG.
  • FIG. 16C is a diagram showing a composite image when the white circle subject at position c is imaged by the compound-eye imaging device of FIG.
  • the function of aligning the shift between the plurality of images is a function of aligning the magnifications of the plurality of images.
  • the imaging apparatus further includes a recording unit that records information on magnifications of the plurality of imaging optical systems, and the image synthesis unit includes information on the magnifications of the plurality of imaging optical systems. It is preferable to align the magnification of the plurality of images using.
  • the imaging apparatus further includes a recording unit that records information on focal lengths of the plurality of imaging optical systems, and the image synthesis unit is configured to determine the focal lengths of the plurality of imaging optical systems. It is preferable to align the magnifications of the plurality of images using information.
  • the function is to align the inclination of the plurality of images.
  • the imaging apparatus further includes a recording unit that records information on the inclinations of the plurality of imaging regions, and the image composition unit uses the information on the inclinations of the plurality of imaging regions. It is preferable to align the inclination of the plurality of images.
  • the function of aligning the distortion of the plurality of images is preferable.
  • the imaging apparatus further includes information on the amount of distortion of the plurality of imaging optical systems.
  • the image synthesizing unit aligns the distortions of the plurality of images using information on the distortion amounts of the plurality of imaging optical systems.
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention.
  • the same parts as those in FIG. 15 showing a conventional imaging apparatus are denoted by the same reference numerals. Yes.
  • a plurality of imaging optical systems 101, 102, and 103 respectively form subject images on a plurality of image sensors 104, 105, and 106 corresponding one-to-one.
  • the imaging light receiving characteristics of the plurality of image sensors 104, 105, and 106 are different from each other.
  • the image sensor 104 images the red (R) wavelength region
  • the image sensor 105 images the green (G) wavelength region.
  • the age sensor 106 images the blue (B) wavelength region.
  • the image sensor may be provided with wavelength dependency, or wavelength selectivity may be realized by inserting a filter or the like.
  • the plurality of images captured by the plurality of image sensors 104, 105, 106 are subjected to image processing by the R signal processing circuit 107, the G signal processing circuit 108, and the B signal processing circuit 109, respectively. Deviations between a plurality of images excluding parallax are aligned by the preprocessing circuit 111, and then synthesized by the image synthesis processing circuit 110 and output as a color image.
  • the image synthesizing unit 115 that receives a plurality of image signals obtained from the plurality of image sensors 104, 105, and 106 and outputs a synthesized image signal, An image pre-processing circuit 111 that has the function of aligning the shift between multiple images, and an image compositing process that has the function of creating a single image (composite image) by combining multiple images processed by the image pre-processing circuit 111
  • the description will be divided into the circuit 110, it is not necessary that the image pre-processing circuit 111 and the image composition processing circuit 110 are clearly distinguished from each other in an actual imaging apparatus.
  • FIG. 2 is an occupancy flow diagram showing an imaging flow of the imaging apparatus of the present embodiment.
  • step S10 imaging is started by pressing an imaging button or the like.
  • step S20 image acquisition processing is performed in which a plurality of images are captured from the plurality of image sensors 104, 105, and 106. This processing is performed by signal processing circuits 107, 108, 109.
  • step S30 an intensity correction process is performed on a plurality of images to perform variation and sensitivity adjustment between the plurality of image sensors 104, 105, and 106. This processing is performed by the signal processing circuits 107, 108, and 109.
  • step S40 an origin correction process whose main purpose is to correct mounting misalignment of the plurality of imaging optical systems 101, 102, 103 and the plurality of image sensors 104, 105, 106 for a plurality of images. Is made. This processing is performed by the signal processing circuits 107, 108, and 109.
  • step S50 a magnification correction process for aligning the magnifications of the plurality of images is performed on the plurality of images. This processing is performed by the image preprocessing circuit 111.
  • step S60 rotation correction processing for aligning the inclinations of the plurality of images is performed on the plurality of images. This processing is performed by the image preprocessing circuit 111.
  • step S70 a distortion correction process for aligning the distortions of the plurality of images is performed on the plurality of images. This processing is performed by the image preprocessing circuit 111.
  • step S80 a parallax correction combining process for calculating a parallax amount between a plurality of images and correcting the parallax amount to synthesize a plurality of images to form one image (synthesized image) is performed. This processing is performed by the image composition processing circuit 110.
  • step S90 the composite image is displayed on a display device such as a liquid crystal display integrated with the imaging device, or a device capable of outputting an image such as a CRT, TV, PC (personal computer), or printer via a wiring cable. Is output.
  • a display device such as a liquid crystal display integrated with the imaging device, or a device capable of outputting an image such as a CRT, TV, PC (personal computer), or printer via a wiring cable. Is output.
  • the magnification, inclination, and distortion of a plurality of images are aligned (steps S50, S60, S70) in the previous stage of the parallax correction combining process (step S80).
  • combination processing can be made easy and a high-definition composite image can be obtained.
  • FIG. 2 is a flowchart for the purpose of finally outputting a composite image.
  • the parallax amount obtained in step S80 and the plurality of imaging optical systems 101, 102, 103 are shown in FIG.
  • the distance to the subject may be calculated using the principle of triangulation from the focal length and the distances between the optical axes of the plurality of imaging optical systems 101, 102, 103 used when calculating the amount of parallax. Therefore, the imaging apparatus according to the present embodiment can simultaneously acquire the composite image and the distance information to the subject. Alternatively, only the distance information to the subject can be acquired without performing a process of combining a plurality of images. In this case, between steps S50, S60, S70 By performing the process of aligning the deviations, the accuracy of the distance information can be improved.
  • magnification correction process step S50
  • rotation correction process step S60
  • distortion correction process step S70
  • a magnification correction process for aligning the magnifications of a plurality of images (step S50 in FIG. 2).
  • FIG. 3 is a diagram simply showing the relationship between the lens 1, the subject 2, and the subject image 3.
  • 4 and 5 are representative first and second rays from subject 2
  • z is the optical axis
  • F is the front focal point
  • F ' is the rear focal point
  • H is the front principal point
  • H' is the rear principal point
  • Y is the height of subject 2
  • y ′ is the height of subject image 3
  • f ′ is the rear focal length.
  • the magnification j8 is defined by the following equation (1).
  • Equation (1) is transformed as Equation (2) below.
  • a magnification correction process for aligning the magnifications of a plurality of images before parallax correction and image synthesis.
  • Step 50 in FIG. 2 is preferably performed.
  • the image preprocessing circuit 111 aligns the magnification deviation between a plurality of images are shown.
  • magnification correction processing is performed on a plurality of images using this magnification information.
  • the focal length of each imaging optical system is measured, the magnification is obtained by substituting the information into the above equation (2), and the information is used as an initial value.
  • the image is recorded in the recording unit 112 (see FIG. 1) in the image preprocessing circuit 111.
  • the magnification correction processing (step 50 in FIG. 2) is performed on a plurality of images using this magnification information.
  • the focal length information of each imaging optical system is recorded in the recording unit 112, and magnification correction processing (step 50 in FIG. 2) is performed on a plurality of images using the focal length information during imaging. May be.
  • FIG. 4 is a diagram showing an apparatus for measuring the focal length of the lens 11 as an imaging optical system.
  • 6 is a collimator
  • 7 is a moving stage
  • 8 is a rotary stage
  • 9 is a lens holder
  • 10 is parallel light
  • 11 is a lens to be examined
  • 12 is an imaging camera.
  • the lens 11 to be examined is held by the moving stage 7 and the rotating stage 8 through the lens holder 9.
  • the moving stage 7 can move the test lens 11 in the optical axis direction
  • the rotary stage 8 can rotate the test lens 11 about the rotation center axis 8a in a plane perpendicular to the paper surface including the optical axis. I can do it.
  • a collimator 6 is disposed on one side of the lens 11 to be examined, and an imaging camera 12 is disposed on the other side.
  • the parallel light 10 formed by the collimator 6 enters the imaging camera 12 through the lens 11 to be examined.
  • the principal point 11a of the lens 11 to be examined and the rotating stage 8 are rotating.
  • the center axis 8a coincides with the center axis 8a
  • the test lens 11 is moved in a direction parallel to the optical axis by the moving stage 7 while the test lens 11 is tilted so that the principal point 11a and the rotation center axis 8a coincide.
  • the focal length f of the lens 11 to be measured can be measured.
  • the step of measuring the magnification or the focal length of each imaging optical system is sufficient to be performed once in the initialization step at the time of assembling the imaging device or a product on which the imaging device is mounted.
  • a magnification correction process using the magnification or focal length information of a plurality of imaging optical systems a new image is reconstructed by the image preprocessing circuit 111, and the image signal is replaced with the original image signal.
  • the image pre-processing circuit 111 manages only the magnification or focal length information
  • the next-stage image synthesis processing circuit 110 manages the image signal and the magnification or focal length information.
  • magnification correction process (step 50 in FIG. 2) performed for each shooting will be described with reference to FIG.
  • step S51 a plurality of images (photodiode (hereinafter referred to as PD) output) imaged through a plurality of imaging optical systems are temporarily stored in the two-dimensional space in the image preprocessing circuit 111. Coordinates (x, y) with the origin as the origin, which is recorded in the information recording unit (not shown) and extracted in the origin correction process in step S40 (see Fig. 2), are added to the pixels constituting each image.
  • PD photodiode
  • step S52 the (x, y) coordinate system is converted into an (r, ⁇ ) polar coordinate system centered on the origin. This conversion can be easily performed by a coordinate conversion method using the following equations (3) and (4).
  • step S53 magnification correction is performed.
  • 83
  • j82 ⁇ j81> 1 or j83 ⁇ j81> 1 it becomes R r from equation (5), and the image sensor power before magnification correction becomes smaller than the size of the extracted image.
  • magnification ( ⁇ 81) of the imaging optical system corresponding to the reference image so that ⁇ 2 / ⁇ 1 ⁇ 1, J83ZJ81 ⁇ 1.
  • step S 54 the polar coordinate system (R, 0 ′) is converted to the (X, Y) coordinate system.
  • This conversion can be performed by using the following equations (7) and (8).
  • step S55 data interpolation processing is performed.
  • Most of the image data after the coordinate conversion in step S54 is data at a position (between pixels) different from the grid-point pixel position. Therefore, it is necessary to create image data at the pixel position by performing interpolation processing using image data around the pixel.
  • Image data at pixel P can be obtained by the following equation (9).
  • magnification correction process (step S50 in FIG. 2) ends.
  • magnification or focal length of each of the plurality of imaging optical systems is directly measured using the actually assembled imaging device, and the magnification of the plurality of images is determined using the information.
  • the present invention is not limited to this. For example, if the magnification or focal length of each imaging optical system is considered to be almost equal to the design value, the magnification correction processing may be performed using the design value. It is done.
  • step S60 in FIG. 2 a rotation correction process for aligning the inclinations of a plurality of images will be described.
  • FIG. 8 is a view of the positional relationship between the plurality of image sensors 104, 105, 106 and the subject image of the imaging apparatus shown in FIG.
  • the same parts as those in Fig. 1 are given the same numbers.
  • a cross-shaped subject image 120 is formed on each of the image sensors 104, 105, and 106.
  • the image sensor 105 is installed at an angle ⁇ with respect to the other image sensors 104 and 106. This assumes a variation when the image sensors 104, 105, and 106 are mounted on the same substrate.
  • FIG. 9 shows images of the subject captured by the image sensors 104, 105, and 106 via an R signal processing circuit 107, a G signal processing device 108, and a B signal processing device 109.
  • FIG. 6 is a diagram showing a result displayed on a display).
  • the screen displays 104 ′, 105 ′, and 106 correspond to the image sensors 104, 105, and 106 in order. According to FIG. 9, it can be seen that the subject image 120 captured by the image sensor 105 is rotated by ⁇ compared to the subject image 120 ′ captured by the other image sensors 104 and 106.
  • the image 120 obtained by the image sensor 105 is another image. It is impossible to superimpose on the image 120 by the image sensors 104 and 106. Therefore, a rotation correction process for aligning the inclinations of a plurality of images before parallax correction and image synthesis.
  • Step S60 in FIG. 2 is preferably performed.
  • an adjustment image having a remarkably large contrast difference is imaged as a subject.
  • a black crosshair on a white background For example, a black crosshair on a white background.
  • the width of the crosshair is preferably at least twice the pixel pitch of the image sensors 104, 105, and 106 in consideration of the magnification of the optical system.
  • FIGS. 10A and 10B An example of an output image rotation angle detection method when a crosshair is used as a subject will be described with reference to FIGS. 10A and 10B.
  • the cross line 131 is displayed on the display device 130 having the number of pixels H in the horizontal direction and the number of pixels V in the vertical direction by rotating the rotation angle ⁇ around the origin Pc.
  • the output value from each pixel is detected while moving the target pixel in the vertical direction with reference to the pixel A that has moved HZ2 pixels in the horizontal direction from the origin Pc.
  • An outline of the detection result of the output value from the pixel is shown in Fig. 10B. In Fig.
  • the horizontal axis is the number of pixels in the vertical direction with reference to pixel A
  • the vertical axis is the output value (pixel output) from the pixel.
  • the rotation angle ⁇ of the horizontal line of the crosshair with respect to the horizontal direction of this image sensor is (10).
  • Equation (10) is the case where the pixel pitches in the horizontal direction and the vertical direction are the same. If they are different, it is necessary to multiply the ratio.
  • This measurement is performed for all image sensors 104, 105, 106, and each image sensor Is recorded in the recording unit 112 (see FIG. 1) in the image preprocessing circuit 111 as initial values ( ⁇ 1, ⁇ 2, and ⁇ 3).
  • rotation correction processing (step S60 in FIG. 2) is performed on a plurality of images using this inclination information.
  • the step of measuring the inclination of each image sensor need only be performed once in the initialization step when assembling the imaging device or the product on which it is mounted.
  • step S 60 in FIG. 2 an example of rotation correction processing (step S 60 in FIG. 2) performed for each shooting will be described.
  • step S61 a plurality of images (PD output) captured through a plurality of imaging optical systems are temporarily stored in a two-dimensional spatial information recording unit (not shown) in the image preprocessing circuit 111.
  • the coordinates (x, y) with the origin as the origin extracted in the origin correction process in step S40 (see Fig. 2) are added to the pixels that constitute each image.
  • step S62 the (x, y) coordinate system is converted into a (r, ⁇ ) polar coordinate system centered on the origin. This conversion can be easily performed by a coordinate conversion method using the following equations (3) and (4).
  • step S63 rotation correction is performed.
  • the coordinates (r, ⁇ ) are expressed by the following equations (11) and (12). Is used to convert to coordinates (R, 0 ').
  • step S64 the polar coordinate system (R, 0 ′) is converted to the (X, Y) coordinate system.
  • This conversion can be performed by using the following equations (7) and (8).
  • step S65 data interpolation processing is performed.
  • Most of the image data after the coordinate conversion in step S64 is data at a position (between the pixels) different from the grid-point pixel position. Therefore, it is necessary to create image data at the pixel position by performing interpolation processing using image data around the pixel.
  • the image data at pixel P can be obtained by the following equation (9).
  • the rotation angles of a plurality of images output from a plurality of image sensor cameras are detected using an actually assembled imaging device, and a plurality of images are used using the information.
  • the present invention is not limited to this.
  • step S70 in FIG. 2 a distortion correction process for aligning the distortion of a plurality of images will be described.
  • a normal optical lens has a phenomenon (this is called distortion) in which a linear object is distorted into a curved line at the periphery of an imaging area. 12A to 12D, the imaging device of the present invention is used. An example of distortion caused by the imaging optical system will be described.
  • FIG. 12A shows a grid-like subject.
  • 12B is an image obtained by the image sensor 104 picking up the grid-like subject shown in FIG. 12A via the imaging optical system 101
  • FIG. 12C is a picture showing the grid-like subject shown in FIG. 12A taken by the image sensor 105 via the imaging optical system 102.
  • the captured image, FIG. 12D is an image captured by the image sensor 106 via the imaging optical system 103 of the grid-like subject of FIG. 12A.
  • all the images in FIGS. 12B to 12D are deformed into a barrel shape.
  • the image in FIG. 12B and the image in FIG. 12D are almost the same, but the image in FIG. 12C is slightly different in shape, and the image in FIG. 12C is the same as that in FIG. 12B and FIG. 12D.
  • the distortion is bigger than the image.
  • Step S70 in FIG. 2 is preferably performed.
  • the distortion amount of each imaging optical system is measured at the time of assembling the imaging apparatus, and the information is recorded as an initial value in the recording unit 112 (see FIG. 1) in the image preprocessing circuit 111. If the actual distortion amount of each imaging optical system is considered to be almost the same as the design value, the design value may be recorded in the recording unit 112 (see FIG. 1).
  • a plurality of lattice-like subjects having a linear force orthogonal to each other shown in FIG. 12A can be photographed, and the amount of distortion of the imaging optical system can be measured from an image that can also obtain each image sensor force.
  • the output image of the image sensor is as shown by the solid line 142 in FIG.
  • a part of a grid-like object enlarged (or reduced) in consideration of the magnification of the imaging optical system is also shown by a broken line 141.
  • Point P on subject 141 is point P on output image 142
  • Point P indicates the position of the optical axis.
  • Optical axis P force is also the distance to point P on the subject 141
  • the separation y is up to point P on the optical axis P force output image 142 due to distortion of the imaging optical system.
  • the distortion amount D of the imaging optical system should be obtained by the following equation (13).
  • This measurement is performed for all the imaging optical systems 101, 102, 103, and information on the amount of distortion of each imaging optical system 101, 102, 103 is used as the initial value (Dl (y), D2 (y), D3 (y)).
  • the image is recorded in the recording unit 112 (see FIG. 1) in the image preprocessing circuit 111.
  • distortion correction processing (step S70 in FIG. 2) is performed on a plurality of images using this distortion amount information.
  • the step of measuring the distortion amount of each imaging optical system is sufficient to be performed once in the initialization step when assembling the imaging device or a product on which the imaging device is mounted.
  • step S70 in Fig. 2 An example of distortion correction processing (step S70 in Fig. 2) performed for each shooting will be described with reference to Fig. 14.
  • step S71 a plurality of images (PD outputs) captured using a plurality of imaging optical systems are temporarily stored in a two-dimensional spatial information recording unit (not shown) in the image preprocessing circuit 111.
  • the coordinates (x, y) with the origin as the origin extracted in the origin correction process in step S40 (see Fig. 2) are added to the pixels that constitute each image.
  • step S72 the (x, y) coordinate system is converted into a (r, ⁇ ) polar coordinate system centered on the origin. This conversion can be easily performed by a coordinate conversion method using the following equations (3) and (4).
  • step S 74 the polar coordinate system (R, 0 ′) is converted to the (X, Y) coordinate system.
  • This conversion can be performed by using the following equations (7) and (8).
  • step S75 data interpolation processing is performed.
  • Most of the image data after the coordinate conversion in step S74 is data at a position (between the pixels) different from the pixel position of the lattice point. Therefore, it is necessary to create image data at the pixel position by performing interpolation processing using image data around the pixel.
  • the image data at pixel P can be obtained by the following equation (9).
  • step S70 in FIG. 2 is completed.
  • the distortion amount of each of the plurality of imaging optical systems is directly measured using the actually assembled imaging device, and the distortion of the plurality of images is aligned using the information.
  • the present invention is not limited to this.
  • the distortion correction processing is performed using the design value. Even in this case, the same effect as described above can be obtained.
  • the reference distortion amount may be the distortion amount of the imaging optical system having the smallest distortion amount among the plurality of imaging optical systems, or may be a distortion amount smaller than the distortion amount of the plurality of imaging optical systems. good.
  • a composite image in which distortion is sufficiently corrected can be obtained as an additional effect.
  • the imaging optical system can be easily designed, and a thin imaging optical system that has not been conventionally available can be realized.
  • the distortion correction processing is performed! / It is preferable to obtain the amount of parallax using the image, correct the obtained amount of parallax using the distortion amount, and obtain the corrected amount of parallax by calculating the distance information to the subject. In this case, it is only necessary to consider the amount of distortion at a specific pixel used when obtaining the amount of parallax, so that the calculation time can be shortened. In contrast, when a plurality of images are subjected to distortion correction processing and the amount of parallax is obtained from the plurality of corrected images, calculation for distortion correction is performed for all pixel data in the image distortion correction processing.
  • the variation in the distortion amount among the plurality of imaging optical systems is about ⁇ 5% or less.
  • the variation in the distortion amount is larger than ⁇ 5%, the calculation for obtaining the plurality of image power parallax amounts does not function normally, and the possibility that the accurate parallax amount cannot be obtained increases.
  • magnification initial value setting step the magnification or focal length of each of the plurality of imaging optical systems is measured and recorded as an initial value in the recording unit 112 (magnification initial value setting step).
  • a step of measuring each distortion of the plurality of imaging optical systems and recording this as an initial value in the recording unit 112 distaltion It is preferable to perform an initial value setting step.
  • a preferable execution order of these three initial value setting steps will be described below.
  • the initial tilt value setting step if an appropriate subject is used, such as the cross-shaped subject described in the second embodiment, even if magnification and distortion vary among a plurality of captured images, It is possible to accurately measure the tilt regardless of the angle. Therefore, it is preferable to perform the tilt initial value setting process first.
  • the captured image 142 is compared with the subject 141 (see FIG. 13). For this comparison, information on the magnification or focal length of the imaging optical system is required. Therefore, it is preferable that the magnification initial value setting process is performed prior to the distortion initial value setting process.
  • the initial slope setting process, the initial magnification setting process, and the initial distortion setting process are performed in this order.
  • This subject consists of a first straight line and a second straight line that are orthogonal to each other.
  • the first straight line is preferably parallel to the horizontal direction and long enough to extend out of the field of view of the imaging optical system.
  • This first straight line is used to measure the tilt of the image sensor (see Figure 10A).
  • the second straight line is preferably parallel to the vertical direction. It is preferable that the length of the second straight line is within the field of view of the imaging optical system.
  • the length of the image formed on the image sensor is the effective imaging of the image sensor. It is preferably set to be approximately 80% of the length of the vertical side (short side) of the region.
  • the line widths of the first and second straight lines are preferably set so that the line width of the image formed on the image sensor is at least twice the pixel pitch of the image sensor.
  • the colors of the first and second straight lines are preferably black in order to significantly increase the contrast ratio, and the background is preferably white.
  • any one of the obtained red, blue, and green images for example, red or It is necessary to interpolate and extract the information of other color images (for example, green images) from the information of blue images.
  • the imaging apparatus of the present invention is not limited to this.
  • one image sensor common to a plurality of imaging optical systems may be used, and this image sensor may be divided into a plurality of imaging regions so as to correspond one-to-one to the plurality of imaging optical systems.
  • the image pickup apparatus that performs the magnification correction process (step S50), the rotation correction process (step S60), and the distortion correction process (step S70) shown in Fig. 2 in this order.
  • the order of these three correction processes is not limited to this.
  • One or two of these three correction processes may be omitted.
  • the rotation correction process (step S60) can be omitted.
  • the field of application of the imaging apparatus according to the present invention is not particularly limited, but can be used as a camera module for portable devices, for example, because it can capture high-quality images despite the small size in the optical axis direction. It is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

 複数の撮像領域(104,105,106)が、これらと一対一に対応する複数の撮像光学系(101、102、103)を介して複数の画像をそれぞれ撮像する。画像合成手段(115)は、複数の画像間のずれを揃え、且つ、複数の画像から1つの画像を合成する。これにより、高品位の合成画像を得ることができる。

Description

明 細 書
撮像装置
技術分野
[0001] 本発明は、複数の撮像光学系を用いて得られた複数の画像から、視差補正を行う ことにより 1つの高精細画像を合成する撮像装置に関する。
背景技術
[0002] 複数の撮像光学系 (複眼撮像系)を用いて得られた複数の画像を合成することによ り、 1つの高精細な画像を得る原理方式としては、例えば「超高精細画像取得のため の基礎検討」(相澤清晴、他 2名、画像電子学会予稿 90— 03— 04、 p. 23〜28)に 開示された方式が知られている。この方式では、 2つの撮像光学系を用いて得た 2つ の画像を、一方の画像の画素間に他方の画像の画素が挿入されるように重ね合わ せることにより、 1つの高精細な画像を得る。
[0003] この原理をカラー画像に応用しても同様である。即ち、高精細なカラー画像を得る 方法として、べィヤー配列やストライプ配列等で配置されたカラーフィルタを備えた複 数の撮像光学系を用 、る方法と、色感度特性が互 、に異なる複数の撮像光学系を 用いる方法とがある。
[0004] 一般的な複眼撮像装置を図 15を用いて説明する。図 15において、複数の撮像光 学系 101、 102、 103ίま、複数のイメージセンサ 104、 105、 106に被写体像をそれ ぞれ結像する。複数のイメージセンサ 104、 105、 106の撮像受光特性は互いに異 なっており、イメージセンサ 104は赤 (R)波長領域を撮像し、イメージセンサ 105は緑 (G)波長領域を撮像し、イメージセンサ 106は青 (Β)波長領域を撮像する。複数のィ メージセンサ 104、 105、 106がそれぞれ撮像した複数の画像は、それぞれ R信号処 理回路 107、 G信号処理回路 108、及び Β信号処理回路 109により画像処理された 後、画像合成処理回路 110により合成されてカラー画像として出力される。
[0005] この複眼撮像装置では複数の撮像光学系 101、 102、 103の各光軸は互いに異な り、ある位置にある被写体の法線に対して対称に角度 0 (輻射角)だけ傾斜して配置 される。例えば輻射角 Θが図 15の被写体位置 bに対して最適となるように設定され固 定されている場合において、位置 a又は位置 cにある被写体を撮像すると、前記の輻 射角 Θは被写体位置 a、 cに対して最適な輻射角とは異なるため、イメージセンサ 10 4、 105、 106がそれぞれ撮像した画像間にずれが生じてしまう。
[0006] これを図 16A,図 16B,図 16Cを用いて説明する。図 16A,図 16B,図 16Cは、い ずれも図 15に示した複眼撮像装置によって得られる合成画像を示す図であり、図 16 Aは、図 15の位置 aにある被写体を撮像した場合、図 16Bは位置 bにある被写体を撮 像した場合、図 16Cは位置 cにある被写体を撮像した場合を示している。本例では、 黒の背景に丸 、白い被写体を撮影したと仮定する。
[0007] 被写体が位置 aにある場合、図 16Aに示すように、複数の撮像光学系 101、 102、 103の輻射角が適切でないために緑画像に対して赤画像 (R)と青画像 (B)とはそれ ぞれ左右にずれた画像となり、合成後の画像はそのずれた分だけ色ズレとして出力 されてしまう。即ち、青画像が欠落した部分は緑画像と赤画像とによりイェロー (Ye) になり、赤画像が欠落した部分は緑画像と青画像とによりシアン (Cy)となり、青画像 と赤画像が欠落した部分は緑画像 (G)となる。本例では複数の撮像光学系 101、 10 2、 103の光軸が一次元に配置されているために、合成画像においてはその配置方 向に一次元のずれが生じる力 二次元に配置されて 、る場合には二次元のずれが 生じる。合成画像において二次元のずれが生じた場合、緑画像が欠落した部分は赤 画像と青画像とによりマジェンダ (Mg)となる。
[0008] 被写体が位置 bにある場合、図 16Bに示すように、複数の撮像光学系 101、 102、 103の輻射角が適切であるために色ズレのない高精細な画像が出力される。
[0009] 被写体が位置 cにある場合、図 16Cに示すように、被写体が位置 aにある場合に得 られる合成画像(図 16A参照)とは赤画像と青画像とがそれぞれ逆方向にずれた合 成画像となる。
[0010] さらに、それぞれのイメージセンサ 104、 105、 106で得られた複数の画像間にわ ず力な差異 (例えば、倍率、傾き、歪曲などにおけるずれ)があると正確に視差を補 正することが困難となり、合成した画像の画質、特に解像度を著しく劣化させる。
[0011] これに対し特許第 3397758号明細書には、倍率におけるずれを解消するために、 第 1の波長に対する第 1の撮像光学系の焦点距離と第 2の波長に対する第 2の撮像 光学系の焦点距離とを同一に設定することが開示されている。しかし、実際の物作り の観点力 考えると、焦点距離を全く同一にすることは著しく困難であり、特に、光学 系毎に対象とする波長帯域が異なる場合はほぼ不可能と考えられる。
発明の開示
発明が解決しょうとする課題
[0012] 上記したように、複眼撮像系により得られた複数の画像を合成して 1つの画像を合 成する撮像装置にぉ ヽては、それぞれの光学系で得られた複数の画像間に倍率、 傾き、歪曲等にわずかなずれがあると、これらの画像から視差を正確に補正すること が困難となり、合成した画像の画質、特に解像度を著しく劣化させる。
[0013] 本発明は上記従来の問題点に鑑み、複眼撮像系を有する撮像装置において、視 差を有する複数の画像から、高品位の画像を合成することができる撮像装置を提供 することを目的とする。
課題を解決するための手段
[0014] 本発明の撮像装置は、複数の撮像光学系と、前記複数の撮像光学系と一対一に 対応し、前記複数の撮像光学系を介して複数の画像をそれぞれ撮像する複数の撮 像領域と、前記複数の画像間のずれを揃える機能及び前記複数の画像から 1つの 画像を合成する機能を有する画像合成手段とを備えたことを特徴とする。
発明の効果
[0015] 本発明の撮像装置によれば、複数の画像を合成する前に、複数の画像間の視差 以外のずれが揃えられるので、複数の画像を高精度に合成することが可能となり高 画質の合成画像を得ることができる。
図面の簡単な説明
[0016] [図 1]図 1は、本発明の一実施形態に係る撮像装置の概略構成を示したブロック図で ある。
[図 2]図 2は、本発明の一実施形態に係るの撮像装置において、撮像の流れを示す フロー図である。
[図 3]図 3は、本発明の一実施形態に係る撮像装置における被写体と像との関係を 示す図である。
[図 4]図 4は、本発明の一実施形態に係る撮像装置において、撮像光学系の焦点距 離を計測する装置の概略を示す図である。
[図 5A]図 5Aは、図 4の装置において被検レンズの主点と回転中心軸とがー致してる 場合の焦点距離の測定方法を示した図である。
[図 5B]図 5Bは、図 4の装置において被検レンズの主点と回転中心軸とがー致してい な 、場合の焦点距離の測定方法を示した図である。
[図 6]図 6は、本発明の一実施形態に係る撮像装置の倍率補正処理のアルゴリズム を示したフロー図である。
[図 7]図 7は、本発明の一実施形態に係る撮像装置の補間処理を説明するための図 である。
[図 8]図 8は、本発明の一実施形態に係る撮像装置において各イメージセンサと被写 体像との位置関係の一例を示した図である。
[図 9]図 9は、本発明の一実施形態に係る撮像装置において各イメージセンサを介し て得られた画像の一例を示した図である。
[図 10A]図 10Aは、本発明の一実施形態に係る撮像装置において、イメージセンサ の回転角を検出する方法を説明するための図である。
[図 10B]図 10Bは、本発明の一実施形態に係る撮像装置において、イメージセンサ の回転角を検出する方法を説明するための図である。
[図 11]図 11は、本発明の一実施形態に係る撮像装置の回転補正処理のァルゴリズ ムを示したフロー図である。
[図 12A]図 12Aは、格子状の被写体を示した図である。
圆 12B]図 12Bは、本発明の一実施形態に係る撮像装置において第 1の撮像光学系 を介して撮像された格子状の被写体像の一例を示した図である。
[図 12C]図 12Cは、本発明の一実施形態に係る撮像装置において第 2の撮像光学 系を介して撮像された格子状の被写体像の一例を示した図である。
[図 12D]図 12Dは、本発明の一実施形態に係る撮像装置において第 3の撮像光学 系を介して撮像された格子状の被写体像の一例を示した図である。 [図 13]図 13は、本発明の一実施形態に係る撮像装置において、撮像光学系の歪曲 量を検出する方法を説明するための図である。
[図 14]図 14は、本発明の一実施形態に係る撮像装置の歪曲補正処理のァルゴリズ ムを示したフロー図である。
[図 15]図 15は、従来の複眼撮像装置の概略構成を示したブロック図である。
[図 16A]図 16Aは、図 15の複眼撮像装置により位置 aにある白丸の被写体を撮像し た場合の合成画像を示した図である。
[図 16B]図 16Bは、図 15の複眼撮像装置により位置 bにある白丸の被写体を撮像し た場合の合成画像を示した図である。
[図 16C]図 16Cは、図 15の複眼撮像装置により位置 cにある白丸の被写体を撮像し た場合の合成画像を示した図である。
発明を実施するための最良の形態
[0017] 本発明の上記撮像装置において、前記複数の画像間のずれを揃える機能が、前 記複数の画像の倍率を揃える機能であることが好ましい。
[0018] この場合において、前記撮像装置が、更に、前記複数の撮像光学系の倍率の情報 を記録した記録部を備え、前記画像合成手段は、前記複数の撮像光学系の前記倍 率の情報を用いて前記複数の画像の倍率を揃えることが好まし 、。
[0019] あるいは、前記撮像装置が、更に、前記複数の撮像光学系の焦点距離の情報を記 録した記録部を備え、前記画像合成手段は、前記複数の撮像光学系の前記焦点距 離の情報を用いて前記複数の画像の倍率を揃えることが好ま 、。
[0020] また、本発明の上記撮像装置において、前記複数の画像間のずれを揃える機能が
、前記複数の画像の傾きを揃える機能であることが好ま 、。
[0021] この場合において、前記撮像装置が、更に、前記複数の撮像領域の傾きの情報を 記録した記録部を備え、前記画像合成手段は、前記複数の撮像領域の前記傾きの 情報を用いて前記複数の画像の傾きを揃えることが好ま 、。
[0022] また、本発明の上記撮像装置において、前記複数の画像間のずれを揃える機能が
、前記複数の画像の歪曲を揃える機能であることが好ましい。
[0023] この場合において、前記撮像装置が、更に、前記複数の撮像光学系の歪曲量の情 報を記録した記録部を備え、前記画像合成手段は、前記複数の撮像光学系の前記 歪曲量の情報を用いて前記複数の画像の歪曲を揃えることが好ましい。
[0024] 以下、本発明の実施の形態を図面を参照しながら説明する。
[0025] 図 1は、本発明の一実施形態に係る撮像装置の概略構成を示したブロック図であり 、従来の撮像装置を示した図 15と同一の部分には同一の番号を付している。
[0026] 図 1において、複数の撮像光学系 101、 102、 103は、これと一対一に対応する複 数のイメージセンサ 104、 105、 106に被写体像をそれぞれ結像する。複数のィメー ジセンサ 104、 105、 106の撮像受光特性は互いに異なっており、イメージセンサ 10 4は赤 (R)波長領域を撮像し、イメージセンサ 105は緑 (G)波長領域を撮像し、ィメ ージセンサ 106は青 (B)波長領域を撮像する。撮像受光特性を異ならせる方法とし ては、イメージセンサに波長依存性を備えさせても良いし、フィルタなどを挿入するこ とにより波長選択性を実現しても良い。
[0027] 複数のイメージセンサ 104、 105、 106がそれぞれ撮像した複数の画像は、それぞ れ R信号処理回路 107、 G信号処理回路 108、及び B信号処理回路 109により画像 処理された後、画像前処理回路 111により視差を除く複数の画像間のずれが揃えら れ、次いで、画像合成処理回路 110により合成されてカラー画像として出力される。
[0028] 本実施形態では、説明を容易にするために、複数のイメージセンサ 104、 105、 10 6から得た複数の画像信号が入力され、合成画像信号を出力する画像合成手段 11 5を、複数の画像間のずれを揃える機能を有する画像前処理回路 111と、画像前処 理回路 111で処理された複数の画像を合成して 1つの画像 (合成画像)を作り上げる 機能を有する画像合成処理回路 110とに分けて説明するが、実際の撮像装置にお V、ては、画像前処理回路 111と画像合成処理回路 110とが明確に区別されて 、る必 要はない。
[0029] 図 2は、本実施形態の撮像装置の撮像の流れを示す占めフロー図である。
[0030] ステップ S10では、撮像ボタンが押されるなどにより撮像が開始される。
[0031] ステップ S20では、複数のイメージセンサ 104、 105、 106から複数の画像が取り込 まれる画像取得処理がなされる。この処理は、信号処理回路 107, 108, 109力行う [0032] ステップ S30では、複数の画像に対して、複数のイメージセンサ 104、 105、 106間 のばらつきや感度調整を行う強度補正処理がなされる。この処理は、信号処理回路 107, 108, 109力行う。
[0033] ステップ S40では、複数の画像に対して、複数の撮像光学系 101、 102、 103及び 複数のイメージセンサ 104、 105、 106の実装ずれを補正することを主目的とする原 点補正処理がなされる。この処理は、信号処理回路 107, 108, 109が行う。
[0034] ステップ S50では、複数の画像に対して、複数の画像の倍率を揃える倍率補正処 理がなされる。この処理は、画像前処理回路 111が行う。
[0035] ステップ S60では、複数の画像に対して、複数の画像の傾きを揃える回転補正処 理がなされる。この処理は、画像前処理回路 111が行う。
[0036] ステップ S70では、複数の画像に対して、複数の画像の歪曲を揃える歪曲補正処 理がなされる。この処理は、画像前処理回路 111が行う。
[0037] ステップ S80では、複数の画像間の視差量を計算し、この視差量を補正して複数の 画像を合成して 1つの画像 (合成画像)を作り上げる視差補正合成処理がなされる。 この処理は、画像合成処理回路 110が行う。
[0038] ステップ S90では、撮像装置に一体ィ匕された液晶ディスプレイ等の表示装置、又は 配線ケーブルを介して CRT、 TV、 PC (パーソナルコンピュータ)、プリンタなどの画 像出力可能な装置に合成画像を出力する画像出力処理がなされる。
[0039] 本実施形態では、視差補正合成処理 (ステップ S80)の前段にて、複数の画像の倍 率、傾き、及び歪曲が揃えられる(ステップ S50, S60, S70)。これにより、視差補正 合成処理を容易にし、高精細な合成画像を得ることができる。
[0040] なお、図 2は、最終的に合成画像を出力することを目的としたフロー図であるが、ス テツプ S80で得られた視差量と、複数の撮像光学系 101、 102、 103の焦点距離と、 視差量演算の際に用いた複数の撮像光学系 101、 102、 103の光軸間距離とから、 三角測量の原理を利用して被写体までの距離を計算しても良い。従って、本実施形 態の撮像装置では、合成画像と被写体までの距離情報とを同時に取得することが可 能である。あるいは、複数の画像の合成処理を行わないで、被写体までの距離情報 のみを取得することもできる。この場合、ステップ S50, S60, S70にて複数の画像間 のずれを揃える処理を行うことにより、距離情報の精度を向上させることができる。
[0041] 以下に、上記の倍率補正処理 (ステップ S50)、回転補正処理 (ステップ S60)、歪 曲補正処理 (ステップ S70)を順に説明する。
[0042] (実施の形態 1)
実施の形態 1では、複数の画像の倍率を揃える倍率補正処理(図 2のステップ S50
)を説明する。
[0043] まず、複数の画像間に倍率のばらつきが発生する理由について図 3を用いて説明 する。図 3はレンズ 1、被写体 2、被写体像 3の関係を簡単に示した図である。 4, 5は 被写体 2からの代表的な第 1光線,第 2光線、 zは光軸、 Fは前側焦点、 F'は後側焦 点、 Hは前側主点、 H 'は後側主点、 yは被写体 2の高さ、 y'は被写体像 3の高さ、 f ' は後側の焦点距離である。ここで、倍率を j8とすると、倍率 j8は下記の式(1)で定義 される。
[0044] β =y /y …(1)
後側焦点 F'から被写体像 3までの距離を z 'とすると、式(1)は下記の式 (2)のよう に変形される。
[0045] β = - ζ ' /ί' · ' · (2)
式 (2)よりゎカゝるように、レンズ 1の焦点距離 f,が変化すれば被写体像 3の倍率 βも 変化する。
[0046] 一般に、複数の撮像光学系を有する撮像装置にお!、て、それぞれのレンズの焦点 距離を全く同一にすることは困難である。それぞれの光学系が別々の波長帯に対応 している場合、焦点距離を同一にすることはさらに困難である。よって図 15に示した 従来の撮像装置では、複数の撮像光学系 101、 102、 103のそれぞれを介して得ら れる複数の画像の倍率は僅かずつ異なる。従って、いくら厳密に視差補正を行い合 成しても、合成する前の複数の画像の大きさが互いに僅か〖こ異なると、合成した画像 で高周波成分が再現されず、十分な解像度、品質が確保された画像を再現すること は困難である。
[0047] そこで、視差補正及び画像合成の前に、複数の画像の倍率を揃える倍率補正処理
(図 2のステップ 50)を行うことが好ましい。 [0048] 以下に、画像前処理回路 111が複数の画像間の倍率のずれを揃える処理につい て、 2つの例を示す。
[0049] 第 1の例では、撮像装置の組立時に、基準被写体を撮像し被写体と被写体像との サイズ比により各撮像光学系の倍率を測定し、その情報を初期値として画像前処理 回路 111内の記録部 112 (図 1参照)に記録しておく。撮像時には、この倍率の情報 を用いて複数の画像に対して倍率補正処理(図 2のステップ 50)を行う。
[0050] 第 2の例としては、撮像装置の組立時に、各撮像光学系の焦点距離を計測し、その 情報を上記式 (2)に代入することにより倍率を得、その情報を初期値として画像前処 理回路 111内の記録部 112 (図 1参照)に記録しておく。撮像時には、この倍率の情 報を用いて複数の画像に対して倍率補正処理(図 2のステップ 50)を行う。あるいは、 記録部 112には各撮像光学系の焦点距離の情報を記録しておき、撮像時には焦点 距離の情報を用いて複数の画像に対して倍率補正処理(図 2のステップ 50)を行つ ても良い。
[0051] 撮像装置の組立時に、各撮像光学系の焦点距離を正確に計測する方法の一例を 示す。図 4は、撮像光学系としてのレンズ 11の焦点距離を測定する装置を示した図 である。 6はコリメータ、 7は移動ステージ、 8は回転ステージ、 9はレンズホルダ、 10 は平行光、 11は被検レンズ、 12は撮像カメラである。被検レンズ 11は、レンズホルダ 9を介して移動ステージ 7及び回転ステージ 8により保持されている。移動ステージ 7 は被検レンズ 11を光軸方向に移動させることができ、回転ステージ 8は被検レンズ 1 1を回転中心軸 8aを中心として光軸を含む紙面に垂直な面内で回転させることがで きる。被検レンズ 11に対して一方の側にコリメータ 6が、他方の側に撮像カメラ 12が 配置されている。コリメータ 6で形成された平行光 10は、被検レンズ 11を通って、撮 像カメラ 12に入射する。
[0052] 図 5Aに示すように、被検レンズ 11の主点 11aと回転ステージ 8の回転中心軸 8aと がー致している場合は、回転ステージ 8によって被検レンズ 11を回転させても撮像力 メラ 12に写る像の位置が変化せず、回転中心軸 8a (又は主点 11a)力も撮像カメラ 1 2の撮像面 12aまでの距離が焦点距離 fになる。
[0053] ところ力 図 5Bに示すように、被検レンズ 11の主点 11aと回転ステージ 8の回転中 心軸 8aとが一致して ヽな 、場合は、回転ステージ 8によって被検レンズ 11を回転さ せると撮像カメラ 12に写る像の位置がずれてしまう(ずれ量 S)。この場合は、被検レ ンズ 11を傾けながら、移動ステージ 7により光軸と平行な方向に被検レンズ 11を移動 させ、主点 11aと回転中心軸 8aとを一致させる。これにより、被検レンズ 11の焦点距 離 fを計測することが出来る。
[0054] 各撮像光学系の倍率又は焦点距離を測定する工程は、撮像装置又はこれを搭載 する商品の組立時の初期化工程内に一度行えば十分である。
[0055] 複数の撮像光学系の倍率又は焦点距離の情報を用いた倍率補正処理としては、 画像前処理回路 111で新 、画像を再構築し、その画像信号を元の画像信号と差 し替え、次段の画像合成処理回路 110に伝達する方式と、画像前処理回路 111は 倍率又は焦点距離の情報だけを管理し、次段の画像合成処理回路 110に画像信号 と倍率又は焦点距離の情報とを伝達する方式の 2方式があるが、両方式とも画像の 倍率補正に関して同様の効果が得られるため、どちらの方式を選択しても問題はな い。以下では前者の方式を中心に説明する。
[0056] 図 6を用いて撮影毎に行われる倍率補正処理(図 2のステップ 50)の一例を説明す る。
[0057] ステップ S51では、複数の撮像光学系を介して撮像された複数の画像 (フォトダイ オード (以下、 PDと書く)の出力)は、一時的に画像前処理回路 111内の 2次元空間 情報記録部(図示せず)内に記録され、各画像を構成する画素にステップ S40 (図 2 参照)の原点補正処理にて抽出された原点を原点とする座標 (x、 y)が付加される。
[0058] ステップ S52では、(x、 y)座標系が原点を中心とする (r、 Θ )極座標系に変換され る。この変換は、下記の式 (3)及び式 (4)を用いた座標変換手法で容易に行うことが 出来る。
[0059] r= (x2+y ) 1/2 · · · (3)
0 =cos-1 (x/ (x2+y2) 1 2) · ' · (4)
ステップ S53では、倍率補正を行う。ここでは、撮像光学系 101、 102、 103の各倍 率が既知である場合にっ 、て説明する。記録部 112に記録されて 、る撮像光学系 1 01、 102、 103の倍率 j8 i(i= l, 2, 3)により、座標(r、 Θ )は下記の式(5)及び式(6 )を用いて座標 (R、 θ ')に変換される。
Figure imgf000013_0001
θ '= θ ·'· (6)
ここで、撮像光学系 101、 102、 103の倍率 |8i(i=l, 2, 3)として、複数の画像の うち基準とする画像に対する倍率を用いることもできる。例えば、基準とする画像に対 応する撮像光学系の倍率を j81とすれば、上記式(5)において、 1= βΐΖ βΐ, β2= β2 β 1, |83=|83Ζι81としても良い。但し、 j82Ζ j81 > 1又は j83Ζ j81 >1である場合、式(5)より Rく rとなり、倍率補正後の画像が倍率補正前のイメージ センサ力も抽出された画像のサイズより小さくなつてしまい、倍率補正後の画像の周 辺部のデータが欠落してしま ヽ、合成画像にお ヽて周辺部に著 ヽ解像度劣化が 生じる。従って、 β2/β 1≤1, J83ZJ81≤1となるように、基準とする画像に対応す る撮像光学系の倍率(ι81)を選択することが必要である。
[0061] 上記の式(5)及び式 (6)を画像を構成する全ての画素に対して行うことにより、倍率 補正された画像を得ることができる。
[0062] 次に、ステップ S 54では、極座標系(R、 0 ')が(X, Y)座標系に変換される。この 変換は、下記の式(7)及び式 (8)を用いることで行うことができる。
[0063] X=Rcos Θ ' ··· (7)
Y=Rsin θ ' ··· (8)
ステップ S55では、データの補間処理を行う。ステップ S54での座標変換後の画像 データの大部分は、格子点状の画素位置とは異なる位置 (画素と画素との間)でのデ ータである。そこで、画素の周辺の画像データを用いて補間処理することにより、画 素の位置での画像データを作り上げることが必要になる。
[0064] 補間処理の一例を図 7を用いて説明する。ステップ S54での座標変換により、画素 Ρの周辺の 4点でのデータ V , V , V , V が得られているとする。データ V
(i,j) (i+l,j) (i,j+D (i+l,j+D (i を有する点に対する画素 Pの位置情報 px, py(0≤px≤l、 0≤py≤l)を用いて、
,i)
画素 Pでの画像データを下記式(9)により求めることができる。
[0065] px-py(V —V —V +V )+px(V —V )+py(V —V ) +
(i,j) (i+l,j) (i,j+D (i+l,j+D (i+l,j) (i,j) (i,j+D (i,j)
V 、 ·'·(9)
(i,j) なお、上記は補間処理の一例であり、本発明はこれに限定されず、上記とは異なる 補間処理を行っても良ぐその場合も同様の効果が得られる。
[0066] 以上により、倍率補正処理(図 2のステップ S50)が終了する。
[0067] 上記の倍率補正処理では、実際に組み立てられた撮像装置を用いて、複数の撮 像光学系のそれぞれの倍率又は焦点距離を直接測り、その情報を用いて複数の画 像の倍率を揃えたが、本発明はこれに限定されない。例えば、各撮像光学系の倍率 又は焦点距離がその設計値とほぼ等しいとみなされる場合には、その設計値を用い て倍率補正処理を行ってもよぐこの場合も上記と同様の効果が得られる。
[0068] (実施の形態 2)
実施の形態 2では、複数の画像の傾きを揃える回転補正処理(図 2のステップ S60) を説明する。
[0069] まず、複数の画像間に傾き(回転角)のばらつきが発生する理由について図 8を用 いて説明する。図 8は図 1に示した撮像装置の複数のイメージセンサ 104、 105、 10 6と被写体像との位置関係を被写体側力も見た図である。図 1と同一の部分には同一 の番号を付している。十字形の被写体を撮影する場合を考える。図示したように、そ れぞれのイメージセンサ 104、 105、 106には、十字形の被写体像 120が形成されて いる。ここでは、一例としてイメージセンサ 105が他のイメージセンサ 104, 106に対し て角度 Φだけ傾いて設置されていると仮定する。これは、イメージセンサ 104、 105、 106を同一基板上に実装した際のばらつきを想定したものである。
[0070] 図 9は、イメージセンサ 104、 105、 106が撮像した被写体の画像を、 R信号処理回 路 107、 G信号処理装置 108、 B信号処理装置 109を介して、別個の表示デバイス( 例えば、ディスプレイ)に表示させた結果を示した図である。画面表示 104' , 105' , 106,は、順にイメージセンサ 104、 105、 106に対応する。図 9によると、イメージセ ンサ 105が撮像した被写体の画像 120,は他のイメージセンサ 104, 106が撮像した 被写体の画像 120'に比べて、 φだけ回転していることが分かる。この 3つの画像を、 視差補正 (即ち、複数の撮像光学系 101、 102、 103の視差分だけ画像を平行移動 する補正)のみを行って重ね合わせても、イメージセンサ 105による画像 120,を他の イメージセンサ 104, 106による画像 120,に重ね合わせることは不可能である。 [0071] そこで、視差補正及び画像合成の前に、複数の画像の傾きを揃える回転補正処理
(図 2のステップ S60)を行うことが好ましい。
[0072] 以下に、画像前処理回路 111が複数の画像間の傾きのずれを揃える回転補正処 理の一例を示す。
[0073] まず、撮像装置の組立時に、コントラスト差の著しく大きい調整用映像を被写体とし て撮像する。例えば、白色の背景に黒色の十字線である。この十字線の線幅は光学 系の倍率を考慮し、イメージセンサ 104, 105, 106の画素ピッチの 2倍以上であるの が望ましい。また、十字線の交点と撮像光学系 101, 102, 103の中心とを一致させ る必要ちある。
[0074] イメージセンサ 104, 105, 106及び撮像光学系 101, 102, 103が実装される時 に、撮像光学系 101, 102, 103の中心とイメージセンサ 104, 105, 106の中心とは 、機械的な調整またはソフト的な調整により位置合わせ済みとする。イメージセンサ 1 04, 105, 106のそれぞれの実装時の傾き(回転角)のばらつきは、各イメージセン サ 104, 105, 106から出力された画像として表示される。
[0075] 被写体として十字線を使った場合の出力画像の回転角検出法の一例を、図 10A 及び図 10Bを用いて説明する。図 10Aに示すように、十字線 131は、横方向の画素 数 H、縦方向の画素数 Vの表示装置 130に、原点 Pcを中心として回転角 φだけ回 転して表示される。この画像において、原点 Pcから水平方向に HZ2画素移動した 画素 Aを基準として、これより垂直方向に対象画素を移動しながら各画素からの出力 値を検出する。画素からの出力値の検出結果の概略を図 10Bに示す。図 10Bにお いて、横軸は画素 Aを基準とした垂直方向の画素数、縦軸は画素からの出力値 (画 素出力)である。図示したように、画素 B (画素 Aから垂直方向に n番目の画素)で大き な出力値の変化が検出されたとすると、このイメージセンサの水平方向に対する十字 線の水平線の回転角 φは、以下の式(10)で求められる。
[0076] φ =tan_1 (2n/H) · · · (10)
式(10)は、水平方向及び垂直方向の各画素ピッチが同一である場合であり、両者 が異なる場合は、その比を乗ずる必要がある。
[0077] この計測を全てのイメージセンサ 104, 105, 106について行い、各イメージセンサ の傾きの情報を初期値(Φ1、 Φ2、 φ 3)として画像前処理回路 111内の記録部 112 (図 1参照)に記録しておく。撮像時には、この傾きの情報を用いて複数の画像に対 して回転補正処理(図 2のステップ S60)を行う。
[0078] 各イメージセンサの傾きを測定する工程は、撮像装置又はこれを搭載する商品の 組立時の初期化工程内に一度行えば十分である。
[0079] 複数のイメージセンサの傾きの情報を用いた回転補正処理としては、画像前処理 回路 111で新しい画像を再構築し、その画像信号を元の画像信号と差し替え、次段 の画像合成処理回路 110に伝達する方式と、画像前処理回路 111は傾きの情報だ けを管理し、次段の画像合成処理回路 110に画像信号と傾きの情報とを伝達する方 式の 2方式がある力 両方式とも画像の傾き補正に関して同様の効果が得られるため
、どちらの方式を選択しても問題はない。以下では前者の方式を中心に説明する。
[0080] 図 11を用!ヽて撮影毎に行われる回転補正処理(図 2のステップ S60)の一例を説 明する。
[0081] ステップ S61では、複数の撮像光学系を介して撮像された複数の画像 (PDの出力 )は、一時的に画像前処理回路 111内の 2次元空間情報記録部(図示せず)内に記 録され、各画像を構成する画素にステップ S40 (図 2参照)の原点補正処理にて抽出 された原点を原点とする座標 (x、 y)が付加される。
[0082] ステップ S62では、(x、 y)座標系が原点を中心とする (r、 Θ )極座標系に変換され る。この変換は、下記の式 (3)及び式 (4)を用いた座標変換手法で容易に行うことが 出来る。
[0083] r=(x2+y)1/2 · · · (3)
0 =cos-1(x/(x2+y2)12) ·'·(4)
ステップ S63では、回転補正を行う。記録部 112に記録されているイメージセンサ 1 04, 105, 106の傾き角 (H(i=l, 2, 3)により、座標(r、 Θ )は下記の式(11)及び 式(12)を用いて座標 (R、 0 ')に変換される。
[0084] R=r ··· (11)
θ '= θ -φΐ ·'·(12)
上記の式(11)及び式( 12)を用 、た座標変換を画像を構成する全ての画素に対し て行うことにより、回転補正された画像を得ることができる。
[0085] 次に、ステップ S64では、極座標系(R、 0 ' )が(X, Y)座標系に変換される。この 変換は、下記の式(7)及び式 (8)を用いることで行うことができる。
[0086] X=Rcos Θ ' · · · (7)
Y=Rsin θ ' · · · (8)
ステップ S65では、データの補間処理を行う。ステップ S64での座標変換後の画像 データの大部分は、格子点状の画素位置とは異なる位置 (画素と画素との間)でのデ ータである。そこで、画素の周辺の画像データを用いて補間処理することにより、画 素の位置での画像データを作り上げることが必要になる。
[0087] 補間処理の一例を図 7を用いて説明する。ステップ S64での座標変換により、画素 Ρの周辺の 4点でのデータ V , V , V , V が得られているとする。データ V
(i,j) (i+l,j) (i,j+D (i+l,j+D (i を有する点に対する画素 Pの位置情報 px, py(0≤px≤l、 0≤py≤l)を用いて、 画素 Pでの画像データを下記式(9)により求めることができる。
[0088] px-py(V —V —V +V ) +px (V —V ) +py(V —V ) +
" (i,j) (i+l,j) (i,j+D (i+l,j+D (i+l,j) (i,j) (i,j+D (i,j)
V 、 · ' ·(9)
(i,j)
なお、上記は補間処理の一例であり、本発明はこれに限定されず、上記とは異なる 補間処理を行っても良ぐその場合も同様の効果が得られる。
[0089] 以上により、回転補正処理(図 2のステップ S60)が終了する。
[0090] 上記の回転補正処理では、実際に組み立てられた撮像装置を用いて、複数のィメ ージセンサカゝらそれぞれ出力された複数の画像の回転角を検出し、その情報を用い て複数の画像の傾きを揃えた力 本発明はこれに限定されない。例えば、組立時に 複数のイメージセンサの回転角をそれぞれ実測し、その実測値を用いて回転補正処 理を行っても良ぐこの場合も上記と同様の効果が得られる。
[0091] (実施の形態 3)
実施の形態 3では、複数の画像の歪曲を揃える歪曲補正処理(図 2のステップ S70 )を説明する。
[0092] 通常の光学レンズは、撮像エリアの周辺部で直線状の被写体が曲線に歪んで結像 される現象 (これを歪曲という)を有する。図 12A〜図 12Dを用いて本発明の撮像装 置の撮像光学系による歪曲の例を説明する。
[0093] 図 12Aは格子状の被写体を示す。図 12Bは図 12Aの格子状の被写体を撮像光学 系 101を介してイメージセンサ 104が撮像した画像、図 12Cは図 12Aの格子状の被 写体を撮像光学系 102を介してイメージセンサ 105が撮像した画像、図 12Dは図 12 Aの格子状の被写体を撮像光学系 103を介してイメージセンサ 106が撮像した画像 である。図 12Aに示した被写体に対し、図 12B〜図 12Dのすベての画像が樽状に 変形している。さらに、図 12Bの画像と図 12Dの画像とはほぼ同じであるが、これらと 図 12Cの画像とははわずかに形状が異なっており、図 12Cの画像の方が図 12B及 び図 12Dの画像よりも歪曲が大き、、。
[0094] このように歪曲の程度が異なる 3つの画像を合成すると、歪曲の程度の異なり具合 が大きくなればなるほど、合成後の画像の解像度は著しく低下する。従って、複数の 画像間の歪曲のばらつきも、複数の光学系を有する撮像装置において大きな課題と なる。
[0095] そこで、視差補正及び画像合成の前に、複数の画像の歪曲を揃える歪曲補正処理
(図 2のステップ S70)を行うことが好ましい。
[0096] 以下に、画像前処理回路 111が複数の画像間の歪曲のずれを揃える歪曲補正処 理の一例を示す。
[0097] まず、撮像装置の組立時に各撮像光学系の歪曲量を測定し、その情報を初期値と して画像前処理回路 111内の記録部 112 (図 1参照)に記録する。実際の各撮像光 学系の歪曲量が設計値とほぼ同じと考えられる場合は、設計値を記録部 112 (図 1参 照)に記録しても良い。
[0098] 撮像装置の組立時に、各撮像光学系の歪曲量を計測する方法の一例を示す。
[0099] 図 12Aに示した互いに直交する複数の直線力 なる格子状の被写体を撮影し、各 イメージセンサ力も得られる画像より撮像光学系の歪曲量を計測することができる。 例えば、イメージセンサ力もの出力画像が図 13の実線 142の通りであったとする。図 13には、撮像光学系の倍率を考慮して拡大 (又は縮小)された格子状の被写体の一 部を破線 141で併せて示している。被写体 141上の点 Pは出力画像 142上の点 P
1 2 に対応する。点 Pは光軸の位置を示す。光軸 P力も被写体 141上の点 Pまでの距 離 yが、撮像光学系の歪曲収差によって、光軸 P力 出力画像 142上の点 Pまでの
0 2 距離 yに変化する。この場合の撮像光学系の歪曲量 Dは下記式(13)で求めること
0
ができる。
[0100] D (y) = (y -y) /y · ' · (13)
0
この計測を全ての撮像光学系 101, 102, 103について行い、各撮像光学系 101、 102、 103の歪曲量の情報を初期値 (Dl (y) , D2 (y) , D3 (y) )として画像前処理回 路 111内の記録部 112 (図 1参照)に記録しておく。撮像時には、この歪曲量の情報 を用 、て複数の画像に対して歪曲補正処理(図 2のステップ S 70)を行う。
[0101] 各撮像光学系の歪曲量を測定する工程は、撮像装置又はこれを搭載する商品の 組立時の初期化工程内に一度行えば十分である。
[0102] 複数の撮像光学系の歪曲量の情報を用いた歪曲補正処理としては、画像前処理 回路 111で新しい画像を再構築し、その画像信号を元の画像信号と差し替え、次段 の画像合成処理回路 110に伝達する方式と、画像前処理回路 111は歪曲量の情報 だけを管理し、次段の画像合成処理回路 110に画像信号と歪曲量の情報とを伝達 する方式の 2方式があるが、両方式とも画像の歪曲補正に関して同様の効果が得ら れるため、どちらの方式を選択しても問題はない。以下では前者の方式を中心に説 明する。
[0103] 図 14を用いて撮影毎に行われる歪曲補正処理(図 2のステップ S70)の一例を説 明する。
[0104] ステップ S71では、複数の撮像光学系を用いて撮像された複数の画像 (PDの出力 )は、一時的に画像前処理回路 111内の 2次元空間情報記録部(図示せず)内に記 録され、各画像を構成する画素にステップ S40 (図 2参照)の原点補正処理にて抽出 された原点を原点とする座標 (x、 y)が付加される。
[0105] ステップ S72では、(x、 y)座標系が原点を中心とする (r、 Θ )極座標系に変換され る。この変換は、下記の式 (3)及び式 (4)を用いた座標変換手法で容易に行うことが 出来る。
[0106] r= (x2+y2) 1 2 · · · (3)
0 =cos"1 (x/ (x2+y2) 1 2) · ' · (4) ステップ S73では、歪曲補正を行う。記録部 112に記録されている撮像光学系の歪 曲量 Di(r)(i=l, 2, 3)により、座標 (r、 0 )は下記の式(14)及び式 (6)を用いて座 標 (R、 Θ ')に変換される。
[0107] R=(Di(r)+l)-r ··· (14)
θ '= θ ·'·(6)
上記の式(14)及び式 (6)を用 、た座標変換を画像を構成する全ての画素に対し て行うことにより、歪曲補正された画像を得ることができる。
[0108] 次に、ステップ S 74では、極座標系(R、 0 ')が(X, Y)座標系に変換される。この 変換は、下記の式(7)及び式 (8)を用いることで行うことができる。
[0109] X=Rcos Θ ' ··· (7)
Y=Rsin θ ' ··· (8)
ステップ S75では、データの補間処理を行う。ステップ S74での座標変換後の画像 データの大部分は、格子点状の画素位置とは異なる位置 (画素と画素との間)でのデ ータである。そこで、画素の周辺の画像データを用いて補間処理することにより、画 素の位置での画像データを作り上げることが必要になる。
[0110] 補間処理の一例を図 7を用いて説明する。ステップ S74での座標変換により、画素 Ρの周辺の 4点でのデータ V , V , V , V が得られているとする。データ V
(i,j) (i+l,j) (i,j+D (i+l,j+D (i を有する点に対する画素 Pの位置情報 px, py(0≤px≤l、 0≤py≤l)を用いて、 画素 Pでの画像データを下記式(9)により求めることができる。
[0111] px-py(V -V -V +V )+px(V -V )+py(V -V ) +
(i,j) (i+l,j) (i,j+D (i+l,j+D (i+l,j) (i,j) (i,j+D (i,j)
V 、 ·'·(9)
(i,j)
なお、上記は補間処理の一例であり、本発明はこれに限定されず、上記とは異なる 補間処理を行っても良ぐその場合も同様の効果が得られる。
[0112] 以上により、歪曲補正処理(図 2のステップ S70)が終了する。
[0113] 上記の歪曲補正処理では、実際に組み立てられた撮像装置を用いて、複数の撮 像光学系のそれぞれの歪曲量を直接測り、その情報を用いて複数の画像の歪曲を 揃えたが、本発明はこれに限定されない。例えば、各撮像光学系の歪曲量がその設 計値とほぼ等しいとみなされる場合には、その設計値を用いて歪曲補正処理を行つ ても良ぐこの場合も上記と同様の効果が得られる。
[0114] 上記の歪曲補正処理においては、複数の撮像光学系の歪曲量が非常に小さな基 準歪曲値に一致するように複数の画像の歪曲を揃えることが好ましい。ここで、基準 歪曲量は、複数の撮像光学系のうち最も歪曲量が小さな撮像光学系の歪曲量であ つても良いし、複数の撮像光学系の歪曲量より更に小さな歪曲量であっても良い。こ れにより、付加的な効果として、歪曲が十分に補正された合成画像を得ることが出来 る。さらに、必要な歪曲性能を撮像光学系に求める必要がないため、撮像光学系の 設計が容易になり、従来にない薄型の撮像光学系を実現することも可能となる。
[0115] さらに、上述したように、複数の画像の合成処理を行わないで被写体までの距離情 報をのみを取得する場合にぉ 、ては、歪曲補正処理をして!/、な 、複数の画像を用 いて視差量を求め、得られた視差量を歪曲量を用いて補正し、この補正後の視差量 力も被写体までの距離情報を演算して求めることが好ましい。この場合には、視差量 を求める際に使用した特定の画素での歪曲量のみを考慮すれば良いので演算時間 を短縮することができる。これに対して、複数の画像を歪曲補正処理し、この補正後 の複数の画像から視差量を求める場合には、画像の歪曲補正処理において、全て の画素データに対して歪曲補正のための演算を行う必要があるので、長い演算時間 が必要となる。但し、歪曲補正処理をせずに視差量を求める場合には、複数の撮像 光学系間の歪曲量のばらつきが ± 5%程度以下であることが好ましい。この歪曲量の ばらつきが ± 5%より大きくなると、複数の画像力 視差量を求める演算が正常に機 能せず、正確な視差量を求められな 、可能性が増大する。
[0116] 本発明の撮像装置が各撮像ごとに、図 2に示した倍率補正処理 (ステップ S50)、 回転補正処理 (ステップ S60)、歪曲補正処理 (ステップ S70)を行うためには、撮像 装置の製造又は組立の過程において、複数の撮像光学系のそれぞれの倍率又は 焦点距離を測定しこれを初期値として記録部 112に記録する工程 (倍率初期値設定 工程)、複数のイメージセンサのそれぞれの傾きを測定しこれを初期値として記録部 112に記録する工程 (傾き初期値設定工程)、複数の撮像光学系のそれぞれの歪曲 を測定しこれを初期値として記録部 112に記録する工程 (歪曲初期値設定工程)を 行うことが好ましい。 [0117] これら 3つの初期値設定工程の好ましい実施順序を以下に説明する。
[0118] 傾き初期値設定工程では、例えば実施の形態 2で説明した十字形の被写体のよう に、適切な被写体を用いれば、撮像した複数の画像間で倍率及び歪曲がばらつい ていても、これらとは無関係に正確に傾き測定を行うことができる。従って、最初に傾 き初期値設定工程を行うことが好まし ヽ。
[0119] 歪曲初期値設定工程では、実施の形態 3で説明したように、撮像された画像 142と 被写体 141とを比較する(図 13参照)。この比較の際には、撮像光学系の倍率又は 焦点距離の情報が必要である。従って、歪曲初期値設定工程に先立って倍率初期 値設定工程が行われて ヽることが好ま ヽ。
[0120] よって、傾き初期値設定工程、倍率初期値設定工程、歪曲初期値設定工程の順に 行われることが好ましい。
[0121] 但し、被写体を工夫することにより、傾き初期値設定工程と倍率初期値設定工程と の順序を上記と逆にしたり、これらを同時に行ったりすることも可能である。
[0122] 傾き初期値設定工程と倍率初期値設定工程とを同時に行うことができる被写体の 一例を以下に示す。
[0123] この被写体は、互いに直交する第 1直線及び第 2直線からなる。第 1直線は水平方 向と平行で、その長さは撮像光学系の視野外にまで延びる程に十分に長いことが好 ましい。この第 1直線は、イメージセンサの傾き測定のために用いられる(図 10A参照 )。第 2直線は鉛直方向と平行であることが好ましい。第 2直線の長さは、撮像光学系 の視野内に収まる程度であることが好ましぐ具体的にはイメージセンサ上に結像さ れたその像の長さが、このイメージセンサの有効撮像領域の垂直方向の辺(短辺)の 長さの約 8割程度になるように設定されることが好ましい。第 1及び第 2直線の線幅は 、イメージセンサ上に結像されたその像の線幅がイメージセンサの画素ピッチの 2倍 以上になるように設定されることが好ましい。第 1及び第 2直線の色は、コントラスト比 を著しく大きくするために黒とし、その背景は白であることが好ましい。測定に際して は、第 1直線と第 2直線との交点が、撮像装置の画像合成をする際の基準点 (原点) に結像されるように、被写体と撮像装置との相対的位置を調整する必要がある。通常 、原点は無限遠に設けられた被写体が結像される点である。 [0124] 上記の実施形態では、 3眼の撮像装置(3つの撮像光学系及び 3つのイメージセン サを有する撮像装置)を説明したが、本発明の撮像装置はこれに限定されない。例 えば、 2眼又は 4眼以上の撮像装置であっても良ぐその場合も上記と同様の効果を 得ることが出来る。
[0125] 特に 4眼以上の撮像装置では、 2眼で同色の 2つの画像を取得し、且つ、カラー合 成画像を得るために必要な赤、青、緑の各色の画像をも取得することが可能となる。 この場合、同色の 2つの画像 (通常、緑色の画像が望ましい)を比較して、これらの画 像間の視差量を求めれば、視差量の演算処理が著しく単純になる。更に、複数の画 像を合成する精度、及び被写体までの距離を演算する精度が著しく向上する。
[0126] 3眼の撮像装置において、上記の 4眼の撮像装置と同様の処理を行うためには、取 得した赤、青、緑の各色の画像のうちのいずれか 1つ(例えば赤又は青の画像)の情 報から、他の色の画像 (例えば緑の画像)の情報を補間して抽出する処理が必要とな る。
[0127] 上記の実施形態では、複数の撮像光学系に一対一に対応するように複数のィメー ジセンサを用いた例を説明したが、本発明の撮像装置はこれに限定されない。例え ば、複数の撮像光学系に対して共通する 1つのイメージセンサを用い、このイメージ センサを複数の撮像光学系に一対一に対応するように複数の撮像領域に分割しても 良い。
[0128] 上記の実施形態では、各撮像ごとに、図 2に示した倍率補正処理 (ステップ S50)、 回転補正処理 (ステップ S60)、歪曲補正処理 (ステップ S70)をこの順に行う撮像装 置を説明したが、これら 3つの補正処理の順序はこれに限定されない。また、これら 3 つの補正処理のうちの 1つ又は 2つが省略されても良い。例えば、上記のように複数 の撮像光学系に対して共通する 1つのイメージセンサを用いる場合には、回転補正 処理 (ステップ S60)を省略することができる。
[0129] 以上に説明した実施の形態は、いずれもあくまでも本発明の技術的内容を明らか にする意図のものであって、本発明はこのような具体例にのみ限定して解釈されるも のではなぐその発明の精神と請求の範囲に記載する範囲内でいろいろと変更して 実施することができ、本発明を広義に解釈すべきである。 産業上の利用可能性
本発明にかかる撮像装置の利用分野は特に制限はないが、光軸方向の寸法が小 さいにもかかわらず高品位の画像を撮像することができることから、例えば携帯機器 用のカメラモジュール等として有用である。

Claims

請求の範囲
[1] 複数の撮像光学系と、
前記複数の撮像光学系と一対一に対応し、前記複数の撮像光学系を介して複数 の画像をそれぞれ撮像する複数の撮像領域と、
前記複数の画像間のずれを揃える機能及び前記複数の画像から 1つの画像を合 成する機能を有する画像合成手段と
を備えたことを特徴とする撮像装置。
[2] 前記複数の画像間のずれを揃える機能が、前記複数の画像の倍率を揃える機能 である請求項 1に記載の撮像装置。
[3] 更に、前記複数の撮像光学系の倍率の情報を記録した記録部を備え、
前記画像合成手段は、前記複数の撮像光学系の前記倍率の情報を用いて前記複 数の画像の倍率を揃える請求項 2に記載の撮像装置。
[4] 更に、前記複数の撮像光学系の焦点距離の情報を記録した記録部を備え、
前記画像合成手段は、前記複数の撮像光学系の前記焦点距離の情報を用いて前 記複数の画像の倍率を揃える請求項 2に記載の撮像装置。
[5] 前記複数の画像間のずれを揃える機能が、前記複数の画像の傾きを揃える機能で ある請求項 1に記載の画像処理装置。
[6] 更に、前記複数の撮像領域の傾きの情報を記録した記録部を備え、
前記画像合成手段は、前記複数の撮像領域の前記傾きの情報を用いて前記複数 の画像の傾きを揃える請求項 5に記載の撮像装置。
[7] 前記複数の画像間のずれを揃える機能が、前記複数の画像の歪曲を揃える機能 である請求項 1に記載の画像処理装置。
[8] 更に、前記複数の撮像光学系の歪曲量の情報を記録した記録部を備え、
前記画像合成手段は、前記複数の撮像光学系の前記歪曲量の情報を用いて前記 複数の画像の歪曲を揃える請求項 7に記載の撮像装置。
PCT/JP2005/022792 2004-12-16 2005-12-12 撮像装置 WO2006064770A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006548830A JPWO2006064770A1 (ja) 2004-12-16 2005-12-12 撮像装置
US11/720,684 US7742087B2 (en) 2004-12-16 2005-12-12 Image pickup device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-363867 2004-12-16
JP2004363867 2004-12-16

Publications (1)

Publication Number Publication Date
WO2006064770A1 true WO2006064770A1 (ja) 2006-06-22

Family

ID=36587825

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022792 WO2006064770A1 (ja) 2004-12-16 2005-12-12 撮像装置

Country Status (4)

Country Link
US (1) US7742087B2 (ja)
JP (1) JPWO2006064770A1 (ja)
CN (1) CN101080921A (ja)
WO (1) WO2006064770A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121841A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 立体撮像装置
WO2011121840A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 立体撮像装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742624B2 (en) * 2006-04-25 2010-06-22 Motorola, Inc. Perspective improvement for image and video applications
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
GB0906461D0 (en) * 2009-04-15 2009-05-20 Siemens Medical Solutions Partial volume correction via smoothing at viewer
CN102118551A (zh) * 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
JP2011209269A (ja) * 2010-03-08 2011-10-20 Ricoh Co Ltd 撮像装置及び距離取得システム
JP5639024B2 (ja) * 2011-09-27 2014-12-10 富士重工業株式会社 画像処理装置
US9600863B2 (en) * 2012-02-13 2017-03-21 Omnivision Technologies, Inc. Method for combining images
JP5950678B2 (ja) * 2012-04-27 2016-07-13 キヤノン株式会社 撮像装置、制御方法、及びプログラム
CN106803872A (zh) * 2017-03-02 2017-06-06 苏州苏大维格光电科技股份有限公司 相机镜头及手机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158929A (ja) * 2000-11-16 2002-05-31 Canon Inc 固体撮像素子、固体撮像装置及び撮像システム
JP2002204462A (ja) * 2000-10-25 2002-07-19 Canon Inc 撮像装置及びその制御方法及び制御プログラム及び記憶媒体
JP2002330332A (ja) * 2001-04-27 2002-11-15 Canon Inc 画像処理装置、撮像装置、その制御方法、及び記録媒体
JP2003283907A (ja) * 2002-03-20 2003-10-03 Japan Science & Technology Corp 撮像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07303207A (ja) * 1994-05-09 1995-11-14 Canon Inc 撮像装置
JPH08116490A (ja) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd 画像処理装置
JP3792832B2 (ja) * 1997-05-07 2006-07-05 富士重工業株式会社 ステレオカメラの調整装置
JP3284190B2 (ja) * 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
JP3397758B2 (ja) 1999-06-30 2003-04-21 キヤノン株式会社 撮像装置
US6882368B1 (en) * 1999-06-30 2005-04-19 Canon Kabushiki Kaisha Image pickup apparatus
JP2001223931A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 撮像装置及び画像システム
US6952228B2 (en) * 2000-10-13 2005-10-04 Canon Kabushiki Kaisha Image pickup apparatus
US7262799B2 (en) * 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
JP2002171537A (ja) * 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002204462A (ja) * 2000-10-25 2002-07-19 Canon Inc 撮像装置及びその制御方法及び制御プログラム及び記憶媒体
JP2002158929A (ja) * 2000-11-16 2002-05-31 Canon Inc 固体撮像素子、固体撮像装置及び撮像システム
JP2002330332A (ja) * 2001-04-27 2002-11-15 Canon Inc 画像処理装置、撮像装置、その制御方法、及び記録媒体
JP2003283907A (ja) * 2002-03-20 2003-10-03 Japan Science & Technology Corp 撮像装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121841A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 立体撮像装置
WO2011121840A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 立体撮像装置
JP4875225B2 (ja) * 2010-03-31 2012-02-15 富士フイルム株式会社 立体撮像装置
CN102362487A (zh) * 2010-03-31 2012-02-22 富士胶片株式会社 立体成像设备
JP4897940B2 (ja) * 2010-03-31 2012-03-14 富士フイルム株式会社 立体撮像装置
US8363091B2 (en) 2010-03-31 2013-01-29 Fujifilm Corporation Stereoscopic image pick-up apparatus
US8502863B2 (en) 2010-03-31 2013-08-06 Fujifilm Corporation Stereoscopic imaging apparatus

Also Published As

Publication number Publication date
US7742087B2 (en) 2010-06-22
JPWO2006064770A1 (ja) 2008-06-12
CN101080921A (zh) 2007-11-28
US20080211956A1 (en) 2008-09-04

Similar Documents

Publication Publication Date Title
WO2006064770A1 (ja) 撮像装置
JP4699995B2 (ja) 複眼撮像装置及び撮像方法
JP4790086B2 (ja) 多眼撮像装置および多眼撮像方法
JP4903705B2 (ja) 複眼方式の撮像装置及びその製造方法
EP2160018B1 (en) Image pickup apparatus
JP5157400B2 (ja) 撮像装置
JP5361535B2 (ja) 撮像装置
KR101356286B1 (ko) 화상 처리 장치, 화상 처리 방법, 프로그램 및 촬상 장치
JP5804055B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2011044801A (ja) 画像処理装置
JP2009159226A (ja) 撮像素子、焦点検出装置、焦点調節装置および撮像装置
JP2009100417A (ja) 画像処理装置及び画像処理方法、画像処理プログラム
US8446513B2 (en) Imaging apparatus with light transmissive filter
US20090122170A1 (en) Imaging apparatus and imaging method
JP2011135359A (ja) カメラモジュール及び画像処理装置
CN115023938B (zh) 电子装置
JP5634614B2 (ja) 撮像素子及び撮像装置
JP2006135823A (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2015182447A1 (ja) 撮像装置および測色方法
JP5589799B2 (ja) 撮像装置
JP5978570B2 (ja) 撮像装置
JP2000023172A (ja) 撮像装置
JPH01194587A (ja) 固体撮像素子のあおり測定方法
JP2019219594A (ja) 処理装置、撮像装置、交換レンズ、処理方法およびプログラム
JP2000139884A (ja) X線像撮像装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006548830

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11720684

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580043230.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05814513

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5814513

Country of ref document: EP