WO2015059971A1 - 撮像装置及び位相差検出方法 - Google Patents

撮像装置及び位相差検出方法 Download PDF

Info

Publication number
WO2015059971A1
WO2015059971A1 PCT/JP2014/070304 JP2014070304W WO2015059971A1 WO 2015059971 A1 WO2015059971 A1 WO 2015059971A1 JP 2014070304 W JP2014070304 W JP 2014070304W WO 2015059971 A1 WO2015059971 A1 WO 2015059971A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pupil
phase difference
subject
imaging
Prior art date
Application number
PCT/JP2014/070304
Other languages
English (en)
French (fr)
Inventor
愼一 今出
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201480057875.3A priority Critical patent/CN105659054A/zh
Publication of WO2015059971A1 publication Critical patent/WO2015059971A1/ja
Priority to US15/093,884 priority patent/US20160301855A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/225Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present invention relates to an imaging apparatus, a phase difference detection method, and the like.
  • phase difference In AF or 3D measurement, there is a method using phase difference as one of mainstream methods.
  • This method is basically based on obtaining two parallax images and detecting the phase difference (deviation amount) between them to obtain the distance from the imaging system to the subject using the principle of triangulation.
  • correlation calculation is performed while shifting one parallax image from the initial position with respect to the other parallax image, mutual similarity is evaluated by the correlation calculation, a position where matching can be obtained is identified, and initial phase is detected.
  • the difference between the position and the matching position is detected as a phase difference.
  • a method for obtaining a parallax image a binocular stereoscopic method using two cameras arranged at a predetermined interval has long been used.
  • a simple configurable monocular method has been proposed.For example, a parallax image is formed by separating light passing through one pupil and light passing through the other pupil in an imaging lens to form different pupil images. A method for obtaining the above has been proposed.
  • an image that has passed through two pupils is picked up by one image sensor.
  • a technique for separating and forming two pupil images from the captured image for example, in Patent Document 1, a pair of two adjacent pixels on the imaging element surface, and a pixel into which light that has passed through one of the pupils depending on an incident angle is entered.
  • a method of separating pixels into which light that has passed through the other pupil enters Since the pixel sampled from one pupil image and the pixel sampled from the other pupil image are obtained as separate components, phase difference detection is possible.
  • Patent Document 2 discloses a method of configuring a spectral filter at the pupil position of the imaging optical system, not on the imaging element surface. For example, only one red color is allowed to pass through one pupil and only the blue color is allowed to pass through the other pupil, and an image passing through these two pupils is formed on the image sensor surface. And the other pupil image is obtained by the blue pixel.
  • the two parallax images become waveform data of the image sampled by the pixels of the image sensor, and the phase difference detection is performed by performing a matching calculation process on these waveform data. Therefore, there is a problem that the detection resolution of the phase difference is limited to a pixel pitch at which a parallax image can be sampled.
  • an imaging apparatus a phase difference detection method, and the like that enable phase difference detection with a resolution higher than the pixel pitch of the image sensor.
  • One embodiment of the present invention includes an imaging unit that captures a first subject image and a second subject image having parallax with respect to the same subject, a first image obtained by capturing the first subject image, and the second subject image.
  • a densification processing unit that performs densification processing on the captured second image, and a phase difference detection unit that detects a phase difference between the first image and the second image after the densification processing
  • the imaging unit has a cutoff frequency of 1 / (2P) or less when the pitch of the pixels that capture the first subject image and the pitch of the pixels that capture the second subject image are P.
  • An optical low-pass filter (including the value thereof), and the densification processing unit includes, as the densification processing, upsampling processing for the first image and the second image, and after the upsampling processing Of the first image and the second image And a two-dimensional low-pass filtering to be related to an image pickup apparatus that performs.
  • the cutoff frequency is 1 / (2P) or less (its value)
  • the first subject image and the second subject image having a parallax with respect to the same subject that have passed through the optical low-pass filter that includes the first subject image and the first image obtained by capturing the first subject image
  • Upsampling processing is performed on a second image obtained by capturing two subject images
  • two-dimensional low-pass filter processing is performed on the first image and the second image after the upsampling processing
  • the two-dimensional low-pass filter The present invention relates to a phase difference detection method for performing a process of detecting a phase difference between the first image and the second image after processing.
  • FIG. 1 is a configuration example of an imaging apparatus.
  • FIG. 2 is an explanatory diagram of the basic principle of stereo image measurement by the pupil division method.
  • FIG. 3 is a configuration example of the imaging apparatus according to the first embodiment.
  • FIG. 4 is an example of spectral characteristics of the pupil division filter and the image sensor.
  • FIG. 5 is an explanatory diagram of a densification process in the first embodiment.
  • FIG. 6A to FIG. 6D are explanatory diagrams for the densification processing in the first embodiment.
  • FIG. 7 is an explanatory diagram of a densification process in the first embodiment. 8A to 8C show simulation results of phase difference detection by high density processing.
  • FIG. 9 is an explanatory diagram of a densification process in the first embodiment.
  • FIG. 1 is a configuration example of an imaging apparatus.
  • FIG. 2 is an explanatory diagram of the basic principle of stereo image measurement by the pupil division method.
  • FIG. 3 is a configuration example of the imaging apparatus according to the first embodiment
  • FIG. 10 is a simulation result on the similarity of sampling data.
  • FIG. 11 is an explanatory diagram of a densification process in the second embodiment.
  • FIG. 12 is an explanatory diagram of a densification process in the second embodiment.
  • FIG. 13 is an explanatory diagram of matching evaluation by the improved SAD.
  • FIG. 14 is a simulation result of a statistical dispersion value of the phase difference detection value with respect to the S / N ratio of the waveform.
  • the resolution of detecting a phase difference is determined by the density of sampling pixels that handle each of two parallax images captured by pupil division. That is, as shown in the left diagram of FIG. 9, the waveform pattern of the parallax image is handled as data sampled by the sampling pixels.
  • the correlation coefficient is obtained at the relative position where the sampling positions of the two waveform patterns coincide. Therefore, the detection resolution of the matching position is determined by the sampling density, and the resolution of the phase difference that is the difference between the initial position and the matching position is also determined by the sampling density.
  • the distance resolution ⁇ z is determined by the phase difference detection resolution ⁇ s. That is, in order to realize distance measurement with high resolution, higher phase difference detection resolution is required.
  • the pixel density of the image sensor has approached the limit of the optical resolution, and future significant pixel density improvement cannot be expected. Therefore, how to achieve high-density sampling that is higher than the pixel density using a given imaging device is a major issue.
  • FIG. 1 shows a configuration example of an imaging apparatus of the present embodiment that can solve this problem.
  • the imaging apparatus includes an imaging unit 10 that captures a first subject image and a second subject image having parallax with respect to the same subject, a first image obtained by capturing the first subject image, and a first subject image obtained by capturing the second subject image.
  • a densification processing unit 20 that performs densification processing on two images and a phase difference detection unit 30 that detects a phase difference between the first image and the second image after the densification processing are included.
  • the imaging unit 10 has a cutoff frequency of 1 / (2P) or less (the value is An optical low-pass filter 11.
  • the densification processing unit 20 performs an upsampling process on the first image and the second image, and a two-dimensional low-pass filter process on the first image and the second image after the upsampling process.
  • a monocular imaging optical system is divided into pupils, and parallax images are acquired using Bayer array imaging elements.
  • the first subject image passing through the first pupil is picked up by red pixels
  • the first image and the second image are up-sampled to the number of pixels of N ⁇ N times, respectively, and two-dimensional low-pass filter processing is performed on the images.
  • a parallax image having a sampling density (pixel pitch p / N) that is N times the pixel density (pixel pitch p) of the image sensor can be obtained.
  • the monocular first embodiment has been described as an example.
  • the present embodiment can also be applied to a case where a twin-lens imaging unit is used.
  • the monocular imaging unit is divided into pupils, different colors are assigned to the two pupils, the phase difference is detected, and 3D measurement is performed.
  • the basic principle of stereo image measurement by the pupil division method will be described with reference to FIG.
  • a case where the pupil is divided into left and right (horizontal scanning direction) will be described as an example.
  • the division direction of the pupil is not limited to right and left, and may be any direction orthogonal to the optical axis.
  • Reflected light from the subject surface passes through the imaging lens 12 (imaging optical system), forms an image on the imaging element surface, and is acquired as an image signal by the imaging element.
  • the coordinate axis with the reference position RP of the subject set to zero is set to (x, y, z)
  • the coordinate axis with the corresponding focus position RP ′ of the imaging element surface set to zero is set to (x ′, y ′).
  • the x ′ axis corresponds to the horizontal scanning direction of the image sensor
  • the y ′ axis corresponds to the vertical scanning direction of the image sensor.
  • the z-axis corresponds to the optical axis direction of the imaging lens 12, that is, the depth distance direction.
  • the distances a 0 and b 0 are distances determined by the design of the imaging unit.
  • the left half of the imaging lens 12 is called the left pupil and the right half is called the right pupil.
  • GP L is the center of gravity of the left pupil
  • GP R is the center of gravity of the right pupil.
  • M is the optical total magnification at the reference in-focus position.
  • l is the distance between the center of gravity GP L of the left pupil and the center of gravity GP R of the right pupil.
  • an optical filter that transmits red is provided at the left pupil position
  • an optical filter that transmits blue is set at the right pupil position
  • the red image obtained by the imaging device is separated as the left pupil image
  • the blue image is converted into the right pupil image.
  • FIG. 3 shows a configuration example of the imaging device in the first embodiment.
  • the imaging apparatus includes an imaging unit 10, a densification processing unit 20 (a densification measurement development unit), a phase difference detection unit 30, an optical characteristic storage unit 40, a distance measurement calculation unit 80, and a three-dimensional shape output processing unit 90.
  • symbol is attached
  • the imaging unit 10 includes an optical low-pass filter 11, an imaging lens 12 (imaging optical system), a pupil division filter 13, an imaging element 14, and an imaging processing unit 15.
  • the left pupil of the pupil division filter 13 is provided with an R (red) filter, and the right pupil is provided with a B (blue) filter.
  • the image sensor 14 is an RGB color image sensor having a Bayer pixel array.
  • FIG. 4 shows spectral characteristics of the pupil division filter 13 and the image sensor 14.
  • F L is the spectral characteristic of the R filter of the left pupil
  • F R is the spectral characteristic of the B filter of the right pupil.
  • Spectral characteristics of the pupil F L, F R is the spectral characteristics T B of R and B pixels are divided by the cross points of the T R (wavelength [lambda] c), covers the band of RGB as a whole. Both of the spectral characteristics F L and F R are characteristics that transmit the G component (a part thereof).
  • the spectral characteristics ⁇ T B , T G , T R ⁇ are not only the characteristics of the color filter provided for each pixel of the image sensor 14, but also the spectral characteristics of the external light or illumination light irradiated on the subject, and the pixels. It is defined as a combination of its own spectral characteristics. All the parameters relating to the spectral characteristics are set values (corresponding values) with respect to the wavelength ⁇ , but the description of the wavelength ⁇ as a dependent variable is omitted in this specification.
  • Reflected light from the subject passes through the imaging lens 12, the pupil division filter 13, and the optical low-pass filter 11 to form an image on the image sensor 14.
  • the pixel value of the R pixel the spectral characteristics of the reflected light from the object, component values multiplied by spectral characteristics T R of spectral characteristics F L and R pixels of the left pupil is obtained.
  • the pixel values of the B pixels the spectral characteristics of the reflected light from the object, component values multiplied by spectral characteristics T B spectral characteristics F R and B pixels of the right pupil is obtained. That is, among the Bayer images, a left pupil image is obtained from the R image, and a right pupil image is obtained from the B image.
  • the imaging processing unit 15 controls the imaging operation and processes the imaging signal. For example, the pixel signal from the image sensor 14 is converted into digital data, and Bayer array image data (so-called RAW image data) is output.
  • RAW image data Bayer array image data
  • the densification processing unit 20 performs sampling density densification processing for detecting the phase difference between the R image and the B image with a resolution smaller than the sampling pixel pitch. By this processing, the sampling density becomes N ⁇ N times. N is, for example, 100 to 10,000. Details of the densification process will be described later.
  • spectral characteristics T B of the R pixel has a component in the band of spectral characteristics F L of Hidarihitomi. Therefore, the left pupil component is mixed in the R image which should be the right pupil image.
  • Such spectral characteristic mixing of left and right pupils F R, F L, T B , T G may be subjected to a treatment to reduce based on T R.
  • the phase difference detection unit 30 includes a phase difference rough detection unit 50, a detectable region extraction unit 60 (detectable feature part extraction unit), and a phase difference fine detection unit 70.
  • the phase difference rough detection unit 50 performs phase difference detection that is coarser than the density of phase difference detection performed by the phase difference fine detection unit 70.
  • the correlation calculation is performed by thinning out pixels from the image after the densification processing or the Bayer image before the densification processing.
  • the detectable region extraction unit 60 determines whether or not phase difference detection is possible based on the correlation coefficient from the phase difference rough detection unit 50, and whether or not distance information in the z direction can be acquired based on the determination result. And the image of the detectable region is output to the phase difference fine detection unit 70. For example, it is determined whether or not phase difference detection is possible by determining whether or not a correlation peak exists.
  • the phase difference fine detection unit 70 performs phase difference detection on the image after the densification processing, and obtains the phase difference finely with a resolution smaller than the sampling pixel pitch.
  • the detection of the phase difference is performed on the area determined to be detectable by the detectable area extracting unit 60.
  • the ranging calculation unit 80 calculates the distance in the z direction with high resolution based on the phase difference detected by the phase difference fine detection unit 70.
  • the solid shape output processing unit 90 configures solid shape data based on the distance information in the z direction, and outputs the solid shape data.
  • the left and right R and B pupil images that have passed through the optical low-pass filter 11 are sampled by the color image sensor 14.
  • the R and B pixels of the image sensor 14 are arranged as shown in FIG.
  • the optical low-pass filter 11 is an anti-aliasing filter and is provided so that aliasing noise does not occur in the R and B pupil images. Since the sampling pitch of each pupil image is 2p, the sampling frequency is 1 / (2p), and the cut-off frequency is set to Nyquist frequency 1 / (4p) or less (including the value) determined correspondingly.
  • the frequency characteristics of the R and B images are as shown in FIG. That is, when the frequency characteristic of the optical LPF is 1 / (4p), for example, it has a band of -1 / (4p) to + 1 / (4p). Although not shown, it has a repetition period of 1 / (2p).
  • the dotted line indicates the frequency characteristics of the pixel aperture. Corresponding to the opening width p, it has a band of -1 / p to + 1 / p.
  • the frequency characteristics of the R and B images are as shown in FIG. Since the data is simply duplicated by dividing the pixel, the frequency characteristics are the same as before the upsampling. That is, for example, it has a band of -1 / (4p) to + 1 / (4p) and has a repetition period of 1 / (2p).
  • the sampling data composed of minute pixels is filtered by a two-dimensional low-pass filter, and the minute pixels in the entire captured image including the pixels of the undetected portion are reconstructed. That is, image data having a pixel pitch p / N with respect to the pixel pitch p of the image sensor 14 is generated, and a sampling density that is N times apparent is obtained.
  • the cut-off frequency of the two-dimensional low-pass filter is set to the Nyquist frequency 1 / (4p) or less (including its value) determined by the sampling pitch 2p of R or B as in the optical low-pass filter.
  • the two-dimensional low-pass filter is, for example, a Gaussian filter.
  • the frequency characteristics of the two-dimensional low-pass filter are, for example, as shown in FIG.
  • the frequency characteristics of the R and B images after the two-dimensional low-pass filter are as shown in FIG. Corresponding to the pixel pitch becoming p / N, the repetition frequency becomes N / p.
  • the band corresponds to the band obtained by multiplying the frequency characteristic of the optical low-pass filter by the frequency characteristic of the two-dimensional low-pass filter.
  • the pupil image I L of B, I R is a sampled image 2p pitch.
  • the densification of the above, as shown on the right in FIG. 7, the left and right R, pupil image I L of B, I R is greater than simply increasing the density of sampling by the image sensor 14 density (pitch p / N) can be obtained as the image data sampled.
  • FIGS. 8A to 8C show simulation results of phase difference detection by the densification process.
  • the horizontal axis represents the initial position in the correlation calculation as “0” and the shift amount from the initial position is represented by the number of pixels.
  • FIG. 8A shows a waveform for obtaining a phase difference.
  • the sampling waveforms I (x) and I (x ⁇ ) are simply upsampled by 0.1p (one pixel is divided into 0.1p, and the same value as that pixel is duplicated) ), And the cross-correlation coefficient is obtained while shifting in increments of 0.1p.
  • phase difference detection resolution below the pixel pitch of the image sensor can be made possible by the upsampling process and the two-dimensional low-pass filter process of the present embodiment.
  • pupil image I L of B, I R is substantially the same waveform, having a phase difference [delta].
  • the pupil image I L, and were matched waveform of I R are matched, originally, it is desirable that a correlation coefficient at the highest position similarity Thus waveform is obtained.
  • the parallax ⁇ is arbitrary, the positions where the R and B pixels sample with respect to the pupil images I L and I R having substantially the same waveform are generally not the same. Therefore, for example, left and right R, pupil image I L of B, even with the same I R is optically, resulting sampling data becomes different from those of the similarity is lost when viewed in sampling data. This means that the correlation coefficient pupil images I L, when trying to find the matching position of the I R, no exact position is required.
  • the pupil image I L by one sampling pixel I R (i.e. at 2p pitch) while shifting, and to determine the correlation coefficients.
  • the correlation coefficient obtained is each position pupil images I L, the pixels of I R (i.e. solid arrows and dotted arrows) match. That is, in the pupil images I L and I R having different sampling positions, the correlation coefficient when the waveforms match cannot be obtained, and a phase difference detection error occurs.
  • Fig. 10 shows the result of a simulation of the similarity of sampling data.
  • the upper diagram shows the sampling position.
  • Sampling positions B2, B4, B6, and B8 are positions shifted from the sampling position A by 0.2p. For example, when the phase difference is 0.6p, the left pupil image is sampled at the sampling position A, and the right pupil image is sampled at the sampling position B6.
  • the middle figure shows sampling data.
  • the sampling data is data obtained by sampling the sensor input waveform at the sampling positions A, B2, B4, B6, and B8.
  • the sensor input waveform is a waveform of the subject image formed on the sensor surface. At this time, since the sampling positions are different, the similarity between the sampling data is reduced.
  • the lower diagram shows the sampling data subjected to the densification process of this embodiment.
  • the waveform data As, Bs2, Bs4, Bs6, and Bs8 correspond to the sampling positions A, B2, B4, B6, and B8. It can be seen that the waveform data As, Bs2, Bs4, Bs6, and Bs8 coincide and cannot be identified, and the similarity between the sampling data is high. By using this highly similar sampling data, it is possible to detect the phase difference with high accuracy.
  • the imaging unit 10 includes the imaging optical system (imaging lens 12), the first pupil (left pupil) that passes the first subject image through the pupil of the imaging optical system, and the second pupil.
  • a pupil division filter 13 that divides the subject image into a second pupil (right pupil) that passes the subject image; and an imaging element 14 that captures the first subject image and the second subject image formed by the imaging optical system.
  • a parallax image can be captured by the monocular imaging unit 10. Then, by performing the densification process on the parallax image, high-resolution distance measurement is possible even with a single eye. That is, as shown in the above equation (2), in order to increase the distance measurement resolution ⁇ z, it is necessary to increase the distance l between the centers of gravity of the pupils. Hard to do. In this regard, in the present embodiment, the phase difference detection resolution ⁇ s can be increased by the high-density processing. Therefore, even if the distance between the centers of gravity of the pupils is small, the high-resolution distance measurement can be performed by the above equation (2). Can be realized.
  • the image sensor 14 is an image sensor with a primary color Bayer array.
  • the pupil division filter 13 includes, as a first pupil, a filter that transmits a wavelength band corresponding to red (spectral characteristic F L in FIG. 4), and a filter that transmits a wavelength band corresponding to blue (spectral characteristic F in FIG. 4). R ) as the second pupil.
  • the densification processing unit 20 sets the red image as the first image (left pupil image) and the blue image as the second image (right pupil image) among the Bayer array images captured by the image sensor 14. ), A densification process is performed.
  • high-resolution phase difference detection can be realized by using a color image sensor of a primary color Bayer array that is generally used. Since a parallax image can be formed simply by inserting the pupil division filter 13 and taking out the R and B images, high-resolution phase difference detection can be realized without major changes to the conventional imaging unit. Further, since only the pupil division filter 13 is added to the optical system, the imaging unit 10 can be configured compactly, and for example, the above-described small-diameter endoscope can be realized.
  • the Nyquist frequency corresponding to the pixel pitch p of the image sensor is 1 / (2p)
  • the cutoff frequency of the optical low-pass filter 11 is 1 / (2p) or less (including that value).
  • the densification processing unit 20 divides the pixels of the first image and the second image into N ⁇ N pixels, and the pixel value of the original pixel is divided into the N ⁇ N pixels. Process to duplicate.
  • the cutoff frequency of the two-dimensional low-pass filter process is 1 / (2P) or less (including its value).
  • the cutoff frequency of the two-dimensional low-pass filter is correspondingly 1 / (2P) or less ( (Including that value), noise outside the band can be reduced while leaving the components of the parallax image.
  • the image is picked up by a complementary color image sensor, and right and left pupil images are generated from the complementary color image.
  • the configuration of the imaging device is the same as that of the first embodiment.
  • the general arrangement is as shown. If the pixel pitch is p, the arrangement pitch of each color is 2p.
  • the value read from the image sensor is a value obtained by combining (adding) adjacent two pixels in the vertical direction. If these are A1, A2, B1, and B2, the following equation (3) is obtained.
  • the horizontal lines are formed in two pixels, for example, the next line L n as shown in FIG. 11 is a line L n + 2, the data in the above equation (3) is output in line units.
  • the lines L n and L n + 2 are read in the odd frame, and the lines L n + 1 and L n + 3 shifted by one pixel in the vertical direction are read in the even frame. Since the processing is the same, the following description will be made taking lines L n and L n + 2 as an example.
  • the luminance value Y is obtained for every line, and the color difference values Cr and Cb are obtained for every alternate line.
  • Y, Cr, and Cb are values in units of four adjacent pixels. This adjacent 4-pixel unit is set as the second pixel unit.
  • the horizontal pitch of the second pixel unit from which Cr and Cb values can be obtained is 2p, but the vertical pitch is 4p. Therefore, the cutoff frequency of the optical low-pass filter is set to a Nyquist frequency 1 / (8p) or less (including that value) determined by the sampling pitch with the coarse pitch 4p.
  • the cut-off frequency of the two-dimensional low-pass filter is the same as that of the optical low-pass filter.
  • each second pixel unit of Y, Cr, and Cb is divided into N ⁇ N pixels, and the original second pixel unit data is copied to the divided pixels.
  • a filtering process is performed by applying a two-dimensional low-pass filter to the image composed of the equally arranged minute pixels. As shown in FIG. 12, Y, Cr, and Cb images sampled at an apparent 2p / N pitch are obtained by the two-dimensional low-pass filter process.
  • Y, Cr, and Cb data composed of high-density minute pixels after the two-dimensional low-pass filter processing is converted into primary color RGB data, and R and B high-density (2p / N pitch) image is obtained, and the phase difference is obtained from this high-density image.
  • the converted G image need not be used for phase difference detection. Therefore, primary color conversion for G is unnecessary.
  • the left and right pupil images are high-density image data, a high-resolution phase difference can be obtained, and as a result, the measurement resolution in the z direction is greatly improved.
  • the image sensor 14 is a complementary color image sensor.
  • the pupil division filter 13 includes, as a first pupil, a filter that transmits a wavelength band corresponding to red (spectral characteristic F L in FIG. 4), and a filter that transmits a wavelength band corresponding to blue (spectral characteristic F in FIG. 4). R ) as the second pupil.
  • the densification processing unit 20 generates a red image and a blue image from the image captured by the image sensor 14, sets the red image as the first image (left pupil image), and the blue image as the first image. Densification processing is performed as the second image (right pupil image).
  • phase difference detection can be realized using a commonly used complementary color image sensor. Since the parallax image can be constructed simply by inserting the pupil division filter 13 and generating the R and B images from the YCrCb image, high-resolution phase difference detection can be realized without significant changes to the conventional imaging unit. Since the complementary color image sensor has high sensitivity, a parallax image having a good S / N can be obtained even when bright illumination cannot be obtained with the above-described endoscope or the like.
  • phase difference fine detection unit 70 performs the phase difference detection process of the third embodiment.
  • the phase difference rough detection unit 50 performs matching evaluation by, for example, conventional SAD.
  • FIG. 13 is an explanatory diagram of matching evaluation by improved SAD (Improved Sum Absolute ⁇ ⁇ Difference).
  • I L, I R are part of the imaged left and right pupil images profile (waveform pattern). That is, it is a pixel value pattern in the horizontal direction x (parallax direction) of a parallax image formed on the image sensor by light rays that have passed through the left and right pupils.
  • Pupil images I L, the deviation of the phase difference ⁇ is generated in the I R.
  • Pupil images I L since I R is not equipped with the amplitude gain, normalizes by using a value of a predetermined calculation interval w (interval used for calculating the matching evaluation coefficient), adjust the amplitude gain.
  • Normalized pupil images nI L and nI R are obtained by the following equation (5).
  • the sigma symbol “w” indicates that the sum is taken in the range of the predetermined calculation interval w.
  • a cross point where the pupil images nI L and nI R intersect is detected, and a section between adjacent cross points and cross points is obtained.
  • a case where the composite waveform nI in the section is in an increasing tendency is referred to as an increasing section Ra, and a case where the composite waveform nI is in a decreasing tendency is referred to as a decreasing section Fa.
  • the increase / decrease interval is determined by, for example, accumulating adjacent pixel difference values (differentiated values) of the composite waveform nI within the interval delimited by the cross points, and determining the increase interval when positive and the decrease interval when negative.
  • each decreasing segment Fa obtaining the subtraction value D by changing the order of the subtraction of the pupil image I L and I R. That is, the order of subtraction is determined so that the subtraction value D> 0 in each section.
  • I L and I R are assumed to be very similar waveform patterns. As shown in the following equation (9), waveforms obtained by adding noise components n R and n L independently to these are defined as I L ′ and I R ′.
  • SAD evaluation value is a value difference absolute value sum obtained by adding the waveform I L and I noise component in addition to the sum of absolute differences between R n R and n L As a value.
  • random noise is assumed as the noise components n R and n L , they take absolute values and thus do not cancel each other even if they are added.
  • 0.
  • 0.
  • the evaluation value does not necessarily indicate the minimum value, so that it is impossible to determine a correct matching position. Therefore, it can be seen that the conventional SAD evaluation value is very susceptible to noise.
  • the ISAD evaluation value what is the mere sum of differences waveform I L and I R of the differential absolute value sum and absolute value does not take a noise component n R and n L are added are determined. Sum of absolute difference of the waveform I L and I R in the case where they match
  • shows a 0
  • FIG. 14 shows a simulation result of the statistical dispersion value ⁇ of the phase difference detection value with respect to the SN ratio (SNR) of the waveforms I L ′ and I R ′.
  • Waveform I L ', I R' are using the edge waveform to.
  • the variance value ⁇ is obtained as follows. That is, the noise power is made the same, and the noise appearance patterns are randomly changed to generate the waveforms I L ′ and I R ′.
  • matching is tried a plurality of times to obtain a phase difference. Then, an error between the phase difference and the true value of the phase difference of the true waveforms I L and I R is obtained, and a variance value ⁇ is obtained from the error distribution.
  • the dispersion value ⁇ when using the correlation coefficient by the conventional ZNCC is shown.
  • the error variation ⁇ of the phase difference detection value based on the ISAD evaluation value is clearly smaller than the error variation ⁇ of the phase difference detection based on the ZNCC evaluation value. That is, it can be seen that the ISAD evaluation value is not easily affected by noise and has a high phase difference detection resolution.
  • the correlation peak variation ⁇ is small as compared with the conventional method, so that highly accurate phase difference detection can be performed.
  • phase difference detection unit 40 Optical characteristic storage unit, 50 phase difference rough detection unit, 60 detectable region extraction unit, 70 phase difference fine detection unit, 80 ranging calculation unit, 90 solid shape output processing unit, F L, F R spectral characteristics, Fa decreasing segment, I L Hidarihitomi image, I R right pupil images, P sampling pitch, Ra increasing segment, T B, T G, T R spectral characteristics, nI composite waveform, nI L normalized left pupil image, nI R normalized right pupil image, p pixel pitch, s phase difference, w predetermined calculation interval, x, y, z, x ′, y ′ coordinates, ⁇ s phase difference resolution, ⁇ z distance resolution, ⁇ phase difference, ⁇ variance

Landscapes

  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Color Television Image Signal Generators (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

 撮像装置は、同一被写体に対して視差を有する第1被写体像と第2被写体像を撮像する撮像部10と、第1被写体像が撮像された第1画像と第2被写体像が撮像された第2画像に対して高密度化処理を行う高密度化処理部20と、高密度化処理後の第1画像と第2画像の間の位相差を検出する位相差検出部30と、を備える。撮像部10は、第1被写体像及び第2被写体像を撮像する画素のピッチがPである場合に、カットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタ11を有する。高密度化処理部20は、高密度化処理として、第1画像と第2画像に対するアップサンプリング処理と、アップサンプリング処理後の第1画像と第2画像に対する2次元ローパスフィルタ処理と、を行う。

Description

撮像装置及び位相差検出方法
 本発明は、撮像装置及び位相差検出方法等に関する。
 近年デジタルカメラのオートフォーカス(AF)の高速化が進んでいる。また、顕微鏡や内視鏡などにおいても、3D計測のリアルタイム性の向上や、さらなる測定精度の向上が期待されている。これらの撮像装置では、デジタル化に伴い撮像素子による撮像が主流となっており、計測用の検出部を別途構成するのではなく、この撮像画像自体を利用した画像計測が広く用いられている。
 AFあるいは3D計測において、主流方式の一つとして位相差を用いた方法がある。この手法は、2つの視差画像を取得し、それらの位相差(ずれ量)を検出することにより三角測量の原理を用いて撮像系から被写体までの距離を求めることが基本である。位相差の検出では、一方の視差画像を他方の視差画像に対して初期位置からずらしながら相関演算等を行い、その相関演算により相互の類似性を評価し、マッチングが取れる位置を特定し、初期位置とマッチング位置の差を位相差として検出する。視差画像を得る手法としては、所定の間隔で配置した2つのカメラを用いる二眼立体視の手法が古くから行われている。最近では、シンプルに構成可能な単眼方式が提案されており、例えば、撮像レンズにおいて片方の瞳を通過した光と他方の瞳を通過した光を分離し、異なる瞳画像を形成することにより視差画像を得る手法が提案されている。
 単眼方式では2つの瞳を通過した画像が1つの撮像素子で撮像される。その撮像画像から2つの瞳画像を分離形成する手法として、例えば特許文献1には、撮像素子面の隣接2画素を一対とし、それぞれに入射する角度により片方の瞳を通過した光が入る画素と他方の瞳を通過した光が入る画素を分ける手法が開示されている。片方の瞳画像をサンプリングした画素と他方の瞳画像をサンプリングした画素とが、それぞれに分離した成分として得られるので位相差検出が可能である。
 また、例えば特許文献2には、撮像素子面ではなく、撮像光学系の瞳位置に分光フィルタを構成する手法が開示されている。例えば、一方の瞳には赤色のみを通過させ、他方の瞳には青色のみを通過させ、それら2つの瞳を通過した像を撮像素子面に形成し、撮像素子の赤色画素により一方の瞳画像を取得し、青色画素により他方の瞳画像を取得する。
特開2009-145401号公報 特開2001-174696号公報
 二眼、単眼いずれにしても、2つの視差画像は、撮像素子の画素によりサンプリングされた像の波形データとなり、これらの波形データをマッチング演算処理して位相差検出を行う。そのため、位相差の検出分解能は、視差画像をサンプリング可能な画素ピッチに制限されるという課題がある。
 本発明の幾つかの態様によれば、撮像素子の画素ピッチよりも高分解能な位相差検出を可能にする撮像装置及び位相差検出方法等を提供できる。
 本発明の一態様は、同一被写体に対して視差を有する第1被写体像と第2被写体像を撮像する撮像部と、前記第1被写体像が撮像された第1画像と前記第2被写体像が撮像された第2画像に対して高密度化処理を行う高密度化処理部と、前記高密度化処理後の前記第1画像と前記第2画像の間の位相差を検出する位相差検出部と、を備え、前記撮像部は、前記第1被写体像を撮像する画素のピッチ及び前記第2被写体像を撮像する画素のピッチがPである場合に、カットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタを有し、前記高密度化処理部は、前記高密度化処理として、前記第1画像と前記第2画像に対するアップサンプリング処理と、前記アップサンプリング処理後の前記第1画像と前記第2画像に対する2次元ローパスフィルタ処理と、を行う撮像装置に関係する。
 また、本発明の他の態様は、第1被写体像を撮像する画素のピッチ及び第2被写体像を撮像する画素のピッチがPである場合にカットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタを通過した、同一被写体に対して視差を有する前記第1被写体像及び前記第2被写体像を撮像し、前記第1被写体像が撮像された第1画像及び前記第2被写体像が撮像された第2画像に対してアップサンプリング処理を行い、前記アップサンプリング処理後の前記第1画像と前記第2画像に対して2次元ローパスフィルタ処理を行い、前記2次元ローパスフィルタ処理後の前記第1画像及び前記第2画像の間の位相差を検出する処理を行う、位相差検出方法に関係する。
図1は、撮像装置の構成例。 図2は、瞳分割方式によるステレオ画像計測の基本原理についての説明図。 図3は、第1実施形態における撮像装置の構成例。 図4は、瞳分割フィルタと撮像素子の分光特性の例。 図5は、第1実施形態における高密度化処理についての説明図。 図6(A)~図6(D)は、第1実施形態における高密度化処理についての説明図。 図7は、第1実施形態における高密度化処理についての説明図。 図8(A)~図8(C)は、高密度化処理による位相差検出のシミュレーション結果。 図9は、第1実施形態における高密度化処理についての説明図。 図10は、サンプリングデータの類似性についてのシミュレーション結果。 図11は、第2実施形態における高密度化処理についての説明図。 図12は、第2実施形態における高密度化処理についての説明図。 図13は、改良SADによるマッチング評価の説明図。 図14は、波形のSN比に対する位相差検出値の統計的分散値のシミュレーション結果。
 以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
 1.本実施形態の概要
 従来の位相差検出では、瞳分割により撮像された2つの視差画像の各画像を受け持つサンプリング画素の密度により位相差の検出分解能が決まってしまう。即ち、図9の左図に示すように、視差画像の波形パターンはサンプリング画素によりサンプリングされたデータとして扱われる。その2つの波形パターンの相対位置を初期位置からシフトしながら相関係数を求める際、2つの波形パターンのサンプリング位置が一致する相対位置での相関係数が得られる。そのため、マッチング位置の検出分解能はサンプリング密度で決まることとなり、初期位置とマッチング位置の差である位相差の分解能もサンプリング密度で決まることになる。
 例えば、位相差検出を測距に応用した場合を考える。下式(2)で後述のように、距離分解能Δzは、位相差の検出分解能Δsによって決まる。即ち、高分解能な測距を実現しようとすると、より高い位相差検出分解能が必要となる。しかしながら、昨今、撮像素子の画素密度は光学分解能の限界まで近づいてきており、今後の大幅な画素密度の改善は見込めない。したがって、如何に与えられた撮像素子を使って、その画素密度以上の高密度サンプリングを実現できるかが大きな課題となる。
 図1に、この課題を解決できる本実施形態の撮像装置の構成例を示す。撮像装置は、同一被写体に対して視差を有する第1被写体像と第2被写体像を撮像する撮像部10と、第1被写体像が撮像された第1画像と第2被写体像が撮像された第2画像に対して高密度化処理を行う高密度化処理部20と、高密度化処理後の第1画像と第2画像の間の位相差を検出する位相差検出部30と、を含む。
 このとき、撮像部10は、第1被写体像を撮像する画素のピッチ及び第2被写体像を撮像する画素のピッチがPである場合に、カットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタ11を有する。高密度化処理部20は、高密度化処理として、第1画像と第2画像に対するアップサンプリング処理と、アップサンプリング処理後の第1画像と第2画像に対する2次元ローパスフィルタ処理と、を行う。
 例えば、後述する第1実施形態では、単眼の撮像光学系を瞳分割し、ベイヤ配列の撮像素子を用いて視差画像を取得する。このとき、第1瞳を通過する第1被写体像を赤色画素で撮像し、第2瞳を通過する第2被写体像を青色画素で撮像する。即ち、図5に示すように、第1画像と第2画像のサンプリングピッチは、それぞれP=2pである。そして、第1画像と第2画像を、それぞれN×N倍の画素数にアップサンプリング処理し、その画像に対して2次元ローパスフィルタ処理を行う。これにより、撮像素子の画素密度(画素ピッチp)に対してN倍のサンプリング密度(画素ピッチp/N)をもつ視差画像を得ることができる。
 以上のようにすれば、見かけ上のサンプリング密度を撮像素子の画素密度よりも格段に高密度にした視差画像を生成することができる。即ち、この視差画像を用いて位相差を検出することで、従来の検出分解能よりも飛躍的に高分解能な位相差検出を行うことが可能となる。例えば、上記の例では、N倍の密度で相関係数を求めることができるので、従来のN倍の分解能で位相差を検出することが可能となる。
 なお、上記では単眼の第1実施形態を例に説明したが、本実施形態は二眼の撮像部を用いる場合にも適用できる。例えば、二眼の撮像光学系それぞれに撮像素子が設けられる場合、視差画像のサンプリングピッチPは撮像素子の画素ピッチpと同一なので、P=pとなる。
 2.第1実施形態
 2.1.ステレオ画像計測の手法
 次に、第1実施形態について説明する。この実施形態では、単眼の撮像部を瞳分割し、2つの瞳に異なる色を割り当てて位相差を検出し、3D計測を行う。
 まず、瞳分割方式によるステレオ画像計測の基本原理について、図2を用いて説明する。なお以下では、瞳を左右(水平走査方向)に分割する場合を例に説明するが、瞳の分割方向は左右に限定されず、光軸に直交する任意の方向であればよい。
 被写体面からの反射光は、結像レンズ12(結像光学系)を通り、撮像素子面にて像を形成し、撮像素子により画像信号として取得される。このとき、被写体の基準位置RPをゼロとした座標軸を(x,y,z)とし、それに対応する撮像素子面の合焦位置RP’をゼロとした座標軸を(x’,y’)とする。例えば、x’軸は撮像素子の水平走査方向に対応し、y’軸は撮像素子の垂直走査方向に対応する。z軸は、結像レンズ12の光軸方向、即ち、奥行き距離方向に対応する。
 被写体の基準位置RPから結像レンズ12の中心までの距離をaとし、結像レンズ12の中心から撮像素子面までの距離をbとする。この距離a、bは、撮像部の設計により決まる距離である。
 さて、結像レンズ12の左半分を左瞳と呼び、右半分を右瞳と呼ぶとする。GPは左瞳の重心位置であり、GPは右瞳の重心位置である。被写体面が基準位置からz方向に離れると、撮像素子面で得られる画像はデフォーカス状態となり、左瞳の通過画像Iと右瞳の通過画像I(以下、左瞳画像、右瞳画像と言う)は、ずれた画像、即ち位相差sをもった画像となる。なお、ここでは便宜上レンズ中心に瞳位置があるようにしたが、実際はレンズの外の絞り等の位置に瞳位置が存在するのが常識である。
 上記の位相差sと被写体面の位置zの関係を求める。撮像素子面で得られる左右瞳画像I、Iの位相差sと被写体面の位置zの関係は、下式(1)により決定される。
Figure JPOXMLDOC01-appb-M000001
 ここで、Mは基準合焦位置における光学総合倍率である。結像視野サークル径をφICとし、撮像範囲の視野サークル径をφOCとすると、M=φIC/φOC=b/aである。lは、左瞳の重心GPと右瞳の重心GPの間の距離である。なお、上式(1)が成り立つのは厳密には光学系の軸上についてであるが、原理説明のために軸外での関係式は省略する。
 位相差sを求めるためには、左瞳画像Iと右瞳画像Iを分離して取得できなければならないが、その分離手法については種々考えられる。例えば、左瞳位置に赤色を透過する光学フィルタを設け、右瞳位置に青色を透過する光学フィルタを設定し、撮像素子で得られる赤色画像を左瞳画像として分離し、青色画像を右瞳画像として分離する。或は、特許文献1に開示されるように、撮像素子面に入射する光線角度により左右瞳画像を分離取得する手法もある。或は、古くから行われている二眼カメラを用いて、左右瞳画像に相当する視差ステレオ画像を別々に取得する手法もある。いずれの手法も用いることが可能であり、目的・用途に応じて選択されればよい。
 高精度な3D計測を実現するためには、z分解能を如何に高められるかが重要な課題である。上式(1)を変形し、z分解能Δzを位相差分解能Δsにより表すと、下式(2)となる。
Figure JPOXMLDOC01-appb-M000002
 上式(2)から分かるように、z方向の測定分解能を向上させるためには、位相差分解能Δsを小さくすることによりz分解能Δzを小さくすることが求められる。即ち、z分解能Δzを高めるためには、左右の瞳画像の位相差を如何に細かく検出できるかにかかっており、そのためには撮像素子による左右瞳画像のサンプリング密度を上げる必要がある。しかしながら、サンプリング密度は撮像素子の画素ピッチにより制限され、現状の画素ピッチはほぼ限界に近づきつつあり、これ以上大幅に細かくしていくことは困難となっている。
 2.2.撮像装置
 図3に、第1実施形態における撮像装置の構成例を示す。撮像装置は、撮像部10、高密度化処理部20(高密度化計測用現像部)、位相差検出部30、光学特性記憶部40、測距演算部80、立体形状出力処理部90を含む。なお、既に上述した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。
 撮像部10は、光学ローパスフィルタ11、結像レンズ12(結像光学系)、瞳分割フィルタ13、撮像素子14、撮像処理部15を含む。
 瞳分割フィルタ13の左瞳にはR(赤色)フィルタが設けられ、右瞳にはB(青色)フィルタが設けられる。撮像素子14はベイヤ画素配列のRGBカラーイメージセンサである。図4に、瞳分割フィルタ13と撮像素子14の分光特性を示す。Fは左瞳のRフィルタの分光特性であり、Fは右瞳のBフィルタの分光特性である。T、T、Tは、それぞれB、G(緑色)、Rの画素の分光特性である。瞳の分光特性F、Fは、R画素とB画素の分光特性T、Tのクロスポイント(波長λc)で分割されており、全体としてRGBの帯域を覆っている。分光特性F、Fは、ともにGの成分(の一部)を透過する特性になっている。
 なお、分光特性{T、T、T}は、撮像素子14の画素毎に設けられたカラーフィルタの特性のみならず、被写体に照射される外光又は照明光の分光特性や、画素自体の分光特性が合成されたものとして定義される。分光特性に関するパラメータは、すべて波長λに対する設定値(対応値)であるが、本明細書では従属変数としての波長λの表記は省略している。
 被写体からの反射光は、結像レンズ12、瞳分割フィルタ13、光学ローパスフィルタ11を通過し、撮像素子14に像を形成する。このとき、R画素の画素値として、被写体からの反射光の分光特性に、左瞳の分光特性FとR画素の分光特性Tを掛けた成分値が得られる。また、B画素の画素値として、被写体からの反射光の分光特性に、右瞳の分光特性FとB画素の分光特性Tを掛けた成分値が得られる。即ち、ベイヤ画像のうちR画像により左瞳画像が得られ、B画像により右瞳画像が得られる。
 撮像処理部15は、撮像動作の制御や、撮像信号の処理を行う。例えば、撮像素子14からの画素信号をデジタルデータに変換し、ベイヤ配列の画像データ(いわゆるRAW画像データ)を出力する。
 高密度化処理部20は、R画像とB画像の位相差をサンプリング画素ピッチよりも小さい分解能で検出するためのサンプリング密度の高密度化処理を行う。この処理によりサンプリング密度はN×N倍となる。Nは例えば100~10000である。高密度化処理の詳細については後述する。
 なお、高密度化処理部20は、光学特性記憶部40に記憶された分光特性F、F、T、T、Tに基づいて、R画像とB画像の高精度な分離を行ってもよい。例えば、R画素の分光特性Tは左瞳の分光特性Fの帯域にも成分をもっている。そのため、右瞳画像であるべきR画像には左瞳の成分が混入している。このような左右瞳の混合を分光特性F、F、T、T、Tに基づいて低減する処理を行ってもよい。
 位相差検出部30は、位相差ラフ検出部50、検出可能領域抽出部60(検出可能特徴部位抽出部)、位相差微細検出部70を含む。
 位相差ラフ検出部50は、位相差微細検出部70が行う位相差検出の密度よりも粗い位相差検出を行う。例えば、高密度化処理後の画像や高密度化処理前のベイヤ画像に対して、画素を間引いて相関演算を行う。
 検出可能領域抽出部60は、位相差ラフ検出部50からの相関係数に基づいて、位相差検出が可能か否かの判定を行い、その判定結果によりz方向の距離情報を取得できるか否かを判断し、検出可能領域の画像を位相差微細検出部70へ出力する。例えば、相関ピークが存在するか否かを判定することで位相差検出が可能か否かを判定する。
 位相差微細検出部70では、高密度化処理後の画像に対して位相差検出を行い、サンプリング画素ピッチよりも小さい分解能により位相差を精細に求める。位相差の検出は、検出可能領域抽出部60により位相差検出が可能と判断された領域に対して行う。
 測距演算部80は、位相差微細検出部70により検出された位相差に基づいて、z方向の距離を高分解能に算出する。立体形状出力処理部90は、z方向の距離情報に基づいて立体形状データを構成し、その立体形状データを出力する。
 2.3.高密度化処理
 次に、サンプリング密度の高密度化処理について詳細に説明する。
 光学ローパスフィルタ11を通った左右のR、Bの瞳画像は、カラー撮像素子14によりサンプリングされる。撮像素子14のR、B画素は図5のように配置されている。光学ローパスフィルタ11は、アンチエイリアスフィルタであり、R、Bの瞳画像に折り返し雑音が発生しないように設けられる。各瞳画像のサンプリングピッチは2pなのでサンプリング周波数は1/(2p)であり、それに対応して決まるナイキスト周波数1/(4p)以下(その値を含む)にカットオフ周波数を設定する。
 R、B画像の周波数特性は、図6(A)のようになる。即ち、光学LPFの周波数特性が例えば1/(4p)の場合、-1/(4p)~+1/(4p)の帯域をもつ。図示を省略しているが、1/(2p)の繰り返し周期をもつ。なお、点線は、画素開口の周波数特性を示す。開口幅pに対応して、-1/p~+1/pの帯域をもつ。
 次に、撮像素子14により得られたR、Bの瞳画像の一つ一つのサンプリング画素について、1画素以下(その値を含む)の見かけ上の微小画素により構成されているかのようなデータを作成する。例えば、縦横0.1画素によりサンプリングされた画素値を生成する場合、1画素を縦横にそれぞれN=10等分し、1画素がN×N=100個の微小画素で構成されることを想定する。微小画素の画素値は、元の画素の値と等しい値を適用する。このアップサンプリング処理をR画素およびB画素全てにおいて行う。
 R、B画像の周波数特性は、図6(B)のようになる。画素を分割してデータを複製しただけなので、周波数特性はアップサンプリング前と同様である。即ち、例えば-1/(4p)~+1/(4p)の帯域をもち、1/(2p)の繰り返し周期をもつ。
 次に、微小画素で構成されたサンプリングデータを2次元ローパスフィルタによりフィルタリングし、未検出部分の画素を含めて撮像画像全面における微小画素を再構成する。即ち、撮像素子14の画素ピッチpに対して画素ピッチp/Nの画像データを生成し、見かけ上N倍のサンプリング密度が得られる。2次元ローパスフィルタのカットオフ周波数は、光学ローパスフィルタ同様にR又はBのサンプリングピッチ2pで決まるナイキスト周波数1/(4p)以下(その値を含む)に設定される。2次元ローパスフィルタは、例えばガウシアンフィルタである。
 2次元ローパスフィルタの周波数特性は、例えば図6(C)に示す通りである。2次元ローパスフィルタ後のR、B画像の周波数特性は、図6(D)のようになる。画素ピッチがp/Nとなったことに対応して、繰り返し周波数がN/pとなる。帯域は、光学ローパスフィルタの周波数特性に2次元ローパスフィルタの周波数特性を乗じたものの帯域に対応する。
 図7の左図に示すように、高密度化処理前の左右のR、Bの瞳画像I、Iは、2pピッチでサンプリングされた画像である。上記の高密度化処理により、図7の右図に示すように、左右のR、Bの瞳画像I、Iは、単純に撮像素子14でサンプリングした密度を大きく超える密度(ピッチp/N)でサンプリングした画像データとして得ることができる。
 図8(A)~図8(C)に、高密度化処理による位相差検出のシミュレーション結果を示す。横軸は、相関演算における初期位置を“0”とし、その初期位置からのシフト量を画素数で表したものである。
 図8(A)は、位相差を求める波形である。撮像素子の画素ピッチをpとすると、波形I(x)とI(x-δ)は位相差δ=0.2pをもった波形であり、画素ピッチpでサンプリングした波形である。
 図8(B)は、サンプリング波形I(x)、I(x-δ)を単純に0.1pでアップサンプリングし(1画素を0.1pに分割し、その画素と同一の値を複製する)、0.1p刻みでシフトしながら相互相関係数を求めたものである。本来、δ=0.2pのところで相関ピークが検出されなければならないが、サンプリング波形は1画素単位の値しか持ち得ないので、δ=0において相関ピークを示し、1画素以下(その値を含む)の分解能での検出はできていない。
 図8(C)は、サンプリング波形I(x)、I(x-δ)に対して本実施形態の高密度化処理を行い、相互相関係数を求めたものである。即ち、上記のアップサンプリングに加え、カットオフ周波数1/(4p)以下(その値を含む)のローパスフィルタをかけた後に、0.1p刻みでシフトしながら相互相関係数を求めたものである。δ=0.2pにて明確に相関ピークを示し、0.1p単位の検出分解能が得られることが分かる。
 以上より、本実施形態のアップサンプリング処理と2次元ローパスフィルタ処理によって、撮像素子の画素ピッチ以下での位相差検出分解能を可能にすることができる。
 また、通常の位相差検出では、サンプリング位置が異なることで左右のR、Bの瞳画像サンプリングデータの類似性が劣化するが、本実施形態によれば、この課題を解決できる。この点について、図9を用いて説明する。
 図9の左図に示すように、左右のR、Bの瞳画像I、Iは、ほぼ同一の波形であり、位相差δを有する。図9の右図に示すように、仮に瞳画像I、Iの波形を一致させたとする。このとき、瞳画像I、Iはマッチングしており、本来は、このように波形の類似性が最も高い位置での相関係数が得られることが望ましい。
 しかしながら、視差δは任意であるため、ほぼ同一波形である瞳画像I、Iに対してR、Bの画素がサンプリングする位置は一般的に同一とはならない。そのため、例えば左右のR,Bの瞳画像I、Iが光学的に同一であっても、得られるサンプリングデータは異なったものとなり、サンプリングデータで見れば類似性が失われている。このことは、相関係数から瞳画像I、Iのマッチング位置を求めようとしたときに、正確な位置が求められないことを意味する。
 例えば、瞳画像I、Iを1サンプリング画素ずつ(即ち2pピッチで)ずらしながら、相関係数を求めたとする。相関係数が得られるのは、瞳画像I、Iの画素(即ち実線矢印と点線矢印)が一致する各位置である。即ち、サンプリング位置が異なる瞳画像I、Iでは、波形が一致したときの相関係数は得られず、位相差の検出誤差が生じる。
 この点、本実施形態によれば、図7の右図のように瞳画像I、Iを高密度にサンプリングしたデータが得られるので、サンプリングデータの類似性を確保することができ、位相差の検出精度を向上できる。また、2次元ローパスフィルタをかけることにより、R、Bの瞳画像I、Iに重畳されたノイズ成分が抑圧され、ノイズによるマッチング位置の検出誤差ばらつきを抑える効果がある。
 図10に、サンプリングデータの類似性についてシミュレーションした結果を示す。上段の図はサンプリング位置を示す。サンプリング位置B2、B4、B6、B8は、サンプリング位置Aから0.2pずつシフトした位置である。例えば、位相差が0.6pの場合、左瞳画像はサンプリング位置Aでサンプリングされ、右瞳画像はサンプリング位置B6でサンプリングされる。
 中段の図はサンプリングデータを示す。サンプリングデータは、センサ入力波形をサンプリング位置A、B2、B4、B6、B8でサンプリングしたデータである。センサ入力波形は、センサ面に結像した被写体像の波形である。この時点では、サンプリング位置が異なっているのでサンプリングデータ間の類似性は低下している。
 下段の図は各サンプリングデータに本実施形態の高密度化処理を施したものである。波形データAs、Bs2、Bs4、Bs6、Bs8は、サンプリング位置A、B2、B4、B6、B8に対応する。波形データAs、Bs2、Bs4、Bs6、Bs8は、一致して識別不能であり、サンプリングデータ間の類似性が高いことが分かる。この類似性の高いサンプリングデータを用いることで、高精度な位相差検出が可能となる。
 以上の実施形態によれば、撮像部10は、結像光学系(結像レンズ12)と、結像光学系の瞳を、第1被写体像を通過させる第1瞳(左瞳)と第2被写体像を通過させる第2瞳(右瞳)とに分割する瞳分割フィルタ13と、結像光学系により結像された第1被写体像及び第2被写体像を撮像する撮像素子14と、を有する。
 このようにすれば、単眼の撮像部10で視差画像を撮像できる。そして、その視差画像に高密度化処理を施すことで、単眼であっても高分解能な測距が可能となる。即ち、上式(2)に示すように、測距の分解能Δzを上げるためには瞳の重心間距離lを離す必要があるが、単眼は二眼に比べて瞳の重心間距離lを確保しにくい。この点、本実施形態では高密度化処理により位相差の検出分解能Δsを上げることができるため、上式(2)により、瞳の重心間距離lが小さい場合であっても高分解能な測距を実現できる。例えば、内視鏡ではスコープを細径にするニーズがあるが、単眼は細径を実現しやすく、また、細径にして瞳の重心間距離lが小さくなっても高密度化処理により高精度な測距が可能である。
 また、本実施形態では、撮像素子14は、原色ベイヤ配列の撮像素子である。瞳分割フィルタ13は、赤色に対応する波長帯域を透過するフィルタ(図4の分光特性F)を第1瞳として有し、青色に対応する波長帯域を透過するフィルタ(図4の分光特性F)を第2瞳として有する。そして、高密度化処理部20は、撮像素子14により撮像されたベイヤ配列の画像のうち赤色の画像を第1の画像(左瞳画像)とし、青色の画像を第2の画像(右瞳画像)として、高密度化処理を行う。
 このようにすれば、一般的に用いられている原色ベイヤ配列のカラーイメージセンサを用いて、高分解能な位相差検出を実現できる。瞳分割フィルタ13を挿入し、R、B画像を取り出すだけで視差画像を構成できるので、従来からある撮像部に大きな変更を加えずに高分解能な位相差検出を実現できる。また、光学系には瞳分割フィルタ13が加わるだけなので撮像部10をコンパクトに構成でき、例えば上述した細径の内視鏡等を実現できる。
 また、本実施形態では、撮像素子14の画素ピッチをpとする場合に、第1被写体像を撮像する赤色の画素のピッチ及び第2被写体像を撮像する青色の画素のピッチは、P=2pである。そして、光学ローパスフィルタ11のカットオフ周波数は、1/(2P)=1/(4p)以下(その値を含む)である。
 瞳分割しない通常の撮影では、撮像素子の画素ピッチpに対応するナイキスト周波数は1/(2p)であり、光学ローパスフィルタ11のカットオフ周波数を1/(2p)以下(その値を含む)に設定する。一方、本実施形態では、視差画像それぞれにサンプリングを行っているので、そのサンプリングピッチ2pに対応したナイキスト周波数1/(4p)以下(その値を含む)にカットオフ周波数を設定する。これにより、視差画像における折り返し雑音を抑制できる。
 また、本実施形態では、高密度化処理部20は、アップサンプリング処理として、第1画像及び第2画像の画素をN×N画素に分割し、そのN×N画素に元の画素の画素値を複製する処理を行う。
 また、本実施形態では、2次元ローパスフィルタ処理のカットオフ周波数は、1/(2P)以下(その値を含む)である。
 このように、視差画像の画素をN×N画素に分割し、元の画素の画素値を複製することで、まずデータ上で微細な画素を準備することができる。そして、そのデータに対してカットオフ周波数1/(2P)以下(その値を含む)の2次元ローパスフィルタ処理を行うことで、あたかも微細な画素でサンプリングしたかのような視差画像を生成できる。視差画像の周波数帯域は光学ローパスフィルタ11により1/(2P)以下(その値を含む)に制限されているため、それに対応して2次元ローパスフィルタのカットオフ周波数を1/(2P)以下(その値を含む)に設定することで、視差画像の成分を残しながら、その帯域外のノイズを低減することができる。
 3.第2実施形態
 次に、第2実施形態について説明する。この実施形態では、補色イメージセンサにより撮像し、その補色の画像から高密度化した左右瞳画像を生成する。なお、撮像装置の構成は、第1実施形態と同様である。
 図11に示すように、補色イメージセンサは、シアンCy=B+G、マゼンダMg=B+R、イエローYe=G+R、及びグリーン(緑色)Gの画素からなる。一般的な配列は図示の通りである。画素ピッチをpとすると、各色の配置ピッチは2pである。
 撮像素子から読み出される値は、垂直方向の隣接2画素を結合(加算)した値である。それらをA1、A2、B1、B2とすると、下式(3)となる。
Figure JPOXMLDOC01-appb-M000003
 水平ラインは2画素単位で形成され、例えば図11のようにラインLの次はラインLn+2であり、上式(3)のデータはライン単位で出力される。なお、インターレースの場合、奇数フレームではラインL、Ln+2が読み出され、偶数フレームでは垂直方向に1画素ずらしたラインLn+1、Ln+3が読み出される。処理は同様のため、以下ではラインL、Ln+2を例に説明する。
 まず、上式(3)で表される結合値{A1,A2,B1,B2}を用い、隣接4画素を単位としてライン毎に輝度値Y、色差値Cr又はCbを下式(4)のように求める。
Figure JPOXMLDOC01-appb-M000004
 図11に示すように、輝度値Yは全ライン毎に、色差値Cr、Cbは交互のライン毎に求められることになる。Y、Cr、Cbは、隣接4画素単位の値である。この隣接4画素単位を第2の画素単位とする。
 Cr、Cbの値が得られる第2の画素単位の水平方向のピッチは2pだが、垂直方向のピッチは4pである。そのため、光学ローパスフィルタのカットオフ周波数は、粗いピッチ4pによるサンプリングピッチで決まるナイキスト周波数1/(8p)以下(その値を含む)に設定される。2次元ローパスフィルタのカットオフ周波数も光学ローパスフィルタと同様である。
 次に、第1の実施形態と同様に、Y、Cr、Cbそれぞれの第2の画素単位をN×N画素に分割し、その分割した画素に元の第2の画素単位のデータを複製する。この等分配列の微小画素から構成される画像に2次元ローパスフィルタを掛け、フィルタリング処理を行う。図12に示すように、2次元ローパスフィルタ処理により、見かけ上2p/NピッチでサンプリングしたY、Cr、Cbの画像が得られる。
 次に、2次元ローパスフィルタ処理後の高密度な微小画素からなるY、Cr、Cbのデータから原色RGBデータへの変換を行い、左右の瞳画像に対応したR及びBの高密度(2p/Nピッチ)画像を求め、この高密度画像から位相差を求める。なお、本実施形態においては、左右の瞳画像はRとBに割り当てられているので変換されたG画像は位相差検出としては用いる必要がない。よってGについての原色変換は不要である。
 左右の瞳画像は高密度化された画像データとなっているので、高分解能な位相差を求めることができ、結果としてz方向の計測分解能が大きく改善される。
 以上の実施形態では、撮像素子14は、補色の撮像素子である。瞳分割フィルタ13は、赤色に対応する波長帯域を透過するフィルタ(図4の分光特性F)を第1瞳として有し、青色に対応する波長帯域を透過するフィルタ(図4の分光特性F)を第2瞳として有する。そして、高密度化処理部20は、撮像素子14により撮像された画像から赤色の画像及び青色の画像を生成し、赤色の画像を第1の画像(左瞳画像)とし、青色の画像を第2の画像(右瞳画像)として、高密度化処理を行う。
 このようにすれば、一般的に用いられている補色のカラーイメージセンサを用いて、高分解能な位相差検出を実現できる。瞳分割フィルタ13を挿入し、YCrCb画像からR、B画像を生成するだけで視差画像を構成できるので、従来からある撮像部に大きな変更を加えずに高分解能な位相差検出を実現できる。補色のカラーイメージセンサは高感度であるため、例えば上述した内視鏡等で明るい照明が得られない場合であっても、S/Nの良い視差画像が得られる。
 4.第3実施形態
 次に、第3実施形態について説明する。この実施形態では、改良SADによるマッチング評価を行う。上述した第1、第2実施形態と組み合わせることで、更に高精度な位相差検出を効果的に行うことができる。なお、撮像装置の構成は第1実施形態と同様であり、位相差微細検出部70が第3実施形態の位相差検出処理を行う。位相差ラフ検出部50は、例えば従来のSADによるマッチング評価を行う。
 図13に、改良SAD(Improved Sum of Absolute Difference)によるマッチング評価の説明図を示す。
 I,Iは、撮像された左右の瞳画像の一部プロファイル(波形パターン)である。即ち、左右の瞳を通過した光線により撮像素子に形成された視差画像の、水平方向x(視差方向)における画素値パターンである。瞳画像I、Iには位相差δのずれが生じている。
 瞳画像I、Iは振幅ゲインが揃っていないので、所定演算区間w(マッチング評価係数の算出に用いる区間)の値を用いて正規化を行い、振幅ゲインを合わせる。正規化した瞳画像nI、nIは、下式(5)により求められる。シグマ記号の“w”は、所定演算区間wの範囲で和をとることを表す。
Figure JPOXMLDOC01-appb-M000005
 次に、正規化された瞳画像nI、nIを加算した合成波形nIを下式(6)のように生成する。
Figure JPOXMLDOC01-appb-M000006
 次に、所定演算区間wにおいて、瞳画像nI、nIが交差するクロスポイントを検出し、隣接するクロスポイントとクロスポイントの区間を求める。区間内の合成波形nIが増加傾向にある場合を増加区間Raとし、減少傾向にある場合を減少区間Faとする。増減区間の判定は、例えば、クロスポイントで区切った区間内で合成波形nIの隣接画素差分値(微分値)を積算し、正の場合は増加区間、負の場合は減少区間として判断する。
 次に、増加区間Ra、減少区間Faごとに下式(7)のルールに従い、瞳画像IとIの減算の順序を変えて減算値Dを求める。即ち、各区間において減算値D>0となるように減算の順序を決める。
Figure JPOXMLDOC01-appb-M000007
 求めた減算値Dを、下式(8)に示すように、所定演算区間wを越えない範囲内において全て加算し、ISAD評価値(マッチング評価係数)を求める。シグマ記号の“Ra”、“Fa”は、所定演算区間w内の全てのRa、Faの範囲で和ととることを表す。但し、所定演算区間w内にクロスポイントが存在しない場合であっても所定演算区間wが増加区間であるのか減少区間であるのかを判断し、所定演算区間wにおいてISAD評価値を求めればよい。
Figure JPOXMLDOC01-appb-M000008
 従来のSAD(Sum of Absolute Difference)のように増減区間を分けずに瞳画像IとIとの絶対値和を取る方法ではなく、本実施形態では増減区間を敢えて分け瞳画像IとIとの差分値和を取っている理由について説明する。なお、以下では正規化した波形も単に“I”、“I”等と表記する。
 I、Iは極めて類似性の高い波形パターンであると仮定する。下式(9)に示すように、それらに独立してノイズ成分n、nが付加された波形をI’、I’とする。
Figure JPOXMLDOC01-appb-M000009
 波形I’、I’のマッチング評価として従来のSADを当てはめてみると、下式(10)となる。
Figure JPOXMLDOC01-appb-M000010
 SAD評価値は、その定義から分かるように、本来は比較波形が一致するとゼロを示す。しかしながら、上式(10)に示すように、SAD評価値は、波形IとIの差分絶対値和に加えてノイズ成分nとnの差分絶対値和が加算された値を最大値としてもつ。ノイズ成分n、nとしてはランダムノイズが想定されるが、絶対値をとっているため加算しても打ち消し合わない。このことは、波形IとIが一致する状態、つまり|I-I|=0であってもSAD評価値にはノイズ成分が多く残ることを意味する。即ち、|I-I|=0であっても評価値が最小値を必ずしも示さないので、正しいマッチング位置を判定することができなくなる。よって、従来のSAD評価値ではノイズの影響を非常に受けやすいことが分かる。
 一方、上式(8)で定義したISAD評価値に上式(9)を当てはめると、下式(11)の関係が得られる。
Figure JPOXMLDOC01-appb-M000011
 ISAD評価値では、波形IとIの差分絶対値和と絶対値をとらないノイズ成分nとnの単なる差分和とが加算されたものが求められる。波形IとIの差分絶対値和は両者が一致した場合に|I-I|=0を示す。ノイズ成分nとnの単なる差分和は、絶対値をとっていないためランダムノイズの加算効果によりその成分値が低減される。区間RaとFaでノイズ成分の差分の符号が逆になるが、ランダムノイズのため加算効果には影響しない。この加算効果により、ISAD評価値では、波形IとIのマッチング位置をノイズが大きく低減された状態で評価できる。このように、ISAD評価値ではノイズの影響を受けにくいマッチング評価が可能となり、従来のSADに比べ非常に優位な評価方法と言える。
 図14に、波形I’、I’のSN比(SNR)に対する位相差検出値の統計的分散値σのシミュレーション結果を示す。
 波形I’、I’にはエッジ波形を用いている。位相差検出値には、マッチング評価値がピーク値となるときの位相差を用いている。分散値σは、次のようにして求めている。即ち、ノイズのパワーを同一にして、ノイズの出現パターンをランダムに異ならせて波形I’、I’を作る。その波形I’、I’を用いて複数回のマッチングを試行し、位相差を求める。そして、その位相差と、真の波形I、Iがもつ位相差の真値との誤差を求め、その誤差の発生分布から分散値σを求める。
 比較例として、従来のZNCC(Zero-mean Normalized Cross-Correlation)による相関係数を使った場合の分散値σを示す。同一のSN比に対して、ISAD評価値による位相差検出値の誤差ばらつきσは、ZNCC評価値による位相差検出の誤差ばらつきσよりも明らかに小さい。即ち、ISAD評価値はノイズの影響を受けにくく、位相差の検出分解能が高いことが分かる。
 例えば、低周波数画像どうしの相関演算では、ノイズ等の劣化要因が加わると相関ピークのばらつきが大きくなり、位相差の検出精度が劣化する。この点、本実施形態によれば、ノイズが加わった場合でも従来の手法に比べて相関ピークのばらつきσが小さいため、高精度な位相差検出が可能となる。
 以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
10 撮像部、11 光学ローパスフィルタ、12 結像レンズ、
13 瞳分割フィルタ、14 撮像素子、15 撮像処理部、
20 高密度化処理部、30 位相差検出部、40 光学特性記憶部、
50 位相差ラフ検出部、60 検出可能領域抽出部、
70 位相差微細検出部、80 測距演算部、90 立体形状出力処理部、
,F 分光特性、Fa 減少区間、I 左瞳画像、I 右瞳画像、
P サンプリングピッチ、Ra 増加区間、T,T,T 分光特性、
nI 合成波形、nI 正規化した左瞳画像、nI 正規化した右瞳画像、
p 画素ピッチ、s 位相差、w 所定演算区間、
x,y,z,x’,y’ 座標、Δs 位相差分解能、Δz 距離分解能、
δ 位相差、σ 分散値

Claims (9)

  1.  同一被写体に対して視差を有する第1被写体像と第2被写体像を撮像する撮像部と、
     前記第1被写体像が撮像された第1画像と前記第2被写体像が撮像された第2画像に対して高密度化処理を行う高密度化処理部と、
     前記高密度化処理後の前記第1画像と前記第2画像の間の位相差を検出する位相差検出部と、を備え、
     前記撮像部は、前記第1被写体像を撮像する画素のピッチ及び前記第2被写体像を撮像する画素のピッチがPである場合に、カットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタを有し、
     前記高密度化処理部は、前記高密度化処理として、前記第1画像と前記第2画像に対するアップサンプリング処理と、前記アップサンプリング処理後の前記第1画像と前記第2画像に対する2次元ローパスフィルタ処理と、を行う、
     ことを特徴とする撮像装置。
  2.  請求項1において、
     前記撮像部は、
     結像光学系と、
     前記結像光学系の瞳を、前記第1被写体像を通過させる第1瞳と前記第2被写体像を通過させる第2瞳とに分割する瞳分割フィルタと、
     前記結像光学系により結像された前記第1被写体像及び前記第2被写体像を撮像する撮像素子と、を有する、
     ことを特徴とする撮像装置。
  3.  請求項2において、
     前記撮像素子は、原色ベイヤ配列の撮像素子であり、
     前記瞳分割フィルタは、赤色に対応する波長帯域を透過するフィルタを前記第1瞳として有し、青色に対応する波長帯域を透過するフィルタを前記第2瞳として有し、
     前記高密度化処理部は、前記撮像素子により撮像されたベイヤ配列の画像のうち赤色の画像を前記第1の画像とし、青色の画像を前記第2の画像として、前記高密度化処理を行う、
     ことを特徴とする撮像装置。
  4.  請求項3において、
     前記撮像素子の画素ピッチをpとする場合に、前記第1被写体像を撮像する赤色の画素のピッチ及び前記第2被写体像を撮像する青色の画素のピッチは、P=2pであり、
     前記光学ローパスフィルタのカットオフ周波数は、1/(4p)以下(その値を含む)である、
     ことを特徴とする撮像装置。
  5.  請求項2において、
     前記撮像素子は、補色の撮像素子であり、
     前記瞳分割フィルタは、赤色に対応する波長帯域を透過するフィルタを前記第1瞳として有し、青色に対応する波長帯域を透過するフィルタを前記第2瞳として有し、
     前記高密度化処理部は、前記撮像素子により撮像された画像から赤色の画像及び青色の画像を生成し、前記赤色の画像を前記第1の画像とし、前記青色の画像を前記第2の画像として、前記高密度化処理を行う、
     ことを特徴とする撮像装置。
  6.  請求項1乃至5のいずれかにおいて、
     前記高密度化処理部は、前記アップサンプリング処理として、前記第1画像及び前記第2画像の画素をN×N画素に分割し、前記N×N画素に元の画素の画素値を複製する処理を行う、
     ことを特徴とする撮像装置。
  7.  請求項1乃至6のいずれかにおいて、
     前記2次元ローパスフィルタ処理のカットオフ周波数は、1/(2P)以下(その値を含む)である、
     ことを特徴とする撮像装置。
  8.  請求項1乃至7のいずれかにおいて、
     前記高密度化処理は、前記第1被写体像と前記第2被写体像のサンプリングピッチを仮想的に高密度化する処理である、
     ことを特長とする撮像装置。
  9.  第1被写体像を撮像する画素のピッチ及び第2被写体像を撮像する画素のピッチがPである場合にカットオフ周波数が1/(2P)以下(その値を含む)である光学ローパスフィルタを通過した、同一被写体に対して視差を有する前記第1被写体像及び前記第2被写体像を撮像し、
     前記第1被写体像が撮像された第1画像及び前記第2被写体像が撮像された第2画像に対してアップサンプリング処理を行い、
     前記アップサンプリング処理後の前記第1画像と前記第2画像に対して2次元ローパスフィルタ処理を行い、
     前記2次元ローパスフィルタ処理後の前記第1画像及び前記第2画像の間の位相差を検出する処理を行う、
     ことを特徴とする位相差検出方法。
PCT/JP2014/070304 2013-10-23 2014-08-01 撮像装置及び位相差検出方法 WO2015059971A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201480057875.3A CN105659054A (zh) 2013-10-23 2014-08-01 摄像装置和相位差检测方法
US15/093,884 US20160301855A1 (en) 2013-10-23 2016-04-08 Imaging device and phase difference detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013220022A JP2015081846A (ja) 2013-10-23 2013-10-23 撮像装置及び位相差検出方法
JP2013-220022 2013-10-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/093,884 Continuation US20160301855A1 (en) 2013-10-23 2016-04-08 Imaging device and phase difference detection method

Publications (1)

Publication Number Publication Date
WO2015059971A1 true WO2015059971A1 (ja) 2015-04-30

Family

ID=52992582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/070304 WO2015059971A1 (ja) 2013-10-23 2014-08-01 撮像装置及び位相差検出方法

Country Status (4)

Country Link
US (1) US20160301855A1 (ja)
JP (1) JP2015081846A (ja)
CN (1) CN105659054A (ja)
WO (1) WO2015059971A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10401611B2 (en) * 2015-04-27 2019-09-03 Endochoice, Inc. Endoscope with integrated measurement of distance to objects of interest
WO2016194177A1 (ja) * 2015-06-03 2016-12-08 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理方法
CN107190621B (zh) * 2016-03-15 2023-01-10 南京理工技术转移中心有限公司 一种路面裂缝病害检测系统和方法
JP6462189B2 (ja) * 2016-07-06 2019-01-30 富士フイルム株式会社 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
US11303800B1 (en) * 2021-07-13 2022-04-12 Shenzhen GOODIX Technology Co., Ltd. Real-time disparity upsampling for phase detection autofocus in digital imaging systems
CN113959398B (zh) * 2021-10-09 2024-04-12 广东汇天航空航天科技有限公司 基于视觉的测距方法、装置、可行驶设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124984A (ja) * 1999-10-28 2001-05-11 Canon Inc 焦点検出装置と撮像装置
JP2001305415A (ja) * 2000-04-19 2001-10-31 Canon Inc 焦点検出装置
JP2009033582A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 画像信号記録再生装置
JP2013044806A (ja) * 2011-08-22 2013-03-04 Olympus Corp 撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174696A (ja) * 1999-12-15 2001-06-29 Olympus Optical Co Ltd カラー撮像装置
JP4973478B2 (ja) * 2007-12-11 2012-07-11 ソニー株式会社 撮像素子および撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001124984A (ja) * 1999-10-28 2001-05-11 Canon Inc 焦点検出装置と撮像装置
JP2001305415A (ja) * 2000-04-19 2001-10-31 Canon Inc 焦点検出装置
JP2009033582A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 画像信号記録再生装置
JP2013044806A (ja) * 2011-08-22 2013-03-04 Olympus Corp 撮像装置

Also Published As

Publication number Publication date
JP2015081846A (ja) 2015-04-27
US20160301855A1 (en) 2016-10-13
CN105659054A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
JP6017399B2 (ja) 撮像装置及び位相差検出方法
WO2015059971A1 (ja) 撮像装置及び位相差検出方法
JP5904281B2 (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP5929553B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP7009091B2 (ja) 距離情報生成装置、撮像装置、距離情報生成方法、およびプログラム
TWI399524B (zh) 景物深度資訊之取得方法與裝置
CN105657237B (zh) 图像获取装置及其数字变焦方法
JP2011171858A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
CN111492201B (zh) 测距摄像机
JP6131546B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US9544570B2 (en) Three-dimensional image pickup apparatus, light-transparent unit, image processing apparatus, and program
Paramonov et al. Depth camera based on color-coded aperture
JP2011182237A (ja) 複眼撮像装置及び該装置における画像処理方法
JP2022128517A (ja) 測距カメラ
JP6173065B2 (ja) 撮像装置、画像処理装置、撮像方法及び画像処理方法
JP6299788B2 (ja) プレノプティック・システムにおける視差
JP5673764B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2013162369A (ja) 撮像装置
TW201248550A (en) Image processing apparatus and method
WO2018235709A1 (ja) 測距カメラおよび測距方法
WO2022107530A1 (ja) 信号処理装置と信号処理方法およびプログラム
WO2015156045A1 (ja) 画像処理装置、撮像装置および撮像方法
Atif Optimal depth estimation and extended depth of field from single images by computational imaging using chromatic aberrations
Koh et al. Autofocus method using similarity measure based on inter-color channel correlation
JP6598550B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14855676

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14855676

Country of ref document: EP

Kind code of ref document: A1