WO2012066774A1 - 撮像装置及び距離計測方法 - Google Patents

撮像装置及び距離計測方法 Download PDF

Info

Publication number
WO2012066774A1
WO2012066774A1 PCT/JP2011/006373 JP2011006373W WO2012066774A1 WO 2012066774 A1 WO2012066774 A1 WO 2012066774A1 JP 2011006373 W JP2011006373 W JP 2011006373W WO 2012066774 A1 WO2012066774 A1 WO 2012066774A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
images
unit
distance
Prior art date
Application number
PCT/JP2011/006373
Other languages
English (en)
French (fr)
Inventor
邦昭 磯貝
河村 岳
木村 雅之
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012512728A priority Critical patent/JP5832424B2/ja
Priority to EP11842267.4A priority patent/EP2642245B1/en
Priority to CN201180006220.XA priority patent/CN102713512B/zh
Priority to US13/522,057 priority patent/US8698943B2/en
Publication of WO2012066774A1 publication Critical patent/WO2012066774A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/16Beam splitting or combining systems used as aids for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus

Definitions

  • the present invention relates to an imaging apparatus and a distance measurement method, and more particularly to an imaging apparatus and a distance measurement method for measuring the distance of a subject using a plurality of captured images.
  • DFD Depth from Defocus
  • DFD is a method for measuring distance using image blur.
  • the photographed image shows whether the blur that exists in the photographed image is caused by a change in the focus of the lens, or whether the original image that represents the state where there is no blur due to the lens originally has a blurred texture There is a problem that it is very difficult to distinguish from itself.
  • the spectral component of the original image is compared by comparing the ratio of the spatial frequency spectrum between a plurality of captured images with the ratio of the blur spatial frequency spectrum corresponding to the depth of the scene. Measurements that do not depend on
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus and a distance measuring method capable of realizing stable distance measurement from a small number of photographed images.
  • an imaging apparatus provides an imaging unit that generates an image by imaging a subject and the imaging unit while changing a focus position of the imaging unit.
  • a focus range control unit that captures n images (n is an integer of 2 or more) each having a different focus range, and a reference image that generates a reference image serving as a blur base using the n images.
  • the imaging apparatus can obtain an image with a wider focus range than usual without reducing the aperture by capturing an image while changing the focus position. . Accordingly, the imaging device according to one embodiment of the present invention can obtain a reference image from a small number of images. In addition, since the focus ranges of the images are independent of each other, an image having a substantially uniform blur with respect to the subject distance can be generated using a plurality of images. Therefore, the imaging device according to one embodiment of the present invention can obtain a highly accurate reference image by a simple method. As described above, the imaging device according to one embodiment of the present invention can realize stable distance measurement from a small number of captured images.
  • the imaging unit includes an imaging device and a lens that collects light on the imaging device, and the focusing range control unit changes the distance between the imaging device and the lens at a constant speed.
  • the in-focus position may be changed.
  • the exposure time of the n images may be the same.
  • the noise included in the n images with different focus ranges can be made comparable, so that the accuracy of distance calculation can be improved.
  • the focusing range control unit may change the distance between the imaging element and the lens at a constant speed during a period from when the imaging unit starts capturing the n images to when the imaging unit ends. Also good.
  • the imaging unit includes a lens, n imaging elements arranged so that optical path lengths from the lenses are different, and a beam splitter that divides light from the lens into each of the n imaging elements.
  • the focusing range control unit may simultaneously capture the n images on the n imaging elements while simultaneously changing the focusing positions of the n imaging elements in the same period. Good.
  • n images having different in-focus ranges can be taken simultaneously, so that the time required for the entire process can be shortened.
  • the depth of field of each image is continuously expanded, a wide range of distance measurement can be performed with a small number of images.
  • the imaging unit includes a lens, n imaging elements, and a selection unit that selectively causes light from the lens to enter any one of the n imaging elements, and the focusing range.
  • the control unit sequentially selects the n imaging elements, and selectively causes light to enter the selected imaging elements by the selection unit, whereby the n images are input to each of the n imaging elements. Each of these may be imaged.
  • n images having different in-focus ranges can be taken simultaneously, so that the time required for the entire process can be shortened.
  • each image has a discontinuous focus range, it is possible to have a blurred shape that facilitates distance measurement by the DFD algorithm.
  • the reference image generation unit may generate an average image of the n images and generate the reference image using the average image.
  • the reference image generation unit may generate the reference image by performing a deconvolution operation on the average image using one type of point spread function.
  • the present invention can be realized not only as such an imaging apparatus, but also as a distance measurement method using characteristic means included in the imaging apparatus as a step, or as a control method of the imaging apparatus, or such characteristics. It can also be realized as a program that causes a computer to execute typical steps. Needless to say, such a program can be distributed via a non-transitory computer-readable recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • the present invention can be realized as a semiconductor integrated circuit (LSI) that realizes part or all of the functions of such an imaging apparatus.
  • LSI semiconductor integrated circuit
  • the present invention can provide an imaging apparatus and a distance measuring method capable of realizing stable distance measurement from a small number of captured images.
  • FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram schematically showing the state of light collection when the in-focus position according to the embodiment of the present invention is changed.
  • FIG. 3 is a flowchart showing a flow of operations of the imaging apparatus according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing the change of the in-focus position according to the embodiment of the present invention.
  • FIG. 5 is a diagram showing the blur amounts of the first image and the second image according to the embodiment of the present invention.
  • FIG. 6A is a diagram showing a texture of a scene according to the embodiment of the present invention.
  • FIG. 6B is a diagram showing the subject distance of the scene according to the embodiment of the present invention.
  • FIG. 7A is a diagram illustrating a result of distance measurement performed from two images having a focusing range to be joined according to the embodiment of the present invention.
  • FIG. 7B is a diagram illustrating a result of distance measurement performed from two images having an in-focus range spaced according to an embodiment of the present invention.
  • FIG. 8A is a table showing the relationship between the interval of the focusing range and the RMS of the distance measurement result according to the embodiment of the present invention.
  • FIG. 8B is a graph showing the relationship between the interval of the focus range and the RMS of the distance measurement result according to the embodiment of the present invention.
  • FIG. 9A is a diagram illustrating a configuration of an imaging unit according to Modification 1 of the embodiment of the present invention.
  • FIG. 9B is a diagram showing a change in the in-focus position according to the first modification of the embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a configuration of an imaging unit according to Modification 2 of the embodiment of the present invention.
  • FIG. 11A is a diagram illustrating an operation of the imaging unit according to the second modification of the embodiment of the present invention.
  • FIG. 11B is a diagram illustrating an operation of the imaging unit according to Modification 2 of the embodiment of the present invention.
  • FIG. 11C is a diagram illustrating an operation of the imaging unit according to Modification 2 of the embodiment of the present invention.
  • FIG. 12 is a diagram showing a change in the focus position according to the second modification of the embodiment of the present invention.
  • the imaging apparatus captures a plurality of images having independent focusing ranges. Further, an interval is provided between a plurality of focus ranges of a plurality of images. Thereby, the imaging apparatus can generate an image having a substantially uniform blur with respect to the subject distance using the plurality of images. As described above, the imaging apparatus according to the embodiment of the present invention can realize stable distance measurement from a small number of captured images.
  • FIG. 1 is a diagram illustrating a configuration of an imaging apparatus 10 according to an embodiment of the present invention.
  • the imaging device 10 illustrated in FIG. 1 captures an image and uses the image to measure the distance between the imaging device 10 and a subject included in the image.
  • the imaging device 10 includes an imaging unit 11, a focusing range control unit 12, a reference image generation unit 13, and a distance measurement unit 14.
  • the imaging unit 11 includes a lens unit in which a lens 21 that collects light rays is incorporated, and an imaging element 22 such as a CCD or a CMOS.
  • the imaging unit 11 has a function of generating an image by capturing an image of a subject.
  • the focus range control unit 12 has a function of controlling the lens unit included in the imaging unit 11 and controlling the focus position and the depth of field. Specifically, the focus range control unit 12 changes the focus position by changing the distance between the lens 21 and the image sensor 22. More specifically, the focusing range control unit 12 changes the distance between the lens 21 and the image sensor 22 by moving one or both of the lens 21 and the image sensor 22.
  • the focusing range control unit 12 operates an autofocus mechanism incorporated in the lens unit with a specific pattern or switches a specific optical element.
  • the lens unit may include a plurality of lenses. In this case, the focusing range control unit 12 may move one or more of the plurality of lenses.
  • the distance between the lens and the image sensor is, for example, the distance between the lens to be moved or the lens principal point position of a plurality of lenses and the image sensor.
  • the focus range control unit 12 changes the focus position of the image pickup unit 11 and causes the image pickup unit 11 to have a plurality of images (first image 31a and first image having different focus ranges and depths of field). Two images 31b) are photographed.
  • the focusing ranges of the plurality of images are independent from each other, and a non-focusing interval is provided between the focusing ranges.
  • the reference image generation unit 13 uses the first image 31a and the second image 31b having different focus positions and depths of field generated by the operation of the focus range control unit 12 as a reference for blurring.
  • An image 32 is generated.
  • the reference image 32 is an image in which a state where there is no blur due to the lens 21 is estimated.
  • the distance measurement unit 14 performs distance measurement based on the DFD technique using the first image 31a and the second image 31b and the reference image 32. That is, the distance measurement unit 14 measures the distance to the subject from the difference in the degree of blur between the first image 31a and the second image 31b and the reference image 32.
  • the hyperfocal distance is a distance that is determined to be in focus from the distance to infinity when the in-focus position (focus) is adjusted to that distance.
  • the focal length of the lens is f
  • the F number of the lens is F
  • the size of the allowable circle of confusion representing the smallest detectable blur is c
  • the depth of field when the in-focus position is adjusted to the distance s is expressed by the following (Expression 2) and (Expression), where DN is the depth of field ahead of s and Df is the depth of field behind. 3).
  • EDOF extended depth of field
  • the simplest EDOF method is a method of taking a plurality of images while gradually shifting the in-focus position, and extracting and synthesizing in-focus portions from these images. This technique is also used in Patent Document 2.
  • Non-Patent Document 1 discloses a technique for realizing the same effect as combining a large number of images by changing the focus position during exposure.
  • FIG. 2 is a diagram schematically showing the state of light collection when the in-focus position is changed.
  • the position (image plane position) of the image sensor 22 when focusing on the subject position a1 is b1
  • the position of the image sensor 22 when focusing on the subject position a2 is b2.
  • the position of the image sensor 22 in the case of focusing on an arbitrary subject position between a1 and a2 is always between b1 and b2.
  • the image sensor 22 moves from b1 to b2 during exposure, the blur is gradually increased from the state of focusing on a1, and the blur is integrated and overlapped in the image.
  • the focus is gradually increased from a state where the blur is large with respect to a2, and the blur is superimposed on the image.
  • f is the focal length of the optical system
  • a is the diameter of the aperture of the optical system
  • u is the subject distance
  • ⁇ v is from v
  • R is the distance from the blur center
  • g is a constant.
  • the image plane position is the position of the image sensor with respect to the lens. In other words, the image plane position corresponds to the distance between the lens and the image sensor.
  • Equation 6 Equation 6
  • Non-Patent Document 1 shows that the PSF that can be obtained from (Equation 7) has an almost universal blur shape regardless of the distance between the distances V (0) to V (T). That is, by changing the start point v + V (0) and the end point v + V (T) of the image plane position, the range of the subject distance where the blur is constant can be changed.
  • h represents the PSF at the position (x, y)
  • d (x, y) represents the subject distance at the position (x, y).
  • * in the formula represents a convolution operation.
  • the PSF differs depending on the subject distance. Therefore, when a plurality of subjects are present at different distances, an image in which a different PSF is convoluted for each image position is taken as a captured image. can get.
  • PSFs corresponding to the subject distances d1, d2,..., Dn are assumed to be h (x, y, d1), h (x, y, d2), ..., h (x, y, dn).
  • the captured image I (x, y) is an image obtained by convolving R (x, y) with H (x, y, d1). equal.
  • d (x, y) is obtained by the following (formula 9).
  • the image is divided into blocks, the sum of errors in the block is obtained, and the distance that minimizes the error is set as the distance of the entire block.
  • the imaging unit 11 captures the first image 31a and the second image 31b having different focus ranges. Specifically, during the exposure of each of the first image 31a and the second image 31b, the focusing range control unit 12 moves the image plane position at a constant speed as shown in FIG. At this time, the focusing range control unit 12 first causes the imaging unit 11 to capture the first image 31a while moving the image plane position from v1 to v3 at a constant speed (S101). Next, the focus range control unit 12 moves the focus position by a predetermined distance (S102). Specifically, the focusing range control unit 12 moves the imaging position from v3 to v4 at a constant speed during the non-exposure period.
  • the focusing range control unit 12 causes the imaging unit 11 to capture the second image 31b while moving the image plane position from v4 to v2 at a constant speed (S103).
  • the first image 31a photographed in this way has a uniform blur within the focusing range of the first image 31a from the image plane positions v1 to v3, and the image plane positions v1 to v3. In other positions, there is a blur corresponding to the distance from the focusing range of the first image 31a.
  • the second image 31b has a uniform blur within the focusing range of the second image 31b from the image plane position v4 to v2, and the second image 31b is aligned at positions other than the image plane position v4 to v2.
  • the blur that is uniform with respect to the subject distance is used for generating the reference image 32, and the blur corresponding to the subject distance is used for distance measurement by DFD.
  • v3 and v4 can be made into arbitrary positions between v1 and v2, in order to make the exposure time of the 1st image 31a and the 2nd image 31b the same, the distance of v1 and v3 and v4 and v2. are preferably set to be equal.
  • the noise included in the first image and the second image can be made comparable, so that the accuracy of distance calculation can be improved.
  • the focus range control unit 12 moves the focus position at a constant speed during the period including the exposure period of the first image 31a, the non-exposure period, and the exposure period of the second image 31b.
  • the focusing range control unit 12 changes the image plane position at a constant speed during a period from when the imaging unit 11 starts imaging the first image 31a and the second image 31b to when it ends. Thereby, control which changes an in-focus position can be performed easily.
  • the moving speed of the in-focus position during the exposure period of the first image 31a may be different from the moving speed of the in-focus position during the exposure period of the second image 31b.
  • the reference image generation unit 13 generates a reference image 32 using the first image 31a and the second image 31b (S104).
  • the reference image 32 is obtained by deconvolution of the PSF with respect to the captured image.
  • the subject distance d (x, y) needs to be known in order to correctly obtain the reference image 32, but the first image 31a and the second image 31b are expanded because the depth of field is expanded.
  • the PSF is constant over a range of subject distances.
  • the reference image generation unit 13 generates an average image by taking the average of the first image 31a and the second image 31b.
  • the average image has substantially the same depth of field over the range from v1 to v2, except for the section from v3 to v4. That is, the average image is almost equivalent to an image having uniform blur over the entire range from v1 to v2. Therefore, the reference image generation unit 13 generates a reference image 32 focused on the entire range from v1 to v2 by performing a deconvolution operation on the average image using one type of PSF corresponding to uniform blur. To do.
  • a known method such as a Wiener filter can be used for the deconvolution algorithm.
  • the distance measurement unit 14 uses the captured first image 31a and second image 31b and the reference image 32 generated in step S104, and follows the distance map d (x, y) according to (Equation 9). Is calculated (S105). Specifically, the distance measurement unit 14 calculates a distance map using the first image 31a and a distance map using the second image 31b according to (Equation 9). Next, the distance measuring unit 14 calculates one distance map by integrating these (S106). For this integration, a method of taking a simple average of distance maps calculated from each image can be used.
  • the distance measurement may be performed by performing a Fourier transform on (Equation 8) and (Equation 9) and comparing them in the frequency domain.
  • the convolution operation in (Equation 8) and (Equation 9) is converted into multiplication, so distance measurement can be performed at higher speed.
  • the imaging apparatus 10 can generate the reference image 32 using only the first image 31a and the second image 31b.
  • the imaging device 10 can perform distance measurement with high accuracy with a small number of images. Further, since the change of the focus position during exposure can be realized by diverting a standard autofocus mechanism, a special mechanism is not required.
  • the reference image is also calculated from the average image of all the captured images.
  • an image generated by performing a deconvolution operation using the PSF on the average image is used as the reference image 32.
  • the image has a substantially uniform blur in the entire range from v1 to v2, refer to it. It can be used as the image 32.
  • the average image or the added image may be used as the reference image 32.
  • the lens performance assumed in the simulation is a focal length of 9 mm and an F number of 1.4.
  • a 20-digit number represents whether or not the in-focus position is in alignment with each of the 20 steps of the subject distance. For example, [1, 0, 1, 1, 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0] is 1 from the far side. This indicates that the third, fourth, fifth, and tenth stages are in focus.
  • FIG. 7A shows a result of distance measurement by DFD from two images in which the focusing range is continuous (no interval is provided). Specifically, these two images have an in-focus range of [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0. , 0, 0, 0] (1st to 10th steps) and the focus range is [0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1 , 1, 1, 1, 1, 1] (11th to 20th stages). At this time, the subject distance is obtained in the form shown by the following (Expression 10) and (Expression 11).
  • F1 and F2 represent frequency components of the first and second images
  • H1 and H2 represent PSF frequency components corresponding to the focusing ranges of the first and second images
  • H1 * and H2 * Represents a complex conjugate of H1 and H2
  • represents a minute value for preventing division by zero
  • f ⁇ 1 represents an inverse Fourier transform
  • FIG. 7B shows the result of distance measurement performed in the same manner from two images with an interval in the focusing range.
  • these two images have an in-focus range of [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0. , 0, 0, 0] (1st to 10th steps) and the focus range is [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1 1, 1, 1, 1, 1, 1] (12th to 20th stages). That is, the 11th stage is the out-of-focus range.
  • FIG. 7A the measurement result is far from that in FIG.
  • FIG. 7B the measurement result is improved compared to FIG. 7A.
  • FIGS. 8A and 8B are diagrams showing the difference between the measurement result and the correct answer data with respect to the interval of the focus range.
  • the difference between the measurement result and the correct answer data is RMS (Root Mean Square). The closer the RMS value is to 0, the higher the measurement accuracy.
  • FIG. 8A is a table showing the RMS of the distance measurement result with respect to the interval of the focus range.
  • FIG. 8B is a diagram showing RMS as a bar graph.
  • the combination with the smallest RMS was a case where the third stage of the 10th to 12th stages was not focused. Further, the measurement accuracy is higher when the interval is provided than when the interval is not provided in the focusing range. However, when the interval is too wide, the measurement accuracy decreases. That is, the interval is preferably 4 steps or less. More preferably, the interval is 2 to 4 steps.
  • one stage corresponds to about 50 ⁇ m of the image plane position.
  • the image plane position corresponding to the interval is preferably 200 ⁇ m or less (corresponding to 4 steps), more preferably 100 ⁇ m or more (corresponding to 2 steps) and 200 ⁇ m or less (corresponding to 4 steps).
  • this interval may not be optimal in all cases.
  • FIG. 9A is a diagram illustrating a configuration of the imaging unit 11 according to the first modification.
  • FIG. 9B is a diagram illustrating a change in the focus position in the first modification.
  • the imaging unit 11 includes a lens 21, two imaging elements 22a and 22b, a beam splitter 23 for splitting a light beam, and a mirror 24 for bending an optical path.
  • the two image sensors 22a and 22b are arranged so that the optical path lengths from the lens 21 are different.
  • the optical path length of the image sensor 22b is longer than the image sensor 22a by ⁇ v.
  • the beam splitter 23 divides the light from the lens 21 into two imaging elements 22a and 22b.
  • the focusing range control unit 12 changes the focusing position of the two imaging elements 22a and 22b simultaneously in the same period, while the first image 31a is displayed on the imaging element 22a and the second image 31b is displayed on the imaging element 22b.
  • the image sensor 22a and the image sensor are captured as shown in FIG. 9B.
  • An image in which the in-focus position is always shifted by ⁇ v is obtained by the element 22b.
  • ⁇ v equal to the distance from v1 to v4
  • two images that do not focus on the distance from v3 to v4 can be taken simultaneously.
  • a prism may be used instead of a mirror as means for bending the optical path.
  • the structure which does not have a mirror and a prism like the structure shown in FIG. 10 mentioned later may be sufficient.
  • FIG. 10 is a diagram illustrating a configuration of the imaging unit 11 according to the second modification.
  • 11A to 11B are diagrams illustrating the operation of the imaging unit 11.
  • FIG. 12 is a diagram illustrating a change in the in-focus position in the second modification.
  • the imaging unit 11 shown in FIG. 10 includes a lens 21, two imaging elements 22a and 22b, a diaphragm 25, and a movable mirror 26.
  • the movable mirror 26 is disposed in the middle of the optical path between the lens 21 and the two imaging elements 22a and 22b, and is an optical axis changing unit that changes the optical axis direction of the light from the lens 21.
  • the movable mirror 26 functions as a selection unit that selectively causes the light from the lens 21 to enter one of the two imaging elements 22a and 22b.
  • optical path lengths from the lens 21 to the two image sensors 22a and 22b are equal.
  • the movable mirror 26 is, for example, a galvano mirror or a MEMS mirror.
  • the movable mirror 26 has a function of guiding a light beam to one of the two image pickup devices 22a and 22b as shown in FIGS. 11A and 11C.
  • the diaphragm 25 blocks the light beam during the operation in which the movable mirror 26 switches the image sensor to which the light beam reaches.
  • the focusing range control unit 12 sequentially selects the two image pickup devices 22a and 22b, and selectively causes light to enter the selected image pickup device with the movable mirror 26, thereby allowing each of the two image pickup devices to Each of the two images is captured.
  • the focus position is changed at a constant speed during exposure, and at the same time, the light beam is distributed to the imaging elements 22a and 22b by the movable mirror 26.
  • the light beam reaches the image sensor 22a in the section where the in-focus position is v1 to v3, and reaches the image sensor 22b in the section v4 to v2. Therefore, as shown in FIG. 12, the first image 31a and the second image 31b are images in a discontinuous focus range.
  • the data of the first image 31a is captured before the second image 31b is captured.
  • a reading period is required.
  • the non-exposure period can be shortened.
  • optical path in Modification 2 is not limited to the configuration shown in FIG. 10, and any optical path can be used as long as the optical path lengths of the plurality of imaging elements are constant.
  • a part of the functions of the imaging apparatus may be a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • the imaging apparatus achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the constituent elements constituting the above-described imaging apparatus may be configured by a single system LSI (Large Scale Integration).
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting the imaging apparatus may be configured by an IC card or a single module that can be attached to and detached from the imaging apparatus.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
  • program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
  • division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, a single functional block can be divided into a plurality of functions, or some functions can be transferred to other functional blocks. May be.
  • functions of a plurality of functional blocks having similar functions may be processed in parallel or time-division by a single hardware or software.
  • the present invention can be applied to an imaging apparatus having a lens system, particularly a monocular imaging apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

 本発明に係る撮像装置(10)は、撮像部(11)と、撮像部(11)の合焦位置を変化させながら、撮像部(11)に、それぞれ異なる合焦範囲を有する第1画像(31a)及び第2画像(31b)を撮影させる合焦範囲制御部(12)と、第1画像(31a)及び第2画像(31b)を用いて、ぼけの基準となる参照画像(32)を生成する参照画像生成部(13)と、第1画像(31a)及び第2画像(31b)と、参照画像(32)とのぼけの度合いの差から被写体までの距離を計測する距離計測部(14)とを備え、第1画像(31a)と第2画像(31b)とが有する合焦範囲は互いに独立しており、各合焦範囲間に非合焦な間隔が設けられている。

Description

撮像装置及び距離計測方法
 本発明は、撮像装置及び距離計測方法に関し、特に、撮影された複数枚の画像を用いて、被写体の距離を計測する撮像装置及び距離計測方法に関するものである。
 ある3次元シーンの奥行き、すなわち各被写体までの距離を非接触で計測するためのさまざまな方法が提案されている。それらを大別すると、赤外線、超音波、又はレーザーなどを被写体に照射し、反射波が戻ってくるまでの時間又は反射波の角度などを基に距離を算出する能動的手法と、被写体の像に基づいて距離を算出する受動的手法とがある。特にカメラにおいては赤外線などを照射するための装置を必要としない受動的手法が広く用いられている。
 受動的手法にも多くの手法が提案されているが、その一つとしてフォーカス(合焦位置)の変化によって生じるぼけに基づいて距離を計測するDepth from Defocus(以下、「DFD」と表記する。)と呼ばれる手法がある。このDFDは、複数のカメラを必要とせず、また、少数の画像から距離計測が可能である、などの利点がある。
 DFDは画像のぼけを利用して距離を計測する手法である。しかし、撮影された画像に存在するぼけがレンズのフォーカスの変化によって生じたものなのか、あるいはレンズによるぼけがない状態を表す原画像が元々ぼけたテクスチャを有しているのかを撮影された画像自身から判別することは非常に困難である、という課題が存在する。
 これに対し、特許文献1に記載の手法では複数の撮影画像間の空間周波数スペクトルの比と、シーンの奥行きに対応するぼけの空間周波数スペクトルの比とを比較することで、原画像のスペクトル成分に依存しない計測を行っている。
 一方、特許文献2に記載の手法ではフォーカスを変えながら多数の画像を撮影し、それらの合焦部分のみを取り出すことで原画像に相当する参照画像を得ている。この参照画像に対して種々のぼけを畳み込んだ尺度空間(Scale Space)を構成し、参照画像と撮影画像とを比較することで距離計測を行っている。
特開平11-337313号公報 米国特許出願公開第2007/0019883号明細書
"Flexible Depth of Field Photography"、H.Nagahara、S.Kuthirummal、C.Zhou、S.K.Nayer、European Conference on Computer Vision(ECCV)、Oct、2008
 しかし、特許文献1に記載の手法では、計測を容易にするために開口部に特殊な構造のマスクを挿入している。これにより、当該手法は、ぼけの空間周波数スペクトルに周期的に零点が出現するなどの構造化を行っている。しかし、当該手法は、このマスクによって入射光量が減少するという問題がある。これを補うためには撮像素子の感度を高くするか露光時間を長くするかのいずれかが必要になる。しかし前者は撮影画像のノイズの増大を、後者は被写体ぶれを招く。これらによって被写体のスペクトル成分が乱れることで、距離計測の精度が低下する。
 一方、特許文献2に記載の手法では、絞りを大きく絞らない限り画像の被写界深度の幅が距離計測を行う範囲より格段に狭いため、参照画像を得るためには多数の画像を撮影する必要がある。これは少数の画像で距離計測が可能であるというDFDのメリットを相殺している。加えて絞りを大きく絞ることで少ない枚数の画像から参照画像を得ることができるが、入射光量が低下するため、当該手法は特許文献1に記載の手法と同じ問題を抱えることになってしまう。
 本発明は上述の問題に鑑みてなされたものであって、少ない枚数の撮影画像から安定な距離計測を実現できる撮像装置及び距離計測方法を提供することを目的とする。
 上記目的を達成するために、本発明の一形態に係る撮像装置は、被写体を撮像することにより画像を生成する撮像部と、前記撮像部の合焦位置を変化させながら、前記撮像部に、それぞれ異なる合焦範囲を有するn枚(nは2以上の整数)の画像を撮影させる合焦範囲制御部と、前記n枚の画像を用いて、ぼけの基準となる参照画像を生成する参照画像生成部と、前記n枚の画像と、前記参照画像とのぼけの度合いの差から前記被写体までの距離を計測する距離計測部とを備え、前記n枚の画像のそれぞれが有する合焦範囲は互いに独立しており、各合焦範囲間に非合焦な間隔が設けられている。
 このような構成によると、本発明の一形態に係る撮像装置は、合焦位置を変化させながら画像を撮像することで、絞りを絞ることなく通常より合焦範囲の広い画像を得ることができる。これにより、本発明の一形態に係る撮像装置は、少ない枚数の画像から参照画像を得ることが可能となる。加えて、各画像が有する合焦範囲が互いに独立であることから、複数の画像を用いて被写体距離に対してほぼ均一なぼけを有する画像を生成できる。従って、本発明の一形態に係る撮像装置は、簡単な方法で精度の高い参照画像を得ることが可能となる。このように、本発明の一形態に係る撮像装置は、少ない枚数の撮影画像から安定な距離計測を実現できる。
 また、前記撮像部は、撮像素子と、前記撮像素子に光を集光するレンズとを備え、前記合焦範囲制御部は、前記撮像素子と前記レンズとの距離を等速で変化させることで前記合焦位置を変化させてもよい。
 このような構成によると、撮像素子とレンズとの距離を変化させた分だけ被写界深度が拡張されるので、少ない枚数で広い範囲の距離計測を行うことができる。
 また、前記n枚の画像の露光時間は同じであってもよい。
 このような構成によると、合焦範囲の異なるn枚の画像に含まれるノイズを同程度にできるので、距離算出の精度を向上できる。
 また、前記合焦範囲制御部は、前記撮像部が前記n枚の画像の撮像を開始してから、終了するまでの期間において、前記撮像素子と前記レンズとの距離を等速で変化させてもよい。
 このような構成によると、合焦位置を変更する制御を容易に行うことができる。
 また、前記撮像部は、レンズと、前記レンズからの光路長がそれぞれ異なるように配置されたn個の撮像素子と、前記レンズからの光を前記n個の撮像素子のそれぞれに分割するビームスプリッタとを備え、前記合焦範囲制御部は、同一の期間において前記n個の撮像素子の合焦位置を同時に変化させながら、前記n個の撮像素子に前記n枚の画像を同時に撮像させてもよい。
 このような構成によると、合焦範囲が互いに異なるn枚の画像を同時に撮影することができるので、処理全体にかかる時間を短縮することができる。かつ、各画像は被写界深度が連続的に拡張されているため、少ない枚数で広い範囲の距離計測を行うことができる。
 また、前記撮像部は、レンズと、n個の撮像素子と、前記レンズからの光を前記n個の撮像素子のいずれか1つへ選択的に入射させる選択部とを備え、前記合焦範囲制御部は、前記n個の撮像素子を順次選択し、選択した撮像素子に、前記選択部により選択的に光を入射させることで、前記n個の撮像素子の各々に、前記n枚の画像の各々を撮像させてもよい。
 このような構成によると、合焦範囲が互いに異なるn枚の画像を同時に撮影することができるので、処理全体にかかる時間を短縮することができる。かつ、各画像は不連続な合焦範囲を有するため、DFDアルゴリズムでより距離計測をしやすいぼけの形状を持たせることが可能となる。
 また、前記参照画像生成部は、前記n枚の画像の平均画像を生成し、当該平均画像を用いて前記参照画像を生成してもよい。
 このような構成によると、各画像が有する合焦範囲が互いに独立であることから、各画像を平均した画像は被写体距離に対してほぼ均一なぼけを有する。従って、簡単な方法で精度の高い参照画像を得ることが可能となる。
 また、前記参照画像生成部は、前記平均画像に1種類の点広がり関数による逆畳み込み演算を行うことにより、前記参照画像を生成してもよい。
 なお、本発明は、このような撮像装置として実現できるだけでなく、撮像装置に含まれる特徴的な手段をステップとする距離計測方法、又は、撮像装置の制御方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM等の非一時的なコンピュータ読み取り可能な記録媒体、及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 さらに、本発明は、このような撮像装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したりできる。
 以上より、本発明は、少ない枚数の撮影画像から安定な距離計測を実現できる撮像装置及び距離計測方法を提供できる。
図1は、本発明の実施の形態に係る撮像装置の構成を示すブロック図である。 図2は、本発明の実施の形態に係る合焦位置を変化させた際の集光の様子を模式的に示す図である。 図3は、本発明の実施の形態に係る撮像装置の動作の流れを示すフローチャートである。 図4は、本発明の実施の形態に係る、合焦位置の変化を示す図である。 図5は、本発明の実施の形態に第1画像及び第2画像のぼけ量を示す図である。 図6Aは、本発明の実施の形態に係る、シーンのテクスチャを示す図である。 図6Bは、本発明の実施の形態に係る、シーンの被写体距離を示す図である。 図7Aは、本発明の実施の形態に係る、接合する合焦範囲を持つ2枚の画像から距離計測を行った結果を示す図である。 図7Bは、本発明の実施の形態に係る、間隔を空けた合焦範囲を持つ2枚の画像から距離計測を行った結果を示す図である。 図8Aは、本発明の実施の形態に係る、合焦範囲の間隔と、距離計測結果のRMSとの関係を示す表である。 図8Bは、本発明の実施の形態に係る、合焦範囲の間隔と、距離計測結果のRMSとの関係を示すグラフである。 図9Aは、本発明の実施の形態の変形例1に係る撮像部の構成を示す図である。 図9Bは、本発明の実施の形態の変形例1に係る、合焦位置の変化を示す図である。 図10は、本発明の実施の形態の変形例2に係る撮像部の構成を示す図である。 図11Aは、本発明の実施の形態の変形例2に係る撮像部の動作を示す図である。 図11Bは、本発明の実施の形態の変形例2に係る撮像部の動作を示す図である。 図11Cは、本発明の実施の形態の変形例2に係る撮像部の動作を示す図である。 図12は、本発明の実施の形態の変形例2に係る合焦位置の変化を示す図である。
 以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
 本発明の実施の形態に係る撮像装置は、独立した合焦範囲を有する複数の画像を撮影する。さらに、複数の画像の複数の合焦範囲間に間隔を設ける。これにより、当該撮像装置は、これらの複数の画像を用いて、被写体距離に対してほぼ均一なぼけを有する画像を生成できる。このように、本発明の実施の形態に係る撮像装置は、少ない枚数の撮影画像から安定な距離計測を実現できる。
 図1は、本発明の実施の形態に係る撮像装置10の構成を示す図である。図1に示す撮像装置10は、画像を撮影するとともに、当該画像を用いて、撮像装置10と、当該画像に含まれる被写体との距離を計測する。この撮像装置10は、撮像部11、合焦範囲制御部12、参照画像生成部13、及び距離計測部14を有する。
 撮像部11は、光線を集めるレンズ21が組み込まれたレンズユニットと、CCD又はCMOSなどの撮像素子22とを備える。この撮像部11は、被写体の像を撮像することにより画像を生成する機能を有する。
 合焦範囲制御部12は、撮像部11が有するレンズユニットを制御し、合焦位置及び被写界深度を制御する機能を有する。具体的には、合焦範囲制御部12は、レンズ21と、撮像素子22との距離を変化させることにより、合焦位置を変化させる。より具体的には、合焦範囲制御部12は、レンズ21及び撮像素子22の一方、又は両方を移動することにより、レンズ21と撮像素子22との距離を変化させる。例えば、合焦範囲制御部12は、レンズユニットに組み込まれたオートフォーカス機構を特定のパターンで動作させる、又は特定の光学素子を切り替える。なお、レンズユニットには複数のレンズが含まれてもよい。この場合、合焦範囲制御部12は、当該複数のレンズのうち1以上を移動させればよい。また、レンズと撮像素子との距離とは、例えば、移動させるレンズ、又は、複数のレンズのレンズ主点位置と、撮像素子との距離である。
 また、合焦範囲制御部12は、撮像部11の合焦位置を変化させながら、撮像部11に、それぞれ異なる合焦範囲及び被写界深度を有する複数枚の画像(第1画像31a及び第2画像31b)を撮影させる。ここで、複数枚の画像のそれぞれが有する合焦範囲は互いに独立しており、各合焦範囲間に非合焦な間隔が設けられている。
 なお、以下では、合焦範囲及び被写界深度の異なる2枚の画像を用いる例を述べるが、3枚以上の画像を用いてもよい。
 参照画像生成部13は、合焦範囲制御部12の作用によって生成された、異なる合焦位置及び被写界深度を有する第1画像31a及び第2画像31bを用いて、ぼけの基準となる参照画像32を生成する。具体的には、参照画像32は、レンズ21によるぼけがない状態を推定した画像である。
 距離計測部14は、第1画像31a及び第2画像31bと、参照画像32とを用いて、DFDの手法に基づいて距離計測を行う。つまり、距離計測部14は、第1画像31a及び第2画像31bと、参照画像32とのぼけの度合いの差から被写体までの距離を計測する。
 次に、撮影される画像の被写界深度を拡張する手法について説明する。一般的な被写界深度の幅は以下のように定義される。まず、過焦点距離(Hyperfocal Distance)について説明する。過焦点距離は、その距離に合焦位置(フォーカス)を合わせた場合、その距離から後側に無限遠までが合焦していると判断される距離のことである。レンズの焦点距離をf、レンズのFナンバーをF、検知可能な最小のぼけを表す許容錯乱円の大きさをcとした時、過焦点距離hは以下の(式1)で近似される。
Figure JPOXMLDOC01-appb-M000001
 距離sに合焦位置を合わせた際の被写界深度は、sより前側の被写界深度をDN、後側の被写界深度をDfとした時、以下の(式2)及び(式3)で表される。
Figure JPOXMLDOC01-appb-M000002
 以上の式より、焦点距離を固定した場合、被写界深度の幅は絞りによってのみ変更可能である。
 これに対して、絞りを絞ることなく被写界深度の幅を広げる種々の手法が提案されている。これらは、被写界深度拡張(Extended Depth of Field:以下、「EDOF」と表記する。)と称される。以下、EDOFの具体的な手法について説明する。
 最も単純なEDOF手法は、合焦位置を少しずつずらしながら複数の画像を撮影し、それらの画像から合焦している部分を抜き出して合成する手法である。この手法は、特許文献2においても用いられている。
 これに対して、露光中に合焦位置を変化させることで、多数の画像を合成するのと同様の効果を実現する手法が、非特許文献1に開示されている。
 図2は、合焦位置を変化させた際の集光の様子を模式的に示す図である。図2のように、被写体位置a1に合焦する場合の撮像素子22の位置(像面位置)をb1とし、被写体位置a2に合焦する場合の撮像素子22の位置をb2とする。レンズの公式よりa1とa2との間の任意の被写体位置に合焦させる場合の撮像素子22の位置は必ずb1とb2との間にある。従って、露光中に撮像素子22がb1からb2まで移動すると、a1に対しては始め合焦していた状態から段々とぼけが大きくなり、画像にはこれらのぼけが積分されて重なって写る。一方、a2に対しては逆にぼけが大きい状態から段々と合焦していき、やはり画像にはこれらのぼけが重なって写る。
 このことを、数式を用いてさらに詳しく説明する。光学系のぼけの状態を表す点広がり関数(Point Spread Function:以下、「PSF」と表記する。)が、以下の(式4)及び(式5)で表す形状であるとする。
Figure JPOXMLDOC01-appb-M000003
 ただし、fは光学系の焦点距離、aは光学系の開口部の直径、uは被写体距離、vはレンズの公式1/f=1/u+1/vで定まる像面位置、Δvはvからの像面位置の移動量、Rはぼけの中心からの距離、gは定数をそれぞれ表す。ここで、像面位置とはレンズを基準とした撮像素子の位置である。言い換えると、像面位置はレンズと撮像素子との間の距離に相当する。
 (式4)及び(式5)は像面位置の移動量Δvの関数なので、Δvがある関数V(t)に従って時刻0からTにわたって変化する場合、最終的に得られるPSFは以下の(式6)のように定義できる。
Figure JPOXMLDOC01-appb-M000004
 ここで、V(t)が等速運動、即ちV(t)=V(0)+stで表されるとすると、式6は以下の式7のように解ける。
Figure JPOXMLDOC01-appb-M000005
 ここで、erfc(x)は相補誤差関数(Complementary Error Function)である。また、b(t)は、時刻tにおけるぼけの直径である。(式7)から得られえるPSFは、距離V(0)~V(T)の間で、距離によらずほぼ普遍なぼけ形状となることが、非特許文献1にて示されている。すなわち、像面位置の始点v+V(0)、及び終点v+V(T)を変化させることで、ぼけが一定となる被写体距離の範囲を変化させることができる。
 次に、参照画像を用いたDFDの手法について説明する。参照画像Rと撮影画像Iの間には、以下の(式8)で示す関係が成立する。
Figure JPOXMLDOC01-appb-M000006
 ここで、hは位置(x、y)におけるPSFを表し、d(x、y)は位置(x、y)における被写体距離を表す。また、式中の*は畳み込み演算を表す。例えば(式4)及び(式5)のように、PSFは被写体距離によって異なるため、複数の被写体が異なる距離に存在する場合、画像の位置ごとに異なるPSFが畳み込まれた画像が撮影画像として得られる。
 ここで、被写体距離d1、d2、…、dnに対応するPSFをh(x、y、d1)、h(x、y、d2)、…、h(x、y、dn)とする。例えば参照画像R(x、y)に存在する被写体が距離d1にある場合、撮影画像I(x、y)はR(x、y)にH(x、y、d1)を畳み込んだ画像に等しい。また、R(x、y)に他の被写体距離に対応するPSFを畳み込んだ画像と、撮影画像I(x、y)とには差が生じる。よって、R(x、y)に各PSFを畳み込んだ複数の画像と、撮影画像との差を順に比較し、その差が最小となるPSFに対応する距離を調べることで、d(x、y)を求めることができる。具体的には以下の(式9)によってd(x、y)は求められる。
Figure JPOXMLDOC01-appb-M000007
 実際には撮影画像Iに含まれるノイズの影響を低減するため、画像をブロックに区切ってブロック内での誤差の総和を求め、誤差が最小となる距離をそのブロック全体の距離とするなどの処理を行うことで、より安定に距離計測を行うことができる。
 次に、本発明の実施の形態に係る撮像装置10によって、被写界深度を拡張した2枚の画像から距離計測を行う処理の流れについて図3、図4及び図5に基づいて説明する。なお、以下では被写界深度を拡張する手法として、露光期間中に合焦位置を変化させる方法を用いるものとして説明を行う。
 まず、撮像部11は、それぞれ異なる合焦範囲を有する第1画像31a及び第2画像31bを撮影する。具体的には、第1画像31a及び第2画像31bのそれぞれの露光中に、合焦範囲制御部12は、像面位置を図4で示すように等速で移動させる。このとき、合焦範囲制御部12は、まず、像面位置をv1からv3まで等速で移動させながら、撮像部11に第1画像31aを撮影させる(S101)。次に、合焦範囲制御部12は、合焦位置を所定の距離だけ移動させる(S102)。具体的には、合焦範囲制御部12は、非露光期間の間、撮像位置をv3からv4に等速で移動させる。その後、合焦範囲制御部12は、像面位置をv4からv2まで等速で移動させながら、撮像部11に第2画像31bを撮影させる(S103)。このようにして撮影された第1画像31aは図5に示すように、像面位置v1からv3までの第1画像31aの合焦範囲内で均一なぼけを有し、像面位置v1からv3以外の位置では、第1画像31aの合焦範囲からの距離に応じたぼけを有する。同様に、第2画像31bは像面位置v4からv2までの第2画像31bの合焦範囲内で均一なぼけを有し、像面位置v4からv2以外の位置では、第2画像31bの合焦範囲からの距離に応じたぼけを有する。被写体距離に対して均一なぼけは参照画像32の生成に用いられ、被写体距離に応じたぼけはDFDによる距離計測に用いられる。
 なお、v3及びv4はv1とv2の間の任意の位置にすることができるが、第1画像31aと第2画像31bとの露光時間を同一にするため、v1とv3及びv4とv2の距離は等しくなるように設定することが望ましい。第1画像31aと第2画像31bとの露光時間を同一にすることで、第1画像と第2画像とに含まれるノイズを同程度にできるので、距離算出の精度を向上できる。
 また、図4に示すように、合焦範囲制御部12は、第1画像31aの露光期間、非露光期間及び第2画像31bの露光期間を含む期間の間、合焦位置を等速で移動させる。言い換えると、合焦範囲制御部12は、撮像部11が第1画像31a及び第2画像31bの撮像を開始してから、終了するまでの期間において、像面位置を等速で変化させる。これにより、合焦位置を変更する制御を容易に行うことができる。
 なお、第1画像31aの露光期間における合焦位置の移動速度と第2画像31bの露光期間における合焦位置の移動速度とは異なってもよい。
 次に、参照画像生成部13は、第1画像31a及び第2画像31bを用いて参照画像32を生成する(S104)。ここで、(式8)より参照画像32は撮影画像に対してPSFを逆畳み込みすることで求められる。本来参照画像32を正しく求めるためには被写体距離d(x、y)が既知である必要があるが、第1画像31a及び第2画像31bは被写界深度が拡張されているため、拡張された範囲の被写体距離に対してPSFは一定である。
 ここでは、参照画像生成部13は、第1画像31aと第2画像31bの平均を取ることで、平均画像を生成する。平均画像は図4からも分かるようにv3からv4の区間を除いて、v1からv2の範囲にわたり被写界深度がほぼ等しくなる。つまり、平均画像は、v1からv2の全ての範囲にわたり均一なぼけを有する画像とほぼ等価である。従って、参照画像生成部13は、この平均画像に対して、均一なぼけに対応する1種類のPSFによる逆畳み込み演算を行うことにより、v1からv2の範囲全てに合焦した参照画像32を生成する。
 なお、第1画像31a及び第2画像31bの露光時間又は合焦位置の移動速度が異なる場合は、被写体距離に対する重みが一定となるよう重み付け平均を取ることで上記と同様に扱うことができる。
 また、逆畳み込みのアルゴリズムにはウィーナーフィルタ(Wiener Filter)のような既知の手法を用いることができる。
 最後に、距離計測部14は、撮影された第1画像31a及び第2画像31bと、ステップS104で生成された参照画像32とを用いて、(式9)に従って距離マップd(x、y)を算出する(S105)。具体的には、距離計測部14は、(式9)に従って、第1画像31aを用いた距離マップと、第2画像31bを用いた距離マップとを算出する。次に、距離計測部14は、これらを統合することで一つの距離マップを算出する(S106)。この統合には各画像から算出される距離マップの単純平均を取る手法などを用いることができる。
 なお、(式8)及び(式9)をフーリエ変換し、周波数領域上での比較を行うことで距離計測を行ってもよい。周波数領域では(式8)及び(式9)における畳み込み演算が乗算に変換されるので、より高速に距離計測を行うことができる。
 以上に示すように、本実施の形態に係る撮像装置10は、第1画像31a及び第2画像31bのみを用いて参照画像32を生成できる。このように、撮像装置10は、少数の画像で高精度に距離計測を行うことができる。さらに、露光中の合焦位置の変化は標準的なオートフォーカス機構を流用することで実現可能なため、特殊な機構を必要とすることもない。
 なお、上記説明では2枚の画像を用いる例を述べたが、撮影する画像は3枚以上であってもよい。この場合、各画像の合焦範囲間にそれぞれ非合焦範囲を設ける。そして、各合焦範囲の長さを均等とすることで、2枚の場合と同じように扱うことが可能となる。この際、参照画像も撮影した全ての画像の平均画像から算出する。
 また、上記説明では、複数の画像の平均画像を用いる場合を例に説明したが、複数の画像を加算した加算画像を用いても同様の処理を行うことができる。
 また、上記説明では、平均画像にPSFによる逆畳み込み演算を行うことにより生成した画像を参照画像32として用いているが、v1からv2の全ての範囲でほぼ均一なぼけを有する画像であれば参照画像32として用いることができる。例えば、上記平均画像又は加算画像を参照画像32として用いてもよい。
 (シミュレーション評価結果)
 以下、合焦範囲の間に間隔を設ける利点について述べる。位置(x、y)における正しい距離の値をD、正しくない距離の値をD’とする。(式9)より参照画像Rにh(x、y、d)とh(x、y、D’)とをそれぞれ畳み込んだ結果が大きく異なるほど、正しい距離であるか否かの判定が容易になる。以下ではシミュレーションで検証する。
 図6Aに示すテクスチャを持ち、被写体距離が図6Bのような20段の階段状のシーンを考える。被写体距離は図中暗いほど遠いものとする。
 また、シミュレーションで想定するレンズの性能は、焦点距離9mm、Fナンバー1.4とする。
 次に、合焦範囲の記法について説明する。20段の被写体距離の各段に合焦位置が合っているか否かを20桁の数字で表現するものとする。例えば、[1、0、1、1、1、0、0、0、0、1、0、0、0、0、0、0、0、0、0、0]であれば遠い方から1、3、4、5、10段目に合焦していることを表す。
 まず、合焦範囲が連続する(間隔を設けていない)2枚の画像から、DFDによって距離計測を行った結果を図7Aに示す。具体的には、この2枚の画像は、合焦範囲が[1、1、1、1、1、1、1、1、1、1、0、0、0、0、0、0、0、0、0、0](1~10段目)の画像と、合焦範囲が[0、0、0、0、0、0、0、0、0、0、1、1、1、1、1、1、1、1、1、1](11~20段目)の画像とである、このとき、被写体距離は以下の(式10)及び(式11)で示す形で求められる。
Figure JPOXMLDOC01-appb-M000008
 ただし、F1及びF2は1枚目及び2枚目の画像の周波数成分を表し、H1及びH2は1枚目及び2枚目の合焦範囲に対応するPSFの周波数成分を表し、H1*及びH2*はH1及びH2の複素共役を表し、εは零除算を防ぐための微小な値を表し、f-1は逆フーリエ変換を表す。
 これに対し、合焦範囲に間隔を設けた2枚の画像から、同じように距離計測を行った結果を図7Bに示す。具体的には、この2枚の画像は、合焦範囲が[1、1、1、1、1、1、1、1、1、1、0、0、0、0、0、0、0、0、0、0](1~10段目)の画像と、合焦範囲が[0、0、0、0、0、0、0、0、0、0、0、1、1、1、1、1、1、1、1、1](12~20段目)の画像とである。つまり、11段目が非合焦範囲である。
 ここで、計測結果が図6Bに近いほど精度が高いことを意味する。図7Aでは特にテクスチャが少ない右側の中央部分で計測結果が図6Bから離れている。一方、図7Bでは計測結果が図7Aに比べて改善されている。
 図8A及び図8Bは、合焦範囲の間隔に対する、計測結果と正解データとの差を示す図である。ここで、計測結果と正解データとの差は、RMS(Root Mean Square)を用いる。RMSの値が0に近いほど、計測精度が高いことを示す。図8Aは、合焦範囲の間隔に対する、距離計測結果のRMSを示す表である。図8Bは、RMSを棒グラフとして表示した図である。
 図8A及び図8Bに示すように、最もRMSの小さい組み合わせは、10~12段目の3段分に合焦しない場合であった。また、合焦範囲に間隔を設けない場合よりも、間隔を設けた場合の方が、計測精度が高くなる。ただし、間隔が広すぎる場合は、計測精度が低下する。つまり、間隔は4段以下が好ましい。また、間隔は2~4段であることがより好ましい。
 ここで、1段は像面位置の約50μmに相当する。つまり、間隔に対応する像面位置は200μm以下(4段に相当)であることが好ましく、100μm以上(2段に相当)かつ200μm以下(4段に相当)であることがより好ましい。
 ただし、ぼけの性質はレンズにより異なるため、全ての場合においてこの間隔が最適であるとは限らない。
 なお、上記説明ではDFDに用いる画像を1枚ずつ撮影しているが、これを2枚同時に撮影することが出来れば撮影にかかる時間は半分になる。以下、本実施の形態の変形例を説明する。
 <変形例1>
 図9Aは、変形例1に係る撮像部11の構成を示す図である。また、図9Bは、変形例1における、合焦位置の変化を示す図である。
 図9Aに示すように撮像部11は、レンズ21と、2つの撮像素子22a及び22bと、光線を分割するためのビームスプリッタ23と、光路を曲げるためのミラー24とを備える。2つの撮像素子22a及び22bはレンズ21からの光路長が異なるように配置されている。図9Aでは、撮像素子22aに対してΔvだけ撮像素子22bの光路長が長い。ビームスプリッタ23は、レンズ21からの光を2つの撮像素子22a及び22b分割する。
 また、合焦範囲制御部12は、同一の期間において2個の撮像素子22a及び22bの合焦位置を同時に変化させながら、撮像素子22aに第1画像31aを、撮像素子22bに第2画像31bを同時に撮像させる。具体的には、このような光学系において、露光中に合焦位置を等速で変化させながら2つの撮像素子22a及び22bで同時に画像を撮影すると、図9Bに示すように撮像素子22a及び撮像素子22bで常にΔvだけ合焦位置がずれた画像が得られる。この際、Δvをv1からv4までの距離に等しく設定することで、v3からv4までの距離を合焦しない2枚の画像を同時に撮影ができる。
 なお、光路を曲げるための手段として、ミラーの代わりにプリズムを用いてもよい。または、後述する図10に示す構成のように、ミラー及びプリズムを持たない構成でもよい。
 <変形例2>
 図10は、変形例2に係る撮像部11の構成を示す図である。図11A~図11Bは、撮像部11の動作を示す図である。図12は、変形例2における、合焦位置の変化を示す図である。
 図10に示す撮像部11は、レンズ21と、2つの撮像素子22a及び22bと、絞り25と、可動ミラー26とを備える。可動ミラー26は、レンズ21と2つの撮像素子22a及び22bとの光路の途中に配置されており、レンズ21からの光の光軸方向を変化させる光軸変化手段である。また、可動ミラー26は、レンズ21からの光を2つの撮像素子22a及び22bのいずれか1つへ選択的に入射させる選択部として機能する。
 また、レンズ21から2つの撮像素子22a及び22bへの光路長は等しい。
 可動ミラー26は、例えば、ガルバノミラー又はMEMSミラーである。この可動ミラー26は、図11A及び図11Cで示すように2つの撮像素子22a及び22bのいずれか一方に光線を導く機能を有する。
 絞り25は、図11Bで示すように、可動ミラー26が光線の到達する撮像素子を切り替える動作中に光線を遮断する。
 合焦範囲制御部12は、2個の撮像素子22a及び22bを順次選択し、選択した撮像素子に、可動ミラー26により選択的に光を入射させることで、2個の撮像素子の各々に、2枚の画像の各々を撮像させる。具体的には、このような光学系において、露光中に合焦位置を等速で変化させると同時に、可動ミラー26によって光線を撮像素子22aと22bとに振り分ける。合焦位置がv1からv3の区間において光線は撮像素子22aに到達し、区間v4からv2においては撮像素子22bに到達する。よって、図12に示すように、第1画像31aと第2画像31bとは不連続な合焦範囲の画像となる。
 ここで、1個の撮像素子を用いて第1画像31a及び第2画像31bを撮像する構成では、第1画像31aを撮像してから、第2画像31bの撮像を開始するまでに、データの読み出し期間等が必要となる。一方、変形例2の構成では、このような期間が必要ないので、非露光期間を短くすることできる。
 なお、変形例2における光路は図10に示す構成に限らず、複数の撮像素子の光路長が一定である限り、任意の光路を用いることができる。
 (その他変形例)
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)上記の撮像装置の機能の一部は、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、及びマウスなどから構成されるコンピュータシステムであってもよい。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、撮像装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の撮像装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の撮像装置を構成する構成要素の一部または全部は、撮像装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 また、上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、上記のステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 更に、本発明の主旨を逸脱しない限り、本実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本発明に含まれる。
 本発明はレンズ系を有する撮像装置、特に単眼の撮像装置に適用可能である。
 10  撮像装置
 11  撮像部
 12  合焦範囲制御部
 13  参照画像生成部
 14  距離計測部
 21  レンズ
 22、22a、22b  撮像素子
 23  ビームスプリッタ
 24  ミラー
 25  絞り
 26  可動ミラー
 31a  第1画像
 31b  第2画像
 32  参照画像

Claims (10)

  1.  被写体を撮像することにより画像を生成する撮像部と、
     前記撮像部の合焦位置を変化させながら、前記撮像部に、それぞれ異なる合焦範囲を有するn枚(nは2以上の整数)の画像を撮影させる合焦範囲制御部と、
     前記n枚の画像を用いて、ぼけの基準となる参照画像を生成する参照画像生成部と、
     前記n枚の画像と、前記参照画像とのぼけの度合いの差から前記被写体までの距離を計測する距離計測部とを備え、
     前記n枚の画像のそれぞれが有する合焦範囲は互いに独立しており、各合焦範囲間に非合焦な間隔が設けられている
     撮像装置。
  2.  前記撮像部は、撮像素子と、前記撮像素子に光を集光するレンズとを備え、
     前記合焦範囲制御部は、前記撮像素子と前記レンズとの距離を等速で変化させることで前記合焦位置を変化させる
     請求項1に記載の撮像装置。
  3.  前記n枚の画像の露光時間は同じである
     請求項2に記載の撮像装置。
  4.  前記合焦範囲制御部は、前記撮像部が前記n枚の画像の撮像を開始してから、終了するまでの期間において、前記撮像素子と前記レンズとの距離を等速で変化させる
     請求項2又は3に記載の撮像装置。
  5.  前記撮像部は、
     レンズと、
     前記レンズからの光路長がそれぞれ異なるように配置されたn個の撮像素子と、
     前記レンズからの光を前記n個の撮像素子のそれぞれに分割するビームスプリッタとを備え、
     前記合焦範囲制御部は、同一の期間において前記n個の撮像素子の合焦位置を同時に変化させながら、前記n個の撮像素子に前記n枚の画像を同時に撮像させる
     請求項1に記載の撮像装置。
  6.  前記撮像部は、
     レンズと、
     n個の撮像素子と、
     前記レンズからの光を前記n個の撮像素子のいずれか1つへ選択的に入射させる選択部とを備え、
     前記合焦範囲制御部は、前記n個の撮像素子を順次選択し、選択した撮像素子に、前記選択部により選択的に光を入射させることで、前記n個の撮像素子の各々に、前記n枚の画像の各々を撮像させる
     請求項1に記載の撮像装置。
  7.  前記参照画像生成部は、前記n枚の画像の平均画像を生成し、当該平均画像を用いて前記参照画像を生成する
     請求項1~6のいずれか一項に記載の撮像装置。
  8.  前記参照画像生成部は、前記平均画像に1種類の点広がり関数による逆畳み込み演算を行うことにより、前記参照画像を生成する
     請求項7に記載の撮像装置。
  9.  被写体を撮像することにより画像を生成する撮像部を備える撮像装置における距離計測方法であって、
     前記撮像部の合焦位置を変化させながら、前記撮像部に、それぞれ異なる合焦範囲を有するn枚(nは2以上の整数)の画像を撮影させる撮影ステップと、
     前記n枚の画像を用いて、ぼけの基準となる参照画像を生成する参照画像生成ステップ部と、
     前記n枚の画像と、前記参照画像とのぼけの度合いの差から前記被写体までの距離を計測する距離計測ステップとを含み、
     前記n枚の画像のそれぞれが有する合焦範囲は互いに独立しており、各合焦範囲間に非合焦な間隔が設けられている
     距離計測方法。
  10.  請求項9に記載の距離計測方法をコンピュータに実行させるための
     プログラム。
PCT/JP2011/006373 2010-11-17 2011-11-16 撮像装置及び距離計測方法 WO2012066774A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012512728A JP5832424B2 (ja) 2010-11-17 2011-11-16 撮像装置及び距離計測方法
EP11842267.4A EP2642245B1 (en) 2010-11-17 2011-11-16 Image pickup device and distance measuring method
CN201180006220.XA CN102713512B (zh) 2010-11-17 2011-11-16 摄像装置以及距离测量方法
US13/522,057 US8698943B2 (en) 2010-11-17 2011-11-16 Imaging apparatus and distance measurement method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010257227 2010-11-17
JP2010-257227 2010-11-17

Publications (1)

Publication Number Publication Date
WO2012066774A1 true WO2012066774A1 (ja) 2012-05-24

Family

ID=46083722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/006373 WO2012066774A1 (ja) 2010-11-17 2011-11-16 撮像装置及び距離計測方法

Country Status (5)

Country Link
US (1) US8698943B2 (ja)
EP (1) EP2642245B1 (ja)
JP (1) JP5832424B2 (ja)
CN (1) CN102713512B (ja)
WO (1) WO2012066774A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013171954A1 (ja) * 2012-05-17 2013-11-21 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
WO2014021238A1 (en) 2012-07-31 2014-02-06 Canon Kabushiki Kaisha Image pickup apparatus, depth information acquisition method and program
JP2014044117A (ja) * 2012-08-27 2014-03-13 Canon Inc 距離情報取得装置、撮像装置、距離情報取得方法、及び、プログラム
JP2015034732A (ja) * 2013-08-08 2015-02-19 キヤノン株式会社 距離算出装置、撮像装置および距離算出方法
KR20160111570A (ko) * 2015-03-16 2016-09-27 (주)이더블유비엠 다른 선명도를 갖는 두 개의 이미지를 캡쳐하는 단일센서를 이용한 거리 정보 (depth)추출장치에서 다단계 검색에 의한 최대유사도 연산량 감축방법
JP6413170B1 (ja) * 2017-06-22 2018-10-31 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 決定装置、撮像装置、撮像システム、移動体、決定方法、及びプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5966535B2 (ja) * 2012-04-05 2016-08-10 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
JP2014154907A (ja) * 2013-02-05 2014-08-25 Canon Inc 立体撮像装置
US9077891B1 (en) * 2013-03-06 2015-07-07 Amazon Technologies, Inc. Depth determination using camera focus
JP6236908B2 (ja) * 2013-06-21 2017-11-29 株式会社リコー 撮像装置、撮像システムおよび撮像方法
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
WO2015053113A1 (ja) * 2013-10-08 2015-04-16 オリンパス株式会社 撮像装置及び電子機器
TWI521255B (zh) * 2013-11-29 2016-02-11 光寶科技股份有限公司 自動對焦方法、其自動對焦裝置和其影像擷取裝置
JP5895270B2 (ja) * 2014-03-28 2016-03-30 パナソニックIpマネジメント株式会社 撮像装置
CN104759037B (zh) * 2015-03-25 2017-09-22 深圳市医诺智能科技发展有限公司 放疗剂量对比显示方法及系统
DE102015112380A1 (de) * 2015-07-29 2017-02-02 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Entfernung von einer Kamera zu einem Objekt, Fahrerassistenzsystem und Kraftfahrzeug
EP3438699A1 (de) * 2017-07-31 2019-02-06 Hexagon Technology Center GmbH Distanzmesser mit spad-anordnung zur berücksichtigung von mehrfachzielen
JP7123884B2 (ja) 2019-09-12 2022-08-23 株式会社東芝 撮像装置、方法及びプログラム
DE102020201097B4 (de) 2020-01-30 2023-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
CN112748113B (zh) * 2020-12-21 2022-08-05 杭州电子科技大学 一种集成激光测量与超声探伤的测头装置及其测量方法
DE102022129697A1 (de) 2022-11-10 2024-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Distanz eines Objektes in einer Fahrzeugumgebung zu einem Fahrzeug auf Basis von Bildern mit unterschiedlichen Schärfen

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560528A (ja) * 1991-09-03 1993-03-09 Hitachi Ltd 立体情報入力装置
JPH10508107A (ja) * 1995-06-07 1998-08-04 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
JPH11337313A (ja) 1998-05-25 1999-12-10 Univ Kyoto 距離計測装置及び方法並びに画像復元装置及び方法
JP2001074422A (ja) * 1999-08-31 2001-03-23 Hitachi Ltd 立体形状検出装置及びハンダ付検査装置並びにそれらの方法
US20070019883A1 (en) 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
JP2007533977A (ja) * 2004-03-11 2007-11-22 アイコス・ビジョン・システムズ・ナムローゼ・フェンノートシャップ 波面操作および改良3d測定方法および装置
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP2010194296A (ja) * 2009-01-28 2010-09-09 Panasonic Corp 口腔内測定装置及び口腔内測定システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI97085C (fi) * 1995-03-29 1996-10-10 Valtion Teknillinen Menetelmä ja kuvauslaitteisto etäisyyden määrittämiseen ja sen käyttö
US6320979B1 (en) * 1998-10-06 2001-11-20 Canon Kabushiki Kaisha Depth of field enhancement
DE102005034597A1 (de) * 2005-07-25 2007-02-08 Robert Bosch Gmbh Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
JP4943695B2 (ja) * 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
US20070189750A1 (en) * 2006-02-16 2007-08-16 Sony Corporation Method of and apparatus for simultaneously capturing and generating multiple blurred images
US7711201B2 (en) * 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
US7720371B2 (en) * 2007-01-18 2010-05-18 Nikon Corporation Depth layer extraction and image synthesis from focus varied multiple images
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
JP2009188697A (ja) * 2008-02-06 2009-08-20 Fujifilm Corp 多焦点カメラ装置、それに用いられる画像処理方法およびプログラム
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8542313B2 (en) * 2010-01-27 2013-09-24 Csr Technology Inc. Depth from defocus calibration
US8436912B2 (en) * 2010-04-30 2013-05-07 Intellectual Ventures Fund 83 Llc Range measurement using multiple coded apertures
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
CN102472620B (zh) * 2010-06-17 2016-03-02 松下电器产业株式会社 图像处理装置及图像处理方法
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
US9098147B2 (en) * 2011-12-29 2015-08-04 Industrial Technology Research Institute Ranging apparatus, ranging method, and interactive display system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560528A (ja) * 1991-09-03 1993-03-09 Hitachi Ltd 立体情報入力装置
JPH10508107A (ja) * 1995-06-07 1998-08-04 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
JPH11337313A (ja) 1998-05-25 1999-12-10 Univ Kyoto 距離計測装置及び方法並びに画像復元装置及び方法
JP2001074422A (ja) * 1999-08-31 2001-03-23 Hitachi Ltd 立体形状検出装置及びハンダ付検査装置並びにそれらの方法
JP2007533977A (ja) * 2004-03-11 2007-11-22 アイコス・ビジョン・システムズ・ナムローゼ・フェンノートシャップ 波面操作および改良3d測定方法および装置
US20070019883A1 (en) 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP2010194296A (ja) * 2009-01-28 2010-09-09 Panasonic Corp 口腔内測定装置及び口腔内測定システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
H. NAGAHARA; S. KUTHIRUMMAL; C. ZHOU; S. K. NAYER: "Flexible Depth of Field Photography", EUROPEAN CONFERENCE ON COMPUTER VISION, October 2008 (2008-10-01)
See also references of EP2642245A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013171954A1 (ja) * 2012-05-17 2013-11-21 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
US8890996B2 (en) 2012-05-17 2014-11-18 Panasonic Corporation Imaging device, semiconductor integrated circuit and imaging method
WO2014021238A1 (en) 2012-07-31 2014-02-06 Canon Kabushiki Kaisha Image pickup apparatus, depth information acquisition method and program
JP2014044408A (ja) * 2012-07-31 2014-03-13 Canon Inc 撮像装置、距離情報取得方法およびプログラム
EP2880399A4 (en) * 2012-07-31 2016-05-11 Canon Kk PICTURE RECORDING DEVICE, DEEP INFORMATION DETECTION METHOD AND PROGRAM
US9762788B2 (en) 2012-07-31 2017-09-12 Canon Kabushiki Kaisha Image pickup apparatus, depth information acquisition method and program
JP2014044117A (ja) * 2012-08-27 2014-03-13 Canon Inc 距離情報取得装置、撮像装置、距離情報取得方法、及び、プログラム
JP2015034732A (ja) * 2013-08-08 2015-02-19 キヤノン株式会社 距離算出装置、撮像装置および距離算出方法
KR20160111570A (ko) * 2015-03-16 2016-09-27 (주)이더블유비엠 다른 선명도를 갖는 두 개의 이미지를 캡쳐하는 단일센서를 이용한 거리 정보 (depth)추출장치에서 다단계 검색에 의한 최대유사도 연산량 감축방법
KR101711927B1 (ko) 2015-03-16 2017-03-06 (주)이더블유비엠 다른 선명도를 갖는 두 개의 이미지를 캡쳐하는 단일센서를 이용한 거리 정보 (depth)추출장치에서 다단계 검색에 의한 최대유사도 연산량 감축방법
JP6413170B1 (ja) * 2017-06-22 2018-10-31 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 決定装置、撮像装置、撮像システム、移動体、決定方法、及びプログラム

Also Published As

Publication number Publication date
US20120300114A1 (en) 2012-11-29
US8698943B2 (en) 2014-04-15
CN102713512B (zh) 2015-06-03
EP2642245A4 (en) 2014-05-28
EP2642245A1 (en) 2013-09-25
EP2642245B1 (en) 2020-11-11
JP5832424B2 (ja) 2015-12-16
JPWO2012066774A1 (ja) 2014-05-12
CN102713512A (zh) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5832424B2 (ja) 撮像装置及び距離計測方法
JP5869883B2 (ja) 画像処理装置
JP5824364B2 (ja) 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
JP5173665B2 (ja) 画像撮影装置およびその距離演算方法と合焦画像取得方法
US10491799B2 (en) Focus detection apparatus, focus control apparatus, image capturing apparatus, focus detection method, and storage medium
JP5868183B2 (ja) 撮像装置及び撮像方法
CN109255810B (zh) 图像处理装置及图像处理方法
JP2008026790A (ja) 撮像装置及びフォーカス制御方法
JP2012005056A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013044844A (ja) 画像処理装置および画像処理方法
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP2012256118A (ja) 画像復元装置およびその方法
JP4752733B2 (ja) 撮像装置および撮像方法、並びに撮像装置の設計方法
JP5338112B2 (ja) 相関演算装置、焦点検出装置および撮像装置
JP5409588B2 (ja) 焦点調節方法、焦点調節プログラムおよび撮像装置
JP2016066995A (ja) 像ズレ量算出装置、撮像装置、および像ズレ量算出方法
JP4509576B2 (ja) 焦点検出装置
JP2008211678A (ja) 撮像装置およびその方法
JP6590639B2 (ja) 距離検出装置、撮像装置、および距離検出方法
JP5581177B2 (ja) 撮像位置調整装置および撮像装置
JP6598550B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180006220.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2012512728

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11842267

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13522057

Country of ref document: US

Ref document number: 2011842267

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE