WO2015178079A1 - 撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム - Google Patents

撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム Download PDF

Info

Publication number
WO2015178079A1
WO2015178079A1 PCT/JP2015/057864 JP2015057864W WO2015178079A1 WO 2015178079 A1 WO2015178079 A1 WO 2015178079A1 JP 2015057864 W JP2015057864 W JP 2015057864W WO 2015178079 A1 WO2015178079 A1 WO 2015178079A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
lens group
mode
imaging device
Prior art date
Application number
PCT/JP2015/057864
Other languages
English (en)
French (fr)
Inventor
基広 浅野
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Publication of WO2015178079A1 publication Critical patent/WO2015178079A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present disclosure relates to an imaging apparatus, an imaging apparatus control method, and an imaging apparatus control program, and in particular, an imaging apparatus having a plurality of imaging units that capture an object from different viewpoints, an imaging apparatus control method, and an imaging apparatus
  • the present invention relates to a device control program.
  • Patent Document 1 discloses an imaging apparatus that converts an obtained image into a super-resolution.
  • the imaging device has a plurality of imaging units.
  • One of these imaging units is a so-called infrared camera to which a filter that transmits infrared light is attached.
  • the imaging apparatus performs super-resolution using an infrared image including only infrared information obtained from an infrared camera.
  • Patent Document 2 discloses an imaging apparatus for acquiring a high-quality image even under low illumination.
  • the imaging apparatus has a mechanism for taking in and out a filter that cuts infrared light (hereinafter also referred to as “infrared cut filter”).
  • An object of the imaging apparatus is to improve imaging sensitivity by removing an infrared cut filter under low illuminance.
  • the present disclosure has been made to solve the above-described problems, and an object in one aspect is to provide an imaging device having a novel structure capable of obtaining a higher quality image. is there.
  • the imaging device includes an imaging unit including three or more lenses that respectively capture subjects from different viewpoints, and each image obtained from light transmitted through each of the three or more lenses. And a generation unit that generates an output image representing the subject using all or part of the image.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • a control method for controlling the imaging device includes an imaging unit that includes three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the first lens is set when the imaging mode of the imaging apparatus is set to one of the first imaging mode and the second imaging mode, and when the imaging mode of the imaging apparatus is the first imaging mode. Generating an output image representing a subject from an image obtained by imaging light transmitted through the group, and transmitting through the second lens group when the imaging mode of the imaging apparatus is the second imaging mode. Generating an output image from an image obtained by imaging light.
  • a control method for controlling the imaging device includes an imaging unit that includes three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the first lens is set when the control mode of the imaging apparatus is set to one of the first control mode and the second control mode, and when the control mode of the imaging apparatus is the first control mode.
  • the first image group obtained from the light transmitted through the group and the second image group obtained from the light transmitted through the second lens group have the same color characteristics;
  • the control mode is the second control mode, the first image group and the second image group have different color characteristics.
  • a control program for controlling the imaging device includes an imaging unit that includes three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the control program sets the imaging mode of the imaging device to one of the first imaging mode and the second imaging mode, and the imaging mode of the imaging device is the first imaging mode. Generating an output image representing a subject from an image obtained by imaging light transmitted through the first lens group, and the second lens when the imaging mode of the imaging device is the second imaging mode. Generating an output image from an image obtained by imaging light transmitted through the group.
  • a control program for controlling the imaging device includes an imaging unit that includes three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the control program sets, in the imaging device, the control mode of the imaging device to one of the first control mode and the second control mode, and when the control mode of the imaging device is the first control mode.
  • the first image group obtained from the light transmitted through the first lens group and the second image group obtained from the light transmitted through the second lens group shall have the same color characteristics.
  • the control mode of the imaging apparatus is the second control mode, the first image group and the second image group are assumed to have different color characteristics.
  • FIG. 11 is a diagram illustrating an outline of a configuration of an imaging apparatus according to a first modification.
  • FIG. 10 is a diagram illustrating an outline of a configuration of an imaging apparatus according to a second modification. It is a block diagram which shows an example of a function structure of the imaging device according to 1st Embodiment. It is a figure which shows the histogram which showed distribution of the pixel value of a determination image. It is the conceptual diagram which represented roughly the corresponding point search process in infrared cut mode.
  • FIG. 1 is a conceptual diagram for explaining processing for calculating distances from the imaging apparatus 100 to each region of a subject (hereinafter also referred to as “subject distance”). Since the imaging apparatus 100 includes a plurality of cameras, the subject distance can be calculated using parallax information between the cameras.
  • FIG. 1 shows an imaging unit 20A and an imaging unit 20B.
  • the subject 31 is included in the field of view of the imaging unit 20A and the imaging unit 20B.
  • Z that is, the subject distance
  • the focal lengths of the imaging unit 20A and the imaging unit 20B are defined as f.
  • a distance (that is, a base line length) between the imaging unit 20A and the imaging unit 20B is defined as B.
  • a length per pixel (that is, a pixel pitch (here, mm)) is defined as ⁇ .
  • a pixel difference between the position of the subject 31 on the image obtained from the imaging unit 20A and the position of the subject 31 on the image obtained from the imaging unit 20B is defined as (that is, parallax) d.
  • the following formula (1) is established from the similarity of triangles.
  • the subject distance Z can be calculated from the equation (1).
  • the imaging apparatus 100 detects the parallax d by searching for corresponding points between images obtained from imaging units with different viewpoints.
  • the imaging apparatus 100 can calculate the subject distance Z by substituting the detected parallax d into Equation (1).
  • the imaging device 100 can generate a high-quality image (hereinafter also referred to as “output image”) by selectively combining images obtained from a plurality of imaging units.
  • the imaging apparatus 100 can further calculate the subject distance Z using the parallax d between the images. That is, the imaging apparatus 100 can also obtain a distance image that indicates the distance to each region of the subject.
  • FIG. 2 is a diagram schematically illustrating the main configuration of the imaging apparatus 100.
  • the imaging device 100 includes an imaging unit 20.
  • the imaging unit 20 is an array camera in which a plurality of lenses having different viewpoint positions are arranged in parallel and each captures an image formed by each lens.
  • the imaging unit 20 includes a lens group 26_1 that transmits infrared light, a lens group 26_2 that cuts infrared light, and an imaging element 28.
  • the lens group 26_1 includes a lens 26_1A.
  • the lens group 26_2 includes a lens 26_2A and a lens 26_2B.
  • a filter having a predetermined wavelength transmission characteristic is associated with the lenses 26_1A, 26_1B, and 26_2B.
  • the filter has a wavelength transmission characteristic that transmits light in a red wavelength band (hereinafter also referred to as “light (R)”).
  • the lens 26_2A and the lens 26_2B are associated with a filter (hereinafter also referred to as “infrared cut filter”) having a lower transmittance in the infrared region than the lens 26_1A.
  • the lens group 26_2 can cut infrared light.
  • the filter that transmits light (R) (hereinafter also referred to as “red transmission filter”) and the infrared cut filter may be configured as a single filter or may be configured as separate filters.
  • the part having the subscript “i” indicates that the infrared cut filter is not used.
  • the part without the subscript “i” indicates that an infrared cut filter is used. This point is common to the following drawings.
  • the image sensor 28 receives the light transmitted through the lens group 26_1 and the lens group 26_2 and generates an image.
  • the imaging apparatus 100 generates three images: an image obtained by imaging light transmitted through the lens 26_1, an image obtained by imaging light transmitted through the lens 26_2A, and an image obtained by imaging light transmitted through the lens 26_2B. be able to.
  • the imaging apparatus 100 generates an image (that is, an output image) representing the subject by using all or a part of these three images. More specifically, the imaging device 100 generates an output image using an image from the lens group 26_1 that transmits infrared light under low illuminance. Thereby, the imaging device 100 can compensate for the insufficient illuminance with infrared light, and can improve the light receiving sensitivity. As a result, the imaging apparatus 100 can obtain a clear image even under low illuminance.
  • the imaging device 100 generates an output image using an image from the lens group 26_2 that cuts infrared light under high illuminance. Thereby, the imaging device 100 can cut infrared light that can be noise under high illuminance, and can obtain a high-quality image.
  • the photographer can obtain a high-quality image by using the imaging device 100 having a novel structure even under low illuminance or high illuminance.
  • the imaging apparatus 100 can obtain images having the same color information obtained from lenses with different viewpoints.
  • the image from the lens 26_2A and the image from the lens 26_2B have the same color information.
  • the imaging apparatus 100 can calculate the subject distance by searching for corresponding points between images having the same color information. Thereby, the imaging apparatus 100 can generate a distance image indicating the distance to each region of the subject.
  • the imaging apparatus 100 can obtain an image with improved light receiving sensitivity by combining two images having the same color information as compared with the case of one image.
  • the filters associated with the lens group 26_1 and the lens group 26_2 may be provided on the lens or may be configured integrally with the lens.
  • the filter may be provided in the image sensor 28 or may be configured integrally with the image sensor 28.
  • a plurality of image sensors are shown, but there may be one image sensor.
  • the image sensor is configured to receive light transmitted through each lens in a corresponding region of the lens.
  • FIG. 3 is a diagram schematically illustrating the configuration of the imaging device 100 according to the first modification.
  • the lens configuration of the imaging apparatus 100 is not limited to the example shown in FIG.
  • the lens group 26_1 may be configured by two lenses 26_1A and 26_1B that transmit infrared light, instead of one lens.
  • the lens group 26_2 may be configured by one lens 26_2A that cuts infrared light instead of two lenses.
  • FIG. 4 is a diagram schematically illustrating the configuration of the imaging device 100 according to the second modification.
  • the number of lenses provided in the imaging apparatus 100 is not limited to three, but may be three or more.
  • the lens group 26_1 includes one or more lenses.
  • the lens group 26_2 includes at least one remaining lens.
  • the numbers “1 to 16” in the upper left of the lens group 26_1 and the lens group 26_2 shown in FIG. 4 are indexes for indicating the location of the lens.
  • the lens group 26_1 includes eight lenses (that is, lenses 1, 4, 5, 8, 9 to 11, and 15) that are not provided with an infrared cut filter.
  • the lens group 26_2 includes eight lenses (that is, lenses 2, 3, 6, 7, 12 to 14, and 16) provided with an infrared cut filter.
  • the lens R (that is, the lenses 2 and 12) is provided with a red transmission filter and an infrared cut filter.
  • the lens Ri (that is, the lenses 4 and 10) is provided with a red transmission filter.
  • the red transmission filter and the infrared cut filter may be configured as a single filter, or may be configured as separate filters.
  • the imaging apparatus 100 can obtain a monochromatic image including information on the red wavelength band by imaging the light transmitted through the lens R and the lens Ri.
  • the lens G (that is, the lenses 3, 6, 12, and 14) is provided with a green transmission filter and an infrared cut filter.
  • the lens Gi (that is, the lenses 1, 8, 9, and 11) is provided with a green transmission filter.
  • the lens B (that is, the lenses 7 and 13) is provided with a blue transmission filter and an infrared cut filter.
  • the lens Bi (that is, the lenses 5 and 15) is provided with a blue transmission filter.
  • the imaging apparatus 100 generates an image by imaging light transmitted through the lens group 26_1 (that is, the lens Ri, the lens Gi, and the lens Bi) that transmits infrared light under low illuminance.
  • the imaging apparatus 100 can improve the light receiving sensitivity by compensating for insufficient illuminance with infrared light.
  • the image Ri obtained from the lens Ri, the image Bi obtained from the lens Bi, and the image Gi obtained from the lens Gi are associated with each other, and the respective images are combined, thereby reducing the low illuminance. Even so, a clear color image can be obtained.
  • the imaging device 100 generates an image obtained by imaging light transmitted through the lens group 26_2 that cuts infrared light (that is, the lens R, the lens G, and the lens B) under high illuminance. Thereby, the imaging device 100 cuts infrared light that can be redundant information under high illuminance. For this reason, the imaging apparatus 100 associates each pixel of the image R obtained from the lens R, the image G obtained from the lens B, and the image G obtained from the lens G, and synthesizes the images. As a result, a high-quality color image with a more correct hue can be obtained even under high illuminance.
  • the light transmitted through the lens is not limited to the light (R), light (G), and light (B) as described above.
  • the imaging apparatus 100 may be configured to transmit light having other wavelengths such as light (C: cyan), light (M: magenta), and light (Y: yellow).
  • FIG. 5 is a block diagram illustrating an example of a functional configuration of the imaging apparatus 100.
  • an image R, an image G, an image B, an image Ri, an image Gi, and an image Bi can be obtained as in Modification 2 (FIG. 4) of the first embodiment described above.
  • a configuration suitable for use in the imaging apparatus 100 that can output the image is shown.
  • the imaging apparatus 100 includes an image processing unit 200 described later.
  • the image processing unit 200 includes a first setting unit 210, a distance calculation unit 240, and a generation unit 250.
  • Each configuration may be realized by a hardware module or a software module.
  • the imaging apparatus 100 has an imaging mode in which an output image is generated from an image obtained by imaging light transmitted through the lens group 26_1 (hereinafter, also referred to as “infrared transmission mode”), and a lens group 26_2. And an imaging mode (hereinafter also referred to as “infrared cut mode”) for generating an output image from an image obtained by imaging the light transmitted through.
  • the imaging apparatus 100 is configured to be able to select an infrared transmission mode or an infrared cut mode.
  • the imaging mode is set by the first setting unit 210. Details of the imaging mode setting method will be described later.
  • the distance calculation unit 240 searches for corresponding points between two or more images taken from different viewpoints and having the same color characteristics. Details of the corresponding point search will be described later.
  • the distance calculation unit 240 calculates disparity information (disparity d in Expression (1)) for each pixel by detecting corresponding points between images.
  • the distance calculation unit 240 outputs the calculated parallax information to the generation unit 250. Further, the distance calculation unit 240 calculates distance information (subject distance Z in the equation (1)) from the equation (1) using the calculated parallax d.
  • the generation unit 250 includes a first generation unit 252 and a second generation unit 254.
  • the generation unit 250 generates an output image using the parallax information between images obtained from the distance calculation unit 240. Details of the image generation method of the generation unit 250 will be described later.
  • the first generation unit 252 When the imaging mode is the infrared transmission mode, the first generation unit 252 generates an output image from a monochromatic image including infrared information (“monochromatic image (+ infrared)” in FIG. 5).
  • the monochromatic image is obtained by imaging light including light of a predetermined wavelength band.
  • the monochromatic image including infrared information includes an image Ri, an image Gi, and an image Bi.
  • the first generation unit 252 generates a color image including infrared information (“color image (+ infrared)” in FIG. 5) from the image Ri, the image Gi, and the image Bi as an output image.
  • the second generation unit 254 When the imaging mode is the infrared cut mode, the second generation unit 254 generates an output image from a monochrome image that does not include infrared information (“monochrome image ( ⁇ infrared)” in FIG. 5)).
  • the monochrome image that does not include infrared information includes the image R, the image G, and the image B.
  • the second generation unit 254 generates a color image that does not include infrared information (“color image ( ⁇ infrared)” in FIG. 5) from the image R, the image G, and the image B as an output image.
  • the imaging apparatus 100 includes, as the imaging mode, the image infrared transmission mode that generates an output image using an image obtained from the lens group 26_1 that transmits infrared light, and the lens that cuts infrared light. And an infrared cut mode for generating an output image using an image obtained from the group 26_2.
  • the imaging mode is determined by the first setting unit 210 according to the illuminance around the imaging apparatus 100.
  • the first setting unit 210 sets the imaging mode to the infrared transmission mode in order to supplement the illuminance with infrared light.
  • the imaging apparatus 100 sets the imaging mode to the infrared cut mode in order to cut infrared information that can be noise.
  • An image that does not include infrared information is used as an image used for determining the imaging mode (hereinafter also referred to as “determination image”). That is, the first setting unit 210 sets an imaging mode using luminance information of all or part of an image obtained from light transmitted through the lens group 26_2 that cuts infrared light.
  • the first setting unit 210 sets the imaging mode to the infrared transmission mode, and the luminance information of the determination image is If the predetermined condition is not satisfied, the imaging mode is set to the infrared cut mode.
  • the first setting unit 210 calculates illuminance indicating the intensity of received light from the luminance information of the determination image. When the calculated illuminance is greater than a predetermined value, the first setting unit 210 sets the imaging mode to the infrared cut mode assuming that the illuminance is high. When the calculated illuminance is smaller than a predetermined value, the first setting unit 210 sets the imaging mode to the infrared transmission mode, assuming that the illuminance is low.
  • FIG. 6 is a diagram showing a histogram showing the distribution of pixel values of the determination image.
  • the imaging device 100 forms a histogram of pixel values included in the determination image. That is, the imaging device 100 counts the number of pixels having the same pixel value for each pixel value.
  • the first setting unit 210 uses a pixel value that is a predetermined percentage from the top as the illuminance of light received by the imaging device 100. For example, as illustrated in FIG. 6, the first setting unit 210 uses the pixel value at the top 1% of the histogram as the illuminance.
  • the first setting unit 210 can exclude a high-value pixel value that appears as noise by using the pixel value in the upper 1% position as the illuminance.
  • the first setting unit 210 determines that the illuminance is low when the illuminance is smaller than a predetermined value (for example, 100), and sets the imaging mode to the infrared transmission mode. Moreover, the 1st setting part 210 determines with it being high illumination intensity, when the said illumination intensity is larger than a predetermined value (for example, 100), and sets imaging mode to infrared cut mode.
  • a predetermined value for example, 100
  • the first setting unit 210 may use the maximum pixel value of the determination image as illuminance.
  • the first setting unit 210 may use a value obtained by multiplying the maximum pixel value of the determination image by a predetermined coefficient (for example, a value greater than 0 and less than 1) as illuminance in order to remove the influence of noise. Good.
  • the first setting unit 210 may use a plurality of images as the determination image in order to increase the calculation accuracy of illuminance.
  • the first setting unit 210 may determine the illuminance using a plurality of single-color images (for example, an R image, a G image, and a B image) having different color characteristics.
  • the first setting unit 210 uses, for example, the maximum pixel value among the pixel values of the plurality of images as the illuminance.
  • the first setting unit 210 may determine the illuminance using a plurality of single-color images (for example, a plurality of R images) having the same color characteristics.
  • the first setting unit 210 may determine the illuminance by histogramming the pixel values of a plurality of images, similarly to the method shown in FIG.
  • the imaging apparatus 100 may be configured such that the photographer can arbitrarily set the imaging mode.
  • the imaging apparatus 100 may provide a user interface for supporting the setting of the imaging mode.
  • the imaging apparatus 100 may display a histogram as shown in FIG.
  • the photographer can set a threshold used for setting the imaging mode while checking the histogram on the user interface.
  • FIG. 7 is a conceptual diagram schematically showing corresponding point search processing in the infrared cut mode.
  • the distance calculation unit 240 searches for the corresponding point for each pixel of the obtained image, and detects the parallax for each pixel.
  • the detected parallax is used for calculation of the subject distance, and is also used when an image is generated by the generation unit 250 described below.
  • the distance calculation unit 240 searches for corresponding points using an image from the lens group 26_2 that cuts infrared light.
  • the distance calculation unit 240 needs to use images having the same color characteristics as the images used for the corresponding point search process. This is because the distance calculation unit 240 cannot detect a similar region between images having different color information.
  • the distance calculation unit 240 has four images G (that is, the image 3A) obtained from the lens G (that is, the lenses 3, 6, 14, and 16) and having the same color characteristics. , 6A, 14A, 16A).
  • the distance calculation unit 240 searches for a corresponding point in the image 3A using the image 6A as a reference image.
  • the reference image is obtained from a lens provided at the center of a plurality of lenses.
  • the distance calculation unit 240 can perform corresponding point search using images obtained from lenses provided in various relative directions with respect to the reference lens, and improve the corresponding point search accuracy. be able to.
  • the search range for corresponding points can be limited by the relative positional relationship of the lenses. That is, since the search point exists on a so-called epipole line, the search range of the corresponding point is limited to the epipole line.
  • the distance calculation part 240 can shorten the time concerning a corresponding point search.
  • the distance calculation unit 240 searches for pixels having image information similar to the template on the epipole line 3B in the image 3A using image information (for example, pixel values) within a predetermined range from the pixel 50 as a template.
  • image information for example, pixel values
  • the distance calculation unit 240 templates a region 50A having a size of about 9 ⁇ 9 pixels with the pixel 50 as the center.
  • the corresponding point search method is performed by, for example, SAD (Sum of Absolute Difference) that calculates the similarity between the images.
  • SAD value is calculated by the following equation (2). From equation (2), the SAD value decreases as the degree of similarity increases.
  • the distance calculation unit 240 searches for the corresponding point of the pixel 50 on the epipole line 14B in the image 14A.
  • the search result of each point on the epipole line 14B for the pixel 50 is shown.
  • the distance calculation unit 240 searches for the corresponding point for the pixel 50 on the epipole line 16B in the image 16A.
  • Each search result (ie, SAD value) on the epipole line 3B, the epipole line 14B, and the epipole line 16 is normalized by the reciprocal of the subject distance, and can be added up.
  • the distance calculation unit 240 sets Zc that minimizes the SAD value in the graph 66 that is a result of adding the search results as the subject distance in the pixel 50. In this way, the distance calculation unit 240 can specify the subject distance more accurately by using the result of adding more search results.
  • the distance calculation unit 240 performs the corresponding point search process performed on the pixel 50 for other pixels in the image 6A. Accordingly, the distance calculation unit 240 can calculate the subject distance for each pixel in the image 6A.
  • the distance calculation unit 240 may use the image R obtained from the lens R in the corresponding point search.
  • the distance calculation unit 240 may use the image B obtained from the lens B in the corresponding point search.
  • the corresponding point search processing by the distance calculation unit 240 is not necessarily executed. Good.
  • FIG. 8 is a conceptual diagram schematically showing corresponding point search processing in the infrared transmission mode.
  • the distance calculation unit 240 searches for corresponding points using an image from the lens group 26_1 that transmits infrared light. At this time, the distance calculation unit 240 performs corresponding point search processing between images having the same color characteristics. For example, as shown in FIG. 8, the distance calculation unit 240 has four images Gi (that is, images 1A, 1A, 8A, 9A, and 11A) corresponding point search is performed.
  • Gi images 1A, 1A, 8A, 9A, and 11A
  • the distance calculation unit 240 uses the image 11A as a reference image.
  • the distance calculation unit 240 searches for the corresponding point of the point 50 of the image 11A on the epipole line 1B of the image 1A, the epipole line 8B of the image 8A, and the epipole line 9B of the image 9A.
  • the distance calculation unit 240 performs the corresponding point search process performed on the pixel 50 for other pixels in the image 6A. Since the specific processing of the corresponding point search is the same as described above, the description is omitted.
  • the image used for a corresponding point search is not limited to the image Gi.
  • the image used for corresponding point search should just have the same color characteristic.
  • the distance calculation unit 240 may use the image Ri obtained from the lens Ri in the corresponding point search.
  • the distance calculation unit 240 may use the image Bi obtained from the lens Bi in the corresponding point search.
  • FIG. 9 is a conceptual diagram schematically showing color image generation processing in the infrared cut mode.
  • the generation unit 250 can calculate the parallax d from the equation (1) using the calculated subject distance Z.
  • the parallax d corresponds to a shift amount of corresponding points between images. For this reason, the generation unit 250 can identify corresponding points between images having different color characteristics from the subject distance Z.
  • an image 6A obtained from the lens 6 (ie, image G) is used as a reference image, an image 6A, an image 2A obtained from the lens 2 (ie, image R), and a lens.
  • An example of generating a color image (RGB image) from the image 7A obtained from the image 7 (that is, the image B) will be described.
  • the generation unit 250 calculates the corresponding point of the pixel 50 in the image 2A using the subject distance Zc in the pixel 50 of the image 6A. More specifically, the position of the corresponding point of the pixel 50 in the image 2A is calculated from the above formula (1) based on the positional relationship between the lens 2 and the lens 6. In the image 2A, a pixel 52 calculated as a corresponding point of the pixel 50 is shown.
  • the generation unit 250 calculates the corresponding point of the pixel 50 in the image 7A using the subject distance Zc in the pixel 50 of the image 6A.
  • the position of the corresponding point of the pixel 50 in the image 7A is calculated from the above formula (1) based on the positional relationship between the lens 6 and the lens 7.
  • the pixel 54 calculated as the corresponding point of the pixel 50 is shown.
  • the generation unit 250 performs the pixel association processing performed on the pixels 50 for the other pixels in the image 6A. As described above, the generation unit 250 can correct the shift due to the parallax for each pixel of the image 6A. That is, the generation unit 250 can calculate corresponding points between images having different color information. Accordingly, the generation unit 250 can generate a color image by combining the images.
  • the corresponding points are specified among the image 6A obtained from the lens 6, the image 2A obtained from the lens 2, and the image 7A obtained from the lens 7 has been described.
  • 250 may identify corresponding points between other images.
  • the generation unit 250 may specify a corresponding point using another image obtained from the lens group 26_2 that cuts infrared light.
  • the reference image is not necessarily the image 6A.
  • the generation unit 250 may use another image obtained from the lens group 26_2 that cuts infrared light.
  • FIG. 10 is a conceptual diagram schematically showing color image generation processing in the infrared transmission mode.
  • the generation unit 250 when the imaging mode is the infrared transmission mode, the generation unit 250 generates a color image using an image from the lens group 26_1 that transmits infrared light.
  • an image 11A obtained from the lens 11 (that is, an image Gi) is used as a reference image, an image 11A, and an image 10A obtained from the lens 10 (that is, image Ri).
  • a color image is generated from the image 15A obtained from the lens 15 (that is, the image Bi). Since the color image generation method is the same as described above, the description thereof will not be repeated.
  • the corresponding points are specified among the image 10A obtained from the lens 10, the image 11A obtained from the lens 11, and the image 15A obtained from the lens 15 has been described.
  • 250 may identify corresponding points between other images.
  • the generation unit 250 may specify a corresponding point using another image obtained from the lens group 26_2 that cuts infrared light.
  • the generation unit 250 may use another image obtained from the lens group 26_2 that cuts infrared light as the reference image in the infrared transmission mode.
  • FIG. 11 is a flowchart showing a part of processing executed by the imaging apparatus 100.
  • the processing in FIG. 11 is realized by the CPU 102 described later executing a program.
  • part or all of the processing may be executed by an image processing circuit 106, a circuit element, and other hardware described later.
  • step S510 the CPU 102 acquires 16 images by imaging the light obtained from each of the lenses 1 to 16 (see FIG. 4). Note that the CPU 102 does not need to obtain images from all of the lenses 1 to 16 and may obtain images from some of the lenses 1 to 16.
  • step S520 the CPU 102 sets the imaging mode as the first setting unit 210 based on the image information (for example, luminance information such as pixel values) of the acquired image. Specifically, the CPU 102 calculates the illuminance of the light from the image obtained by imaging the light transmitted through the lens group 26_2 that cuts infrared light. When the calculated illuminance is greater than a predetermined value, the CPU 102 sets the imaging mode to the infrared cut mode. When the calculated illuminance is smaller than a predetermined value, the CPU 102 sets the imaging mode to the infrared transmission mode.
  • the image information for example, luminance information such as pixel values
  • step S530 the CPU 102 determines whether or not the imaging mode of the imaging device 100 is the infrared transmission mode.
  • CPU 102 determines that the imaging mode of imaging device 100 is the infrared transmission mode (YES in step S530)
  • CPU 102 switches control to step S540. If not (NO in step S530), CPU 102 switches control to step S550.
  • step S540 the CPU 102 searches the corresponding point between the monochrome images having the same color characteristics using the monochrome image obtained from the lens group 26_1 that transmits infrared light as the distance calculation unit 240. Further, the CPU 102 calculates a subject distance for each pixel in the monochrome image using a search result of corresponding points between images (that is, parallax information).
  • step S542 the CPU 102 uses the search result (that is, parallax information) of corresponding points between the monochrome images obtained from the lens group 26_1 that transmits infrared light as the first generation unit 252, and uses the different color characteristics. Corresponding points are calculated between images having. Based on the calculated corresponding points, the CPU 102 synthesizes single-color images each having different color characteristics, and generates a color image including infrared information.
  • search result that is, parallax information
  • step S550 the CPU 102 searches the corresponding point between the monochromatic images having the same color characteristics using the monochromatic image obtained from the lens group 26_2 that cuts infrared light as the distance calculation unit 240. Further, the CPU 102 calculates a subject distance for each pixel in the monochrome image using a search result of corresponding points between images (that is, parallax information).
  • step S552 the CPU 102 uses the search result (that is, disparity information) of the corresponding points between the single color images obtained from the lens group 26_2 that cuts infrared light to determine the corresponding points between the images having different color characteristics. calculate. Based on the calculated corresponding points, the CPU 102 synthesizes single-color images each having different color characteristics, and generates a color image that does not include infrared information.
  • search result that is, disparity information
  • FIG. 12 is a block diagram illustrating a main hardware configuration of the imaging apparatus 100.
  • the imaging device 100 includes an imaging unit 20, an IR (Infrared) projector 40, an output unit 45, and an image processing unit 200.
  • the imaging unit 20 acquires an image by imaging a subject, and performs the above-described image processing on the acquired image, so that an output image (for example, a color image or a distance image) ) Is generated.
  • the output unit 45 outputs the output image to a display device or the like.
  • the imaging unit 20 captures a subject and generates an image.
  • the imaging unit 20 includes a camera 22 and an A / D (Analog to Digital) conversion unit 29 connected to the camera 22.
  • a / D Analog to Digital
  • the camera 22 is an array camera provided with an optical system for imaging a subject.
  • the camera 22 includes a filter 24 that transmits light in a predetermined wavelength band, N lenses 26 having different viewpoints arranged in a lattice shape, and an image sensor that converts an optical image formed by the lenses 26 into an electrical signal ( Image sensor) 28.
  • the A / D converter 29 converts an electrical signal (analog electrical signal) indicating the subject output from the image sensor 28 into a digital signal and outputs the digital signal.
  • the imaging unit 20 may further include a control processing circuit for controlling each part of the camera.
  • the image processing unit 200 performs the above-described image processing on the image acquired by the imaging unit 20 to generate a color image, or outputs a distance image indicating the distance to each area of the subject. To do.
  • the output unit 45 outputs the color image and the distance image generated by the image processing unit 200 to a display device or the like.
  • Imaging apparatus 100 shown in FIG. 12 is embodied as a digital camera, a video camera, or the like described below for general purposes. Therefore, in the following, an example in which imaging device 100 according to the present embodiment is embodied as a digital camera will be described.
  • FIG. 13 is a block diagram showing a configuration of a digital camera 100A that embodies the imaging apparatus 100 shown in FIG.
  • components corresponding to the respective blocks constituting the imaging apparatus 100 illustrated in FIG. 12 are denoted with the same reference numerals as those in FIG. 12.
  • a digital camera 100A includes a CPU (Central Processing Unit) 102, a digital processing circuit 104, an image display unit 108, a card interface (I / F) 110, a storage unit 112, and a camera 114. And an IR projector 120.
  • CPU Central Processing Unit
  • I / F card interface
  • storage unit 112 a storage unit
  • camera 114 a camera 114.
  • IR projector 120 an IR projector
  • the CPU 102 controls the digital camera 100A by executing a program stored in advance.
  • the digital processing circuit 104 executes various digital processes including image processing according to the present embodiment.
  • the digital processing circuit 104 is typically configured by a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an LSI (Large Scale Integration), an FPGA (Field-Programmable Gate Array), or the like.
  • the digital processing circuit 104 includes an image processing circuit 106 for realizing the functions provided by the image processing unit 200 shown in FIG.
  • the image display unit 108 includes an input image provided by the camera 114, an output image generated by the digital processing circuit 104 (image processing circuit 106), various setting information according to the digital camera 100A, and a control GUI (Graphical User Interface). Display the screen.
  • the card I / F 110 is an interface for writing the image data generated by the image processing circuit 106 to the storage unit 112 or reading the image data and the like from the storage unit 112.
  • the storage unit 112 is a storage device that stores image data generated by the image processing circuit 106 and various types of information (setting values such as control parameters and imaging modes of the digital camera 100A).
  • the storage unit 112 includes a flash memory, an optical disk, a magnetic disk, and the like, and stores data in a nonvolatile manner.
  • the IR projector 120 irradiates infrared light toward the subject.
  • the camera 114 receives the infrared light reflected by the subject and generates an image corresponding to the intensity of the infrared light.
  • the IR projector 120 also stores IR light projection information 42 (flag) indicating whether infrared light is being emitted.
  • the image processing unit 200 can determine whether the IR light projecting unit 120 emits infrared light by referring to the IR light projecting information 42.
  • IR light projecting unit 120 is not an essential configuration in imaging apparatus 100 according to the present embodiment.
  • IR projector 120 is used in imaging apparatus 100E according to the following third embodiment.
  • a digital camera 100A shown in FIG. 13 is obtained by mounting the entire imaging device 100 according to the present embodiment as a single device. That is, the user can visually recognize a high-quality image on the image display unit 108 by imaging the subject using the digital camera 100A.
  • the imaging device 100 may be embodied as a video camera with the structure similar to the structure shown by FIG.
  • FIG. 14 is a block diagram showing a configuration of electronic device 100B realized by downloading control program 154.
  • the control program 154 can be downloaded to, for example, a PC (Personal Computer), a mobile phone, a smartphone, or the like. Below, the example which downloaded the control program 154 to PC152 is demonstrated.
  • the electronic device 100B shown in FIG. 14 has a configuration in which an input image acquired by an arbitrary imaging unit 20 is input from the outside. Even such a configuration can be included in imaging device 100 according to the embodiment of the present invention.
  • FIG. 14 as well, components corresponding to the respective blocks constituting the imaging apparatus 100 shown in FIG. 12 are denoted by the same reference numerals as those in FIG.
  • electronic device 100B includes a PC 152, a monitor 156, a mouse 158, a keyboard 160, and an external storage device 162.
  • the PC 152 is typically a general-purpose computer that follows a general-purpose architecture, and includes a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like as basic components.
  • the PC 152 is configured to be able to download a control program 154 for realizing the function provided by the image processing unit 200.
  • the control program 154 is stored and distributed in a storage medium such as a CD-ROM (Compact Disk-Read Only Memory), or downloaded from a server device via a network.
  • the control program 154 is stored in a storage area such as a hard disk of the PC 152.
  • the control program 154 may be configured to call a necessary module among program modules provided as a part of an operating system (OS) executed on the PC 152 at a predetermined timing and in order to realize processing. .
  • OS operating system
  • the control program 154 itself does not include a module provided by the OS, and image processing is realized in cooperation with the OS.
  • the control program 154 may be provided by being incorporated in a part of some program instead of a single program. Even in such a case, the control program 154 itself does not include a module that is commonly used in the program, and image processing is realized in cooperation with the program. Even such a control program 154 that does not include some modules does not depart from the spirit of the imaging apparatus 100 according to the present embodiment.
  • control program 154 may be realized by dedicated hardware.
  • the monitor 156 displays a GUI screen provided by the operating system (OS), an image generated by the control program 154, and the like.
  • OS operating system
  • image generated by the control program 154 and the like.
  • the mouse 158 and the keyboard 160 each accept a user operation and output the contents of the accepted user operation to the PC 152.
  • the external storage device 162 stores an input image acquired by some method, and outputs this input image to the PC 152.
  • a device that stores data in a nonvolatile manner such as a flash memory, an optical disk, or a magnetic disk is used.
  • imaging device 100 can cover insufficient sensitivity with infrared light by using an image from lens group 26_1 that transmits infrared light under low illumination. it can. Thereby, the photographer can obtain a clear color image even under low illumination. Further, the imaging apparatus 100 can calculate an accurate distance to the subject by using an image from the lens group 26_1 that transmits infrared light even under low illuminance.
  • the imaging apparatus 100 cuts infrared light that can be noise under high illuminance by using an image from the lens group 26_2 that cuts infrared light under high illuminance. Thereby, the photographer can obtain a high-quality color image even under high illuminance. Further, the imaging apparatus 100 can calculate an accurate distance to the subject by using an image from the lens group 26_2 that cuts infrared light even under high illuminance.
  • FIG. 15 is a diagram for explaining the advantages of the corresponding point search processing according to the present embodiment.
  • Imaging apparatus 100D according to the present embodiment uses not only one of a monochrome image including infrared information and a monochrome image not including infrared information, but also uses both of these images to provide a gap between images. It differs from imaging apparatus 100 according to the first embodiment in that corresponding point search processing may be performed. Other points such as the hardware configuration are the same as those of the imaging apparatus 100 according to the first embodiment, particularly, the second modification thereof, and thus description thereof will not be repeated.
  • the accuracy of the corresponding point search process between images can be improved by using images obtained from various viewpoints. The reason will be described below. As shown in FIG. 15, consider a case where the corresponding point search process is executed for a reference image 70 having a pattern in which the same pattern such as a straight line is repeated.
  • the search image 72 is obtained from a lens provided beside the lens corresponding to the reference image 70. That is, the corresponding point of the pixel 70 ⁇ / b> A in the reference image 70 exists on the epipole line 72 ⁇ / b> B parallel to the horizontal stripe of the search image 72. For this reason, since there are many points similar to the pixel 70A on the epipole line 72B, there is a high possibility that an incorrect point will be a corresponding point of the pixel 70A. As a result, the parallax is not accurately estimated.
  • the search image 74 is obtained from a lens provided at the lower right of the lens corresponding to the reference image 70. That is, the corresponding point of the pixel 70 ⁇ / b> A in the reference image 70 exists on the epipole line 74 ⁇ / b> B that faces in an oblique direction with respect to the horizontal stripe of the search image 72. For this reason, since points similar to the pixel 70A can be narrowed down on the epipole line 74B, there is a high possibility that a correct point of the search image 74A is detected as a corresponding point of the pixel 70A.
  • imaging apparatus 100D improves the accuracy of the corresponding point search by increasing the types of images used for the corresponding point search process.
  • the imaging device 100D determines whether or not infrared light information is included in the image from the lens group 26_1 that transmits infrared light, and the infrared light information is not included in the image.
  • the corresponding point search is performed using both the image from the lens group 26_1 and the image from the lens group 26_2.
  • the imaging apparatus 100D can improve the accuracy of the corresponding point search process by performing the corresponding point search process using the images obtained by shooting from more viewpoints. That is, the imaging apparatus 100D can search for an epipole line in a different direction even for an image in which the same pattern such as a straight line is easily mistaken, so that there is a high possibility that a correct point can be detected as a corresponding point.
  • FIG. 16 is a block diagram illustrating an example of a functional configuration of the imaging apparatus 100D.
  • the imaging device 100D includes an image processing unit 200.
  • the image processing unit 200 includes a first setting unit 210, a second setting unit 230, a distance calculation unit 240, and a generation unit 250.
  • generation part 250 since it is as above-mentioned, those description is not repeated.
  • the imaging device 100D uses, as control modes, an image (first image group) obtained from light transmitted through the lens group 26_1 that transmits infrared light and light transmitted through the lens group 26_2 that cuts infrared light.
  • a first control mode for searching for corresponding points using both of the obtained images (second image group) is provided.
  • the imaging device 100D has a second control mode in which a corresponding point search is performed using either one of the image from the lens 26_1 and the image from the lens 26_2 as a control mode.
  • the imaging device 100D is configured to be able to select a first control mode and a second control mode.
  • the control mode is set by the second setting unit 230. Details of the control mode setting method will be described later.
  • the distance calculation unit 240 includes a first distance calculation unit 242 and a second distance calculation unit 244.
  • the distance calculation unit 240 changes the image used for the corresponding point search process according to the control mode.
  • the first distance calculation unit 242 includes an image from the lens group 26_1 that transmits infrared light (“monochromatic image (+ infrared)” in FIG. 16), An image from the lens group 26_2 that cuts infrared light (“monochromatic image (-infrared)” in FIG. 16) is treated as an image having the same color characteristics, and corresponding point search processing is performed using both of these images. Do. For example, the first distance calculation unit 242 handles the image R and the image Ri as images having the same color characteristics.
  • the second distance calculation unit 244 performs an image from the lens group 26_1 (“monochromatic image (+ infrared)” in FIG. 16) and an image from the lens group 26_2. (“Monochromatic image (-infrared)" in FIG. 16) is treated as an image having different color characteristics, and corresponding point search processing is performed using one of these images.
  • the first distance calculation unit 242 handles the image R and the image Ri as images having different color characteristics.
  • Control Mode Setting Method (Details of Second Setting Unit 230)
  • the imaging device 100D has the first control mode and the second control mode as control modes.
  • the second setting unit 230 sets the control mode based on whether or not infrared light exists in the environment around the imaging device 100D.
  • the second setting unit 230 compares the image information (for example, luminance information such as pixel values) of the image from the lens group 26_1 and the image information (for example, luminance information such as pixel values) from the lens group 26_2. By doing so, the control mode of the imaging apparatus 100D is set.
  • the second setting unit 230 compares luminance information between the image Gi from the lens Gi and the image G from the lens G. For example, when the difference between the average pixel value of the image Gi and the average pixel value of the image G is equal to or less than a predetermined threshold (for example, 5), the second setting unit 230 determines that the image G and the image Gi are Treat as having the same color information. That is, in this case, the second setting unit 230 sets the control mode to the first control mode.
  • a predetermined threshold for example, 5
  • the second setting unit 230 determines that the image G and the image Gi are Treat as having different color information. That is, in this case, the second setting unit 230 sets the control mode to the second control mode.
  • a predetermined threshold for example, 5
  • the second setting unit 230 divides the image G and the image Gi into predetermined regions, and average pixels for each of the divided regions. It may be configured to compare values. This makes it possible to find partial differences in images. As an example, the second setting unit 230 divides each of the image G and the image Gi into 4 parts in the vertical direction, 4 parts in the horizontal direction, and a total of 16 areas.
  • the second setting unit 230 may compare not only the average pixel value of the image but also the maximum pixel value of the image. Thereby, the determination accuracy of whether or not infrared information is included in the image is improved.
  • the imaging apparatus 100D may be configured such that the photographer can arbitrarily set the control mode.
  • the imaging apparatus 100D provides a user interface for receiving control mode settings.
  • FIG. 17 is a conceptual diagram schematically showing corresponding point search processing in the first control mode.
  • the distance calculation unit 240 displays both the image from the lens group 26_1 that transmits infrared light and the image from the lens group 26_2 that cuts infrared light. To perform corresponding point search processing. That is, the distance calculation unit 240 treats the image from the lens group 26_1 and the image from the lens group 26_2 as having the same color characteristics, and calculates the subject distance using both of these images.
  • the distance calculation unit 240 performs an image G obtained from the lens G (that is, the lenses 3, 6, 14, and 16) and the lens Gi (that is, the lens 1). 8, 8, 9, 11) and corresponding images are searched among the eight images Gi (ie, images 3 A, 6 A, 14 A, 16 A, 1 A, 8 A, 9 A, 11 A).
  • the distance calculation unit 240 uses SAD as the corresponding point search method, but may use NCC (Normalized Cross Correlation) instead.
  • NCC Normalized Cross Correlation
  • the distance calculation unit 240 may erroneously search for corresponding points in SAD for comparing pixel values. Therefore, preferably, the distance calculation unit 240 uses a corresponding point search method such as NCC that compares pattern components.
  • the NCC value indicating the similarity between images is calculated using the following equation (4).
  • the distance calculation unit 240 may perform a corresponding point search using the image R and the image Ri.
  • the distance calculation unit 240 may perform a corresponding point search using the image B and the image Bi.
  • FIG. 18 is a flowchart illustrating a part of processing executed by the imaging apparatus 100D.
  • the processing in FIG. 18 is realized by the CPU 102 of the imaging apparatus 100D executing a program. In other aspects, part or all of the processing may be executed by the image processing circuit 106, circuit elements, or other hardware. Since the processing in steps S510 to S552 is the same as that in FIG. 11, the description thereof will not be repeated.
  • step S610 the CPU 102 sets the control mode of the imaging apparatus 100D as the second setting unit 230 based on whether or not infrared light exists in the environment around the imaging apparatus 100D.
  • the CPU 102 compares luminance information between an image from the lens group 26_1 that transmits infrared light and an image from the lens group 26_2 that cuts infrared light. If there is no difference in luminance information between the image from the lens group 26_1 and the image from the lens group 26_2, the CPU 102 assumes that these images have the same color information and sets the control mode to the first control mode. Set. When there is a difference in luminance information between the image from the lens group 26_1 and the image from the lens group 26_2, the CPU 102 assumes that these images have different color information and sets the control mode to the second control mode. Set.
  • step S620 the CPU 102 determines whether or not the control mode of the imaging device 100D is the first control mode.
  • CPU 102 determines that the control mode of imaging device 100D is the first control mode (YES in step S620)
  • CPU 102 switches control to step S630. If not (NO in step S620), CPU 102 switches control to step S640.
  • step S630 the CPU 102 cuts the infrared light as an image from the lens group 26_1 that transmits infrared light (“monochromatic image (+ infrared)” in FIG. 18) as the first distance calculation unit 242. Corresponding point search processing is performed using both the image from the lens group 26_2 ("monochromatic image (-infrared)" in FIG. 18).
  • step S640 the CPU 102 cuts the infrared light from the image from the lens group 26_1 that transmits infrared light (“monochromatic image (+ infrared)” in FIG. 18) as the second distance calculation unit 244.
  • Corresponding point search processing is performed using either one of the images from the lens group 26_2 ("monochromatic image (-infrared)" in FIG. 18). More specifically, when the control mode of the image capturing apparatus 100D is the second control mode and the image capturing mode of the image capturing apparatus 100D is the infrared transmission mode, the CPU 102 displays the image from the lens group 26_1. To perform corresponding point search processing.
  • the control mode of the imaging device 100D is the second control mode and the imaging mode of the imaging device 100D is the infrared cut mode
  • the CPU 102 uses the image from the lens group 26_2 to perform corresponding point search processing. To do.
  • the imaging device 100D when there is no infrared light in the environment around the imaging device 100D, an image from the lens group 26_1 that transmits infrared light, red, and the like.
  • the image from the lens group 26_2 that cuts outside light is treated as an image having the same color information.
  • the imaging apparatus 100D can perform corresponding point search using both the image from the lens group 26_1 and the image from the lens group 26_2.
  • the imaging device 100D can improve the calculation accuracy of the subject distance.
  • the imaging apparatus 100D can generate a color image with higher image quality by increasing the accuracy of the corresponding point search.
  • Imaging apparatus 100E according to the present embodiment follows the second embodiment in that the control mode is set based on whether IR projector 40 (see FIG. 12) performs infrared projection. Different from the imaging device 100D. Other points such as the hardware configuration are the same as those of the imaging apparatus 100D according to the second embodiment, and thus description thereof will not be repeated.
  • the imaging device 100E in the present embodiment is suitable for use in an environment or facility where there is no infrared light in the environment around the imaging device 100E or there is little infrared light. Furthermore, the imaging apparatus 100E is used for an apparatus (for example, a surveillance camera for crime prevention) that is not desired to affect the surrounding environment by projecting visible light from the imaging apparatus 100E. Is preferred.
  • the imaging apparatus 100E includes an IR projector 40 for projecting infrared light toward a subject.
  • the imaging device 100E stores IR projection information 42 (see FIG. 12) indicating whether the IR projector 40 is projecting infrared light.
  • the imaging device 100E sets the control mode of the imaging device 100E based on the IR light projection information 42.
  • the imaging device 100E sets the control mode to the first control mode.
  • the imaging device 100E sets the control mode to the second control mode.
  • the imaging apparatus 100E can omit the process for determining whether or not infrared information is included, so that the processing time is improved.
  • FIG. 19 is a flowchart showing a part of processing executed by the imaging apparatus 100E.
  • the processing in FIG. 19 is realized by the CPU 102 of the imaging apparatus 100E executing a program. In other aspects, part or all of the processing may be executed by the image processing circuit 106, circuit elements, or other hardware. Note that the processing in steps S510 to S640 is the same as that in FIG. 18, and therefore, description thereof will not be repeated.
  • step S710 when the IR light projecting information 42 indicates that the IR light projecting device 40 is not projecting infrared light, the CPU 102 sets the control mode to the first control mode. Set to. When the IR light projecting information 42 indicates that the IR light projecting device 40 is projecting infrared light, the CPU 102 sets the control mode to the second control mode.
  • FIG. 20 is a flowchart illustrating a modification of the process executed by the imaging apparatus 100E.
  • the processing in FIG. 20 is realized by the CPU 102 of the imaging apparatus 100E executing a program. In other aspects, part or all of the processing may be executed by the image processing circuit 106, circuit elements, or other hardware.
  • step S510, step S620, step S630, and step S640 is the same as FIG. 18, those description is not repeated.
  • step S810 the CPU 102 refers to the IR light projection information 42 to determine whether the IR light projector 40 is projecting infrared light. If CPU 102 determines that IR projector 40 is projecting infrared light (YES in step S810), CPU 102 switches control to step S640. If not (NO in step S810), CPU 102 switches control to step S620.
  • the image from the lens group 26_1 that transmits infrared light always includes infrared information. Only in this case, the process for determining whether or not infrared information is included is omitted.
  • imaging device 100E determines whether or not infrared information is included in the image from lens group 26_1 that transmits infrared light, based on IR projector 40. . Accordingly, the imaging apparatus 100E can omit the process for determining whether or not infrared information is included in the image from the lens group 26_1, so that the processing time can be improved.
  • the imaging apparatus described above includes an imaging unit including three or more lenses that respectively capture subjects from different viewpoints, and all or part of each image obtained from light transmitted through each of the three or more lenses. And a generation unit that generates an output image representing the subject.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the imaging device captures the first imaging mode for generating an output image from the first image group obtained by imaging the light transmitted through the first lens group and the light transmitted through the second lens group.
  • the second imaging mode for generating an output image from the second image group obtained in this way can be selected.
  • the imaging apparatus further includes a first setting unit for setting an imaging mode of the imaging apparatus using luminance information of all or part of the second image group.
  • the first setting unit captures an imaging device when luminance information of all or part of an image obtained from light transmitted through the second lens group satisfies a predetermined condition indicating that the illuminance is relatively low. Is set to the first imaging mode. When the luminance information does not satisfy the predetermined condition, the imaging mode of the imaging device is set to the second imaging mode.
  • the first image group obtained from the light transmitted through the first lens group and the second image group obtained from the light transmitted through the second lens group are the same.
  • the first control mode having color characteristics, the first image group, and the second image group have second color control modes having different color characteristics.
  • the imaging device calculates distance information to each region of the subject using both the first image group and the second image group. To do.
  • the imaging device sets the control mode of the imaging device by comparing the luminance information of the image belonging to the first image group and the luminance information of the image belonging to the second image group.
  • the imaging device sets the control mode of the imaging device based on whether the light projecting unit is configured to project infrared light onto the subject and whether the light projecting unit is projecting infrared light. And a setting unit.
  • the control method of the imaging device described above is a method of controlling the next imaging device.
  • the imaging apparatus includes an imaging unit including three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • this imaging device control method sets the imaging mode of the imaging device to either the first imaging mode or the second imaging mode, and the imaging mode of the imaging device is the first imaging mode.
  • the second when an output image representing a subject is generated from an image obtained by imaging light transmitted through the first lens group, and when the imaging mode of the imaging device is the second imaging mode, the second Generating an output image from an image obtained by imaging light transmitted through the lens group.
  • Another method for controlling the imaging apparatus is to set the control mode of the imaging apparatus to one of the first control mode and the second control mode, and when the control mode of the imaging apparatus is the first control mode.
  • the first image group obtained from the light transmitted through the first lens group and the second image group obtained from the light transmitted through the second lens group have the same color characteristics.
  • the control mode of the imaging device is the second control mode, the first image group and the second image group have different color characteristics.
  • the control program for controlling the imaging device described above is a control program for controlling the next imaging device.
  • the imaging apparatus includes an imaging unit including three or more lenses that respectively image subjects from different viewpoints.
  • the three or more lenses include a first lens group and a second lens group.
  • a filter having a first wavelength transmission characteristic is associated with the first lens group.
  • the second lens group is associated with a filter having a lower transmittance in the infrared region than the first wavelength transmission characteristic.
  • the control program for the imaging apparatus sets the imaging mode of the imaging apparatus to one of the first imaging mode and the second imaging mode and sets the imaging mode of the imaging apparatus to the first imaging mode.
  • the output mode expressing the subject from the image obtained by imaging the light transmitted through the first lens group and the imaging mode of the imaging apparatus is the second imaging mode. And generating an output image from an image obtained by imaging the light transmitted through the second lens group.
  • Another control program for controlling the image pickup apparatus sets the image pickup apparatus control mode to one of the first control mode and the second control mode and sets the image pickup apparatus control mode to the first control mode.
  • the first image group obtained from the light transmitted through the first lens group and the second image group obtained from the light transmitted through the second lens group are: The first image group and the second image group have different color characteristics when they have the same color characteristics and when the control mode of the imaging apparatus is the second control mode. And execute.
  • the imaging apparatus described above it is possible to obtain a novel structure capable of obtaining a higher quality image and to obtain a control method and a control program for controlling the imaging apparatus.

Abstract

 より高画質な画像を得ることが可能な新規な構造を有する撮像装置、撮像装置の制御方法、撮像装置の制御プログラムを提供する。撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部(20)と、3つ以上のレンズのそれぞれを透過した光から得られたそれぞれの画像の全部または一部を用いて、被写体を表現する出力画像を生成する生成部とを備える。3つ以上のレンズは、レンズ群(26_1)と、レンズ群(26_2)とからなる。レンズ群(26_1)には、第1の波長透過特性を有するフィルタが関連付けられる。レンズ群(26_2)には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられる。

Description

撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム
 本開示は、撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラムに関し、特に、互いに異なる視点から被写体を撮像する複数の撮像部を有する撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラムに関する。
 近年、画像の画質を向上するための撮像装置が開発されている。たとえば、特表2011-523538号公報(特許文献1)は、得られた画像を超解像度化する撮像装置を開示している。当該撮像装置は、複数の撮像部を有する。これらの撮像部の1つは、赤外光を透過するフィルタが取り付けられた、所謂、赤外カメラである。当該撮像装置は、赤外カメラから得られた、赤外情報のみを含む赤外画像を用いて超解像度化を行なう。
 特開2006-135735号公報(特許文献2)は、低照度下でも高画質な画像を取得するための撮像装置を開示している。当該撮像装置は、赤外光をカットするフィルタ(以下、「赤外カットフィルタ」とも称する。)を出し入れする機構を有する。当該撮像装置は、低照度下では、赤外カットフィルタをはずすことで撮像感度を向上することを目的とする。
特表2011-523538号公報 特開2006-135735号公報
 ところで、世の中には様々な種類の光源が存在する。たとえば、赤外光を多く発する白熱電球や太陽光などの光源がある。一方で、赤外光をほとんど発しないLED(Light Emitting Diode)や蛍光灯などの光源がある。特許文献1に開示される撮像装置に含まれる赤外カメラは、赤外光を撮像するものであるので、赤外光をほとんど発しない光源下においては、無駄な構成となる。また、特許文献2に開示される撮像装置においては、高画質な画像を得るために、赤外カットフィルタを出し入れする機構が必要となり、撮像装置の構造が複雑になる。このため、特許文献1、2に開示される撮像装置とは異なる構造を有する撮像装置で画像の高画質化を実現することが望まれている。
 この開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、より高画質な画像を得ることが可能な新規な構造を有する撮像装置を提供することである。
 一実施の形態に従うと、撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部と、3つ以上のレンズのそれぞれを透過した光から得られたそれぞれの画像の全部または一部を用いて、被写体を表現する出力画像を生成する生成部とを備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とを含む。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。
 他の実施の形態に従うと、撮像装置を制御するための制御方法が提供される。撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。制御方法は、撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、撮像装置の撮像モードが第1の撮像モードである場合に、第1のレンズ群を透過した光を撮像して得られた画像から被写体を表現する出力画像を生成することと、撮像装置の撮像モードが第2の撮像モードである場合に、第2のレンズ群を透過した光を撮像して得られた画像から出力画像を生成することとを備える。
 さらに他の実施の形態に従うと、撮像装置を制御するための制御方法が提供される。撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。制御方法は、撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、撮像装置の制御モードが第1の制御モードである場合に、第1のレンズ群を透過した光から得られた第1の画像群と、第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、撮像装置の制御モードが第2の制御モードである場合に、第1の画像群と、第2の画像群とが、異なる色特性を有するものとすることとを備える。
 さらに他の実施の形態に従うと、撮像装置を制御するための制御プログラムが提供される。撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。制御プログラムは、撮像装置に、撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、撮像装置の撮像モードが第1の撮像モードである場合に、第1のレンズ群を透過した光を撮像して得られた画像から被写体を表現する出力画像を生成することと、撮像装置の撮像モードが第2の撮像モードである場合に、第2のレンズ群を透過した光を撮像して得られた画像から出力画像を生成することとを実行させる。
 さらに他の実施の形態に従うと、撮像装置を制御するための制御プログラムが提供される。撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられる。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられる。制御プログラムは、撮像装置に、撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、撮像装置の制御モードが第1の制御モードである場合に、第1のレンズ群を透過した光から得られた第1の画像群と、第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、撮像装置の制御モードが第2の制御モードである場合に、第1の画像群と、第2の画像群とが、異なる色特性を有するものとすることとを実行させる。
 本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
被写体距離を算出する処理を説明するための概念図である。 第1の実施の形態に従う撮像装置の主要な構成を概略的に表わした図である。 変形例1に従う撮像装置の構成の概略を表した図である。 変形例2に従う撮像装置の構成の概略を表した図である。 第1の実施の形態に従う撮像装置の機能構成の一例を示すブロック図である。 判定画像の画素値の分布を示したヒストグラムを示す図である。 赤外カットモードにおける対応点探索処理を概略的に表した概念図である。 赤外透過モードにおける対応点探索処理を概略的に表した概念図である。 赤外カットモードにおけるカラー画像の生成処理を概略的に表した概念図である。 赤外透過モードにおけるカラー画像の生成処理を概略的に表した概念図である。 第1の実施の形態に従う撮像装置が実行する処理の一部を表わすフローチャートである。 第1の実施の形態に従う撮像装置の構成の基本的構成を示すブロック図である。 図12に示す撮像装置を具現化したデジタルカメラの構成を示すブロック図である。 第1の実施の形態に従う撮像装置の処理を実現するための制御プログラムをダウンロードした電子機器の構成を示すブロック図である。 第2の実施の形態に従う撮像装置の対応点探索処理の利点を説明するための図である。 第2の実施の形態に従う撮像装置の機能構成の一例を示すブロック図である。 第1の制御モードにおける対応点探索処理を概略的に表した概念図である。 第2の実施の形態に従う撮像装置が実行する処理の一部を表わすフローチャートである。 第3の実施の形態に従う撮像装置が実行する処理の一部を表わすフローチャートである。 第3の実施の形態に従う撮像装置が実行する処理の変形例を表すフローチャートである。
 以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態、および/または、各変形例は、選択的に組み合わされてもよい。
 <技術原理>
 まず、本発明に従う各実施の形態についての理解を深めるために、図1を参照して、以下の各実施の形態に従う撮像装置100が利用する技術原理について説明する。図1は、撮像装置100から被写体の各領域までの距離(以下、「被写体距離」とも称する。)を算出する処理を説明するための概念図である。撮像装置100は、複数のカメラを有することにより、カメラ間の視差情報を用いて、被写体距離を算出することができる。
 図1には、撮像部20Aと、撮像部20Bとが示されている。被写体31は、撮像部20Aおよび撮像部20Bの視野に含まれる。説明を簡単にするために、被写体から焦点までの光軸方向の距離をZ(すなわち、被写体距離)と定義する。撮像部20Aおよび撮像部20Bの焦点距離をfと定義する。撮像部20Aと撮像部20Bとの間の距離(すなわち、基線長)をBと定義する。画像1画素当たりの長さ(すなわち、画素ピッチ(ここでは、mm))をμと定義する。撮像部20Aから得られた画像上の被写体31の位置と、撮像部20Bから得られた画像上の被写体31の位置との間の画素差を(すなわち、視差)dと定義する。このとき、三角形の相似の関係から、以下の式(1)が成り立つ。
Figure JPOXMLDOC01-appb-M000001
 ここで、被写体距離Z、焦点距離f、基線長B、および画素ピッチμは、それぞれ撮像部の特性を示すパラメータであるため、各パラメータの値は既知である。このため、視差dが分かれば、被写体距離Zは、式(1)から算出され得る。撮像装置100は、互いに異なる視点の撮像部から得られた画像間の対応点を探索することにより視差dを検出する。撮像装置100は、検出した視差dを式(1)に代入することにより、被写体距離Zを算出できる。
 各撮像部は、異なる視点から被写体を撮像するため、各撮像部によって得られた画像間において、位置ずれが生じる。このため、以下の各実施の形態に従う撮像装置100は、画像間の対応点間の視差dを用いて、得られた画像間の位置ずれを補正する。このように、撮像装置100は、複数の撮像部から得られた画像を選択的に組み合わせることで高画質な画像(以下、「出力画像」とも称する。)を生成することが可能になる。
 撮像装置100は、さらに、画像間の視差dを用いて、被写体距離Zを算出できる。すなわち、撮像装置100は、被写体の各領域までの距離を示した距離画像を得ることもできる。
 <第1の実施の形態>
  [概要]
 以下、図2を参照して、第1の実施の形態に従う撮像装置100の構成について説明する。図2は、撮像装置100の主要な構成を概略的に表わした図である。
 撮像装置100は、撮像部20を含む。一例として、撮像部20は、互いに視点位置の異なる複数のレンズを並列に配置し、各レンズによって形成される像をそれぞれ撮像するアレイカメラである。撮像部20は、赤外光を透過するレンズ群26_1と、赤外光をカットするレンズ群26_2と、撮像素子28とを有する。レンズ群26_1は、レンズ26_1Aを含む。レンズ群26_2は、レンズ26_2Aと、レンズ26_2Bとを含む。
 レンズ26_1A、26_1B、26_2Bには、所定の波長透過特性を有するフィルタが関連付けられる。一例として、当該フィルタは、赤色の波長帯域の光(以下、「光(R)」とも称する。)を透過する波長透過特性を有する。
 さらに、レンズ26_2Aおよびレンズ26_2Bには、レンズ26_1Aと比較して赤外領域の透過率がより少ないフィルタ(以下、「赤外カットフィルタ」とも称する。)が関連付けられる。これにより、レンズ群26_2は、赤外光をカットすることができる。光(R)を透過するフィルタ(以下、「赤色透過フィルタ」とも称する。)と、赤外カットフィルタとは、1枚のフィルタとして構成されてもよいし、別々のフィルタとして構成されてもよい。なお、図において添え字「i」がある個所(図2ではレンズ群26_1)は、赤外カットフィルタを用いていないことを表わしている。一方、添え字「i」を付していない個所(図2ではレンズ群26_2)は、赤外カットフィルタを用いていることを表わしている。なお、この点については、以降の図面において共通である。
 撮像素子28は、レンズ群26_1およびレンズ群26_2を透過した光を受けて画像を生成する。これにより、撮像装置100は、レンズ26_1を透過した光を撮像した画像と、レンズ26_2Aを透過した光を撮像した画像と、レンズ26_2Bを透過した光を撮像した画像との3つの画像を生成することができる。
 撮像装置100は、これら3つの画像の全部または一部を用いて、被写体を表現する画像(すなわち、出力画像)を生成する。より具体的には、撮像装置100は、低照度下では、赤外光を透過するレンズ群26_1からの画像を用いて出力画像を生成する。これにより、撮像装置100は、照度不足を赤外光で補うことができ、受光感度を改善することができる。この結果、撮像装置100は、低照度下でも鮮明な画像を得ることができる。
 一方、撮像装置100は、高照度下では、赤外光をカットするレンズ群26_2からの画像を用いて出力画像を生成する。これにより、撮像装置100は、高照度下ではノイズとなり得る赤外光をカットすることができ、高画質な画像を得ることができる。
 このように、撮影者は、新規な構造を有する撮像装置100により、低照度下であっても、高照度下であっても、高画質な画像を得ることができる。
 また、撮像装置100は、互いに異なる視点のレンズから得られた同じ色情報を有する画像を得ることができる。図2においては、レンズ26_2Aからの画像と、レンズ26_2Bからの画像とが同じ色情報を有する。撮像装置100は、同じ色情報を有する画像間の対応点を探索することにより、被写体距離を算出することができる。これにより、撮像装置100は、被写体の各領域までの距離を示した距離画像を生成することができる。
 さらに、撮像装置100は、同じ色情報を有する2枚の画像を合成することにより、画像が1枚の場合に比べて、受光感度が改善された画像を得ることができる。
 なお、レンズ群26_1およびレンズ群26_2に関連付けられるフィルタは、レンズ上に設けられてもよいし、レンズと一体に構成されてもよい。また、当該フィルタは、撮像素子28に設けられてもよいし、撮像素子28と一体に構成されてもよい。
 また、図2の例においては、複数の撮像素子が示されているが、撮像素子は、1つであってもよい。この場合、撮像素子は、各レンズを透過した光を、当該レンズの対応する領域で受けるように構成される。
 (撮像装置100の変形例1)
 図3を参照して、撮像装置100の変形例について説明する。図3は、変形例1に従う撮像装置100の構成の概略を表した図である。
 撮像装置100のレンズ構成は、図2に示される例に限定されるわけではない。たとえば、図3に示されるように、レンズ群26_1は、1つのレンズではなく、赤外光を透過する2つのレンズ26_1A、26_1Bで構成されてもよい。レンズ群26_2は、2つのレンズではなく、赤外光をカットする1つのレンズ26_2Aで構成されてもよい。
 (撮像装置100の変形例2)
 図4を参照して、撮像装置100の他の変形例について説明する。図4は、変形例2に従う撮像装置100の構成の概略を表した図である。
 撮像装置100に設けられるレンズの数は、3つに限定されるわけではなく、3つ以上であればよい。この場合、レンズ群26_1は、1つ以上のレンズで構成される。レンズ群26_2は、少なくとも1つ以上の残りのレンズで構成される。なお、図4に示される、レンズ群26_1およびレンズ群26_2の左上の数字「1~16」は、レンズの場所を示すためのインデックスである。レンズ群26_1は、赤外カットフィルタが設けられていない8個のレンズ(すなわち、レンズ1、4、5、8、9~11、15)で構成される。レンズ群26_2は、赤外カットフィルタが設けられた8個のレンズ(すなわち、レンズ2、3、6、7、12~14、16)で構成される。
 より具体的には、レンズR(すなわち、レンズ2、12)には、赤色透過フィルタと、赤外カットフィルタとが設けられる。レンズRi(すなわち、レンズ4、10)には、赤色透過フィルタが設けられる。赤色透過フィルタと、赤外カットフィルタとは、1枚のフィルタとして構成されてもよいし、別々のフィルタとして構成されてもよい。撮像装置100は、レンズRおよびレンズRiを透過した光を撮像することで、赤色の波長帯域の情報を含む単色の画像を得ることができる。
 同様に、レンズG(すなわち、レンズ3、6、12、14)には、緑色透過フィルタと、赤外カットフィルタとが設けられる。レンズGi(すなわち、レンズ1、8、9、11)には、緑色透過フィルタが設けられる。
 同様に、レンズB(すなわち、レンズ7、13)には、青色透過フィルタと、赤外カットフィルタとが設けられる。レンズBi(すなわち、レンズ5、15)には、青色透過フィルタが設けられる。
 本変形例に従う撮像装置100は、低照度下では、赤外光を透過するレンズ群26_1(すなわち、レンズRi、レンズGi、レンズBi)を透過した光を撮像して画像を生成する。撮像装置100は、照度不足を赤外光で補うことにより、受光感度を改善することができる。また、レンズRiから得られた画像Riと、レンズBiから得られた画像Biと、レンズGiから得られた画像Giとの各画素を対応付けて、各画像を合成することにより、低照度下であっても、鮮明なカラー画像を得ることができる。
 一方、撮像装置100は、高照度下では、赤外光をカットするレンズ群26_2(すなわち、レンズR、レンズG、レンズB)を透過した光を撮像して得られた画像を生成する。これにより、撮像装置100は、高照度下では余分な情報となり得る赤外光をカットする。このため、撮像装置100は、レンズRから得られた画像Rと、レンズBから得られた画像Gと、レンズGから得られた画像Gとの各画素を対応付けて、各画像を合成することにより、高照度下であっても、より正しい色合いの高画質なカラー画像を得ることができる。
 なお、レンズが透過する光は、上記のような光(R)、光(G)、光(B)に限定されない。たとえば、撮像装置100は、光(C:シアン)、光(M:マゼンダ)、光(Y:イエロー)などの他の波長を有する光を透過するように構成されてもよい。
  [機能構成]
 図5を参照して、第1の実施の形態に従う撮像装置100の機能構成について説明する。図5は、撮像装置100の機能構成の一例を示すブロック図である。図5には、上述した第1の実施の形態の変形例2(図4)のように、画像R、画像G、画像Bおよび画像Ri、画像Gi、画像Biを得ることができ、カラー画像を出力できる撮像装置100に用いられるのに適した構成が示されている。撮像装置100は、後述する画像処理部200を含む。画像処理部200は、第1の設定部210と、距離算出部240と、生成部250とを含む。各構成は、ハードウェアモジュールまたはソフトウェアモジュールによって実現され得る。
 撮像装置100は、撮像モードとして、レンズ群26_1を透過した光を撮像して得られた画像から出力画像を生成する撮像モード(以下、「赤外透過モード」とも称する。)と、レンズ群26_2を透過した光を撮像して得られた画像から出力画像を生成する撮像モード(以下、「赤外カットモード」とも称する。)とを有する。撮像装置100は、赤外透過モードと赤外カットモードとを選択可能に構成される。撮像モードは、第1の設定部210によって設定される。撮像モードの設定方法の詳細については後述する。
 距離算出部240は、異なる視点から撮影された、同じ色特性を有する2枚以上の画像間の対応点探索を行なう。対応点探索の詳細については後述する。距離算出部240は、画像間の対応点を検出することにより、画素ごとに視差情報(式(1)の視差d)を算出する。距離算出部240は、算出した視差情報を生成部250に出力する。また、距離算出部240は、算出した視差dを用いて上記式(1)から、被写体の各領域までの距離情報(上記式(1)の被写体距離Z)を算出する。
 生成部250は、第1の生成部252と、第2の生成部254とを含む。生成部250は、距離算出部240から得られた画像間の視差情報を用いて、出力画像を生成する。生成部250の画像の生成方法の詳細については後述する。
 第1の生成部252は、撮像モードが赤外透過モードである場合に、赤外情報を含む単色画像(図5における「単色画像(+赤外)」)から出力画像を生成する。ここでいう、単色画像とは、所定の波長帯域の光とを含む光を撮像して得られるものである。たとえば、赤外情報を含む単色画像は、画像Ri、画像Gi、および画像Biを含む。第1の生成部252は、画像Ri、画像Gi、および画像Biから赤外情報を含むカラー画像(図5における「カラー画像(+赤外)」)を出力画像として生成する。
 第2の生成部254は、撮像モードが赤外カットモードである場合に、赤外情報を含まない単色画像(図5における「単色画像(-赤外)」))から出力画像を生成する。たとえば、赤外情報を含まない単色画像は、画像R、画像G、および画像Bを含む。第2の生成部254は、画像R、画像G、および画像Bから赤外情報を含まないカラー画像(図5における「カラー画像(-赤外)」)を出力画像として生成する。
  [撮像モードの設定方法(第1の設定部210の詳細)]
 以下、第1の設定部210による撮像モードの設定方法について説明する。上述したように、撮像装置100は、撮像モードとして、赤外光を透過するレンズ群26_1から得られた画像を用いて出力画像を生成する画像赤外透過モードと、赤外光をカットするレンズ群26_2から得られた画像を用いて出力画像を生成する赤外カットモードとを有する。
 撮像モードは、撮像装置100の周囲の照度に応じて、第1の設定部210によって決定される。第1の設定部210は、周囲の照度が低い場合には、赤外光で照度を補うために、撮像モードを赤外透過モードに設定する。また、撮像装置100は、周囲の照度が高い場合には、ノイズになり得る赤外情報をカットするために、撮像モードを赤外カットモードに設定する。
 撮像モードの判定に用いる画像(以下、「判定画像」とも称する。)としては、赤外情報を含まない画像が用いられる。すなわち、第1の設定部210は、赤外光をカットするレンズ群26_2を透過した光から得られた画像の全部または一部の輝度情報を用いて撮像モードを設定する。
 第1の設定部210は、判定画像の輝度情報が、照度が相対的に低いことを示す所定条件を満たした場合には、撮像モードを赤外透過モードに設定し、判定画像の輝度情報が、当該所定条件を満たさない場合には、撮像モードを赤外カットモードに設定する。
 より具体的な処理として、第1の設定部210は、判定画像の輝度情報から、受光した光の強さを示す照度を算出する。第1の設定部210は、算出した照度が所定値よりも大きい場合には、高照度下であるとして、撮像モードを赤外カットモードに設定する。第1の設定部210は、算出した照度が所定値よりも小さい場合には、低照度下であるとして、撮像モードを赤外透過モードに設定する。
 照度の算出方法については様々な方法が考えられる。以下では、図6を参照して、照度の算出方法の一例について説明する。図6は、判定画像の画素値の分布を示したヒストグラムを示す図である。
 撮像装置100は、判定画像に含まれる画素の画素値をヒストグラム化する。すなわち、撮像装置100は、同じ画素値を有する画素の数を、画素値ごとにカウントする。第1の設定部210は、判定画像の画素を画素値の順に並べた場合に、上位から所定パーセントにある画素値を、撮像装置100が受光した光の照度として用いる。たとえば、第1の設定部210は、図6に示されるように、ヒストグラムの上位1%の位置にある画素値を照度として用いる。第1の設定部210は、上位1%の位置にある画素値を照度として採用することで、ノイズとして現れた高数値な画素値を除外することができる。
 第1の設定部210は、照度が所定の値(たとえば、100)よりも小さい場合に、低照度であると判定し、撮像モードを赤外透過モードに設定する。また、第1の設定部210は、当該照度が所定の値(たとえば、100)よりも大きい場合に、高照度であると判定し、撮像モードを赤外カットモードに設定する。
 なお、第1の設定部210は、判定画像の最大画素値を照度として用いてもよい。また、第1の設定部210は、ノイズの影響を除去するために、判定画像の最大画素値に所定の係数(たとえば、0より大きく1より小さい値)を掛けた値を照度として用いてもよい。
 また、第1の設定部210は、照度の算出精度を上げるため、判定画像として複数の画像を用いてもよい。たとえば、第1の設定部210は、互いに異なる色特性を有する複数の単色画像(たとえば、R画像、G画像、B画像)を用いて照度を判定してもよい。第1の設定部210は、複数の画像を判定画像として用いた場合には、たとえば、複数の画像の画素値のうちの最大画素値を照度として用いる。
 さらに、第1の設定部210は、同じ色特性を有する複数の単色画像(たとえば、複数のR画像)を用いて照度を判定してもよい。第1の設定部210は、また、第1の設定部210は、図6に示される方法と同様に、複数の画像の画素値をヒストグラム化して照度を決定してもよい。
 さらに、上述の例では、照度に応じて撮像モードを設定する方法について説明したが、撮像装置100は、撮影者が撮影モードを任意に設定できるように構成されてもよい。この場合、撮像装置100は、撮像モードの設定を支援するためのユーザインターフェイスを提供してもよい。たとえば、撮像装置100は、図6に示に示されるようなヒストグラムを表示してもよい。これにより、撮影者は、ユーザインターフェイス上でヒストグラムを確認しながら撮像モードを設定に用いられる閾値を設定することが可能になる。
  [対応点探索処理(距離算出部240の詳細)]
 (赤外カットモードにおける対応点探索処理)
 図7を参照して、撮像モードが赤外カットモードにおける、画像間の対応点の探索方法について説明する。図7は、赤外カットモードにおける対応点探索処理を概略的に表した概念図である。
 撮像装置100は、互いに異なる視点から被写体を撮像するため、得られた画像間においてズレ(すなわち、視差)が生じる。また、視差は、上記式(1)からも分かるように、被写体距離によって変わる。このため、距離算出部240は、得られた画像の画素ごとに対応点の探索を行ない、画素ごとに視差を検出する。検出された視差は、被写体距離の算出にも用いられるし、下記の生成部250の画像の生成時においても用いられる。
 より具体的な処理として、距離算出部240は、撮像モードが赤外カットモードである場合には、赤外光をカットするレンズ群26_2からの画像を用いて対応点探索を行なう。距離算出部240は、対応点探索処理に用いる画像として、同じ色特性を有する画像を用いる必要がある。なぜならば、距離算出部240は、色情報が異なる画像間では類似する領域を検出できないからである。
 図7に示されるように、一例として、距離算出部240は、レンズG(すなわち、レンズ3、6、14、16)から得られた同じ色特性を有する4枚の画像G(すなわち、画像3A、6A、14A、16A)の間で対応点探索を行なう。
 以下では、距離算出部240が、画像6Aを基準画像にして、画像3A内において対応点を探索する例について説明する。好ましくは、基準画像は、複数のレンズにおいて、より中心に設けられたレンズから得られたものを用いる。これにより、距離算出部240は、基準のレンズに対して様々な相対的方向に設けられたレンズから得られた画像を用いて対応点探索を行なうことができ、対応点の探索精度を向上させることができる。
 対応点の探索範囲は、レンズの相対的な位置関係から限定され得る。すなわち、探索点は、所謂、エピポールライン上に存在するので、対応点の探索範囲は、エピポールライン上に限定される。好ましくは、対応点の探索範囲は、被写体が無限遠にある場合の画素50に対応する画素52から、被写体が所定距離(=Zm)にある場合の画素50に対応する画素54までの間(すなわち、エピポールライン3B上)にさらに限定される。これにより、距離算出部240は、対応点探索にかかる時間を短縮することができる。
 距離算出部240は、画素50から所定範囲の画像情報(たとえば、画素値)をテンプレートとして、当該テンプレートに類似する画像情報を有する画素を画像3A内のエピポールライン3B上で探索する。一例として、距離算出部240は、画素50を中心とした9×9画素程度のサイズを有する領域50Aをテンプレートする。対応点の探索方法は、たとえば、画間の類似度を算出するSAD(Sum of Absolute Difference)によって行なう。SAD値は、以下の式(2)により算出される。SAD値は、式(2)から、類似度が高いほど小さくなる。
Figure JPOXMLDOC01-appb-M000002
 ここで、上記式(1)を変形すると下記の式(3)となる。
Figure JPOXMLDOC01-appb-M000003
 式(3)により、被写体距離Zの逆数(=1/Z)は、視差d(対応点探索時の画素ずらし量)に比例する。すなわち、視差dは、被写体距離Zに対応した値である。このため、画素50から視差dの位置にある画像3A内の各画素のSAD値は、グラフ62に示されるように、横軸を被写体距離の逆数(=1/Z)で正規化することができる。これに着目して、距離算出部240は、画素50の対応点を画像3A内のエピポールライン3B上で探索して、被写体距離の逆数(=1/Z)の位置におけるSAD値を算出する。
 同様に、距離算出部240は、画素50の対応点を画像14A内のエピポールライン14B上で探索する。グラフ64には、画素50に対するエピポールライン14B上の各点の探索結果が示される。同様に、距離算出部240は、画素50に対する対応点を画像16A内のエピポールライン16B上で探索する。
 エピポールライン3B、エピポールライン14B、およびエピポールライン16上の各探索結果(すなわち、SAD値)は、被写体距離の逆数で正規化されているため、足し合わせられ得る。距離算出部240は、各探索結果が足し合わされた結果であるグラフ66においてSAD値が最小となるZcを画素50における被写体距離とする。このように、距離算出部240は、より多くの探索結果を足し合わせた結果を用いることにより、被写体距離を、より正確に特定することができる。
 また、距離算出部240は、画素50に対して行った対応点探索処理を、画像6A内の他の画素についても行なう。これにより、距離算出部240は、画像6A内の各画素について被写体距離を算出することができる。
 なお、図7においては、レンズGから得られた画像Gを用いて対応点探索を行なう例について説明を行なったが、対応点探索に用いられる画像は、画像Gに限定されない。対応点探索に用いられる画像は、同じ色特性を有するものであればよい。たとえば、距離算出部240は、対応点探索において、レンズRから得られた画像Rを用いてもよい。他にも、距離算出部240は、対応点探索において、レンズBから得られた画像Bを用いてもよい。
 また、被写体が遠方に存在する場合や、被写体が一定の位置に存在する場合など、視差が常に一定になるような場合には、距離算出部240による対応点探索処理は、必ずしも実行されなくともよい。
 (赤外透過モードにおける対応点探索処理)
 図8を参照して、撮像装置100の撮像モードが赤外透過モードである場合における、画像間の対応点の探索方法について説明する。図8は、赤外透過モードにおける対応点探索処理を概略的に表した概念図である。
 図8に示されるように、距離算出部240は、撮像モードが赤外透過モードである場合には、赤外光を透過するレンズ群26_1からの画像を用いて対応点探索を行なう。このとき、距離算出部240は、同じ色特性を有する画像間で対応点の探索処理を行なう。たとえば、図8に示されるように、距離算出部240は、レンズGi(すなわち、レンズ1、8、9、11)から得られた同じ色特性を有する4枚の画像Gi(すなわち、画像1A、8A、9A、11A)の間で対応点探索を行なう。
 たとえば、距離算出部240は、画像11Aを基準画像とする。距離算出部240は、画像11Aの点50の対応点を、画像1Aのエピポールライン1B上、画像8Aのエピポールライン8B、画像9Aのエピポールライン9B上で探索する。距離算出部240は、画素50に対して行った対応点探索処理を、画像6A内の他の画素についても行なう。対応点探索の具体的な処理については上述と同じであるので省略する。
 なお、図8においては、レンズGiから得られた画像Giを用いて対応点探索を行なう例について説明を行なったが、対応点探索に用いられる画像は、画像Giに限定されない。対応点探索に用いられる画像は、同じ色特性を有するものであればよい。たとえば、距離算出部240は、対応点探索において、レンズRiから得られた画像Riを用いてもよい。他にも、距離算出部240は、対応点探索において、レンズBiから得られた画像Biを用いてもよい。
  [画像の生成方法(生成部250の詳細)]
 (赤外カットモードにおける画像の生成方法)
 図9を参照して、撮像装置100の撮像モードが赤外カットモードである場合における、カラー画像を生成する方法について説明する。図9は、赤外カットモードにおけるカラー画像の生成処理を概略的に表した概念図である。
 上述の通り、画像内の各画素についての被写体距離が距離算出部240によって算出さるので、生成部250は、算出された被写体距離Zを用いて、上記式(1)から視差dを算出できる。ここで、視差dは、画像間の対応点のズレ量に対応する。このため、生成部250は、被写体距離Zから、色特性が異なる画像間の対応点を特定できる。
 一例として、図9を参照して、レンズ6から得られた画像6A(すなわち、画像G)を基準画像として、画像6Aと、レンズ2から得られた画像2A(すなわち、画像R)と、レンズ7から得られた画像7A(すなわち、画像B)とからカラー画像(RGB画像)を生成する例について説明する。
 生成部250は、画像6Aの画素50における被写体距離Zcを用いて、画素50の対応点を画像2Aにおいて算出する。より具体的には、画像2Aにおける画素50の対応点の位置は、レンズ2とレンズ6との位置関係に基づいて上記式(1)から算出される。画像2Aにおいて、画素50の対応点として算出された画素52が示される。
 同様に、生成部250は、画像6Aの画素50における被写体距離Zcを用いて、画素50の対応点を画像7Aにおいて算出する。画像7Aにおける画素50の対応点の位置は、レンズ6とレンズ7との位置関係に基づいて上記式(1)から算出される。画像7Aにおいて、画素50の対応点として算出された画素54が示される。
 生成部250は、画素50に対して行った画素の対応付け処理を、画像6A内の他の画素についても行なう。以上のようにして、生成部250は、画像6Aの各画素についての視差によるズレを補正することができる。すなわち、生成部250は、色情報が異なる画像間で対応点を算出することができる。これにより、生成部250は、各画像を合成して、カラー画像を生成することができる。
 なお、上述では、レンズ6から得られた画像6Aと、レンズ2から得られた画像2Aと、レンズ7から得られた画像7Aとの間で対応点を特定する例について説明したが、生成部250は、他の画像間で対応点を特定してもよい。生成部250は、赤外光をカットするレンズ群26_2から得られた他の画像を用いて対応点を特定してもよい。
 また、基準画像は、必ずしも、画像6Aである必要はない。生成部250は、基準画像として、赤外カットモードである場合には、赤外光をカットするレンズ群26_2から得られた他の画像を用いてもよい。
 (赤外透過モードにおける画像の生成方法)
 図10を参照して、撮像装置100の撮像モードが赤外透過モードである場合におけるカラー画像を生成する方法について説明する。図10は、赤外透過モードにおけるカラー画像の生成処理を概略的に表した概念図である。
 図10に示されるように、生成部250は、撮像モードが赤外透過モードである場合には、赤外光を透過するレンズ群26_1からの画像を用いてカラー画像の生成を行なう。
 一例として、図10に示されるように、レンズ11から得られた画像11A(すなわち、画像Gi)を基準画像として、画像11Aと、レンズ10から得られた画像10A(すなわち、画像Ri)と、レンズ15から得られた画像15A(すなわち、画像Bi)とからカラー画像を生成する。カラー画像の生成方法については上述と同じであるので、その説明を繰り返さない。
 なお、上述では、レンズ10から得られた画像10Aと、レンズ11から得られた画像11Aと、レンズ15から得られた画像15Aとの間で対応点を特定する例について説明したが、生成部250は、他の画像間で対応点を特定してもよい。生成部250は、赤外光をカットするレンズ群26_2から得られた他の画像を用いて対応点を特定してもよい。
 また、基準画像は、必ずしも、画像11Aである必要はない。生成部250は、基準画像として、赤外透過モードである場合には、赤外光をカットするレンズ群26_2から得られた他の画像を用いてもよい。
  [フローチャート]
 図11を参照して、図5に示される撮像装置100の処理手順について説明する。図11は、撮像装置100が実行する処理の一部を表わすフローチャートである。図11の処理は、後述するCPU102がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、後述の画像処理回路106、回路素子、その他のハードウェアによって実行されてもよい。
 ステップS510において、CPU102は、レンズ1~16(図4参照)のそれぞれを得られた光を撮像することで16枚の画像を取得する。なお、CPU102は、レンズ1~16の全てから画像を得る必要はなく、レンズ1~16の一部のレンズから画像を得てもよい。
 ステップS520において、CPU102は、第1の設定部210として、取得した画像の画像情報(たとえば、画素値などの輝度情報)に基づいて撮像モードを設定する。具体的には、CPU102は、赤外光をカットするレンズ群26_2を透過した光を撮像して得られた画像から、当該光の照度を算出する。CPU102は、算出した照度が所定の値よりも大きい場合には、撮像モードを赤外カットモードに設定する。CPU102は、算出した照度が所定の値よりも小さい場合には、撮像モードを赤外透過モードに設定する。
 ステップS530において、CPU102は、撮像装置100の撮像モードが赤外透過モードであるか否かを判断する。CPU102は、撮像装置100の撮像モードが赤外透過モードであると判断した場合には(ステップS530においてYES)、制御をステップS540に切り替える。そうでない場合には(ステップS530においてNO)、CPU102は、制御をステップS550に切り替える。
 ステップS540において、CPU102は、距離算出部240として、赤外光を透過するレンズ群26_1から得られた単色画像を用いて、同じ色特性を有する単色画像間の対応点を探索する。また、CPU102は、画像間の対応点の探索結果(すなわち、視差情報)を用いて、単色画像内の各画素について被写体距離を算出する。
 ステップS542において、CPU102は、第1の生成部252として、赤外光を透過するレンズ群26_1から得られた単色画像間の対応点の探索結果(すなわち、視差情報)を用いて、異なる色特性を有する画像間で対応点を算出する。CPU102は、算出された対応点に基づいて、それぞれが異なる色特性を有する単色画像を合成し、赤外情報を含むカラー画像を生成する。
 ステップS550において、CPU102は、距離算出部240として、赤外光をカットするレンズ群26_2から得られた単色画像を用いて、同じ色特性を有する単色画像間の対応点を探索する。また、CPU102は、画像間の対応点の探索結果(すなわち、視差情報)を用いて、単色画像内の各画素について被写体距離を算出する。
 ステップS552において、CPU102は、赤外光をカットするレンズ群26_2から得られた単色画像間の対応点の探索結果(すなわち、視差情報)を用いて、異なる色特性を有する画像間で対応点を算出する。CPU102は、算出された対応点に基づいて、それぞれが異なる色特性を有する単色画像を合成し、赤外情報を含まないカラー画像を生成する。
 [ハードウェア構成]
 図12を参照して、本実施の形態に従う撮像装置100のハードウェア構成の一例について説明する。図12は、撮像装置100の主要なハードウェア構成を示すブロック図である。
 撮像装置100は、撮像部20と、IR(Infrared)投光装置40と、出力部45と、画像処理部200とを含む。図12に示す撮像装置100においては、撮像部20が被写体を撮像することで画像を取得し、取得した画像に対して前述の画像処理を行なうことで、出力画像(たとえば、カラー画像や距離画像)を生成する。出力部45は、出力画像を表示デバイスなどへ出力する。
 撮像部20は、被写体を撮像して画像を生成する。撮像部20は、カメラ22、カメラ22に接続されたA/D(Analog to Digital)変換部29とを含む。
 カメラ22は、被写体を撮像するための光学系を備えたアレイカメラである。カメラ22は、所定の波長帯域の光を透過するフィルタ24と、格子状に配置された視点の異なるN個のレンズ26と、レンズ26により形成された光学像を電気信号に変換する撮像素子(イメージセンサ)28とを含む。
 A/D変換部29は、撮像素子28から出力される被写体を示す電気信号(アナログ電気信号)をデジタル信号に変換して出力する。撮像部20はさらに、カメラ各部分を制御するための制御処理回路などを含み得る。
 画像処理部200は、撮像部20によって取得された画像に対して、前述の画像処理を実施することでカラー画像を生成したり、被写体の各領域までの距離を示した距離画像を出力したりする。出力部45は、画像処理部200によって生成されるカラー画像や、距離画像を表示デバイスなどへ出力する。
 [撮像装置100の実装例1]
 図12に示す撮像装置100は、汎用的には、以下に説明するデジタルカメラ、ビデオカメラなどとして具現化される。そこで、以下では、本実施の形態に従う撮像装置100をデジタルカメラとして具現化した例について説明する。
 図13は、図12に示す撮像装置100を具現化したデジタルカメラ100Aの構成を示すブロック図である。図13において、図12に示す撮像装置100を構成するそれぞれのブロックに対応するコンポーネントには、図12と同一の参照符号を付している。
 図13を参照して、デジタルカメラ100Aは、CPU(Central Processing Unit)102と、デジタル処理回路104と、画像表示部108と、カードインターフェイス(I/F)110と、記憶部112と、カメラ114と、IR投光部120とを含む。
 CPU102は、予め格納されたプログラムなどを実行することで、デジタルカメラ100Aを制御する。デジタル処理回路104は、本実施の形態に従う画像処理を含む各種のデジタル処理を実行する。デジタル処理回路104は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)などによって構成される。このデジタル処理回路104は、図12に示す画像処理部200が提供する機能を実現するための画像処理回路106を含む。
 画像表示部108は、カメラ114により提供される入力画像、デジタル処理回路104(画像処理回路106)によって生成される出力画像、デジタルカメラ100Aに従う各種設定情報、および、制御用GUI(Graphical User Interface)画面などを表示する。
 カードI/F110は、画像処理回路106によって生成された画像データを記憶部112へ書き込み、あるいは、記憶部112から画像データなどを読み出すためのインターフェイスである。記憶部112は、画像処理回路106によって生成された画像データや各種情報(デジタルカメラ100Aの制御パラメータや撮像モードなどの設定値)を格納する記憶デバイスである。記憶部112は、フラッシュメモリ、光学ディスク、磁気ディスクなどからなり、データを不揮発的に記憶する。
 IR投光部120は、赤外光を被写体に向けて照射する。カメラ114は、被写体によって反射された赤外光を受光することで、赤外光の強さに応じた画像を生成する。また、IR投光部120は、赤外光を照射しているか否かを示すIR投光情報42(フラグ)を格納する。画像処理部200は、IR投光情報42を参照することで、IR投光部120が赤外光を照射しているか否かを判断することができる。なお、IR投光部120は、本実施の形態に従う撮像装置100においては必須の構成ではない。IR投光部120は、以下の第3の実施の形態に従う撮像装置100Eにおいて用いられる。
 図13に示すデジタルカメラ100Aは、本実施の形態に従う撮像装置100の全体を単体の装置として実装したものである。すなわち、ユーザーは、デジタルカメラ100Aを用いて被写体を撮像することで、画像表示部108において高画質な画像を視認することができる。
 なお、上記では、撮像装置100をデジタルカメラ100Aとして具現化する例について説明を行なったが、撮像装置100は、図12に示される構成と同様の構成でビデオカメラとして具現化されてもよい。
 [撮像装置100の実装例2]
 図14を参照して、本実施の形態に従う撮像装置100を実現するための制御プログラム154をダウンロードした例について説明する。図14は、制御プログラム154をダウンロードすることにより実現される電子機器100Bの構成を示すブロック図である。制御プログラム154は、たとえば、PC(Personal Computer)、携帯電話、スマートフォンなどにダウンロードされ得る。以下では、制御プログラム154をPC152にダウンロードした例について説明する。
 図14に示す電子機器100Bでは、任意の撮像部20によって取得された入力画像が外部から入力される構成となっている。このような構成であっても、本発明の実施の形態に従う撮像装置100に含まれ得る。なお、図14においても、図12に示す撮像装置100を構成するそれぞれのブロックに対応するコンポーネントには、図12と同一の参照符号を付している。
 図14を参照して、電子機器100Bは、PC152と、モニタ156と、マウス158と、キーボード160と、外部記憶装置162とを含む。
 PC152は、典型的には、汎用的なアーキテクチャーに従う汎用コンピューターであり、基本的な構成要素として、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)などを含む。PC152は、画像処理部200が提供する機能を実現するための制御プログラム154をダウンロード可能に構成される。制御プログラム154は、CD-ROM(Compact Disk-Read Only Memory)などの記憶媒体に格納されて流通し、あるいは、ネットワークを介してサーバー装置からダウンロードされる。制御プログラム154は、PC152のハードディスクなどの記憶領域内に格納される。
 制御プログラム154は、PC152で実行されるオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち必要なモジュールを、所定のタイミングおよび順序で呼出して処理を実現するように構成されてもよい。この場合、制御プログラム154自体には、OSが提供するモジュールは含まれず、OSと協働して画像処理が実現される。また、制御プログラム154は、単体のプログラムではなく、何らかのプログラムの一部に組込まれて提供されてもよい。このような場合にも、制御プログラム154自体には、当該何らかのプログラムにおいて共通に利用されるようなモジュールは含まれず、当該何らかのプログラムと協働して画像処理が実現される。このような一部のモジュールを含まない制御プログラム154であっても、本実施の形態に従う撮像装置100の趣旨を逸脱するものではない。
 もちろん、制御プログラム154によって提供される機能の一部または全部を専用のハードウェアによって実現してもよい。
 モニタ156は、オペレーティングシステム(OS)が提供するGUI画面、制御プログラム154によって生成される画像などを表示する。
 マウス158およびキーボード160は、それぞれユーザー操作を受付け、その受付けたユーザー操作の内容をPC152へ出力する。
 外部記憶装置162は、何らかの方法で取得された入力画像を格納しており、この入力画像をPC152へ出力する。外部記憶装置162としては、フラッシュメモリ、光学ディスク、磁気ディスクなどのデータを不揮発的に記憶するデバイスが用いられる。
  [利点]
 以上のようにして、本実施の形態に従う撮像装置100は、低照度下においては、赤外光を透過するレンズ群26_1からの画像を用いることで、感度不足を赤外光でカバーすることができる。これにより、撮影者は、低照度下であっても、鮮明なカラー画像を得ることができる。また、撮像装置100は、低照度下であっても、赤外光を透過するレンズ群26_1からの画像を用いることで、被写体までの正確な距離を算出することができる。
 一方、撮像装置100は、高照度下においては、赤外光をカットするレンズ群26_2からの画像を用いることで、高照度下においてはノイズとなり得る赤外光をカットする。これにより、撮影者は、高照度下であっても、高画質なカラー画像を得ることができる。また、撮像装置100は、高照度下であっても、赤外光をカットするレンズ群26_2からの画像を用いることで、被写体までの正確な距離を算出することができる。
 <第2の実施の形態>
  [概要]
 図15を参照して、第2の実施の形態に従う撮像装置100Dの概要について説明する。図15は、本実施の形態に従う対応点探索処理の利点を説明するための図である。本実施の形態に従う撮像装置100Dは、赤外情報を含む単色画像と、赤外情報を含まない単色画像とのいずれか一方を用いる場合だけでなく、これらの画像の両方を用いて画像間の対応点探索処理を行なう場合がある点で、第1の実施の形態に従う撮像装置100とは異なる。ハードウェア構成などのその他の点については第1の実施の形態、特にその変形例2に従う撮像装置100と同じであるので、それらの説明を繰り返さない。
 画像間の対応点の探索処理の精度は、様々な視点から撮影して得られた画像を用いることで改善され得る。以下、その理由について説明する。図15に示されるように、直線のような同じ模様が繰り返されるパターンを有する基準画像70について対応点探索処理が実行される場合について考える。
 探索画像72は、基準画像70に対応するレンズの真横に設けられたレンズから得られたものである。すなわち、基準画像70内の画素70Aの対応点は、探索画像72の横縞に平行なエピポールライン72B上に存在することになる。このため、エピポールライン72B上には、画素70Aに類似する点が多数存在するので、誤った点を画素70Aの対応点としてしまう可能性が高い。この結果、視差が正確に推定されなくなる。
 探索画像74は、基準画像70に対応するレンズの右下に設けられたレンズから得られたものである。すなわち、基準画像70内の画素70Aの対応点は、探索画像72の横縞に対して斜めの方向を向いたエピポールライン74B上に存在することになる。このため、エピポールライン74B上には、画素70Aに類似する点を絞り込むことができるので、探索画像74Aの正しい点を画素70Aの対応点として検出する可能性が高くなる。
 このように、対応点探索処理において1組の画像だけが用いられると、対応点として誤った点が検出される可能性が高くなるが、複数の組の画像が用いられると、正しい点を対応点として検出できる可能性が高まる。また、オクルージョン(隠れ)による問題からも、複数の視点から得られた画像を用いて対応点探索処理を行なう方が好ましい。そこで、本実施の形態に従う撮像装置100Dは、対応点探索処理に用いる画像の種類を増やすことにより、対応点探索の精度を改善する。
 より具体的には、撮像装置100Dの周囲の環境に赤外光が存在しない場合には、赤外光を透過するレンズ群26_1から得られた画像と、赤外光をカットするレンズ群26_2から得られた画像とは、同じ色特性を有することになる。そこで、撮像装置100Dは、赤外光を透過するレンズ群26_1からの画像に赤外光の情報が含まれているか否かを判断し、当該画像に赤外光の情報が含まれていない場合には、レンズ群26_1からの画像と、レンズ群26_2からの画像との両方を用いて対応点探索を行なう。
 このように、撮像装置100Dは、より多くの視点から撮影して得られた画像を用いて対応点探索処理を行なうことで、対応点探索処理の精度を向上することができる。すなわち、撮像装置100Dは、直線などの同じ模様が繰り返される間違えやすい画像についても、異なる向きのエピポールラインを探索できるので、正しい点を対応点として検出できる可能性が高くなる。
  [機能構成]
 図16を参照して、第2の実施の形態に従う撮像装置100Dの機能構成について説明する。図16は、撮像装置100Dの機能構成の一例を示すブロック図である。撮像装置100Dは、画像処理部200を含む。画像処理部200は、第1の設定部210と、第2の設定部230と、距離算出部240と、生成部250とを含む。第1の設定部210と、生成部250については、上述した通りであるので、それらの説明を繰り返さない。
 撮像装置100Dは、制御モードとして、赤外光を透過するレンズ群26_1を透過した光から得られた画像(第1の画像群)と、赤外光をカットするレンズ群26_2を透過した光から得られた画像(第2の画像群)との両方を用いて対応点探索を行なう第1の制御モードを有する。また、撮像装置100Dは、制御モードとして、レンズ26_1からの画像およびレンズ26_2からの画像のいずれか一方を用いて対応点探索を行なう第2の制御モードを有する。撮像装置100Dは、第1の制御モードと第2の制御モードとを選択可能に構成される。制御モードは、第2の設定部230によって設定される。制御モードの設定方法の詳細については後述する。
 距離算出部240は、第1の距離算出部242と、第2の距離算出部244とを含む。距離算出部240は、制御モードに応じて、対応点探索処理に用いる画像を変える。
 第1の距離算出部242は、制御モードが第1の制御モードである場合において、赤外光を透過するレンズ群26_1からの画像(図16における「単色画像(+赤外)」)と、赤外光をカットするレンズ群26_2からの画像(図16における「単色画像(-赤外)」)とを同じ色特性を有する画像として扱い、これらの画像の両方を用いて対応点探索処理を行なう。たとえば、第1の距離算出部242は、画像Rおよび画像Riを同じ色特性を有する画像として扱う。
 第2の距離算出部244は、制御モードが第2の制御モードである場合において、レンズ群26_1からの画像(図16における「単色画像(+赤外)」)と、レンズ群26_2からの画像(図16における「単色画像(-赤外)」)とを異なる色特性を有する画像として扱い、これらの画像のいずれか一方を用いて対応点探索処理を行なう。たとえば、第1の距離算出部242は、画像Rおよび画像Riを異なる色特性を有する画像として扱う。
  [制御モードの設定方法(第2の設定部230の詳細)]
 以下、第2の設定部230の制御モードの設定方法について説明する。上述したように、撮像装置100Dは、制御モードとして、第1の制御モードと、第2の制御モードとを有する。第2の設定部230は、撮像装置100Dの周囲の環境において赤外光が存在するか否か基づいて、制御モードを設定する。
 一例として、撮像装置100Dの周囲の環境において赤外光が存在するか否かは、赤外光を透過するレンズ群26_1からの画像と、赤外光をカットするレンズ群26_2からの画像とを比較することにより判断される。すなわち、赤外光を透過するレンズ群26_1からの画像が、赤外光がカットされた画像と類似する場合には、撮像装置100Dの周囲に赤外光が存在しないと考えられる。そこで、第2の設定部230は、レンズ群26_1からの画像の画像情報(たとえば、画素値などの輝度情報)とレンズ群26_2からの画像情報(たとえば、画素値などの輝度情報)とを比較することにより、撮像装置100Dの制御モードを設定する。
 一例として、第2の設定部230は、レンズGiからの画像Giと、レンズGからの画像Gとの輝度情報を比較する。たとえば、画像Giの平均画素値と、画像Gの平均画素値との差が所定の閾値(たとえば、5)以下である場合には、第2の設定部230は、画像Gと画像Giとが同じ色情報を有しているものとして扱う。すなわち、この場合には、第2の設定部230は、制御モードを第1の制御モードに設定する。
 また、画像Giの平均画素値と、画像Gの平均画素値との差が所定の閾値(たとえば、5)よりも大きい場合には、第2の設定部230は、画像Gと画像Giとが異なる色情報を有しているものとして扱う。すなわち、この場合には、第2の設定部230は、制御モードを第2の制御モードに設定する。
 なお、画像に赤外情報が含まれるか否かを判定する他の方法として、第2の設定部230は、画像Gおよび画像Giを所定の領域に分割して、分割した領域ごとの平均画素値を比較するように構成されてもよい。これにより、画像の部分的な差異を見つけることが可能になる。一例として、第2の設定部230は、画像Gおよび画像Giのそれぞれを、縦に4分割し、横に4分割し、合計16個の領域に分割する。
 他にも、第2の設定部230は、画像の平均画素値だけでなく、さらに、画像の最大画素値を比較してもよい。これにより、画像に赤外情報が含まれるか否かの判定精度が向上する。
 さらに、撮像装置100Dは、撮影者が制御モードを任意に設定できるように構成されてもよい。この場合、撮像装置100Dは、制御モードの設定を受けるためのユーザインターフェイスを提供する。
  [対応点探索処理(距離算出部240の詳細)]
 図17を参照して、撮像装置100Dの制御モードが第1の制御モードである場合の対応点探索処理について説明する。図17は、第1の制御モードにおける対応点探索処理を概略的に表した概念図である。
 距離算出部240は、制御モードが第1の制御モードである場合には、赤外光を透過するレンズ群26_1からの画像と、赤外光をカットするレンズ群26_2からの画像との両方を用いて対応点探索処理を行なう。すなわち、距離算出部240は、レンズ群26_1からの画像と、レンズ群26_2からの画像とを同じ色特性を有するものとして扱い、これらの画像の両方を用いて、被写体距離を算出する。
 より具体的な処理として、図17に示されるように、距離算出部240は、レンズG(すなわち、レンズ3、6、14、16)から得られた画像Gと、レンズGi(すなわち、レンズ1、8、9、11)から得られた画像Giとの8枚の画像(すなわち、画像3A、6A、14A、16A、1A、8A、9A、11A)の間で対応点探索を行なう。
 対応点探索方法については、図7および図8と同様であるので、以下では、上記と異なる部分のみ説明を行なう。図7および図8においては、距離算出部240は、対応点の探索方法として、SADを用いたが、代わりに、NCC(Normalized Cross Correlation)を用いてもよい。赤外光が存在しない環境下では、G画像とGiとは、ほぼ同じ輝度情報を有するが、若干の違いは生じる。このため、距離算出部240は、画素値を比較するSADでは対応点探索を誤る場合もあり得る。このため、好ましくは、距離算出部240は、パターン成分を比較するNCCなどの対応点探索手法を用いる。画像間の類似度を示すNCC値は、以下の式(4)を用いて算出される。
Figure JPOXMLDOC01-appb-M000004
 なお、図17においては、画像Gおよび画像Giを用いて対応点探索を行なう例について説明を行なったが、第1の制御モードにおいて対応点探索に用いられる画像は、これらに限定されない。たとえば、距離算出部240は、画像Rおよび画像Riを用いて対応点探索を行なってもよい。他にも、たとえば、距離算出部240は、画像Bおよび画像Biを用いて対応点探索を行なってもよい。
 また、撮像装置100Dの制御モードが第2の制御モードである場合の対応点探索処理については図7および図8と同じであるので、それらの説明を繰り返さない。
  [フローチャート]
 図18を参照して、撮像装置100Dの処理手順について説明する。図18は、撮像装置100Dが実行する処理の一部を表わすフローチャートである。図18の処理は、撮像装置100DのCPU102がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、画像処理回路106、回路素子、その他のハードウェアによって実行されてもよい。なお、ステップS510~S552の処理は、図11と同じであるので、それらの説明を繰り返さない。
 ステップS610において、CPU102は、第2の設定部230として、撮像装置100Dの周囲の環境において赤外光が存在するか否かに基づいて、撮像装置100Dの制御モードを設定する。一例として、CPU102は、赤外光を透過するレンズ群26_1からの画像と、赤外光をカットするレンズ群26_2からの画像との輝度情報を比較する。CPU102は、レンズ群26_1からの画像と、レンズ群26_2からの画像との輝度情報に差が無い場合には、これらの画像が同じ色情報を有するものとして、制御モードを第1の制御モードに設定する。CPU102は、レンズ群26_1からの画像と、レンズ群26_2からの画像との輝度情報に差がある場合には、これらの画像が異なる色情報を有するものとして、制御モードを第2の制御モードに設定する。
 ステップS620において、CPU102は、撮像装置100Dの制御モードが第1の制御モードであるか否かを判断する。CPU102は、撮像装置100Dの制御モードが第1の制御モードであると判断した場合には(ステップS620においてYES)、制御をステップS630に切り替える。そうでない場合には(ステップS620においてNO)、CPU102は、制御をステップS640に切り替える。
 ステップS630において、CPU102は、第1の距離算出部242として、赤外光を透過するレンズ群26_1からの画像(図18の「単色画像(+赤外)」)と、赤外光をカットするレンズ群26_2からの画像(図18の「単色画像(-赤外)」)との両方を用いて対応点探索処理を行なう。
 ステップS640において、CPU102は、第2の距離算出部244として、赤外光を透過するレンズ群26_1からの画像(図18の「単色画像(+赤外)」)と、赤外光をカットするレンズ群26_2からの画像(図18の「単色画像(-赤外)」)とのいずれか一方を用いて対応点探索処理を行なう。より具体的には、CPU102は、撮像装置100Dの制御モードが第2の制御モードであり、かつ、撮像装置100Dの撮像モードが赤外透過モードである場合には、レンズ群26_1からの画像を用いて対応点探索処理を行なう。CPU102は、撮像装置100Dの制御モードが第2の制御モードであり、かつ、撮像装置100Dの撮像モードが赤外カットモードである場合には、レンズ群26_2からの画像を用いて対応点探索処理を行なう。
  [利点]
 以上のようにして、本実施の形態に従う撮像装置100Dは、当該撮像装置100Dの周囲の環境に赤外光が存在しない場合には、赤外光を透過するレンズ群26_1からの画像と、赤外光をカットするレンズ群26_2からの画像とを同じ色情報を有する画像として扱う。これにより、撮像装置100Dは、レンズ群26_1からの画像と、レンズ群26_2からの画像との両方を用いて対応点探索を行なうことができる。このように、より多くの画像を用いて対応点探索を行なうことにより、対応点探索の精度が向上する。この結果、撮像装置100Dは、被写体距離の算出精度を改善させることができる。また、撮像装置100Dは、対応点探索の精度を上げることで、より高画質なカラー画像を生成することが可能になる。
 <第3の実施の形態>
  [概要]
 以下、第3の実施の形態に従う撮像装置100Eの概要について説明する。本実施の形態に従う撮像装置100Eは、IR投光装置40(図12参照)が赤外の投光を行なっているか否かに基づいて、制御モードを設定する点で第2の実施の形態に従う撮像装置100Dとは異なる。ハードウェア構成などのその他の点については第2の実施の形態に従う撮像装置100Dと同じであるので、それらの説明を繰り返さない。
 本実施の形態における撮像装置100Eは、当該撮像装置100Eの周囲の環境に赤外光が存在しない、あるいは赤外光が少ない環境や施設などで用いられるのに好適である。さらに、撮像装置100Eは、当該撮像装置100Eから可視光の投光が行なわれることで周囲の環境に影響を与えることが望ましくない装置(たとえば、防犯用の監視カメラなど)などに用いられるのに好適である。
 撮像装置100Eは、被写体に向けて赤外光を投光するためのIR投光装置40を備える。撮像装置100Eは、IR投光装置40が赤外光を投光しているか否かを示すIR投光情報42(図12参照)を記憶する。撮像装置100Eは、IR投光情報42に基づいて、撮像装置100Eの制御モードを設定する。
 たとえば、IR投光装置40が赤外光を投光していないことをIR投光情報42が示している場合には、撮像装置100Eは、制御モードを第1の制御モードに設定する。また、IR投光装置40が赤外光を投光していることをIR投光情報42が示している場合には、撮像装置100Eは、制御モードを第2の制御モードに設定する。
 これにより、撮像装置100Eは、赤外情報が含まれるか否かを判定するための処理を省くことが可能になるので、処理時間が改善される。
  [フローチャート]
 図19を参照して、撮像装置100Eの処理手順について説明する。図19は、撮像装置100Eが実行する処理の一部を表わすフローチャートである。図19の処理は、撮像装置100EのCPU102がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、画像処理回路106、回路素子、その他のハードウェアによって実行されてもよい。なお、ステップS510~ステップS640の処理は、図18と同じであるので、それらの説明を繰り返さない。
 ステップS710において、CPU102は、IR投光装置40が赤外光を投光していないことをIR投光情報42が示している場合には、撮像装置100Eは、制御モードを第1の制御モードに設定する。また、IR投光装置40が赤外光を投光していることをIR投光情報42が示している場合には、CPU102は、制御モードを第2の制御モードに設定する。
 (変形例)
 図20を参照して、撮像装置100Eにおける変形例に従う処理手順について説明する。図20は、撮像装置100Eが実行する処理の変形例を表すフローチャートである。図20の処理は、撮像装置100EのCPU102がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、画像処理回路106、回路素子、その他のハードウェアによって実行されてもよい。なお、ステップS510、ステップS620、ステップS630、ステップS640の処理は、図18と同じであるので、それらの説明を繰り返さない。
 ステップS810において、CPU102は、IR投光情報42を参照して、IR投光装置40が赤外光を投光しているか否かを判断する。CPU102は、IR投光装置40が赤外光を投光していると判断した場合には(ステップS810においてYES)、制御をステップS640に切り替える。そうでない場合には(ステップS810においてNO)、CPU102は、制御をステップS620に切り替える。
 このように、IR投光装置40が赤外光を投光している場合には、必ず、赤外光を透過するレンズ群26_1からの画像には赤外情報が含まれるので、CPU102は、この場合のみ、赤外情報が含まれるか否かを判定するための処理を省略する。
  [利点]
 以上のようにして、本実施の形態に従う撮像装置100Eは、IR投光装置40に基づいて、赤外光を透過するレンズ群26_1からの画像に赤外情報が含まれるか否かを判定する。これにより、撮像装置100Eは、レンズ群26_1からの画像に赤外情報が含まれるか否かを判定するための処理を省くことが可能になるので、処理時間を改善することができる。
 以上説明した撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部と、3つ以上のレンズのそれぞれを透過した光から得られたそれぞれの画像の全部または一部を用いて、被写体を表現する出力画像を生成する生成部とを備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。
 撮像装置は、第1のレンズ群を透過した光を撮像して得られた第1の画像群から出力画像を生成する第1の撮像モードと、第2のレンズ群を透過した光を撮像して得られた第2の画像群から出力画像を生成する第2の撮像モードとを選択可能に構成される。
 撮像装置は、第2の画像群の全部または一部の画像の輝度情報を用いて、撮像装置の撮像モードを設定するための第1の設定部をさらに備える。
 第1の設定部は、第2のレンズ群を透過した光から得られた画像の全部または一部の輝度情報が、照度が相対的に低いことを示す所定条件を満たした場合に、撮像装置の撮像モードを第1の撮像モードに設定する。輝度情報が、所定条件を満たさない場合に、撮像装置の撮像モードを第2の撮像モードに設定する。
 撮像装置は、制御モードとして、第1のレンズ群を透過した光から得られた第1の画像群と、第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとする第1の制御モードと、第1の画像群と、第2の画像群とが、異なる色特性を有するものとする第2の制御モードとを有する。
 撮像装置は、当該撮像装置の制御モードが第1の制御モードである場合には、第1の画像群と第2の画像群との両方を用いて、被写体の各領域までの距離情報を算出する。
 撮像装置は、第1の画像群に属する画像の輝度情報と、第2の画像群に属する画像の輝度情報とを比較することにより、撮像装置の制御モードを設定する。
 撮像装置は、被写体に赤外光を投光するための投光部と、投光部が赤外光を投光しているか否かに基づいて、撮像装置の制御モードを設定するため第2の設定部とをさらに備える。
 また、以上説明した撮像装置の制御方法は、次の撮像装置を制御する方法である。すなわち、撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。そして、この撮像装置の制御方法は、撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、撮像装置の撮像モードが第1の撮像モードである場合に、第1のレンズ群を透過した光を撮像して得られた画像から被写体を表現する出力画像を生成することと、撮像装置の撮像モードが第2の撮像モードである場合に、第2のレンズ群を透過した光を撮像して得られた画像から出力画像を生成することとを備える。
 撮像装置の他の制御方法は、撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、撮像装置の制御モードが第1の制御モードである場合に、第1のレンズ群を透過した光から得られた第1の画像群と、第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、撮像装置の制御モードが第2の制御モードである場合に、第1の画像群と、第2の画像群とが、異なる色特性を有するものとすることとを備える。
 また、以上説明した撮像装置を制御するための制御プログラムは、次の撮像装置を制御するための制御プログラムである。すなわち、撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備える。3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなる。第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられている。第2のレンズ群には、第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている。そして、この撮像装置の制御プログラムは、撮像装置に、撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、撮像装置の撮像モードが第1の撮像モードである場合に、第1のレンズ群を透過した光を撮像して得られた画像から被写体を表現する出力画像を生成することと、撮像装置の撮像モードが第2の撮像モードである場合に、第2のレンズ群を透過した光を撮像して得られた画像から出力画像を生成することとを実行させる。
 撮像装置を制御するための他の制御プログラムは、撮像装置に、撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、撮像装置の制御モードが第1の制御モードである場合に、第1のレンズ群を透過した光から得られた第1の画像群と、第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、撮像装置の制御モードが第2の制御モードである場合に、第1の画像群と、第2の画像群とが、異なる色特性を有するものとすることとを実行させる。
 以上説明した撮像装置によれば、より高画質な画像を得ることが可能な新規な構造を得ることができ、さらにその撮像装置を制御する制御方法、制御プログラムを得ることができる。
 今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
 1~16,26,26_1A,26_1B,26_2A,26_2B レンズ、1A~16A 画像、1B~16B,72B,74B エピポールライン、20,20A,20B 撮像部、22,114 カメラ、24 フィルタ、26_1,26_2 レンズ群、28 撮像素子、29 A/D変換部、31 被写体、40 投光装置、42 投光情報、45 出力部、50,52,54,70A 画素、50A 領域、62,64,66 グラフ、70 基準画像、72,74,74A 探索画像、100,100D,100E 撮像装置、100A デジタルカメラ、100B 電子機器、104 デジタル処理回路、106 画像処理回路、108 画像表示部、112 記憶部、120 投光部、154 制御プログラム、156 モニタ、158 マウス、160 キーボード、162 外部記憶装置、200 画像処理部、210 第1の設定部、230 第2の設定部、240 距離算出部、242 第1の距離算出部、244 第2の距離算出部、250 生成部、252 第1の生成部、254 第2の生成部。

Claims (12)

  1.  互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部と、
     前記3つ以上のレンズのそれぞれを透過した光から得られたそれぞれの画像の全部または一部を用いて、前記被写体を表現する出力画像を生成する生成部とを備え、
     前記3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなり、
     前記第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられており、
     前記第2のレンズ群には、前記第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられている、撮像装置。
  2.  前記撮像装置は、前記第1のレンズ群を透過した光を撮像して得られた第1の画像群から前記出力画像を生成する第1の撮像モードと、前記第2のレンズ群を透過した光を撮像して得られた第2の画像群から前記出力画像を生成する第2の撮像モードとを選択可能に構成される、請求項1に記載の撮像装置。
  3.  前記撮像装置は、前記第2の画像群の全部または一部の画像の輝度情報を用いて、前記撮像装置の撮像モードを設定するための第1の設定部をさらに備える、請求項2に記載の撮像装置。
  4.  前記第1の設定部は、前記第2のレンズ群を透過した光から得られた画像の全部または一部の輝度情報が、照度が相対的に低いことを示す所定条件を満たした場合に、前記撮像装置の撮像モードを前記第1の撮像モードに設定し、前記輝度情報が、前記所定条件を満たさない場合に、前記撮像装置の撮像モードを前記第2の撮像モードに設定する、請求項3に記載の撮像装置。
  5.  前記撮像装置は、制御モードとして、
      前記第1のレンズ群を透過した光から得られた第1の画像群と、前記第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとする第1の制御モードと、
      前記第1の画像群と、前記第2の画像群とが、異なる色特性を有するものとする第2の制御モードとを有する、請求項1~4のいずれか1項に記載の撮像装置。
  6.  前記撮像装置は、当該撮像装置の制御モードが前記第1の制御モードである場合には、前記第1の画像群と前記第2の画像群との両方を用いて、前記被写体の各領域までの距離情報を算出するための距離算出部をさらに備える、請求項5に記載の撮像装置。
  7.  前記撮像装置は、前記第1の画像群に属する画像の輝度情報と、前記第2の画像群に属する画像の輝度情報とを比較することにより、前記撮像装置の制御モードを設定するための第2の設定部をさらに備える、請求項5または6に記載の撮像装置。
  8.  前記撮像装置は、
      前記被写体に赤外光を投光するための投光部と、
      前記投光部が赤外光を投光しているか否かに基づいて、前記撮像装置の制御モードを設定するため第2の設定部とをさらに備える、請求項5または6に記載の撮像装置。
  9.  撮像装置を制御するための制御方法であって、
     前記撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備え、
     前記3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなり、
     前記第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられており、
     前記第2のレンズ群には、前記第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられており、
     前記制御方法は、
      前記撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、
      前記撮像装置の撮像モードが前記第1の撮像モードである場合に、前記第1のレンズ群を透過した光を撮像して得られた画像から前記被写体を表現する出力画像を生成することと、
      前記撮像装置の撮像モードが前記第2の撮像モードである場合に、前記第2のレンズ群を透過した光を撮像して得られた画像から前記出力画像を生成することとを備える、制御方法。
  10.  撮像装置を制御するための制御方法であって、
     前記撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備え、
     前記3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなり、
     前記第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられており、
     前記第2のレンズ群には、前記第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられており、
     前記制御方法は、
      前記撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、
      前記撮像装置の制御モードが前記第1の制御モードである場合に、前記第1のレンズ群を透過した光から得られた第1の画像群と、前記第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、
      前記撮像装置の制御モードが前記第2の制御モードである場合に、前記第1の画像群と、前記第2の画像群とが、異なる色特性を有するものとすることとを備える、制御方法。
  11.  撮像装置を制御するための制御プログラムであって、
     前記撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備え、
     前記3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなり、
     前記第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられており、
     前記第2のレンズ群には、前記第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられており、
     前記制御プログラムは、前記撮像装置に、
      前記撮像装置の撮像モードを第1の撮像モードおよび第2の撮像モードのいずれかに設定することと、
      前記撮像装置の撮像モードが前記第1の撮像モードである場合に、前記第1のレンズ群を透過した光を撮像して得られた画像から前記被写体を表現する出力画像を生成することと、
      前記撮像装置の撮像モードが前記第2の撮像モードである場合に、前記第2のレンズ群を透過した光を撮像して得られた画像から前記出力画像を生成することとを実行させる、制御プログラム。
  12.  撮像装置を制御するための制御プログラムであって、
     前記撮像装置は、互いに異なる視点から被写体をそれぞれ撮像する3つ以上のレンズを含む撮像部を備え、
     前記3つ以上のレンズは、第1のレンズ群と、第2のレンズ群とからなり、
     前記第1のレンズ群には、第1の波長透過特性を有するフィルタが関連付けられており、
     前記第2のレンズ群には、前記第1の波長透過特性に比較して赤外領域の透過率がより少ないフィルタが関連付けられており、
     前記制御プログラムは、前記撮像装置に、
      前記撮像装置の制御モードを第1の制御モードおよび第2の制御モードのいずれかに設定することと、
      前記撮像装置の制御モードが前記第1の制御モードである場合に、前記第1のレンズ群を透過した光から得られた第1の画像群と、前記第2のレンズ群を透過した光から得られた第2の画像群とが、同じ色特性を有するものとすることと、
      前記撮像装置の制御モードが前記第2の制御モードである場合に、前記第1の画像群と、前記第2の画像群とが、異なる色特性を有するものとすることとを実行させる、制御プログラム。
PCT/JP2015/057864 2014-05-20 2015-03-17 撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム WO2015178079A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-104524 2014-05-20
JP2014104524 2014-05-20

Publications (1)

Publication Number Publication Date
WO2015178079A1 true WO2015178079A1 (ja) 2015-11-26

Family

ID=54553756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057864 WO2015178079A1 (ja) 2014-05-20 2015-03-17 撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム

Country Status (1)

Country Link
WO (1) WO2015178079A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002221656A (ja) * 2001-01-26 2002-08-09 Olympus Optical Co Ltd 焦点調整装置
JP2006174440A (ja) * 2000-02-21 2006-06-29 Sharp Corp 画像合成装置
WO2007125761A1 (ja) * 2006-04-24 2007-11-08 Panasonic Corporation 複眼方式のカメラモジュール
JP2009117976A (ja) * 2007-11-02 2009-05-28 Panasonic Corp 撮像装置
JP2009294301A (ja) * 2008-06-03 2009-12-17 Nikon Corp 受光装置および焦点検出装置
JP2012182626A (ja) * 2011-03-01 2012-09-20 Nec Corp 撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174440A (ja) * 2000-02-21 2006-06-29 Sharp Corp 画像合成装置
JP2002221656A (ja) * 2001-01-26 2002-08-09 Olympus Optical Co Ltd 焦点調整装置
WO2007125761A1 (ja) * 2006-04-24 2007-11-08 Panasonic Corporation 複眼方式のカメラモジュール
JP2009117976A (ja) * 2007-11-02 2009-05-28 Panasonic Corp 撮像装置
JP2009294301A (ja) * 2008-06-03 2009-12-17 Nikon Corp 受光装置および焦点検出装置
JP2012182626A (ja) * 2011-03-01 2012-09-20 Nec Corp 撮像装置

Similar Documents

Publication Publication Date Title
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
CN111256662B (zh) 位置信息取得装置、位置信息取得方法、记录介质以及位置信息取得系统
JP6553624B2 (ja) 計測機器、及びシステム
US9979951B2 (en) Imaging apparatus and imaging method including first and second imaging devices
US10057554B2 (en) Projection control device, projection control method and non-transitory storage medium
JP2012029269A (ja) 撮像装置および投写型映像表示装置
US8199247B2 (en) Method for using flash to assist in focal length detection
JP2016075658A (ja) 情報処理システムおよび情報処理方法
US20170018108A1 (en) Display apparatus and control method thereof
JP6700818B2 (ja) 画像処理装置、撮像装置、および画像処理方法
CN109756667B (zh) 位置取得系统、位置取得装置、位置取得方法以及记录介质
WO2015178079A1 (ja) 撮像装置、撮像装置の制御方法、および、撮像装置の制御プログラム
JP7416057B2 (ja) 交換レンズ、情報処理装置、情報処理方法、及び、プログラム
JP2021183990A (ja) 位置情報取得システム、位置情報取得装置、位置情報取得方法及びプログラム
JP2016099322A (ja) 撮像装置、撮像装置の制御方法およびプログラム
US11265524B2 (en) Image processing apparatus, image processing method, and storage medium
US11758248B2 (en) Information acquisition method and information acquisition device
CN112118045B (zh) 位置取得装置、位置取得方法以及记录介质
JP7056495B2 (ja) 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP2011135377A (ja) 撮像装置及び撮像方法
JP2017123069A (ja) 画像処理装置および方法、および撮像装置
JP2016062447A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
KR102133533B1 (ko) 촬상 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 촬상 장치.
JP2019066184A (ja) 撮像装置及び撮像装置の距離算出方法
JP2017103685A (ja) 画像処理装置および方法、および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15796484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15796484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP