WO2013027320A1 - 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
WO2013027320A1
WO2013027320A1 PCT/JP2012/004317 JP2012004317W WO2013027320A1 WO 2013027320 A1 WO2013027320 A1 WO 2013027320A1 JP 2012004317 W JP2012004317 W JP 2012004317W WO 2013027320 A1 WO2013027320 A1 WO 2013027320A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
color
image
focus area
image processing
Prior art date
Application number
PCT/JP2012/004317
Other languages
English (en)
French (fr)
Inventor
育規 石井
平本 政夫
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012551824A priority Critical patent/JP6034197B2/ja
Priority to US13/816,748 priority patent/US9438890B2/en
Priority to CN201280002528.1A priority patent/CN103098480B/zh
Publication of WO2013027320A1 publication Critical patent/WO2013027320A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/214Image signal generators using stereoscopic image cameras using a single 2D image sensor using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present application relates to a monocular three-dimensional imaging technique for generating a plurality of images having parallax using one optical system and one imaging device.
  • image sensors In recent years, there has been a remarkable increase in functionality and performance of digital cameras and digital movies using solid-state image sensors such as CCDs and CMOSs (hereinafter sometimes referred to as “image sensors”).
  • image sensors due to advances in semiconductor manufacturing technology, the pixel structure in a solid-state image sensor has been miniaturized. As a result, higher integration of pixels and drive circuits of solid-state image sensors has been attempted. For this reason, in a few years, the number of pixels of the image sensor has increased significantly from about 1 million pixels to over 10 million pixels. Furthermore, the quality of the image obtained by imaging has improved dramatically.
  • a thin liquid crystal display or a plasma display enables high-resolution and high-contrast display without taking up space, and high performance is realized.
  • Such a flow of improving the quality of video is spreading from a two-dimensional image to a three-dimensional image.
  • polarized glasses are required, but high-quality three-dimensional display devices are being developed.
  • a typical method having a simple configuration is a method of acquiring a right-eye image and a left-eye image using an imaging system including two cameras.
  • an imaging system including two cameras.
  • two-lens imaging method since two cameras are used, the imaging apparatus becomes large and the cost can be high. Therefore, a method (monocular imaging method) for acquiring a plurality of images having parallax (hereinafter, also referred to as “multi-viewpoint image: multi-viewpoint images”) using one camera has been studied.
  • Patent Document 1 discloses a technique for simultaneously acquiring two images having parallax using a color filter.
  • FIG. 10 is a diagram schematically illustrating the imaging system disclosed in Patent Document 1.
  • the imaging system in this technique includes a lens 3, a lens diaphragm 19, a light flux limiting plate 20 on which two color filters 20a and 20b having different transmission wavelength ranges are arranged, and a photosensitive film 21.
  • the color filters 20a and 20b are filters that transmit, for example, red and blue light, respectively.
  • the incident light passes through the lens 3, the lens diaphragm 19, and the light beam limiting plate 20, and forms an image on the photosensitive film.
  • a magenta color image is formed on the photosensitive film by the light transmitted through each of these two color filters.
  • the positions of the color filters 20a and 20b are different, parallax occurs in the image formed on the photosensitive film.
  • a photograph is made from a photosensitive film and glasses with red and blue films attached for the right eye and the left eye, respectively, an image with a sense of depth can be seen.
  • a multi-viewpoint image can be created using two color filters.
  • FIG. 11 is a diagram schematically showing a light flux limiting plate in this technique.
  • a light flux limiting plate in which an R region 22R that transmits red light, a G region 22G that transmits green light, and a B region 22B that transmits blue light are provided on a plane perpendicular to the optical axis of the imaging optical system. 22 is used.
  • the light transmitted through these areas is received by a color imaging device having R pixels for red, G pixels for green, and B pixels for blue, whereby an image of light transmitted through each area is acquired.
  • Patent Document 3 discloses a technique for acquiring a plurality of images having parallax using the same configuration as Patent Document 2.
  • FIG. 12 is a diagram schematically showing the light flux limiting plate disclosed in Patent Document 3. As shown in FIG. Also with this technique, an image with parallax can be created by transmitting incident light through the R region 23R, the G region 23G, and the B region 23B provided on the light flux limiting plate 23.
  • Patent Document 4 discloses a technique for generating a plurality of images having parallax using a pair of filters of different colors arranged symmetrically with respect to the optical axis.
  • a red filter and a blue filter as a pair of filters
  • the R pixel that detects red light observes the light transmitted through the red filter
  • the B pixel that detects blue light receives the light transmitted through the blue filter.
  • the positions of the red filter and the blue filter are different, the incident direction of light received by the R pixel and the incident direction of light received by the B pixel are different from each other.
  • the image observed at the R pixel and the image observed at the B pixel are images having different viewpoints.
  • the amount of parallax is calculated by obtaining corresponding points for each pixel from these images.
  • the distance from the camera to the subject is obtained from the calculated amount of parallax and the focal length information of the camera.
  • Patent Document 5 is obtained by using a diaphragm in which two color filters having different aperture sizes are attached, or a diaphragm in which two color filters having different colors are attached at positions symmetrical to the optical axis.
  • a technique for obtaining subject distance information from two images is disclosed. In this technique, when light transmitted through red and blue color filters having different aperture sizes is observed, the degree of blur observed for each color is different. For this reason, the two images corresponding to the red and blue color filters have different degrees of blur depending on the distance of the subject. By obtaining corresponding points from these images and comparing the degree of blur, distance information from the camera to the subject can be obtained.
  • the two images corresponding to the red and blue color filters are images having parallax.
  • an image with parallax can be generated by arranging RGB color filters on the light flux limiting plate.
  • the amount of incident light is reduced.
  • Patent Document 6 discloses a technique capable of obtaining a plurality of images having parallax and a normal image having no problem in terms of the amount of light by using a diaphragm in which RGB color filters are arranged. Yes.
  • this technique only light that has passed through the RGB color filter is received when the diaphragm is closed, and the RGB color filter area is removed from the optical path when the diaphragm is opened, so that all incident light can be received. .
  • an image with parallax can be obtained when the diaphragm is closed, and a normal image with a high light utilization rate can be obtained when the diaphragm is opened.
  • the embodiment of the present invention provides an imaging technique capable of acquiring a multi-viewpoint image with a high light utilization rate without performing mechanical driving in view of the above-described problems.
  • the image processing apparatus matches the colors of two images having parallax.
  • the image processing apparatus includes: a focusing area extracting unit that extracts a focusing area between the two images; and a color between the two images based on color information of pixels included in the focusing area between the two images.
  • a color conversion matrix calculation unit for obtaining a conversion matrix; and a color conversion unit for converting one color of the two images using the color conversion matrix.
  • FIG. 1 It is a figure which shows the flow of the color conversion process in the image signal generation part in embodiment.
  • (A) is a figure which shows one example of the multi-viewpoint image in embodiment
  • (b) is a figure which shows the example of the result of having extracted the high frequency component
  • (c) is calculating a focusing area
  • an image processing apparatus is an image processing apparatus that matches colors of two images having parallax, and extracts a focused region of the two images.
  • a color conversion unit that converts one color of the two images.
  • the image processing apparatus further includes a high-frequency component calculation unit that calculates at least one high-frequency component of the two images, and the in-focus region extraction unit is calculated. The in-focus area is extracted based on the high-frequency component.
  • the focusing area extraction unit extracts, as a focusing area, a vicinity of a high-frequency pixel in which the amount of the high-frequency component is greater than a predetermined threshold. To do.
  • the in-focus area extraction unit includes a rectangular area of n pixels ⁇ m pixels (n and m are integers of 1 or more) including the high-frequency pixels. Extracted as the in-focus area.
  • the in-focus area extraction unit includes n pixels ⁇ m pixels (n and m are 1 or more with the high frequency pixel as the center). (Integer) rectangular area is extracted as the in-focus area.
  • the color conversion matrix calculation unit is any one of a linear operation by a least square method, an M estimation method, and a RANSAC method. Is used to find the color conversion matrix.
  • a three-dimensional imaging device includes a light transmission unit having two transmission regions having different spectral transmittance characteristics and an image sensor arranged to receive light transmitted through the light transmission unit.
  • the image sensor includes two types of pixels having different spectral transmittance characteristics, and an image processing unit that generates two images having parallax based on pixel signals output from the image sensor.
  • the image processing unit includes: a focusing area extracting unit that extracts a focusing area between the two images; and a color between the two images based on color information of pixels included in the focusing area between the two images.
  • a color conversion matrix calculation unit that obtains a conversion matrix; and a color conversion unit that converts one color of the two images using the color conversion matrix.
  • An image processing method is an image processing method for matching colors of two images having parallax, the step of extracting a focus area of the two images, and the two images Obtaining a color conversion matrix between the two images based on color information of pixels included in the in-focus region, and converting one color of the two images using the color conversion matrix. Including.
  • An image processing program is an image processing program for matching colors of two images having parallax, and extracts a focused area of the two images from a computer; Obtaining a color conversion matrix between the two images based on color information of pixels included in a focusing area of the two images, and converting one color of the two images using the color conversion matrix; And executing a step.
  • FIG. 1 is a block diagram showing an overall configuration of a three-dimensional imaging apparatus (hereinafter referred to as a unit “imaging apparatus”) according to an embodiment of the present invention.
  • the imaging apparatus of this embodiment is a digital electronic camera, and includes an imaging unit 100 and a signal processing unit 200 that generates a signal (image signal) indicating an image based on a signal output from the imaging unit 100. ing.
  • the imaging unit 100 includes an imaging element (image sensor) 1 including a plurality of photosensitive cells arranged on an imaging surface, a translucent plate 2 having two transmission regions having different transmission wavelength ranges, and an imaging element 1.
  • An optical lens 3 for forming an image on the imaging surface and an infrared cut filter 4 are provided.
  • the image pickup unit 100 also generates a basic signal for driving the image pickup device 1, receives an output signal from the image pickup device 1 and sends it to the signal processing unit 200, and signal generation / reception.
  • an element driving unit 6 that drives the image sensor 1 based on the basic signal generated by the unit 5.
  • the image sensor 1 is typically a CCD or CMOS sensor, and is manufactured by a known semiconductor manufacturing technique.
  • the signal generation / reception unit 5 and the element driving unit 30 are composed of an LSI such as a CCD driver, for example.
  • the signal processing unit 200 processes the signal output from the imaging unit 100 to generate an image signal, the memory 30 that stores various data used for generating the image signal, and the generated image And an interface (IF) unit 8 for sending a signal to the outside.
  • the image signal generation unit 7 can be suitably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image signal generation processing.
  • the memory 30 is configured by a DRAM or the like.
  • the memory 30 records the signal obtained from the imaging unit 100 and temporarily records the image data generated by the image signal generation unit 7 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the interface unit 8.
  • the imaging apparatus of the present embodiment may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present invention.
  • said structure is an example and in this embodiment, it can use combining suitably a well-known element except the translucent board 2, the image pick-up element 1, and the image signal generation part 7.
  • FIG. 2 is a diagram schematically showing the arrangement relationship of the light transmitting plate 2, the lens 3, and the imaging element 1 in the imaging unit 100.
  • the lens 3 may be a lens unit composed of a plurality of lens groups, but is illustrated as a single lens in FIG. 2 for simplicity.
  • the translucent plate 2 has two transmission regions C1 and C2 having different wavelength dependency (spectral transmittance) of light transmittance.
  • the lens 3 is a known lens, collects the light transmitted through the translucent plate 2, and forms an image on the imaging surface 1 a of the imaging device 1.
  • the areas other than the transmission areas C1 and C2 of the translucent plate 2 are made of a light shielding member.
  • FIG. 3 is a front view of the translucent plate 2 in the present embodiment.
  • the shape of the translucent plate 2 in the present embodiment is circular as in the case of the lens 3, but may be other shapes.
  • a filter W1 that transmits light in an arbitrary wavelength region of visible light is disposed in the region C1.
  • a filter W2 that transmits light in an arbitrary wavelength region of visible light is disposed.
  • the filter W1 and the filter W2 have different wavelength dependency of transmittance. That is, even when the same light passes through each filter, the brightness (luminance) of the transmitted light is different.
  • the filter W1 and the filter W2 may be made of any member such as glass, plastic, cellophane, etc. as long as it transmits light with a desired transmittance.
  • the W1 filter and W2 filter in this embodiment transmit the light of the arbitrary wavelength ranges of visible light, it does not necessarily need to have such a characteristic.
  • One or both of the W1 filter and the W2 filter may be configured not to transmit visible light in some wavelength regions.
  • the region C1 and the region C2 are arranged apart from each other in the x direction.
  • the distance L between the centers of these regions is determined according to the size of the lens 3 so that the acquired image has an appropriate parallax.
  • the distance L can be set to several mm to several cm, for example.
  • the regions C1 and C2 are generally symmetrical with respect to the optical axis and have the same area. With such a configuration, the amount of light incident on the regions C1 and C2 can be made substantially equal.
  • the regions C1 and C2 may be arranged vertically (along the y direction).
  • the areas of the regions C1 and C2 may be adjusted so that the overall brightness of two images having parallax is close.
  • a filter that uniformly reduces the transmittance of all light in the visible light region such as an ND filter, in combination with the light transmitting plate 2
  • the amount of light transmitted through the regions C1 and C2 is adjusted to be approximately the same. May be.
  • a photosensitive cell array arranged in a two-dimensional manner and a transmission filter array disposed so as to face the photosensitive cell array are formed.
  • the photosensitive cell array and the transmission filter array are composed of a plurality of unit elements.
  • Each photo-sensitive cell is typically a photodiode, and outputs an electric signal (photoelectric conversion signal or pixel signal) corresponding to the amount of received light by photoelectric conversion.
  • Each transmission filter is manufactured using a known pigment, dielectric multilayer film, or the like, and is designed to transmit at least part of incident light. In the following description, first, the basic principle of this embodiment will be described by taking as an example the case where each unit element includes two types of transmission filters.
  • FIG. 4 is a diagram schematically showing a part of the transmission filter array in the present embodiment.
  • a large number of transmission filters 110 are arranged in a matrix on the imaging surface 1a.
  • Two adjacent transmission filters 110 and two photosensitive cells 120 opposite to each other constitute one unit element.
  • the two transmission filters D1 and D2 included in each unit element both transmit arbitrary light in the visible light range, but have different spectral transmittances. That is, each of the transmission filters D1 and D2 transmits light in the red (R), green (G), and blue (B) wavelength ranges, but the wavelength dependency of the transmittance is different.
  • the two photosensitive cells 120 included in one unit element are arranged side by side (x direction), but the present invention is not limited to such an example.
  • the arrangement of the photosensitive cells in the image sensor 1 may be any known arrangement.
  • each photosensitive cell 120 receives light that has passed through the opposing transmission filter among the light transmitted through the regions C1 and C2 of the translucent plate 2, and outputs a photoelectric conversion signal corresponding to the amount of received light. .
  • the photoelectric conversion signal output by each photosensitive cell is sent to the signal processing unit 200 through the signal generation / reception unit 5.
  • the image signal generation unit 7 in the signal processing unit 200 generates an image having parallax based on the signal transmitted from the imaging unit 100.
  • a photoelectric conversion signal output from each light sensing cell 120 will be described.
  • a signal corresponding to the intensity of light transmitted through the regions C1 and C2 of the translucent plate 2 is denoted by Ci1 and Ci2 with a suffix “i”, respectively.
  • this incident light includes an equal amount of light of any wavelength in the visible light range.
  • the spectral transmittance of the lens 3 and the infrared cut filter 4 combined is Tw
  • the spectral transmittance of the W1 filter in the region C1 is TC1
  • the spectral transmittance of the W2 filter in the region C2 is TC2.
  • the filter W1 and the filter W2 both transmit arbitrary light in the visible light range, but have different transmittances for each wavelength. That is, the filter W1 and the filter W2 both transmit R, G, and B light, but the amount of transmission of each color component differs between the two filters.
  • the spectral transmittances of the transmission filters D1 and D2 in the imaging device 1 are represented as TD1 and TD2, respectively.
  • TD1 and TD2 have different transmittances for each wavelength, but have characteristics of transmitting R, G, and B light. Therefore, in the present embodiment, at least part of the R, G, and B component light included in the incident light is transmitted through all of the filters C1, C2, D1, and D2. Therefore, any of the two photosensitive cells facing the transmission filters D1 and D2 of the image sensor 1 can obtain a signal in which three color components R, G, and B are superimposed.
  • Tw, TC1, TC2, TD1, and TD2 are functions that depend on the wavelength ⁇ of the incident light. Signals indicating the intensity of light that passes through the transmission filters D1 and D2 and enters the photosensitive cells facing them are denoted by d1 and d2. Further, the integral calculation of the spectral transmittance in the wavelength range of visible light is represented by the symbol ⁇ . For example, an integral operation ⁇ TwTC1TD1d ⁇ for the wavelength ⁇ is represented as ⁇ TwTC1TD1. Here, it is assumed that the integration is performed over the entire wavelength range of visible light. Then, d1 is proportional to the result of adding Ci1 ⁇ TwTC1TD1 and Ci2 ⁇ TwTC2TD2.
  • Equations 1 and 2 ⁇ TwTC1TD1, ⁇ TwTC2TD1, ⁇ TwTC1TD2, and ⁇ TwTC2TD2 are represented by Mx11, Mx12, Mx21, and Mx22, respectively. Then, Formula 1 can be expressed by Formula 3 below using a matrix.
  • Equation 3 can be transformed into Equation 4 below. That is, a signal indicating the intensity of light transmitted through the regions C1 and C2 can be expressed using the photoelectric conversion signals d1 and d2.
  • a signal indicating the intensity of light transmitted through the areas C1 and C2 can be obtained using the pixel signals d1 and d2 obtained by photographing an image. Since the regions C1 and C2 are separated from each other in the x direction, the image by the light incident on the region C1 and the image by the light incident on the region C2 are two images having different viewpoints. Signals indicating the intensity of light incident from different positions generated by the above processing constitute a multi-viewpoint image.
  • the transmission filters R, G, and B shown in FIG. 5 are designed to transmit the red component, the green component, and the blue component of incident light, respectively.
  • the red component is light having a wavelength range of approximately 600 nm to 700 nm
  • the green component is light having a wavelength range of approximately 500 nm to 600 nm
  • the blue component is approximately having a wavelength range of 400 nm to 500 nm.
  • the transmission filter D1 shown in FIG. 5 is the same as the filter D1 shown in FIG.
  • the filter D1 can be a transparent filter, for example.
  • a signal obtained by adding pixel signals output from three photosensitive cells facing the transmission filters R, G, and B is regarded as one pixel signal d2.
  • the pixel signal d1 and the pixel signal d2 of the photosensitive cell facing the transmission filter D1 both include R, G, and B color components, and their component ratios are different from each other. Thereby, a multi-viewpoint image can be calculated in the same manner as described above with reference to FIG.
  • the image sensor 1 shown in FIG. 5 includes a photosensitive cell (R pixel) that detects R light, a photosensitive cell (G pixel) that detects G light, and a photosensitive cell (B pixel) that detects B light. including. Therefore, it is possible to generate a color image using color information obtained from these pixels.
  • a color multi-viewpoint image is obtained by adding color information obtained from R, G, and B pixels to the luminance signals Ci1 and Ci2 of the multi-viewpoint image obtained by the above method.
  • YL Y1 + Y2
  • the color difference signal is expressed as (YL-Rs), (YL-Bs).
  • the R, G, and B values of the image by the light transmitted through the region C1 are represented as IMG (L) r, IMG (L) g, and IMG (L) b, respectively.
  • the R, G, and B values of the image by the light transmitted through the region C2 are expressed as IMG (R) r, IMG (R) g, and IMG (R) b, respectively.
  • these values can be calculated by the calculations shown in the following formulas 5 and 6.
  • M shown in Equations 5 and 6 is a 3 ⁇ 3 conversion matrix for converting the luminance signal Y1 or Y2 and the two color difference signals YL-Rs and YL-Bs into RGB values of each image. .
  • a colorized image signal is obtained from the luminance signal and the color difference signal.
  • the image signal generation unit 7 can generate a color multi-viewpoint image by calculating these image signals for each unit element.
  • the transmission regions C1 and C2 provided in the translucent plate 2 both transmit at least part of light in each of the R, G, and B wavelength regions.
  • signals output from the R pixel, G pixel, and B pixel of the image sensor 1 include RGB information of light transmitted through the region C1 and RGB information of light transmitted through the region C2.
  • a color difference signal can be calculated from the pixel signal.
  • the spectral transmittances of the transmission regions C1 and C2 provided in the light transmitting plate 2 are different from each other, the amounts of R, G, and B components of the transmitted light are different between the regions C1 and C2.
  • the luminance signals of the multi-viewpoint images which are signals according to the amount of transmitted light, differ between the regions C1 and C2, and as a result, the colors of the multi-viewpoint images that are colored also differ.
  • the image becomes uncomfortable.
  • the image signal generation unit 7 in the present embodiment obtains a conversion matrix that represents the color difference between the colorized multiple viewpoint images, and corrects the color so that one color of the multiple viewpoint images is aligned with the other color. I do. Thereby, the color difference between the two images can be reduced.
  • the image signal generation unit 7 acquires the R, G, and B values of those pixels. Then, a matrix for converting from one color of the multi-viewpoint image to the other color is obtained based on the difference in the R, G, and B values of the corresponding pixels. Thereafter, the conversion of the color of one whole image of the multiple viewpoint images is performed using the obtained conversion matrix.
  • this color conversion process will be described in detail.
  • Corresponding pixels between two multiple viewpoint images indicate pixels that represent the same point in three dimensions in one image serving as a reference and the other image among the multiple viewpoint images. If they are the same point in three dimensions, they are essentially the same color.
  • the spectral transmittances of the regions C1 and C2 of the translucent plate 2 are different from each other, the multi-viewpoint images photographed through the regions C1 and C2 are light incident from the same point in three dimensions. Even so, their pixel values are generally different. Therefore, it is difficult to use a general matching method such as a block matching method performed by a conventional stereo method.
  • FIG. 6 shows an example in which light from the subject 60 enters the pixel (x, y) of the image sensor 1 through the light transmitting plate 2 divided into two regions C1 and C2.
  • (x, y) represents coordinates on the imaging surface.
  • FIG. 6A shows an example in which the subject 60 is in focus
  • FIG. 6B shows an example in which the subject 60 is in focus.
  • the subject 60 is observed in a blurred manner.
  • both image signals are from the same point P1 in the three dimensions in the state of FIG.
  • the light that has passed through the region C1 is light that has entered from the portion P3 of the subject 60 in the three dimensions, and the light that has passed through the region C2 has entered from the portion P2 of the subject 60.
  • the two image signals Ci1 and Ci2 do not represent the same point in the three dimensions.
  • the image signals Ci1 and Ci2 in the focused pixel in the image represent the same point in the three dimensions, it can be said that there is no parallax in such a pixel. Therefore, in the method for calculating a multi-viewpoint image according to the present embodiment, it can be understood that the problem of searching for corresponding points is equivalent to finding a focused pixel from the image.
  • a focused pixel is obtained from a plurality of viewpoint images.
  • a color conversion matrix between two images is obtained at the focused pixel, and color correction is performed by converting the color of one of the images serving as a reference using the conversion matrix.
  • a color conversion matrix is obtained from limited pixels that are focused. In general, since an important subject in an image is often focused, the corresponding point search method in this method functions effectively.
  • FIG. 7A is a functional block diagram of the image signal generation unit 7 for executing the method described above.
  • the image signal generation unit 7 includes a high frequency component calculation unit 71, a focus area extraction unit 72, a color conversion matrix calculation unit 73, and a color conversion processing unit 74.
  • FIG. 7B is a flowchart of the color conversion process performed by the image signal generation unit 7. Details of each process will be described below.
  • the image signal generator 7 first calculates a high-frequency component in the image by the high-frequency component calculator 71 in order to obtain a focused pixel from the multiple viewpoint images (step S1).
  • An example of extraction of high frequency components is shown in FIG. FIG. 8A shows one of the multiple viewpoint images, and FIG. 8B shows the extraction result of the high frequency component.
  • FIG. 8B shows that the brighter the pixel, the higher the frequency component.
  • the high frequency component calculation unit 71 determines a pixel having a high frequency component amount equal to or greater than a predetermined threshold as a “high frequency pixel”.
  • a high-frequency component extraction method for example, there is a method of extracting a pixel having a large change in pixel value in an image space using an edge extraction filter typified by a known Sobel filter or Laplacian filter. Further, there is a method of performing an inverse Fourier transform after performing a high-pass filter process on an image represented on a frequency space by performing a Fourier transform. In this embodiment, any method may be used as long as a high frequency component in an image can be calculated.
  • the image signal generation unit 7 extracts the focused area by the focused area extraction unit 72 (step S2).
  • the high frequency pixel determined by the high frequency component calculation unit 71 represents the contour of the focused subject. Since the in-focus area exists in the vicinity of the high-frequency pixel, the in-focus area extraction unit 72 in this embodiment focuses on a rectangular area of n pixels ⁇ m pixels (n and m are integers of 1 or more) including the high-frequency pixel. Extract as a region. For example, a rectangular area of n pixels ⁇ m pixels centering on a high frequency pixel may be extracted as a focusing area.
  • n and m are set small so that the extracted in-focus area is in focus compared to when n and m are large. It is possible to suppress mixing of a non-existing portion (focused region).
  • the high frequency component of the subject is small, it is desirable to set n and m large in order to obtain a sufficient number of corresponding points for calculating the color conversion matrix.
  • the center of the high-frequency pixel is not set as the center of the rectangular area, for example, n pixels ⁇ m pixels from the high-frequency pixel toward the center of the image.
  • the rectangular area may be the in-focus area.
  • the subject to be focused (the subject that the photographer pays attention) often appears in the center of the image.
  • the face recognition technology installed in recent digital cameras and knowing that the focused outline is a face area in advance, the face area may be used as the focus area.
  • the white frame shown in FIG. 8C shows an example of the focus area.
  • the in-focus area calculation processing described above may be calculated from any one of the multiple viewpoint images.
  • the focusing area described above is not limited to a rectangular area, and may take any form such as a polygon, a circle, or an ellipse. In the example shown in FIG. 8C, six focus areas are extracted, but the number of focus areas to be extracted may be arbitrarily determined.
  • the focus area extraction unit 72 may extract the focus area using a difference between a pixel value near the high frequency pixel and a pixel value at a position far from the high frequency pixel. For example, as in the method disclosed in Non-Patent Document 1, it may be determined whether or not it is a focused region by segmentation processing using similarity of pixel values. In this method, the foreground-likeness and background-likeness degree (similarity) of each pixel is calculated from the sampled background color information and foreground color information. Image segmentation is performed by a graph cut method using these similarities to determine whether each pixel is a foreground or a background. That is, a pixel determined to be similar to a pixel in the vicinity of the high-frequency pixel among the divided areas can be set as the in-focus area.
  • the in-focus area is extracted based on the high-frequency component of the image.
  • the in-focus area can be determined by another method, it is not necessary to calculate the high-frequency component.
  • the focused area may be determined from the distance and the focal length of the optical system.
  • the image signal generation unit 7 calculates a color conversion matrix by the color conversion matrix calculation unit 73 (step S3).
  • RGB values are acquired from two multiple viewpoint images, respectively, and a color conversion matrix from the RGB values of one image to the RGB values of the other image is calculated.
  • the two multi-viewpoint images are represented as IMG (L) and IMG (R), respectively.
  • the R, G, and B values in the in-focus area of one image IMG (L) are respectively expressed as IMG (L) r (i, j), IMG (L) g (i, j), and IMG (L) b (i , J).
  • the R, G, and B values of the other image IMG (R) are set to IMG (R) r (i, j), IMG (R) g (i, j), IMG (R) b (i, j, respectively).
  • the subscripts i and j indicate the coordinates of the pixel in the focus area obtained by the focus area extraction unit 72.
  • a color conversion matrix from each color value of IMG (L) to each color value of IMG (R) can be obtained based on Equation 7 below.
  • a transformation matrix Mc is obtained so that the sum of squares of errors is minimized.
  • noise when noise is included in the colors of IMG (R) and IMG (L), a conversion matrix that reduces the error of these colors is obtained, so that color conversion may not be performed correctly. Since it is generally not easy to find such noise, for example, a method based on robust statistics such as the M estimation method may be used for such a problem.
  • ⁇ used in the M estimation method for example, a function in which the output value is higher as the error ⁇ is smaller and the output value is smaller as the error ⁇ is larger is generally used.
  • Typical functions include the ⁇ function of German and McClure.
  • the LMedS method is a method based on similar robust statistics.
  • the LMedS method is also called a minimum median method, and is a method for obtaining a transformation matrix that minimizes the median error.
  • a transformation matrix is obtained, and an error ⁇ within the in-focus area is obtained for each pixel. After sorting the determined errors, the median is obtained. For example, when the focus area is composed of 100 pixels, 100 errors ⁇ are obtained for each pixel from the focus area, and after sorting, the 50th error value is acquired.
  • the noise is less than 50%
  • the median error obtained from the correct transformation matrix is the error obtained from the pixel not affected by the noise. For this reason, it is possible to perform estimation that is not easily affected by noise.
  • the conversion matrix may not be obtained correctly by the least square method.
  • the transformation matrix may be estimated using a robust statistical method called RANSAC (Random Sample Consensus).
  • RANSAC Random Sample Consensus
  • this method first, three or more pixels in the in-focus area of a multi-viewpoint image are sampled to obtain a color conversion matrix from the color of IMG (L) to the color of IMG (R). If the obtained color conversion matrix is a correct color conversion matrix, color conversion from an IMG (R) color to an IMG (L) color is performed on an unsampled pixel using an inverse matrix of the color conversion matrix. .
  • the obtained color conversion matrix is correct when the error amount when the original IMG (L) color and the IMG (L) color converted from IMG (R) are minimized. According to this method, it is possible to obtain a correct color conversion matrix if noise is not included in the sampling points for which the color conversion matrix is first obtained or if there is no bias in the color distribution.
  • the image signal generation unit 7 performs color conversion processing using the color conversion matrix obtained by the above method by the color conversion processing unit 74 (step S4).
  • the color conversion is performed by converting the RGB values IMG (L) r, IMG (L) g, and IMG (L) b in all the pixels of the left image among the multiple viewpoint images using the conversion matrix Mc.
  • FIG. 9 is a diagram showing an image of processing for converting the color of each pixel of the left image before color conversion using the conversion matrix Mc.
  • the entire L image is converted by using the conversion matrix Mc obtained by comparing the left image (L image) and the right image (R image) in the in-focus region, and after color conversion. L images are generated. If the L image after color conversion is newly used as the left image, a left image that matches the color of the right image is obtained, so that a more natural 3D image can be generated.
  • the imaging element 1 having the light transmitting plate 2 having two transmission regions having different spectral transmittances and the two or more types of transmission filters having different spectral transmittances. Can be used to generate a multi-viewpoint image.
  • the image signal generation unit 7 in the present embodiment obtains a color conversion matrix in the in-focus area of the multi-viewpoint image, and corrects the color of one entire image using the color conversion matrix. This makes it possible to match the colors between the multiple viewpoint images relatively easily.
  • the filter W1 in the region C1 of the translucent plate 2, the filter W2 in the region C2, and the filters D1 and D2 in the image sensor 1 are all at least partially for light of all RGB color components. It has the property of transmitting.
  • a filter is not necessarily used in the present invention. Even when a filter that cuts off light of some color components is used, the color conversion processing of this embodiment can be used.
  • the translucent plate 2 has only two transmission regions C1 and C2, but may have three or more transmission regions. Even in the case of having three or more transmissive areas, the color between two images corresponding to any two transmissive areas can be matched, so that the image processing in this embodiment is effective.
  • the imaging apparatus generates an image signal by signal calculation from a photoelectric conversion signal obtained by imaging.
  • another apparatus independent of the imaging apparatus may execute image signal generation processing by signal calculation.
  • a signal obtained by an image capturing apparatus having the image capturing unit 100 according to the present embodiment is read by another apparatus, and a program that defines the signal calculation processing performed by the image signal generating unit 7 is stored in the other apparatus (image processing apparatus).
  • image processing apparatus image processing apparatus
  • the three-dimensional imaging device is effective for all cameras using a solid-state imaging device.
  • a solid-state imaging device can be used for consumer cameras such as digital still cameras and digital video cameras, and solid-state surveillance cameras for industrial use.
  • the image processing apparatus of the present invention can match colors between two images having parallax acquired by an imaging system in which the position of a focused portion is not shifted between the two images. Therefore, for example, it can be used for processing image signals acquired by the imaging system described above and input to a display device such as a 3D television.
  • Solid-state image sensor 1a Imaging surface of a solid-state image sensor 2 Translucent plate 2a Light transmissive part 3 Optical lens 3a Optical element with which the function of the translucent plate and the optical lens was integrated 4 Infrared cut filter 5 Signal generation / reception part 6 Element drive unit 7 Image signal generation unit 8 Interface unit 19 Lens diaphragm 20, 22, 23 Light flux limiting plate 20a Color filter that transmits red light 20b Color filter that transmits blue light 21 Photosensitive film 22R, 23R Light beam limitation R light transmission region 22G, 23G G light transmission region 22B, 23B of light beam limiting plate B light transmission region 30 of light beam limiting plate 30 Memory 60 Subject 71 High frequency component calculation unit 72 Focusing region extraction unit 73 Color conversion matrix calculation unit 74 Color conversion processing unit 100 Imaging unit 110 Transmission filter 120 Photosensitive cell 200 Signal processing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Blocking Light For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 画像処理装置7は、視差を有する2つの画像の合焦領域を抽出する合焦領域抽出部72と、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部73と、前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部74とを備える。

Description

画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
 本願は1つの光学系と1つの撮像素子を用いて視差を有する複数の画像を生成する単眼の3次元撮像技術に関する。
 近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する場合がある。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の進歩により、固体撮像素子における画素構造の微細化が進んでいる。その結果、固体撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加している。さらに、撮像によって得られる画像の質も飛躍的に向上している。
 一方、表示装置に関しては、薄型の液晶やプラズマによるディスプレイにより、場所を取らず、高解像度で高コントラストの表示が可能になり、高い性能が実現されている。このような映像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネを必要とするが、高画質の3次元表示装置が開発され始めている。
 3次元撮像技術に関して、単純な構成をもつ代表的な方式として、2つのカメラから構成される撮像系を用いて、右目用の画像および左目用の画像をそれぞれ取得するという方式がある。このような、いわゆる2眼撮像方式では、カメラを2つ用いるため、撮像装置が大型になり、コストも高くなり得る。そこで、1つのカメラを用いて視差を有する複数の画像(以下、「複数視点画像:multi-viewpoint images」と呼ぶことがある。)を取得する方式(単眼撮像方式)が研究されている。
 例えば、色フィルタを用いて視差を有する2つの画像を同時に取得する技術が特許文献1に開示されている。図10は、特許文献1に開示された撮像系を模式的に示す図である。この技術における撮像系は、レンズ3、レンズ絞り19、透過波長域の異なる2つの色フィルタ20a、20bが配置された光束制限板20、感光フィルム21を備える。ここで、色フィルタ20a、20bは、例えば赤系統、青系統の光をそれぞれ透過させるフィルタである。
 以上の構成により、入射光は、レンズ3、レンズ絞り19、および光束制限板20を透過し、感光フィルムに結像する。その際、光束制限板20における2つの色フィルタ20a、20bでは、それぞれ赤系統、青系統の光だけが透過する。その結果、感光フィルム上にはこれらの2つの色フィルタをそれぞれ透過した光によるマゼンタ系統の色の像が形成される。ここで、色フィルタ20a、20bの位置が異なっているため、感光フィルム上に形成される像には視差が生じる。ここで、感光フィルムから写真を作り、赤色フィルムおよび青色フィルムがそれぞれ右目用および左目用として貼り付けられたメガネを使うと、奥行き感のある画像を見ることができる。このように、特許文献1に開示された技術によれば、2つの色フィルタを使って複数視点画像を作ることができる。
 特許文献1に開示された技術は、感光フィルム上に結像させ、視差を有する複数の画像を作るものであるが、一方で、視差を有する画像を電気信号に変換して取得する技術が特許文献2に開示されている。図11は、この技術における光束制限版を模式的に表す図である。この技術では、撮像光学系の光軸に垂直な平面上に、赤色光を透過するR領域22R、緑色光を透過するG領域22G、青色光を透過するB領域22Bが設けられた光束制限版22が用いられる。これらの領域を透過した光を赤用のR画素、緑用のG画素、青用のB画素を有するカラー撮像素子で受けることにより、各領域を透過した光による画像が取得される。
 また、特許文献3にも、特許文献2と同様の構成を用いて視差を有する複数の画像を取得する技術が開示されている。図12は、特許文献3に開示された光束制限板を模式的に示す図である。この技術でも、光束制限板23に設けられたR領域23R、G領域23G、B領域23Bを入射光が透過することにより視差のある画像を作ることができる。
 特許文献4も同様に、光軸に対して対称的に配置された、互いに色の異なる一対のフィルタを用いて視差を有する複数の画像を生成する技術を開示している。一対のフィルタとして赤色のフィルタおよび青色のフィルタを利用することにより、赤色光を検知するR画素は赤フィルタを透過した光を観測し、青色光を検知するB画素は青フィルタを透過した光を観測する。赤フィルタと青フィルタとは位置が異なるため、R画素が受ける光の入射方向とB画素が受ける光の入射方向とは互いに異なる。その結果、R画素で観測される画像とB画素で観測される画像とは、互いに視点の異なる画像となる。これらの画像から画素ごとに対応点を求めることにより、視差量が算出される。算出された視差量とカメラの焦点距離情報とから、カメラから被写体までの距離が求められる。
 特許文献5は、口径サイズが互いに異なる2枚の色フィルタが取り付けられた絞り、または色の異なる2枚の色フィルタが光軸に対して左右対称の位置に取り付けられた絞りを用いて取得した2つの画像から被写体の距離情報を求める技術を開示している。この技術では、口径サイズが互いに異なる赤および青の色フィルタをそれぞれ透過した光を観測する場合、色ごとに観測されるボケの程度が異なる。そのため、赤および青の色フィルタのそれぞれに対応する2つの画像は、被写体の距離によってボケの程度が異なる画像となる。これらの画像から対応点を求め、ボケの程度を比較することにより、カメラから被写体までの距離情報が得られる。一方、光軸に対して左右対称の位置に取り付けられた色の異なる2枚の色フィルタをそれぞれ透過した光を観測する場合、色ごとに観測される入射光の方向が異なる。そのため、赤および青の色フィルタのそれぞれに対応する2つの画像は、視差を有する画像となる。これらの画像から対応点を求め、対応点間の距離を求めることにより、カメラから被写体までの距離情報が得られる。
 上記の特許文献1~5に示された技術によれば、光束制限板にRGBの色フィルタを配置することによって視差のある画像を生成することができる。しかしながら、光束制限板を用いるため、入射光量が減少する。また、視差の効果を高めるにはRGBの色フィルタを互いに離れた位置に配置し、それらの面積を小さくする必要があるが、そのようにすると入射光量はさらに減少する。
 以上の技術に対して、RGBの色フィルタが配置された絞りを用いて、視差を有する複数の画像と光量的に問題のない通常画像とを得ることができる技術が特許文献6に開示されている。この技術では、絞りを閉じた状態ではRGBの色フィルタを透過した光だけが受光され、絞りを開いた状態ではRGBの色フィルタ領域が光路から外されるため、入射光をすべて受けることができる。これにより、絞りを閉じた状態では視差のある画像を取得し、絞りを開いた状態では光利用率の高い通常画像を得ることができる。
特開平2-171737号公報 特開2002-344999号公報 特開2009-276294号公報 特開2010-38788号公報 特開2010―79298号公報 特開2003-134533号公報
"平滑化処理の繰返しによるグラフカットを用いた画像セグメンテーション"、永橋知行、 藤吉弘亘、 金出武雄、情報処理学会論文誌CVIM、 Vol. 1、 No. 2、 pp. 10-20、 2008.
 従来技術によれば、視差を有する複数の画像を取得することができるが、原色(RGB)の色フィルタが用いられるため、撮像素子の受光量は減少する。入射光量を十分に確保するためには、特許文献6に記載されているように、色フィルタを機械的駆動によって光路から外す機構を用いて光利用率の高い通常画像を取得する必要がある。しかしながら、そのような機構を設けた場合、装置の大型化および高コスト化を招くという課題がある。
 本発明の実施形態は、上記の課題に鑑み、機械的駆動を行うことなく、光利用率の高い複数視点画像を取得可能な撮像技術を提供する。
 本発明の一態様による画像処理装置は、視差を有する2つの画像の色を整合させる。前記画像処理装置は、前記2つの画像の合焦領域を抽出する合焦領域抽出部と、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部と、前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部とを備えている。
 上述の一般的かつ特定の態様は、システム、方法、およびコンピュータプログラムを用いて実装され、または、システム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。
 本発明の実施形態によれば、機械的駆動を行うことなく、光利用率の高い複数視点画像を取得することが可能となる。
実施形態における3次元撮像装置の全体構成を示すブロック図である。 実施形態における透光板、光学系、および撮像素子の概略構成を示す模式図である。 実施形態における透光板の透過領域の配置を示す図である。 実施形態における撮像素子の透過フィルタの基本構成を示す図である。 実施形態におけるカラー撮像素子の透過フィルタの基本構成を示す図である。 実施形態における被写体の合焦状態の例を示す図である。 実施形態における画像信号生成部の機能ブロックを示す図である。 実施形態における画像信号生成部における色変換処理の流れを示す図である。 (a)は、実施形態における複数視点画像の一方の例を示す図であり、(b)は、高周波成分を抽出した結果の例を示す図であり、(c)は、合焦領域を算出した結果の例を示す図である。 色変換前のL画像の各画素の色を変換行列Mcを用いて変換する処理のイメージを示す図である。 特許文献における撮像系の構成図である。 特許文献における光束制限板の外観図である。 特許文献における光束制限板の外観図である。
 (1)上記課題を解決するために、本発明の一態様による画像処理装置は、視差を有する2つの画像の色を整合させる画像処理装置であって、前記2つの画像の合焦領域を抽出する合焦領域抽出部と、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部と、前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部とを備える。
 (2)項目(1)に記載の画像処理装置は、ある態様において、前記2つの画像の少なくとも一方の高周波成分を算出する高周波成分算出部をさらに備え、前記合焦領域抽出部は、算出された前記高周波成分に基づいて、前記合焦領域を抽出する。
 (3)項目(2)に記載の画像処理装置のある態様において、前記合焦領域抽出部は、前記高周波成分の量が予め決定された閾値よりも多い高周波画素の近傍を合焦領域として抽出する。
 (4)項目(3)に記載の画像処理装置のある態様において、前記合焦領域抽出部は、前記高周波画素を含むn画素×m画素(n、mは1以上の整数)の矩形領域を前記合焦領域として抽出する。
 (5)項目(3)または(4)に記載の画像処理装置のある態様において、前記合焦領域抽出部は、前記高周波画素を中心とするn画素×m画素(n、mは1以上の整数)の矩形領域を前記合焦領域として抽出する。
 (6)項目(1)から(5)のいずれかに記載の画像処理装置のある態様において、前記色変換行列算出部は、最小二乗法による線型演算、M推定法、およびRANSAC法のいずれかを用いて前記色変換行列を求める。
 (7)本発明の一態様による3次元撮像装置は、分光透過率特性の互いに異なる2つの透過領域を有する光透過部と、前記光透過部を透過した光を受けるように配置された撮像素子であって、分光透過率特性の互いに異なる2種類の画素を有する撮像素子と、前記撮像素子から出力される画素信号に基づいて視差を有する2つの画像を生成する画像処理部とを備える。前記画像処理部は、前記2つの画像の合焦領域を抽出する合焦領域抽出部と、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部と、前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部とを有する。
 (8)本発明の一態様による画像処理方法は、視差を有する2つの画像の色を整合させる画像処理方法であって、前記2つの画像の合焦領域を抽出するステップと、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求めるステップと、前記色変換行列を用いて前記2つの画像の一方の色を変換するステップとを含む。
 (9)本発明の一態様による画像処理プログラムは、視差を有する2つの画像の色を整合させる画像処理プログラムであって、コンピュータに対し、前記2つの画像の合焦領域を抽出するステップと、前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求めるステップと、前記色変換行列を用いて前記2つの画像の一方の色を変換するステップとを実行させる。
 以下、添付の図面を参照しながら本発明のより具体的な実施形態を説明する。以下の説明において、共通または対応する要素には同一の符号を付している。なお、本明細書において、画像を示す信号または情報を単に「画像」と称する場合がある。
 (実施形態)
 図1は、本発明の実施形態による3次元撮像装置(以下、単位「撮像装置」と呼ぶ。)の全体構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、撮像部100から出力される信号に基づいて画像を示す信号(画像信号)を生成する信号処理部200とを備えている。
 撮像部100は、撮像面上に配列された複数の光感知セルを備える撮像素子(イメージセンサ)1と、透過波長域が互いに異なる2つの透過領域を有する透光板2と、撮像素子1の撮像面上に像を形成するための光学レンズ3と、赤外カットフィルタ4とを備えている。撮像部100はまた、撮像素子1を駆動するための基本信号を発生するとともに撮像素子1からの出力信号を受信して信号処理部200に送出する信号発生/受信部5と、信号発生/受信部5によって発生された基本信号に基づいて撮像素子1を駆動する素子駆動部6とを備えている。撮像素子1は、典型的にはCCDまたはCMOSセンサであり、公知の半導体製造技術によって製造される。信号発生/受信部5および素子駆動部30は、例えばCCDドライバなどのLSIから構成されている。
 信号処理部200は、撮像部100から出力された信号を処理して画像信号を生成する画像信号生成部7と、画像信号の生成に用いられる各種のデータを格納するメモリ30と、生成した画像信号を外部に送出するインターフェース(IF)部8とを備えている。画像信号生成部7は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。メモリ30は、DRAMなどによって構成される。メモリ30は、撮像部100から得られた信号を記録するとともに、画像信号生成部7によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、インターフェース部8を介して不図示の記録媒体や表示部などに送出される。
 なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本発明の理解に特に必要でないため省略する。また、上記の構成は一例であり、本実施形態において、透光板2、撮像素子1、画像信号生成部7以外は公知の要素を適宜組み合わせて用いることができる。
 次に、図2~4を参照しながら撮像部100の構成をより詳細に説明する。
 図2は、撮像部100における透光板2、レンズ3、および撮像素子1の配置関係を模式的に示す図である。なお、図2では、透光板2、レンズ3、および撮像素子1以外の構成要素は省略されている。レンズ3は、複数のレンズ群から構成されたレンズユニットであり得るが、図2では簡単のため、単一のレンズとして描かれている。
 透光板2は、光透過率の波長依存性(分光透過率)が互いに異なる2つの透過領域C1、C2を有している。レンズ3は、公知のレンズであり、透光板2を透過した光を集光し、撮像素子1の撮像面1aに結像する。なお、本実施形態では、透光板2の透過領域C1、C2以外の領域は、遮光性部材で構成されている。
 図3は、本実施形態における透光板2の正面図である。本実施形態における透光板2の形状は、レンズ3と同様、円形であるが、他の形状であってもよい。領域C1には、可視光の任意の波長域の光を透過させるフィルタW1が配置される。領域C2も同様に、可視光の任意の波長域の光を透過させるフィルタW2が配置される。フィルタW1とフィルタW2とは、透過率の波長依存性が異なっている。すなわち、同じ光がそれぞれのフィルタを通過した場合であっても、透過光の明るさ(輝度)は異なる。フィルタW1およびフィルタW2は、所望の透過率で光を透過させるものであれば、ガラスやプラスチック、セロファンなど、どのような部材で構成されていてもよい。なお、本実施形態におけるW1フィルタおよびW2フィルタは、可視光の任意の波長域の光を透過させるが、必ずしもそのような特性を有している必要はない。W1フィルタおよびW2フィルタの一方または両方が一部の波長域の可視光を透過させないように構成されていてもよい。
 ここで、領域C1および領域C2は、x方向に離れて配置される。これらの領域の中心間の距離Lは、レンズ3のサイズに応じて、取得される画像が適切な視差を有するように決定される。距離Lは、例えば、数mm~数cmに設定され得る。また、領域C1、C2は、一般には光軸に対して左右対称で同一面積である。そのような構成により、領域C1、C2に入射する光の量を実質的に等しくすることができる。また、用途に応じて上下の視差をもつ複数視点画像を取得したい場合は、領域C1、C2を上下に(y方向に沿って)配置してもよい。
 領域C1、C2にそれぞれ配置されるフィルタW1の透過率とフィルタW2の透過率との差が大きい場合には、後述する撮像素子1の各光感知セルによって観測される光電変換信号の値(画素値)の差が大きくなる。そこで、視差を有する2つの画像の全体的な明るさが近くなるように、領域C1、C2の面積を調整してもよい。あるいは、NDフィルタなど、可視光域の全ての光の透過率を均等に低下させるフィルタを透光板2と併用することによって領域C1、C2を透過する光の量が同程度になるように調整してもよい。
 図2に示される撮像素子1の撮像面1aには、2次元状に配列された光感知セルアレイおよび光感知セルアレイに対向して配置された透過フィルタアレイが形成されている。光感知セルアレイおよび透過フィルタアレイは、複数の単位要素から構成される。
 各光感知セルは、典型的にはフォトダイオードであり、光電変換によって各々の受光量に応じた電気信号(光電変換信号、または画素信号)を出力する。また、各透過フィルタは、公知の顔料や誘電体多層膜などを用いて作製され、入射光の少なくとも一部を透過させるように設計されている。以下の説明では、まず、各単位要素が2種類の透過フィルタを含む場合を例に、本実施形態の基本的原理を説明する。
 図4は、本実施形態における透過フィルタアレイの一部を模式的に示す図である。図示されるように、撮像面1a上には多数の透過フィルタ110が行列状に配列されている。近接する2つの透過フィルタ110およびそれらに対向する2つの光感知セル120が1つの単位要素を構成している。各単位要素が有する2つの透過フィルタD1、D2は、いずれも可視光域の任意の光を透過させるが、分光透過率が互いに異なる。すなわち、透過フィルタD1、D2のいずれも、赤(R)、緑(G)、青(B)の波長域の光を透過させるが、それらの透過率の波長依存性は異なっている。なお、図4に示される例では、1つの単位要素に含まれる2つの光感知セル120は、横(x方向)に並べられているが、本発明はこのような例に限られない。撮像素子1における光感知セルの配列は、公知のどのような配列であってもよい。
 以上の構成により、露光中に撮像装置に入射する光は、透光板2、レンズ3、赤外カットフィルタ4、透過フィルタ110を通って光感知セル120に入射する。各光感知セル120は、透光板2の領域C1、C2の各々を透過した光のうち、対向する透過フィルタを通った光を受け、受けた光の量に応じた光電変換信号を出力する。各光感知セルによって出力された光電変換信号は、信号発生/受信部5を通して信号処理部200に送出される。信号処理部200における画像信号生成部7は、撮像部100から送出された信号に基づいて視差を有する画像を生成する。
 以下、各光感知セル120から出力される光電変換信号を説明する。まず、透光板2の領域C1、C2を透過した光の強度に相当する信号を、それぞれ添え字「i」を付けてCi1、Ci2で表すこととする。ここでは、入射する光のうち、可視光以外の成分はカットされていると仮定する。また、本実施形態では、この入射光は、可視光域のどの波長の光も等しい量だけ含んでいると仮定する。また、レンズ3、および赤外カットフィルタ4を合わせた分光透過率をTw、領域C1のW1フィルタの分光透過率をTC1、領域C2のW2フィルタの分光透過率をTC2とする。フィルタW1とフィルタW2とは、どちらも可視光域の任意の光を透過させるが、波長毎の透過率が異なっている。すなわち、フィルタW1およびフィルタW2は、どちらもR、G、Bの光を透過させるが、各色成分の透過量は両フィルタで異なっている。同様に、撮像素子1における透過フィルタD1、D2の分光透過率をそれぞれTD1、TD2と表す。TD1、TD2もTC1、TC2と同様に波長毎の透過率が異なるが、R、G、Bの光を透過させる特性を有している。したがって、本実施形態において、入射光に含まれるR、G、Bの各成分の光の少なくとも一部は、フィルタC1、C2、D1、D2の全てを透過する。このため、撮像素子1の透過フィルタD1、D2に対向する2つの光感知セルのいずれも、R、G、Bの3つの色成分が重畳した信号を得ることができる。
 ここで、Tw、TC1、TC2、TD1、TD2は、入射する光の波長λに依存する関数である。透過フィルタD1、D2を透過してそれらに対向する光感知セルに入射する光の強度を示す信号を、それぞれd1、d2と表す。また、可視光の波長域における分光透過率の積分演算を記号Σで表すこととする。例えば、波長λについての積分演算∫TwTC1TD1dλなどを、ΣTwTC1TD1などと表すこととする。ここで、積分は可視光の全波長域にわたって行われるものとする。すると、d1は、Ci1ΣTwTC1TD1と、Ci2ΣTwTC2TD2とを合算した結果に比例する。同様に、d2は、Ci1ΣTwTC1TD2と、Ci2ΣTwTC2TD2とを合算した結果に比例する。これらの関係における比例係数を1とすれば、d1、d2は、以下の式1~2で表すことができる。
 (式1)d1=Ci1ΣTwTC1TD1+Ci2ΣTwTC2TD1
 (式2)d2=Ci1ΣTwTC1TD2+Ci2ΣTwTC2TD2
 式1、2において、ΣTwTC1TD1、ΣTwTC2TD1、ΣTwTC1TD2、ΣTwTC2TD2をそれぞれ、Mx11、Mx12、Mx21、Mx22で表すこととする。すると、式1は行列を用いて以下の式3で表すことができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、式3における要素Mx11~Mx22からなる行列の逆行列の要素を、それぞれiM11~iM22とすると、式3は以下の式4に変形できる。すなわち、領域C1、C2を透過した光の強度を示す信号を、光電変換信号d1、d2を用いて表すことができる。
Figure JPOXMLDOC01-appb-M000002
 式4より、画像を撮影して得られる画素信号d1、d2を用いて領域C1、C2を透過した光の強度を示す信号を得ることができる。領域C1、C2はx方向に離れているため、領域C1に入射した光による像と領域C2に入射した光による像とは、視点が異なる2つの画像となる。上記の処理によって生成した異なる位置から入射する光の強度を示す信号は、複数視点画像を構成する。
 以上の方法で複数視点画像を生成するためには、単位要素ごとに2つの光感知セルからの画素信号を取得する必要がある。その2つの光感知セルからの画素信号に基づいて複数視点画像を算出するための条件は、透過フィルタD1、D2の可視光域における分光透過率が互いに異なっていることである。したがって、本実施形態では、図4に示す構成に限らず、図5に示すように、各単位要素が4つの光感知セルおよびそれらに対向して配置された透過フィルタD1、R、G、Bを有する構成を用いてもよい。そのような場合でも、上記と同様に複数視点画像を算出できることを以下に示す。
 図5に示す透過フィルタR、G、Bは、それぞれ入射光の赤成分、緑成分、青成分を透過させるように設計されている。ここで、赤成分とは、概ね600nm~700nmの波長域の光であり、緑成分とは、概ね500nm~600nmの波長域の光であり、青成分とは、概ね400nm~500nmの波長域の光である。ただし、この定義は便宜上のものであり、どの色成分をどの波長域に対応させるかは、適宜定めてよい。図5に示す透過フィルタD1は、図4に示すフィルタD1と同じものである。フィルタD1は、例えば透明フィルタであり得る。そして、透過フィルタR、G、Bに対向する3つの光感知セルから出力される画素信号を加算した信号を、一つの画素信号d2とみなす。すると、透過フィルタD1に対向する光感知セルの画素信号d1と、画素信号d2とは、ともにR、G、Bの色成分を含み、それらの成分比率は互いに異なる。これにより、図4を参照しながら上述した方法と同様に複数視点画像を算出することができる。
 さらに、図5に示す撮像素子1は、R光を検知する光感知セル(R画素)、G光を検知する光感知セル(G画素)、およびB光を検知する光感知セル(B画素)を含む。そのため、これらの画素から得られる色情報を利用してカラー画像を生成することが可能となる。上記の方法で得られる複数視点画像の輝度信号Ci1、Ci2に対して、R、G、B画素から得られる色情報を付加することにより、カラーの複数視点画像が得られる。複数視点画像の輝度信号をそれぞれY1(=Ci1)、Y2(=Ci2)とし、R画素から得られる信号をRs、B画素から得られる信号をBs、輝度信号Y1、Y2を合算した輝度信号をYL=Y1+Y2とすると、色差信号は(YL-Rs)、(YL-Bs)と表される。これらの色差信号を生成した後、バンドパスフィルタでこれらの色差信号を低帯域にして、それを2つの複数視点画像の信号Ci1、Ci2に重畳することにより、カラー化された複数視点画像を得ることができる。
 ここで、領域C1を透過した光による画像のR、G、B値を、それぞれIMG(L)r、IMG(L)g、IMG(L)bと表す。また、領域C2を透過した光による画像のR、G、B値を、それぞれIMG(R)r、IMG(R)g、IMG(R)bと表す。すると、これらの値は、以下の式5、6に示す演算によって算出することができる。ここで、式5、式6に示すMは、輝度信号Y1またはY2と、2つの色差信号YL-Rs、YL-Bsとを、各画像のRGB値に変換するための3x3の変換行列である。
Figure JPOXMLDOC01-appb-M000003

Figure JPOXMLDOC01-appb-M000004
 式5、式6で表される処理により、輝度信号と色差信号とからカラー化された画像信号が得られる。画像信号生成部7は、これらの画像信号を単位要素ごとに算出することにより、カラーの複数視点画像を生成することができる。
 このように、本方式においては、透光版2(または絞り)に設けられた透過領域C1、C2は、ともにR、G、Bの各波長域の光の少なくとも一部を透過させる。このため、撮像素子1のR画素、G画素、B画素から出力される信号は、領域C1を透過した光のRGB情報と、領域C2を透過した光のRGB情報とを含む。その結果、画素信号から色差信号を算出できる。
 しかしながら、透光板2に設けられた透過領域C1、C2の分光透過率は互いに異なるため、領域C1とC2とで、透過光のR、G、B成分の量は異なる。そのため、領域C1とC2とでは、透過した光の量に応じた信号である複数視点画像の輝度信号も異なり、結果としてカラー化された複数視点画像の色も異なる。そのような色のずれた2つの画像を左眼用および右眼用の画像として3D画像を作ると、違和感のある画像となる。
 そこで、本実施形態における画像信号生成部7は、カラー化された複数視点画像間の色の違いを表す変換行列を求め、複数視点画像の一方の色が他方の色に揃うように色の補正を行う。これにより、2つの画像間の色の差異を緩和させることができる。
 元来、視点が異なる2枚の画像において、一方の色から他方の色への変換行列を求めるためには、両画像間の画素の対応付けを行った後、対応する画素間で色の変換行列を求めなければならない。そのような課題に対し、本実施形態では、複数視点画像のうち、焦点の合っている画素では視差量が0であることに着目する。画像マッチングで画素間の対応付けを行う場合、エッジが存在しない画像領域などでは正しく対応が求まらない可能性が高い。これに対し、焦点が合っている画素を見つけることは容易である。例えば、一般的なデジタルカメラやデジタルムービーには、オートフォーカス機能が備わっており、画像中のどの範囲で焦点が合っているのか、という情報の取得が可能である。
 画素間の対応がわかれば、画像信号生成部7は、それらの画素のR、G、B値を取得する。そして、対応する画素のR、G、B値の差異に基づき、複数視点画像の一方の色から他方の色へと変換する行列を求める。その後、求めた変換行列を用いて複数視点画像の一方の画像全体の色の変換を行う。以下、この色変換処理を詳細に説明する。
 2枚の複数視点画像間の対応する画素とは、複数視点画像のうち基準となる一方の画像と他方の画像とで、3次元中の同一点を表す画素のことを示す。3次元中の同一点であれば、本来同じ色である。しかしながら、本実施形態では、透光板2の領域C1、C2の分光透過率が互いに異なるため、領域C1、C2を介して撮影された複数視点画像は、3次元中の同一点から入射する光であってもそれらの画素値が一般に異なる。そのため、従来のステレオ法で行われるブロックマッチング法などの一般的なマッチング方法の利用は難しい。
 ここで、入射する光が結像する様子の例を図6に示す。図6では、2つの領域C1、C2に分割された透光板2を通して、撮像素子1の画素(x、y)へ被写体60からの光が入射する例を示している。ここで、(x、y)は、撮像面上の座標を表している。図6(a)は、被写体60で合焦している場合の例であり、図6(b)は、被写体60よりも手前で合焦している場合の例を示している。図6(b)に示す例では、被写体60はぼやけて観測される。このとき、画素(x、y)において、演算によって得られる2つの画像信号Ci1、Ci2を算出すると、図6(a)の状態では、どちらの画像信号も、3次元中の同一の点P1から入射した光の輝度信号として算出できる。一方、図6(b)の状態では、領域C1を通過した光は、3次元中の被写体60の部分P3から入射した光であり、領域C2を通過した光は、被写体60の部分P2から入射した光である。よって、図6(b)に示す状況では、画素(x、y)において、2つの画像信号Ci1、Ci2は、3次元中の同一の点を表さない。このように、画像中で合焦している画素における画像信号Ci1、Ci2は、3次元中の同一点を表すため、そのような画素においては視差がないと言える。したがって、本実施形態による複数視点画像の算出方法においては、対応点を探索するという問題は、画像中から合焦している画素を見つけることと等しいことがわかる。
 以上のことから、本実施形態では、色の変換行列を求めるために、まず、複数視点画像から合焦している画素が求められる。次に、合焦している画素において2つの画像間の色の変換行列が求められ、当該変換行列を用いて基準となる一方の画像の色を変換することで色の補正が行われる。このように、本実施形態における方法では、合焦している限定された画素から色変換行列が求められる。一般に、画像内で重要な被写体には合焦している場合が多いため、本方法における対応点探索方法は有効に機能する。
 図7Aは、以上に示した方法を実行するための画像信号生成部7の機能ブロック図である。図7Aに示すように、画像信号生成部7は、高周波成分算出部71と、合焦領域抽出部72と、色変換行列算出部73と、色変換処理部74とを有している。また、図7Bは、画像信号生成部7が実行する上記の色変換処理のフローチャートである。以下、各処理の詳細を説明する。
 画像信号生成部7は、まず、複数視点画像から合焦している画素を求めるために、高周波成分算出部71にて、画像中の高周波成分を算出する(ステップS1)。高周波成分の抽出例を図8に示す。図8(a)は複数視点画像のうちの1枚であり、図8(b)は高周波成分の抽出結果である。図8(b)において、明るい画素ほど高周波成分を多く含む画素であることを表している。高周波成分算出部71は、高周波成分の量が所定の閾値以上の画素を「高周波画素」として決定する。
 高周波成分の抽出方法として、例えば公知のソーベルフィルタ、ラプラシアンフィルタに代表されるエッジ抽出フィルタを利用して画像空間での画素値の変化が大きい画素を抽出する方法がある。また、フーリエ変換を行いて周波数空間上で表された画像にハイパスフィルタ処理を行った後、逆フーリエ変換を行う方法などがある。本実施形態では、画像における高周波成分が算出できればいずれの方法を用いてもよい。
 次に、画像信号生成部7は、合焦領域抽出部72にて、合焦領域の抽出を行う(ステップS2)。高周波成分算出部71にて決定した高周波画素は、合焦している被写体の輪郭を表す。合焦領域は高周波画素の近傍に存在するため、本実施形態における合焦領域抽出部72は、高周波画素を含むn画素×m画素(n、mは1以上の整数)の矩形領域を合焦領域として抽出する。例えば、高周波画素を中心とするn画素×m画素の矩形領域を合焦領域として抽出すればよい。合焦領域に存在する被写体像が高周波成分を多く含む場合は、n、mを小さく設定することで、n、mが大きい場合に比べて、抽出された合焦領域の中に合焦していない部分(被合焦領域)が混入することを抑えることが可能となる。また、被写体の高周波成分が少ない場合、色変換行列を算出するための十分な数の対応点を得るため、n、mを大きく設定することが望ましい。抽出された合焦領域への非合焦領域の混入を低減させるため、高周波画素の中心を矩形領域の中心とするのではなく、例えば、高周波画素から画像中心方向に向かってn画素×m画素の矩形領域を合焦領域としてもよい。これは、合焦させたい被写体(撮影者が注目する被写体)は、画像中央に出現することが多いという先見知識を利用している。また、近年のデジタルカメラに搭載されている顔認識の技術を応用して、合焦している輪郭が顔領域であることが事前にわかれば、その顔領域を合焦領域としてもよい。
 図8(c)に示す白枠は、合焦領域の例を示している。上述したように、合焦領域では視差量が0であるため、以上に示した合焦領域の算出処理は、複数視点画像のうちのいずれか1枚から算出すればよい。以上に示した合焦領域は、矩形領域に限らず、多角形や円、楕円など、どのような形態をとっても構わない。なお、図8(c)に示す例では、6個の合焦領域を抽出しているが、抽出する合焦領域の数は任意に定めてよい。
 また、合焦領域抽出部72は、高周波画素付近の画素値と高周波画素から遠く離れた位置の画素値との違いを利用して合焦領域の抽出を行ってもよい。例えば、非特許文献1に開示されている方法のように、画素値の類似性を用いたセグメンテーション処理によって合焦領域であるか否かを判断してもよい。この方法では、サンプリングした背景の色情報と、前景の色情報とから、各画素の前景らしさ、背景らしさの程度(類似度)を算出する。これらの類似度を用いたグラフカット法によって画像の領域分割を行い、各画素が前景であるか背景であるかを決定する。すなわち、分割された領域のうち、高周波画素付近の画素に類似すると判定された画素を、合焦領域とすることができる。
 なお、本実施形態では、画像の高周波成分に基づいて合焦領域を抽出するが、合焦している領域を他の方法で判別できる場合は、高周波成分の算出を行う必要はない。例えば、被写体と撮像装置との距離が予めわかっている特殊な状況下においては、当該距離と光学系の焦点距離とから合焦している領域を判別してもよい。
 次に、画像信号生成部7は、色変換行列算出部73によって色変換行列を算出する(ステップS3)。合焦領域抽出部72によって得られる合焦領域において、2枚の複数視点画像からそれぞれRGB値が取得され、一方の画像のRGB値から他方の画像のRGB値への色変換行列が算出される。ここで、2枚の複数視点画像をそれぞれIMG(L)、IMG(R)と表す。一方の画像IMG(L)の合焦領域におけるR、G、B値を、それぞれIMG(L)r(i、j)、IMG(L)g(i、j)、IMG(L)b(i、j)と表す。また、他方の画像IMG(R)のR、G、B値を、それぞれIMG(R)r(i、j)、IMG(R)g(i、j)、IMG(R)b(i、j)と表す。なお、添字i、jは、合焦領域抽出部72によって得られる合焦領域の画素の座標を示す。これらのRGB値を用いて、以下の式7に基づいて、IMG(L)の各色の値から、IMG(R)の各色の値への色変換行列を求めることができる。
Figure JPOXMLDOC01-appb-M000005
 式7における変換行列Mcは、3×3の行列である。合焦領域の画素数をn’とすると、式7の左辺と右辺のRGB値の行列はn’×3の行列となる。n’が3未満の場合は変換行列を求められないが、合焦領域が2画素しかない場合は稀であるため、通常は問題なく変換行列を求めることができる。n’>=3のとき、変換行列Mcは、単純には最小二乗法によって求められる。直感的に言えば、最小二乗法では、求めようとする変換行列Mcの逆行列およびIMG(R)の色信号からなる行列の間の積と、IMG(L)の色信号からなる行列との誤差の二乗和が最小になるように変換行列Mcが求められる。この方法では、IMG(R)の色やIMG(L)の色にノイズが含まれる場合、それらの誤差も小さくなるような変換行列を求めるため、正しく色変換を行えない場合がある。このようなノイズを見つけることは一般に容易ではないため、そのような問題に対して、例えば、M推定法のようなロバスト統計に基づく方法を用いてもよい。M推定法では、変換行列の確からしさを求める際に、誤差の二乗ではなく、所定の誤差関数の出力値が用いられる。以下に最小二乗法の評価式と、M推定法の評価式とを示す。
 ・最小二乗法:minΣε2
 ・M推定法:minΣρ(ε)
 M推定法で用いられる関数ρとしては、例えば、誤差εが小さいほど出力値が高く、誤差εが大きいほど出力値が小さくなる関数が一般的に用いられている。代表的な関数として、GermanとMcClureのρ関数などがある。これにより、誤差が大きい要素の影響が小さくなるため、ノイズに対して頑健な変換行列の推定が可能となる。
 同様なロバスト統計に基づく方法としてLMedS法がある。LMedS法は、最小中央値法とも呼ばれ、誤差の中央値が最小になるような変換行列を求める方法である。LMedS法では、上記と同様、変換行列が求められ、合焦領域内の誤差εが画素毎に求められる。求められた誤差をソートした後、中央値が取得される。例えば、合焦領域が100画素からなる場合、合焦領域から誤差εを画素ごとに100通り求められ、ソートされた後、50番目の誤差値が取得される。この方法によれば、原理的に、ノイズが50%未満であるとき、正しい変換行列から求められた中央値の誤差は、ノイズの影響のない画素から求められた誤差である。このため、ノイズの影響を受けにくい推定が可能となる。
 また、合焦領域に分布するRGB値の分布に偏りがある場合、最小二乗法では正しく変換行列が求まらない場合がある。そのような場合、RANSAC(Random Sample Consensus)と呼ばれるロバスト統計法を用いて変換行列を推定してもよい。この方法では、まず複数視点画像の合焦領域における画素を3点以上サンプリングしてIMG(L)の色からIMG(R)の色への色変換行列を求める。得られる色変換行列が正しい色変換行列であれば、サンプリングしなかった画素に対して、色変換行列の逆行列を用いてIMG(R)の色からIMG(L)の色に色変換を行う。もともとのIMG(L)の色とIMG(R)から変換したIMG(L)の色とを比較したときの誤差量が最小となるとき、求められた色変換行列が正しいものとする。この方法では、最初に色変換行列を求めるサンプリング点にノイズが含まれていない場合や、色の分布に偏りがなければ、正しい色変換行列を求めることが可能となる。
 最後に、画像信号生成部7は、色変換処理部74により、上記の方法で求めた色変換行列を用いて色変換処理を行う(ステップS4)。色変換は、複数視点画像のうちの左側画像の全画素におけるRGB値IMG(L)r、IMG(L)g、IMG(L)bを、変換行列Mcを用いて変換することによって行われる。
 図9は、色変換前の左側画像の各画素の色を変換行列Mcを用いて変換する処理のイメージを示す図である。図示されるように、合焦領域における左側画像(L画像)と右側画像(R画像)との比較によって求められた変換行列Mcを用いて、L画像の全体を変換することにより、色変換後のL画像が生成される。色変換後のL画像を新たに左側画像とすれば、右側画像の色と整合する左側画像が得られるため、より自然な3D画像を生成することが可能になる。
 以上のように、本実施形態の撮像装置によれば、分光透過率の互いに異なる2つの透過領域を有する透光板2と、分光透過率の互いに異なる2種類以上の透過フィルタを有する撮像素子1とを用いて、複数視点画像を生成することができる。特に、本実施形態における画像信号生成部7は、複数視点画像の合焦領域において色変換行列を求め、当該色変換行列を用いて一方の画像全体の色を補正する。これにより、比較的容易に複数視点画像間の色を整合させることが可能となる。
 なお、本実施形態では、透光板2の領域C1におけるフィルタW1、領域C2におけるフィルタW2、撮像素子1におけるフィルタD1、D2は、いずれもRGBの全ての色成分の光について、少なくとも一部を透過させる特性を有している。しかし、本発明では必ずしもそのようなフィルタを用いる必要はない。一部の色成分の光をカットするフィルタが用いられている場合であっても、本実施形態の色変換処理を用いることができる。
 また、本実施形態では、透光板2は、2つの透過領域C1、C2のみを有しているが、3つ以上の透過領域を有していてもよい。3つ以上の透過領域を有している場合であっても、任意の2つの透過領域に対応する2つの画像間の色を合わせることができるため、本実施形態における画像処理は有効である。
 本実施形態の撮像装置は、撮像によって得られる光電変換信号から信号演算によって画像信号を生成するが、信号演算による画像信号の生成処理を撮像装置とは独立した他の装置に実行させてもよい。例えば、本実施形態における撮像部100を有する撮像装置によって取得した信号を他の装置に読み込ませ、上記の画像信号生成部7が行う信号演算処理を規定するプログラムを当該他の装置(画像処理装置)のコンピュータに実行させることによっても上記と同様の効果を得ることができる。
 本発明の実施形態による3次元撮像装置は、固体撮像素子を用いたすべてのカメラに有効である。例えば、デジタルスチルカメラやデジタルビデオカメラなどの民生用カメラや、産業用の固体監視カメラなどに利用できる。また、本発明の画像処理装置は、合焦している部分の位置が2つの画像間でずれない撮像系によって取得された視差を有する2つの画像間の色を整合させることができる。そのため、例えば上記の撮像系によって取得され、3Dテレビ等の表示装置に入力される画像信号を処理する用途に利用できる。
 1 固体撮像素子
 1a 固体撮像素子の撮像面
 2 透光板
 2a 光透過部
 3 光学レンズ
 3a 透光板と光学レンズの機能が一体化された光学素子
 4 赤外カットフィルタ
 5 信号発生/受信部
 6 素子駆動部
 7 画像信号生成部
 8 インターフェース部
 19 レンズ絞り
 20、22、23 光束制限板
 20a 赤系統の光を透過させる色フィルタ
 20b 青系統の光を透過させる色フィルタ
 21 感光フィルム
 22R、23R 光束制限板のR光透過領域
 22G、23G 光束制限板のG光透過領域
 22B、23B 光束制限板のB光透過領域
 30 メモリ
 60 被写体
 71 高周波成分算出部
 72 合焦領域抽出部
 73 色変換行列算出部
 74 色変換処理部
 100 撮像部
 110 透過フィルタ
 120 光感知セル
 200 信号処理部

Claims (9)

  1.  視差を有する2つの画像の色を整合させる画像処理装置であって、
     前記2つの画像の合焦領域を抽出する合焦領域抽出部と、
     前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部と、
     前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部と、
    を備える画像処理装置。
  2.  前記2つの画像の少なくとも一方の高周波成分を算出する高周波成分算出部をさらに備え、
     前記合焦領域抽出部は、算出された前記高周波成分に基づいて、前記合焦領域を抽出する、請求項1に記載の画像処理装置。
  3.  前記合焦領域抽出部は、前記高周波成分の量が予め決定された閾値よりも多い高周波画素の近傍を合焦領域として抽出する、請求項2に記載の画像処理装置。
  4.  前記合焦領域抽出部は、前記高周波画素を含むn画素×m画素(n、mは1以上の整数)の矩形領域を前記合焦領域として抽出する、請求項3に記載の画像処理装置。
  5.  前記合焦領域抽出部は、前記高周波画素を中心とするn画素×m画素(n、mは1以上の整数)の矩形領域を前記合焦領域として抽出する、請求項3または4に記載の画像処理装置。
  6.  前記色変換行列算出部は、最小二乗法による線型演算、M推定法、およびRANSAC法のいずれかを用いて前記色変換行列を求める、請求項1から5のいずれかに記載の画像処理装置。
  7.  分光透過率特性の互いに異なる2つの透過領域を有する光透過部と、
     前記光透過部を透過した光を受けるように配置された撮像素子であって、分光透過率特性の互いに異なる2種類の画素を有する撮像素子と、
     前記撮像素子から出力される画素信号に基づいて視差を有する2つの画像を生成する画像処理部と、
    を備え、
     前記画像処理部は、
     前記2つの画像の合焦領域を抽出する合焦領域抽出部と、
     前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求める色変換行列算出部と、
     前記色変換行列を用いて前記2つの画像の一方の色を変換する色変換部と、
    を有している、3次元撮像装置。
  8.  視差を有する2つの画像の色を整合させる画像処理方法であって、
     前記2つの画像の合焦領域を抽出するステップと、
     前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求めるステップと、
     前記色変換行列を用いて前記2つの画像の一方の色を変換するステップと、
    を含む、画像処理方法。
  9.  視差を有する2つの画像の色を整合させる画像処理プログラムであって、
     コンピュータに対し、
     前記2つの画像の合焦領域を抽出するステップと、
     前記2つの画像の合焦領域に含まれる画素の色情報に基づいて、前記2つの画像間の色変換行列を求めるステップと、
     前記色変換行列を用いて前記2つの画像の一方の色を変換するステップと、
    を実行させる、画像処理プログラム。
PCT/JP2012/004317 2011-08-25 2012-07-04 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム WO2013027320A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012551824A JP6034197B2 (ja) 2011-08-25 2012-07-04 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
US13/816,748 US9438890B2 (en) 2011-08-25 2012-07-04 Image processor, 3D image capture device, image processing method, and image processing program
CN201280002528.1A CN103098480B (zh) 2011-08-25 2012-07-04 图像处理装置及方法、三维摄像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-183909 2011-08-25
JP2011183909 2011-08-25

Publications (1)

Publication Number Publication Date
WO2013027320A1 true WO2013027320A1 (ja) 2013-02-28

Family

ID=47746095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/004317 WO2013027320A1 (ja) 2011-08-25 2012-07-04 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム

Country Status (4)

Country Link
US (1) US9438890B2 (ja)
JP (1) JP6034197B2 (ja)
CN (1) CN103098480B (ja)
WO (1) WO2013027320A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3072439B1 (en) * 2013-10-28 2018-09-05 Fujifilm Corporation Image processing device and operation method therefor
US9372292B2 (en) * 2013-12-13 2016-06-21 Canon Kabushiki Kaisha Imaging apparatus having light source identification and image quality correction functions and method for controlling imaging apparatus
CN104125405B (zh) * 2014-08-12 2018-08-17 罗天明 基于眼球追踪和自动对焦系统的图像感兴趣区域提取方法
JP5893713B1 (ja) * 2014-11-04 2016-03-23 オリンパス株式会社 撮像装置、撮像方法、処理プログラム
EP3291532B1 (en) * 2015-04-28 2020-07-22 Sony Corporation Image processing device and image processing method
US9911023B2 (en) * 2015-08-17 2018-03-06 Hand Held Products, Inc. Indicia reader having a filtered multifunction image sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
WO2011083542A1 (ja) * 2010-01-05 2011-07-14 パナソニック株式会社 3次元撮像装置
JP2011145343A (ja) * 2010-01-12 2011-07-28 Sony Corp 鏡筒装置及び立体撮像装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171737A (ja) 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオカメラ用撮影レンズ
JP3493104B2 (ja) * 1996-10-24 2004-02-03 シャープ株式会社 カラー画像処理装置
US6415053B1 (en) * 1998-04-20 2002-07-02 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6807295B1 (en) * 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
JP2002344999A (ja) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd ステレオ画像撮像装置
US20030063185A1 (en) * 2001-09-28 2003-04-03 Bell Cynthia S. Three-dimensional imaging with complementary color filter arrays
JP3869702B2 (ja) 2001-10-30 2007-01-17 ペンタックス株式会社 ステレオ画像撮像装置
JP3989738B2 (ja) * 2002-01-16 2007-10-10 シャープ株式会社 画像形成方法および画像形成装置ならびにプログラム、記録媒体
JP2006079132A (ja) * 2002-10-02 2006-03-23 Matsushita Electric Ind Co Ltd 画像変換方法および画像変換装置
WO2004051575A1 (ja) * 2002-12-05 2004-06-17 Seiko Epson Corporation 特徴領域抽出装置、特徴領域抽出方法および特徴領域抽出プログラム
US7633537B2 (en) * 2002-12-18 2009-12-15 Nikon Corporation Color image sensor, color filter array and color imaging device
US8326084B1 (en) * 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US7636473B2 (en) * 2004-03-12 2009-12-22 Seiko Epson Corporation Image color adjustment
US20060054782A1 (en) * 2004-08-25 2006-03-16 Olsen Richard I Apparatus for multiple camera devices and method of operating same
JP4405942B2 (ja) * 2005-06-14 2010-01-27 キヤノン株式会社 画像処理装置およびその方法
JP4557843B2 (ja) * 2005-08-31 2010-10-06 キヤノン株式会社 画像処理装置及びその方法
JP2007104248A (ja) * 2005-10-04 2007-04-19 Nikon Corp 電子カメラおよびプログラム
ATE542194T1 (de) * 2005-12-02 2012-02-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur stereobildanzeige, verfahren zum erzeugen von 3d-bilddaten aus einer 2d-bilddateneingabe und vorrichtung zum erzeugen von 3d-bilddaten aus einer 2d-bilddateneingabe
US20070253619A1 (en) * 2006-04-27 2007-11-01 Kabushiki Kaisha Toshiba Color profile generating apparatus and method
US7573489B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion
JP4945642B2 (ja) * 2006-11-21 2012-06-06 トムソン ライセンシング 3d画像の色補正の方法及びそのシステム
JP4686795B2 (ja) * 2006-12-27 2011-05-25 富士フイルム株式会社 画像生成装置及び画像再生装置
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
US8334910B2 (en) * 2007-02-09 2012-12-18 Canon Kabushiki Kaisha Image capturing apparatus, information processing apparatus, and control methods thereof
US8027533B2 (en) * 2007-03-19 2011-09-27 Sti Medical Systems, Llc Method of automated image color calibration
JP2008242324A (ja) * 2007-03-28 2008-10-09 Sumitomo Chemical Co Ltd 着色感光性樹脂組成物、並びにそれを用いた色フィルタアレイ、固体撮像素子およびカメラシステム
JP2009005166A (ja) * 2007-06-22 2009-01-08 Olympus Corp 色補間装置及び画像処理システム
JPWO2009050798A1 (ja) * 2007-10-17 2011-02-24 三菱電機株式会社 画像処理装置
JP5242180B2 (ja) * 2008-01-23 2013-07-24 オリンパス株式会社 画像処理装置、画像信号補正方法、補正マトリクス算出方法及び撮像装置
CN101939980B (zh) * 2008-02-06 2012-08-08 松下电器产业株式会社 电子摄像机和图像处理方法
WO2009104787A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 カラー画像処理方法、装置およびプログラム
EP2169963B1 (en) * 2008-05-14 2017-04-26 Panasonic Intellectual Property Corporation of America Image pickup device and image pickup method
US8432391B2 (en) * 2008-06-02 2013-04-30 Panasonic Corporation Remote control device and remote control method
JP4524717B2 (ja) * 2008-06-13 2010-08-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5325117B2 (ja) * 2008-06-18 2013-10-23 パナソニック株式会社 固体撮像装置
JP5302768B2 (ja) * 2008-06-26 2013-10-02 キヤノン株式会社 画像処理装置及び画像処理方法
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP5099704B2 (ja) 2008-08-06 2012-12-19 独立行政法人産業技術総合研究所 高さを測定する方法及び高さ測定装置
GB2463480A (en) 2008-09-12 2010-03-17 Sharp Kk Camera Having Large Depth of Field
WO2010038378A1 (ja) * 2008-10-02 2010-04-08 パナソニック株式会社 画素ずらし型撮像装置
US8314872B2 (en) * 2008-11-19 2012-11-20 Panasonic Corporation Imaging device
TW201027506A (en) * 2009-01-08 2010-07-16 Acer Inc A display for three dimensional (3D) images
JP5517685B2 (ja) * 2009-04-14 2014-06-11 キヤノン株式会社 画像処理装置および方法
WO2010131499A1 (ja) * 2009-05-15 2010-11-18 シャープ株式会社 画像処理装置および画像処理方法
US8872910B1 (en) * 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
WO2011001398A2 (en) * 2009-06-30 2011-01-06 Mango Dsp Inc. Method circuit and system for matching an object or person present within two or more images
US8363093B2 (en) * 2009-07-27 2013-01-29 Eastman Kodak Company Stereoscopic imaging using split complementary color filters
US8508580B2 (en) * 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
JP4853560B2 (ja) * 2009-09-18 2012-01-11 コニカミノルタビジネステクノロジーズ株式会社 画像処理方法、画像処理装置およびコンピュータプログラム
EP2312534A3 (en) * 2009-10-15 2011-07-06 Hitachi Aloka Medical, Ltd. Ultrasonic volume data processing device
US8687068B2 (en) * 2010-09-19 2014-04-01 Hewlett-Packard Development Company, L.P. Pattern of color codes
WO2012098599A1 (ja) * 2011-01-17 2012-07-26 パナソニック株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
WO2011083542A1 (ja) * 2010-01-05 2011-07-14 パナソニック株式会社 3次元撮像装置
WO2011083543A1 (ja) * 2010-01-05 2011-07-14 パナソニック株式会社 3次元撮像装置
JP2011145343A (ja) * 2010-01-12 2011-07-28 Sony Corp 鏡筒装置及び立体撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135404A (ja) * 2020-02-27 2021-09-13 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム
JP7261192B2 (ja) 2020-02-27 2023-04-19 富士フイルム株式会社 レンズ装置、撮像装置、撮像方法、及び撮像プログラム

Also Published As

Publication number Publication date
CN103098480B (zh) 2018-08-28
JPWO2013027320A1 (ja) 2015-03-05
US9438890B2 (en) 2016-09-06
US20150138319A1 (en) 2015-05-21
JP6034197B2 (ja) 2016-11-30
CN103098480A (zh) 2013-05-08

Similar Documents

Publication Publication Date Title
JP6034197B2 (ja) 画像処理装置、3次元撮像装置、画像処理方法、および画像処理プログラム
Bando et al. Extracting depth and matte using a color-filtered aperture
JP5853202B2 (ja) 撮像装置
CN102227746B (zh) 立体图像处理装置、方法和立体成像设备
JP5406151B2 (ja) 3次元撮像装置
JP5923754B2 (ja) 3次元撮像装置
WO2011151948A1 (ja) 3次元撮像装置
US9544570B2 (en) Three-dimensional image pickup apparatus, light-transparent unit, image processing apparatus, and program
US9628776B2 (en) Three-dimensional imaging device, image processing device, image processing method, and image processing program
JP5995084B2 (ja) 3次元撮像装置、撮像素子、光透過部、および画像処理装置
US9706186B2 (en) Imaging apparatus for generating parallax image data
JP5914881B2 (ja) 3次元撮像装置、画像処理装置、画像処理方法、およびプログラム
JP2013102362A (ja) 光学機器、画像処理方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002528.1

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2012551824

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13816748

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12825565

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12825565

Country of ref document: EP

Kind code of ref document: A1