WO2012137485A1 - 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム - Google Patents

3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2012137485A1
WO2012137485A1 PCT/JP2012/002321 JP2012002321W WO2012137485A1 WO 2012137485 A1 WO2012137485 A1 WO 2012137485A1 JP 2012002321 W JP2012002321 W JP 2012002321W WO 2012137485 A1 WO2012137485 A1 WO 2012137485A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
imaging
filters
unit
Prior art date
Application number
PCT/JP2012/002321
Other languages
English (en)
French (fr)
Inventor
育規 石井
平本 政夫
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/004,465 priority Critical patent/US9628776B2/en
Priority to JP2013508765A priority patent/JP5903670B2/ja
Priority to CN201280012326.5A priority patent/CN103636199B/zh
Publication of WO2012137485A1 publication Critical patent/WO2012137485A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/12Stereoscopic photography by simultaneous recording involving recording of different viewpoint images in different colours on a colour film
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/214Image signal generators using stereoscopic image cameras using a single 2D image sensor using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Definitions

  • the present application relates to a monocular three-dimensional imaging technique for acquiring a plurality of images having parallax.
  • image sensors In recent years, there has been a remarkable increase in functionality and performance of digital cameras and digital movies using solid-state image sensors such as CCDs and CMOSs (hereinafter sometimes referred to as “image sensors”).
  • image sensors due to advances in semiconductor manufacturing technology, the pixel structure in a solid-state image sensor has been miniaturized. As a result, higher integration of pixels and drive circuits of solid-state image sensors has been attempted. For this reason, in a few years, the number of pixels of the image sensor has increased significantly from about 1 million pixels to over 10 million pixels. Furthermore, the quality of the image obtained by imaging has improved dramatically.
  • a thin liquid crystal display or a plasma display enables high-resolution and high-contrast display without taking up space, and high performance is realized.
  • Such a flow of improving the quality of video is spreading from a two-dimensional image to a three-dimensional image.
  • polarized glasses are required, but high-quality three-dimensional display devices are being developed.
  • a representative technique having a simple configuration includes a technique of acquiring an image for the right eye and an image for the left eye, respectively, using an imaging system including two cameras.
  • an imaging system including two cameras In such a so-called two-lens imaging method, since two cameras are used, the imaging apparatus becomes large and the cost can be high. Therefore, a method (monocular imaging method) for acquiring a plurality of images having parallax (hereinafter sometimes referred to as “multi-viewpoint images”) using one camera has been studied.
  • Patent Document 1 discloses a method of simultaneously acquiring two images having parallax using a color filter.
  • FIG. 16 is a diagram schematically showing an imaging system according to this method.
  • the imaging system in this technique includes a lens 3, a lens diaphragm 19, a light flux limiting plate 20 on which two color filters 20a and 20b having different transmission wavelength ranges are arranged, and a photosensitive film 21.
  • the color filters 20a and 20b are filters that transmit, for example, red and blue light, respectively.
  • FIG. 17 is a diagram schematically showing the light flux limiting plate 22 in this technique.
  • a light flux limiting plate in which an R region 22R that transmits red light, a G region 22G that transmits green light, and a B region 22B that transmits blue light are provided on a plane perpendicular to the optical axis of the imaging optical system. 22 is used.
  • the light transmitted through these areas is received by a color imaging device having an R pixel that detects red light, a G pixel that detects green light, and a B pixel that detects blue light. Is acquired.
  • Patent Document 3 discloses a technique for acquiring a plurality of images having parallax using a configuration similar to the configuration of FIG.
  • FIG. 18 is a diagram schematically showing the light flux limiting plate 23 disclosed in Patent Document 3. As shown in FIG. Even in this technique, a plurality of images having parallax can be created by allowing incident light to pass through the R region 23R, the G region 23G, and the B region 23B provided on the light flux limiting plate 23.
  • Patent Document 4 discloses a technique for generating a plurality of images having parallax using a pair of filters of different colors arranged symmetrically with respect to the optical axis.
  • a red filter and a blue filter as a pair of filters
  • the R pixel that detects red light observes the light transmitted through the red filter
  • the B pixel that detects blue light receives the light transmitted through the blue filter.
  • the positions of the red filter and the blue filter are different, the incident direction of light received by the R pixel and the incident direction of light received by the B pixel are different from each other.
  • the image observed at the R pixel and the image observed at the B pixel are images having different viewpoints.
  • the amount of parallax can be calculated by obtaining corresponding points for each pixel from these images.
  • the distance from the camera to the subject is obtained from the calculated amount of parallax and the focal length information of the camera.
  • Patent Document 5 a diaphragm to which two color filters having different aperture sizes (for example, red and blue) are attached, or two color filters having different colors are attached to positions symmetrical with respect to the optical axis.
  • a technique for obtaining distance information of a subject from two images acquired using a diaphragm In this technique, when light transmitted through red and blue color filters having different aperture sizes is observed, the degree of blur observed for each color is different. For this reason, the two images corresponding to the red and blue color filters have different degrees of blur depending on the distance of the subject. By obtaining corresponding points from these images and comparing the degree of blur, distance information from the camera to the subject can be obtained.
  • the two images corresponding to the red and blue color filters are images having parallax.
  • a plurality of images having parallax can be generated by arranging RGB color filters on the light beam limiting plate or the stop.
  • the RGB color filter since the RGB color filter is used, the amount of incident light is reduced to about 1/3. Further, in order to increase the amount of parallax to be obtained, it is necessary to dispose a plurality of color filters at positions separated from each other and reduce their area. However, if the area of the color filter is reduced, the amount of incident light further decreases.
  • Patent Document 6 A technique that can obtain a plurality of images having parallax and a normal image having no problem in light quantity is disclosed in Patent Document 6 using a diaphragm in which a plurality of RGB color filters are arranged. It is disclosed. According to this technique, the image sensor receives only light transmitted through the RGB color filter when the diaphragm is closed, and receives all incident light because the RGB color filter area is out of the optical path when the diaphragm is opened. be able to. As a result, a multi-viewpoint image can be acquired when the aperture is closed, and a normal image with a high light utilization rate can be acquired when the aperture is open.
  • Patent Documents 1 to 6 it is impossible to obtain a multi-viewpoint image with a high light utilization rate.
  • the embodiment of the present invention provides a three-dimensional imaging technique capable of generating a multi-viewpoint image with a higher light utilization rate than in the past.
  • a three-dimensional imaging device is provided so that light is incident in parallel.
  • an image sensor arranged to receive the light transmitted through the light transmitting portion, and is disposed facing the photosensitive cell array and the photosensitive cell array.
  • the photosensitive cell array and the filter array are composed of a plurality of unit elements, and each unit element is arranged to face N photosensitive cells and the N photosensitive cells.
  • An image sensor including N second filters having different wavelength dependences of the transmitted transmittance, an image forming unit that forms an image on the image pickup surface of the image sensor, and M times (M is equal to or greater than N) Before taking an integer)
  • An imaging drive unit that drives a light transmission unit, wherein each position of the N types of first filters is changed for each imaging on N positions predetermined with respect to the imaging element.
  • An imaging drive unit that drives the light transmission unit.
  • the three-dimensional imaging apparatus it is possible to obtain a multi-viewpoint image with a higher light utilization rate than in the past.
  • FIG. 2 is a schematic diagram illustrating a schematic configuration of a light-transmitting plate, an optical system, and an image sensor in Exemplary Embodiment 1.
  • FIG. 2 is a figure which shows arrangement
  • FIG. 2 is a diagram illustrating a basic configuration of a color filter of an image sensor in exemplary embodiment 1.
  • FIG. It is a schematic diagram for demonstrating the light which injects into the light transmission board 2 in exemplary Embodiment 1, and the light which permeate
  • FIG. 6 is a table showing the relationship between the position and color component of a filter arranged in a transmission region and an output signal in exemplary embodiment 1. It is a figure which shows the image which has the parallax calculated by the method in exemplary Embodiment 1.
  • FIG. It is a figure which shows the example of the light transmission board in illustrative Embodiment 2.
  • FIG. 2 is a configuration diagram of an imaging system in Patent Document 1.
  • FIG. It is an external view of the light beam restricting plate in Patent Document 2.
  • Patent Documents 1 to 5 it is possible to acquire a multi-viewpoint image, but it is not possible to increase the light utilization rate in the image sensor.
  • a primary color (RGB system) color filter is used.
  • Patent Document 6 a normal image with a high light utilization rate can be acquired by using a mechanism that removes the color filter from the optical path by mechanical driving.
  • a primary color filter is used when acquiring a multi-viewpoint image, it is not possible to obtain a multi-viewpoint image with a high light utilization rate.
  • the wavelength range of the light reflected by the subject has a bias, so that all wavelengths of light are not incident on the imaging device equally. Therefore, for example, when a red subject is photographed using red and blue color filters, the reflected light from the subject passes through the red color filter but does not pass through the blue color filter. As a result, with the conventional technique, there is a possibility that a multi-viewpoint image cannot be obtained correctly when the subject is a chromatic color.
  • Patent Document 3 discloses a technique for generating a color image having parallax by acquiring distance information using the linearity of a color when photographing a chromatic subject.
  • the subject is a primary color or there is no texture in the shooting scene, it is difficult to acquire distance information due to color linearity.
  • a multi-viewpoint image can be generated with a higher light utilization rate than in the past.
  • a three-dimensional imaging device which is one embodiment of the present invention is provided with N types (N is an integer of 2 or more) of N types having different wavelength dependencies of transmittance, which are provided so that light is incident in parallel.
  • a light transmission part having one filter, and an image pickup device arranged to receive light transmitted through the light transmission part, and having a light sensitive cell array and a filter array arranged to face the light sensitive cell array.
  • the photosensitive cell array and the filter array are composed of a plurality of unit elements, and each unit element has N light sensing cells and a transmittance of the N light sensing cells.
  • An image sensor including N second filters having different wavelength dependencies, an image forming unit that forms an image on an image pickup surface of the image sensor, and continuously imaging M times (M is an integer equal to or greater than N).
  • An image driving unit that drives the light transmission unit so that each position of the N types of first filters is changed for each imaging on N positions predetermined with respect to the imaging element.
  • An imaging drive unit that drives the light transmission unit so that each position of the N types of first filters is changed for each imaging on N positions predetermined with respect to the imaging element.
  • the N types of first filters are designed such that light of an arbitrary wavelength included in visible light can pass through at least one of the N types of first filters. At least one of the types of first filters has a transmission wavelength range wider than the primary color wavelength range.
  • the three-dimensional imaging device has a plurality of outputs from the N photosensitive cells included in each unit element for each of the M times of imaging.
  • An image generation unit that generates N multiple viewpoint images corresponding to the N positions based on the photoelectric conversion signal is provided.
  • the image generation unit outputs a plurality of outputs from the N photosensitive cells included in each unit element for each of the M times of imaging. Based on the photoelectric conversion signal, M ⁇ N image signals are generated by the light components passing through the N positions, and the generated N ⁇ M image signals are combined to generate the N number of image signals. N color multi-viewpoint images corresponding to the positions are generated.
  • three types of transmission wavelength regions of the N types of first filters are cyan, magenta, yellow, Each of the three wavelength ranges of red, blue and green is designed to be equal.
  • N 3
  • the transmission wavelength range of the N types of first filters is cyan, magenta, yellow
  • the transmission wavelength ranges of the N second filters are designed to be equal to the red, blue, and green wavelength ranges, respectively.
  • the N types of first filters in the light transmission unit have a distance from the center of the light transmission unit. They are all equal and are arranged so that the distances between two adjacent first filters are equal.
  • the imaging drive unit rotates the light transmission unit around the center of the light transmission unit.
  • the positions of the N types of first filters are changed for each image pickup on the N positions.
  • An image processing apparatus generates a multi-viewpoint image based on a signal acquired by the three-dimensional imaging apparatus according to any one of items (1) to (8). And N corresponding to the N positions based on a plurality of photoelectric conversion signals output for each of the M times of imaging from the N photosensitive cells included in each unit element of the imaging device. One multi-viewpoint image is generated.
  • the image processing device is configured to output the N number of photoelectric conversion signals based on a plurality of photoelectric conversion signals output for each of the M times of imaging from the N number of photosensitive cells included in each unit element.
  • N ⁇ M multi-viewpoint images corresponding to the N positions are generated by generating M ⁇ N image signals by light of components passing through the positions and combining the generated N ⁇ M image signals. Is generated.
  • An image processing method is an image for generating a multi-viewpoint image based on a signal acquired by the three-dimensional imaging device according to any one of items (1) to (8).
  • a processing method which corresponds to the N positions based on a plurality of photoelectric conversion signals output for each of the M times of imaging from the N photosensitive cells included in each unit element of the imaging device. Generating N multi-viewpoint images.
  • the step of generating the N multiple viewpoint images includes converting the N photoelectric cells included in each unit element into a plurality of photoelectric conversion signals output every M times of imaging. Based on the step, generating M ⁇ N image signals by light of components passing through the N positions, and combining the generated N ⁇ M image signals with the N positions. Generating N color multi-viewpoint images corresponding to.
  • An image processing program is an image processing program for generating a multi-viewpoint image based on a signal acquired by the three-dimensional imaging device according to the embodiment of the present invention.
  • N pieces corresponding to the N positions are provided.
  • a step of generating a multi-viewpoint image is executed.
  • the step of generating the N multiple-viewpoint images is performed on the plurality of photoelectric conversion signals output for each of the M times of imaging from the N photosensitive cells included in each unit element. Based on the step, generating M ⁇ N image signals by light of components passing through the N positions, and combining the generated N ⁇ M image signals with the N positions. Generating N color multi-viewpoint images corresponding to.
  • FIG. 1 is a block diagram showing the overall configuration of the imaging apparatus according to the first embodiment of the present invention.
  • the imaging apparatus according to the present embodiment is a digital electronic camera, and includes an imaging unit 100 and a signal processing unit 200 that generates a signal (image signal) indicating an image based on a signal from the imaging unit 100.
  • the imaging device in the present embodiment may generate only a still image or may have a function of generating a moving image.
  • the imaging unit 100 includes an imaging element (image sensor) 1 including a plurality of photosensitive cells (pixels) arranged on an imaging surface, and three transparent regions having different transmission wavelength ranges and transmits incident light.
  • An optical plate (light transmitting portion) 2 an optical lens 3 for forming an image on the imaging surface of the imaging device, and an infrared cut filter 4 are provided.
  • the image pickup unit 100 also generates a basic signal for driving the image pickup device 1, receives an output signal from the image pickup device 1 and sends it to the signal processing unit 200, and signal generation / reception.
  • An element driving unit 6 that drives the imaging device 1 based on the basic signal generated by the unit 5 and a rotation driving unit 9 that rotates the light-transmitting plate 2 are provided.
  • the rotation drive unit 9 has the function of the imaging drive unit in the present invention.
  • the image pickup device 1 is typically a CCD or CMOS sensor, and is manufactured by a known semiconductor manufacturing technique.
  • the signal generation / reception unit 5 and the element driving unit 6 are composed of an LSI such as a CCD driver, for example.
  • the rotation drive unit 9 includes a motor that rotates the light transmissive plate 2, and rotates the light transmissive plate 2 around the center in conjunction with the element drive unit 6.
  • the signal processing unit 200 processes the signal output from the imaging unit 100 to generate an image signal, the memory 30 that stores various data used for generating the image signal, and the generated image And an interface (IF) unit 8 for sending a signal to the outside.
  • the image signal generation unit 7 can be suitably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image signal generation processing.
  • the memory 30 is configured by a DRAM or the like.
  • the memory 30 records the signal obtained from the imaging unit 100 and temporarily records the image data generated by the image signal generation unit 7 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the interface unit 8.
  • the imaging apparatus may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present embodiment. .
  • FIG. 2 is a diagram schematically showing the arrangement relationship of the light transmitting plate 2, the lens 3, and the imaging element 1 in the imaging unit 100.
  • the lens 3 may be a lens unit composed of a plurality of lens groups, but is illustrated as a single lens in FIG. 2 for simplicity.
  • the translucent plate 2 has three transmission regions C1, C2, and C3 having different transmission wavelength ranges, and transmits at least part of incident light.
  • the lens 3 is a known lens, collects the light transmitted through the translucent plate 2, and forms an image on the imaging surface 1 a of the imaging device 1. In the present embodiment, it is assumed that light does not pass through areas other than the transmission areas C1, C2, and C3 of the translucent plate 2.
  • xy coordinates shown in FIG. 2 are used. 2 is merely an example, and the present invention is not limited to such an arrangement relationship.
  • the lens 3 may be arranged farther from the imaging element 1 than the translucent plate 2 as long as an image can be formed on the imaging surface 1a.
  • the lens 3 and the translucent plate 2 may be configured integrally.
  • FIG. 3 is a front view of the translucent plate 2 in the present embodiment.
  • the shape of the translucent plate 2 in the present embodiment is a circle like the lens 3, but may be other shapes such as a square or a hexagon.
  • a color filter (Cy filter) that transmits light in the cyan (Cy) wavelength range (green and blue wavelength ranges) is disposed in the region C1.
  • a color filter (Ye filter) that transmits light in the yellow (Ye) wavelength range (red and green wavelength ranges) is disposed in the region C2.
  • a color filter (Mg filter) that transmits light in the magenta (Mg) wavelength range (red and blue wavelength ranges) is arranged.
  • the regions C1, C2, and C3 in the present embodiment transmit light in the Cy wavelength region, light in the Ye wavelength region, and light in the Mg wavelength region, and not transmit light in other wavelength regions.
  • it may be comprised not only with a color filter but with what kind of member.
  • the regions C1, C2, and C3 are arranged so as to be rotationally symmetric with respect to the center of the light transmitting plate 2, and the respective centers are arranged apart from each other by a distance L.
  • the distance L between these regions is determined according to the size of the lens 3 so that the acquired image has an appropriate parallax.
  • the distance L can be set to several mm to several cm, for example.
  • a photosensitive cell array arranged two-dimensionally and a color filter array arranged to face the photosensitive cell array are formed.
  • the photosensitive cell array and the color filter array have a plurality of unit elements as will be described later, and each unit element includes four photosensitive cells and four color filters opposed to them.
  • Each photosensitive cell is typically a photodiode, and outputs an electrical signal (hereinafter referred to as “photoelectric conversion signal” or “pixel signal”) corresponding to the amount of received light by photoelectric conversion.
  • Each color filter is manufactured using a known pigment or the like, and is designed to selectively transmit light in a specific wavelength range.
  • FIG. 4 is a diagram schematically showing a part of the color filter array in the present embodiment.
  • a large number of color filters 110 are arranged in a matrix on the imaging surface 1a.
  • Four adjacent color filters 110 and four photosensitive cells 120 facing them constitute one unit element 40.
  • a color filter (R filter) that transmits light in the red (R) wavelength region is arranged in the first row and the first column.
  • a color filter (G filter) that transmits light in the green (G) wavelength region is arranged in the first row, second column, and second row, first column.
  • a color filter (B filter) that transmits light in the blue (B) wavelength region is disposed in the second row and the second column.
  • the arrangement of the color filters 110 in the present embodiment is a known Bayer arrangement based on 2 rows and 2 columns.
  • the arrangement of the photosensitive cells 120 and the color filters 110 is not necessarily a Bayer arrangement, and may be any known arrangement.
  • the pixel array shown in FIG. 4 may be an oblique array in which the vertical direction on the paper is rotated 45 degrees with respect to the axis direction.
  • the number of the photosensitive cells 120 included in one unit element is not limited to four, and may be any number as long as the number of light transmitting portions of the light transmitting plate 2 (three in the present embodiment).
  • each light sensing cell receives light that has passed through the color filter 110 facing the light transmitted through each of the regions C1, C2, and C3 of the translucent plate 2 and outputs a photoelectric conversion signal corresponding to the amount of light received. Output.
  • the photoelectric conversion signal output by each photosensitive cell is sent to the signal processing unit 200 through the signal generation / reception unit 5.
  • the image signal generation unit 7 in the signal processing unit 200 generates a plurality of color images having parallax based on the signal transmitted from the imaging unit 100.
  • FIG. 5 is a diagram schematically showing the relationship between the light incident on the translucent plate 2 and the light transmitted through the translucent plate 2.
  • the individual photosensitive cells 120 included in the single unit element 40 include Assume that red component lights R1, R2, and R3, green component lights G1, G2, and G3 and blue component lights B1, B2, and B3 are incident.
  • R1, G1, and B1 are light incident on the region C1, R2, G2, and B2 are light incident on the region C2, and R3, G3, and B3 are light incident on the region C3. .
  • each of the four photosensitive cells 120 includes: It is assumed that light having the same spectral distribution is incident.
  • the symbols R1, G1, B1, R2, G2, B2, R3, G3, and B3 may be used as symbols representing the amount of light.
  • Cy, Ye, and Mg filters are arranged in the regions C1, C2, and C3, respectively. Therefore, the light transmitted through the region C1 is G1 and B1, the light transmitted through the region C2 is R2 and G2, and the light transmitted through the region C3 is R3 and B3. Further, any of R, G, and B filters is arranged to face each photosensitive cell 120. Therefore, the photosensitive cell (R pixel) facing the R filter receives R2 and R3, and the photosensitive cell (G pixel) facing the G filter receives G1 and G2, and facing the B filter. (B pixel) receives B1 and B3.
  • each of the light sensing cells 120 receives light of a color component that has passed through the opposing color filter out of the light that has passed through the transmission regions C1, C2, and C3.
  • Each photosensitive cell 120 outputs a photoelectric conversion signal corresponding to the amount of received light.
  • Three multi-viewpoint images corresponding to the positions of the transmission regions C1, C2, and C3 can be generated by calculation using these photoelectric conversion signals.
  • the wavelength dependency (spectral transmittance) of the transmittance of the three color filters in the transmission regions C1, C2, and C3 and the four color filters 110 included in the unit element 40 may deviate from ideal characteristics.
  • the incident light attenuates slightly in the lens 3, the infrared cut filter 4, and the like. Therefore, the image signal generation unit 7 in the present embodiment performs the following calculation in consideration of the deviation and attenuation of these characteristics.
  • Ci1, Ci2, and Ci3 Signals corresponding to the light intensities of the components transmitted through the regions C1, C2, and C3 are denoted by Ci1, Ci2, and Ci3 with the suffix “i”, respectively. That is, Ci1 represents the light intensity of B1 and G1, Ci2 represents the light intensity of R2 and G2, and Ci3 represents the light intensity of R3 and B3.
  • the spectral transmittance of the lens 3 and the infrared cut filter 4 combined is Tw
  • the spectral transmittances of the Cy filter, Ye filter, and Mg filter are Tcy, Tye, and Tmg, respectively.
  • the spectral transmittances of the R, G, and B color filters are expressed as Tr, Tg, and Tb, respectively.
  • Tw, Tcy, Tye, Tmg, Tr, Tg, and Tb are functions that depend on the wavelength ⁇ of incident light.
  • Signals indicating the intensity of light transmitted through the R, G, and B color filters 110 and received by the photosensitive cell 120 immediately below are denoted by Rs, Gs, and Bs with a suffix “s”, respectively.
  • the integral calculation of the spectral transmittance in the wavelength range of visible light is represented by the symbol ⁇ .
  • the integral operation ⁇ TwTcyTrd ⁇ for the wavelength ⁇ is represented as ⁇ TwTcyTr.
  • the integration is performed over the entire wavelength range of visible light.
  • Rs is proportional to the result of adding Ci1 ⁇ TwTcyTr, Ci2 ⁇ TwTyeTr, and Ci3 ⁇ TwTmgTr.
  • Gs is proportional to the sum of Ci1 ⁇ TwTcyTg, Ci2 ⁇ TwTyeTg, and Ci3 ⁇ TwTmgTg.
  • Bs is proportional to the sum of Ci1 ⁇ TwTcyTb, Ci2 ⁇ TwTyeTb, and Ci3 ⁇ TwTmgTb. If the proportionality coefficient in these relationships is 1, Rs, Gs, and Bs can be expressed by the following equations 1 to 3.
  • Equations 1 to 3 ⁇ TwTcyTr, ⁇ TwTyeTr, and ⁇ TwTmgTr are represented by Mx11, Mx12, and Mx13, respectively.
  • ⁇ TwTcyTg, ⁇ TwTyeTg, and ⁇ TwTmgTg are represented by Mx21, Mx22, and Mx23, respectively, It will be expressed as Mx33.
  • the relationship between Rs, Gs, and Bs and Ci1, Ci2, and Ci3 can be expressed by the following Expression 4 using a matrix.
  • Equation 4 can be transformed into the following Equation 5. That is, the signal Ci1 indicating the intensity of the Cy component light included in the light incident on the area C1, the signal Ci2 indicating the intensity of the Ye component light included in the light incident on the area C2, and the light incident on the area C3.
  • the signal Ci3 indicating the intensity of the light of the contained Mg component can be expressed using information on the photoelectric conversion signals Rs, Gs, Bs and the known spectral transmittance.
  • the image signal generation unit 7 performs signal calculation based on Expression 5 and generates signals Ci1, Ci2, and Ci3 for each unit element.
  • the signals Ci1, Ci2, and Ci3 generated for each unit element in this way are incident on the image of the Cy component light incident on the region C1, the image of the Ye component light incident on the region C2, and the region C3, respectively.
  • An image is formed by light of the Mg component.
  • the image signals Ci1, Ci2, and Ci3 obtained by the above processing are expressed using photoelectric conversion signals Rs, Gs, and Bs, but these are not color images, and are out of light incident on the regions C1, C2, and C3. This corresponds to a grayscale image indicating the intensity of light in the wavelength region that passes through each region.
  • the three images represented by the signals Ci1, Ci2, and Ci3 are multi-viewpoint images because they correspond to images when the subject is viewed from the positions of the regions C1, C2, and C3, respectively.
  • the spectral distribution of light emitted from the light source is not always as uniform as the sun.
  • the amount of light reflected from the subject is represented by an integral calculation of the spectral distribution of light emitted from the light source and the spectral reflectance of the subject. Therefore, even if the subject is achromatic, if the spectral distribution of light emitted from the light source is biased, the spectral distribution of light reflected from the subject is also biased. If the spectral distribution of the light emitted from the light source is uniform and an achromatic subject is photographed, R1, G1, and B1 in FIG. 5 ideally have the same value.
  • the signals Ci1, Ci2, and Ci3 obtained by the calculation shown in (Equation 5) are arranged above the object in FIG. 3 (position of C3) if the color filters of the light transmitting plate 2 shown in FIG. 3 are arranged. 5 corresponds to an image of the Mg component viewed from the left, an image of the Cy component viewed from the left (position C1), and an image of the Ye component viewed from the right (position Ye). Therefore, it can be considered that the signals Ci1, Ci2, and Ci3 are images obtained by separating the colors of the subject into complementary colors and represent images having different viewpoints.
  • the translucent plate 2 in FIG. 3 is rotated as shown in FIGS. 6A, 6B, and 6C to take three images, and a plurality of different viewpoints are obtained by arithmetic processing.
  • a plurality of color images having parallax are generated by generating and synthesizing the image.
  • the rotation of the translucent plate 2 can be realized by attaching a belt to the translucent plate 2 and rotating the belt with a motor, for example, as in the method described in Non-Patent Document 1.
  • the rotation drive unit 9 rotates the translucent plate 2 by such a mechanism, and the image pickup device 1 acquires an image signal in each state of FIGS. 6A, 6B, and 6C.
  • the signals corresponding to Ci1, Ci2, and Ci3 in Equation 5 are represented as Cj1, Cj2, Cj3, and Ck1, Ck2, and Ck3, respectively, in each state of FIGS. 6B and 6C. .
  • the image signals Ci1, Ci2, and Ci3 are calculated by the calculation based on Expression 5.
  • the translucent plate 2 is rotated 120 degrees to obtain the state 2 shown in FIG. 6B, and the image signals Cj1, Cj2, and Cj3 are calculated in the same manner.
  • the light transmitting plate 2 is further rotated 120 degrees to obtain the state 3 shown in FIG. 6C, and the image signals Ck1, Ck2, and Ck3 are calculated.
  • FIG. 7 shows an example of the result of generating three color images corresponding to each state from the image signal calculated as described above.
  • FIG. 7A shows a color image captured using the image signals Ci1, Ci2, and Ci3 acquired in the initial state 1 as the Cy component, the Ye component, and the Mg component, respectively.
  • FIG. 7B shows color images obtained by using the image signals Cj1, Cj2, and Cj3 acquired in the state 2 rotated 120 degrees from the initial state as the Cy component, the Ye component, and the Mg component, respectively.
  • FIG. 7 (c) shows color images taken with the image signals Ck1, Ck2, and Ck3 acquired in the state 3 rotated 240 degrees from the initial state as the Cy component, Ye component, and Mg component, respectively.
  • FIG. 7 shows an example of the result of generating three color images corresponding to each state from the image signal calculated as described above.
  • FIG. 7A shows a color image captured using the image signals Ci1, Ci2, and Ci3 acquired in the initial state 1 as the Cy component, the Ye component,
  • the color of the subject on the left side is red
  • the color of the subject near the center is blue
  • the color of the subject on the upper right is green.
  • the subject on the left is the foreground and the subject on the right is the farthest. Note that none of the three images shown in FIG. 7 includes parallax information.
  • FIG. 8 shows an example in which the results obtained by calculating Ci1, Ci2, Ci3, Cj1, Cj2, Cj3, Ck1, Ck2, and Ck3 from the Rs, Gs, and Bs signals are displayed as images for the image shown in FIG. FIG.
  • the first row, the second row, and the third row are respectively positions of the light-transmitting plate 2 in the state 1 (0 degree rotation), the state 2 (120 degree rotation), and the state 3 (240 degree rotation) ( A gray image is shown by light transmitted through the left, top, and right).
  • FIG. 9 is a table showing which image signal corresponds to the combination of each position and each color component on the translucent plate 2. The color components of the color filters arranged in each transmission region are shown in the horizontal direction of the table shown in FIG.
  • a color image when the subject is viewed from the left is obtained by the following (Expression 6) obtained by modifying (Expression 4).
  • the red, green, and blue component signals in the color image are represented as Rs1, Gs1, and Bs1, respectively.
  • Equation 6 is obtained by replacing signals Ci1, Ci2, and Ci3 indicating the intensity of light transmitted through the regions C1, C2, and C3 in Equation 4 with Ci1, Cj2, and Ck3, respectively.
  • Ci2 and Cj2 are that the types of filter colors are the same for the Ye filter, but the viewpoint of viewing the subject is different.
  • Ci2 represents an image when the subject is viewed from the right
  • Cj2 represents an image when the subject is viewed from the left.
  • Ci3 and Ck3 is also the same.
  • Ci3 represents an Mg component image when the subject is viewed from above
  • Ck3 represents an Mg component image when the subject is viewed from the left.
  • Mx11 to Mx33 do not have information regarding the direction in which light enters.
  • Mx11 to Mx33 are the spectral transmittances of the Cy, Ye, and Mg color filters in the light transmitting plate 2, the spectral transmittances of the R, G, and B color filters in the image sensor 1, and the spectral transmittances of IR filters, lenses, and the like.
  • Information That is, Mx11 represents an integrated value of the spectral transmittance of the Cy filter and the spectral transmittance of the R filter.
  • Mx12 represents an integrated value of the spectral transmittance of the Ye filter and the spectral transmittance of the R filter.
  • Mx13 represents an integrated value of the spectral transmittance of the Mg filter and the spectral transmittance of the R filter.
  • Mx11 to Mx33 are known information determined when the imaging apparatus is manufactured.
  • the value of Rs1 obtained by (Expression 6) is obtained by multiplying the light intensity Ci1 and Mx11 that pass through the Cy filter from the direction of the subject as viewed from the left, and the light intensity Cj2 and Mx12 that passes through the Ye filter. And the product of the light intensity Ck3 passing through the Mg filter multiplied by Mx13.
  • the values of Gs1 and Bs1 are obtained in the same manner.
  • a color image when the subject is viewed from the right can be calculated by the following (Expression 7), where the red component is represented as Rs2, the blue component as Gs2, and the blue component as Bs2.
  • a color image when the subject is viewed from above can be calculated by the following (Equation 8), where the red component is Rs3, the blue component is Gs3, and the blue component is Bs3.
  • imaging is performed while rotating the translucent plate 2 three times, and the intensities of a plurality of lights that pass through the transmission regions C1, C2, and C3 of the translucent plate 2 are calculated from the captured individual images.
  • a color image having parallax can be generated.
  • the complementary color (Cy, Ye, Mg) color filter is used for the light transmitting portion of the light transmitting plate 2 to synthesize images for three times, so that the light utilization rate is higher than in the prior art. Imaging sensitivity can be improved.
  • the matching process using the color linearity disclosed in Patent Document 3 is not performed, a multi-viewpoint image can be generated stably without depending on the blur amount and flatness of the image.
  • FIGS. 10A and 10B show the results of generating color images when the subject is viewed from the left and right, respectively.
  • a color image when the subject is viewed from above is not shown.
  • Two dotted lines (straight line 1 and straight line 2) shown in FIG. 10 indicate the same x coordinate in the two images.
  • the straight line 1 is drawn along the outline of the red subject at the front
  • the straight line 2 is drawn along the outline of the green subject at the back.
  • the x-coordinate of the contour of the subject in front is almost the same value, but the x-coordinate of the contour of the green subject in the back is different. Therefore, it can be seen that an image that looks different depending on the distance, that is, a multi-viewpoint image can be acquired.
  • the arrangement of the transmission region of the translucent plate 2 in the present embodiment is not limited to the above arrangement, but is ideally arranged with the center of the translucent plate 2 as an origin and an equidistant position therefrom. It is desirable to do. Thereby, it can be easily known in which direction the parallax appears with the center of the translucent plate 2 as the origin. Furthermore, it is desirable that the distance between adjacent transmission regions is equal. Specifically, it is desirable that the angle formed by the straight line passing through the region C1 and the origin and the straight line passing through the region C2 and the origin is 120 degrees. Similarly, it is desirable that an angle formed by a straight line passing through the region C2 and the origin and a straight line passing through the region C3 and the origin is 120 degrees.
  • the angle formed by the straight line passing through the region C3 and the origin and the straight line passing through the region C3 and the origin is 120 degrees.
  • the Cy filter, the Ye filter, and the Mg filter are disposed in the transmission regions C1, C2, and C3 of the light transmitting plate 2, respectively, but the configuration is not limited thereto.
  • These color filters may be primary color filters (for example, R, G, B filters), or transmission that transmits light in a wavelength region wider than the primary color in at least one transmission region from the viewpoint of improving the light utilization rate.
  • a filter may be arranged.
  • a complementary color filter may be disposed in one of the three transmission regions, and a primary color filter may be disposed in the remaining two.
  • the same processing as in the present embodiment can be applied.
  • the spectral transmittance of each transmission region is designed so that light of an arbitrary wavelength included in visible light can pass through one of the transmission regions, a good color multi-viewpoint image can be generated.
  • the color filter 110 included in one unit element 40 of the image pickup device 1 is not necessarily an R, G, B color filter. The same processing as that of the form can be applied.
  • the image pickup apparatus according to the present embodiment is different from the image pickup apparatus according to the first embodiment in the number of filters in the translucent plate 2.
  • the description will focus on the differences from the first embodiment, and a description of the overlapping items will be omitted.
  • the number of filters of the light-transmitting plate 2 is not limited to three, and may be any number as long as it is two or more.
  • N is an integer of 2 or more
  • each unit element 40 of the image sensor 1 includes N color filters having different spectral transmittances and N photosensitive cells facing the color filters.
  • FIG. 11A is a diagram showing an example of the light transmitting plate 2 generalized in this way.
  • the illustrated translucent plate 2 includes N filters C1 to CN that are arranged so that light is incident in parallel and that have different wavelength dependencies of transmittance.
  • the filters C1 to CN are all equal in distance from the center of the translucent plate 2, and all the distances between two adjacent transmission regions are equal.
  • FIG. 11B is a diagram illustrating an example of a filter array included in one unit element 40 in the image sensor 1.
  • One unit element 40 includes N photosensitive cells and N filters D1 to DN facing the N photosensitive cells. Note that the number of filters included in one unit element 40 may be greater than N.
  • transmission filter shown in figure is an example, and is not restricted to this example.
  • a rainbow pattern as shown in FIGS. 12A and 12B can be used as the translucent plate 2.
  • the light-transmitting plate 2 includes a filter 2a having a rainbow pattern and a light-shielding plate 2b having seven transmission regions (openings).
  • the filter 2a in FIG. 12A is a combination of seven types of filters having different spectral transmittances in a ring shape. By rotating the filter 2a, the spectral transmittance at each aperture position can be changed.
  • a filter having different spectral transmittances attached to the seven opening positions of the light shielding plate 2b may be used as the light-transmitting plate 2 and rotated.
  • each of the transmission regions C1 to C7 is circular and has the same area, but it does not necessarily have such a shape and area.
  • filters that transmit light in the wavelength ranges of red Re, orange Or, yellow Ye, green Gr, blue Bl, indigo In, and purple Vi are disposed at the positions of the transmission regions C1 to C7, respectively.
  • the image sensor 1 also includes the filters having the above-described seven types of spectral transmittance.
  • a signal indicating the intensity of the light of the color component transmitted through the transmission regions C1 to C7 out of the light incident on each photosensitive cell included in one unit element. Ci1 to Ci7, respectively. If the signal indicating the amount of light received in the photosensitive cell facing the seven types of color filters arranged in the image sensor 1 is Res, Ors, Yes, Grs, Bls, Ins, Vis, the signal is observed in each photosensitive cell.
  • the signal amount can be expressed by the following (formula 9) to (formula 15).
  • T′re, T′or, T′ye, T′gr, T′bl, T′In, and T′vi are red, orange, yellow, green, blue, Represents the spectral transmittance of indigo and purple filters.
  • Tre, Tor, Tye, Tgr, Tbl, TIn, and Tvi represent the spectral transmittances of the red, orange, yellow, green, blue, indigo, and purple filters disposed on the light-transmitting plate 2, respectively.
  • Tw is a spectral transmittance obtained by combining the lens 3 and the infrared cut filter 4 in the same manner as in (Expression 1) to (Expression 3).
  • the matrix elements Mx11 to Mx77 are values obtained by integrating Tw, the spectral transmittance of the transmission region in the light transmitting plate 1, and the spectral transmittance of the color filter in the image sensor 1. That is, Mx11, Mx12, Mx13, Mx14, Mx15, Mx16, and Mx17 are ⁇ TwTreT're, ⁇ TwTorT're, ⁇ TwTyeT're, ⁇ TwTgrT're, ⁇ TwTblT're, ⁇ TwTInT're, and ⁇ TwTviT're.
  • T're of Mx11 to Mx17 is T'or, respectively, for Mx31 to Mx37, T're of Mx11 to Mx17 is T'ye, and for Mx41 to Mx47 are Mx11 to Mx11, respectively.
  • T're of Mx17 is T'gr
  • Mx51 to Mx57 are T're of Mx11 to Mx17, respectively
  • T'bl Mx61 to Mx67 are T're of Mx11 to Mx17, respectively
  • T'In and Mx71 Mx77 is obtained by replacing T're of Mx11 to Mx17 with T'vi, respectively.
  • signals (Ci1 to Ci7) indicating the intensity of light from seven directions can be obtained in one shooting.
  • a signal indicating the intensity of light transmitted through each transmission region is obtained by calculation, so that seven types of spectral light are obtained from seven directions.
  • Intensities of light of color components that pass through a filter having transmittance (49 types in total) are obtained.
  • a color image can be synthesized by using a signal corresponding to the case where the subject is viewed from the same direction among the signals indicating the intensity of the acquired light.
  • the color information of the image when the subject is viewed from the position of the region C1 in the initial state is expressed by the following Expression 17.
  • Ci1, Cj2, Ck3, Cl4, Cm5, Cn6, and Co7 are signals indicating the light intensities of the color components that pass through the position in the first to seventh imaging.
  • Res1, Ors1, Yes1, Grs1, Bls1, Ins1, and Vis1 are signals indicating the amounts of red, orange, yellow, green, blue, indigo, and purple color components of the color image to be obtained, respectively.
  • Color images at other positions can also be obtained by similar calculations. Through the above processing, seven color multi-viewpoint images can be obtained corresponding to the seven transmission regions.
  • the light transmitting plate 2 is rotated in seven stages to acquire light from seven directions, but rotation and photographing may be performed in eight stages or more.
  • the information on the intensity of the light at the time of additional photographing has already been calculated, but there is an effect that a bright image can be obtained even in a dark environment by adding them.
  • the spectral transmittance of each of the transmission regions C1 to C7 is changed by rotating the light transmitting plate 2.
  • the spectral transmittance is not changed by shifting the color filter vertically or horizontally. May be changed.
  • the spectral transmittance of the plurality of transmission regions You may comprise so that may be changed.
  • each of the positions of the N types of color filters in the light transmission portion is configured to change for each image pickup on N positions preset for the image pickup device 1.
  • the light transmission part may be driven in any way.
  • FIG. 13 is a diagram illustrating a configuration example of a light transmitting plate 2c having two transmission regions C1 and C2.
  • a slide plate 2d on which three color filters are arranged is attached to the light transmitting plate 2c, and the spectral transmittance of the transmission regions C1 and C2 can be changed by sliding the slide plate 2d.
  • the slide plate 2d is provided with a Cy filter at the center and a Ye filter at both ends.
  • the transmission regions C1 and C2 are transparent in the absence of the slide plate 2d.
  • FIG. 13 is a diagram illustrating a configuration example of a light transmitting plate 2c having two transmission regions C1 and C2.
  • a slide plate 2d on which three color filters are arranged is attached to the light transmitting plate 2c, and the spectral transmittance of the transmission regions C1 and C2 can be changed by sliding the slide plate 2d.
  • the slide plate 2d is provided with a Cy filter at the center and a Ye filter at both ends.
  • each unit element of the image sensor 1 may be provided with two photosensitive cells and two color filters having different spectral transmittances facing them.
  • a multi-viewpoint image is obtained by obtaining a signal indicating the intensity of light of a component transmitted through each transmission region of the light-transmitting plate 2c by calculation using photoelectric conversion signals output for each imaging from the two photosensitive cells. Can do.
  • a grayscale image is obtained instead of a color image. Even when there are three or more transmissive regions, a multi-viewpoint image can be generated by the same mechanism.
  • the configuration shown in FIG. 14 may be adopted instead of FIG.
  • the transmission regions C1 and C2 in the state where there is no slide plate 2d are not transparent and are configured by G filters.
  • the slide plate 2d is provided with a B filter at the center and R filters at both ends.
  • the region C1 has the same characteristics as the Cy filter
  • the region C2 has the same characteristics as the Ye filter.
  • the region C1 has the same characteristics as the Ye filter
  • the region C2 has the same characteristics as the Cy filter. Therefore, the same effect as the configuration shown in FIG. 13 can be obtained.
  • the imaging device of each of the above embodiments generates an image by signal calculation from a photoelectric conversion signal obtained by imaging.
  • an image generation process by signal calculation may be executed by another device independent of the imaging device.
  • a signal that is acquired by the imaging device having the imaging unit 100 in each of the above embodiments is read by another device (image processing device), and a program that defines the signal calculation processing is incorporated in the image processing device. The same effect as described above can be obtained by causing the computer to execute the program.
  • FIG. 15 is a flowchart showing an example of a flow of a series of operations from imaging by such an imaging device and other devices to image generation.
  • the imaging apparatus performs imaging a plurality of times while changing the positions of the plurality of types of filters in the light transmission unit 2 (continuous shooting imaging).
  • the image processing apparatus generates a grayscale image based on component light that passes through each transmission region of the light transmission unit 2 from a plurality of pixel signals obtained by each imaging (grayscale multiple viewpoint image generation).
  • the image processing apparatus generates a color multi-viewpoint image by synthesizing the gray-scale multi-viewpoint image using the same calculation as Expression 17 (color multi-viewpoint image generation).
  • the imaging function and the image processing function can be configured to be executed by different devices.
  • the three-dimensional imaging device is effective for all cameras using a solid-state imaging device.
  • it can be used for consumer cameras such as digital still cameras and digital video cameras, and solid-state surveillance cameras for industrial use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Blocking Light For Cameras (AREA)

Abstract

 本発明の一態様に係る3次元撮像装置は、光が並列的に入射するように設けられた、透過率の波長依存性が互いに異なるN種類(Nは2以上の整数)の第1フィルタC1、C2、C3を有する光透過部2と、透過率の波長依存性が互いに異なるN種類の第2フィルタを有する撮像素子1と、連続してM回(MはN以上の整数)の撮像を行うように光透過部2を駆動する撮像駆動部とを備えている。撮像駆動部は、第1フィルタC1、C2、C3の各位置を、撮像素子1に対して予め定められたN個の位置上で、撮像ごとに変化させるように光透過部1を駆動する。

Description

3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム
 本願は、視差を有する複数の画像を取得する単眼の3次元撮像技術に関する。
 近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する場合がある。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の進歩により、固体撮像素子における画素構造の微細化が進んでいる。その結果、固体撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加している。さらに、撮像によって得られる画像の質も飛躍的に向上している。一方、表示装置に関しては、薄型の液晶やプラズマによるディスプレイにより、場所を取らず、高解像度で高コントラストの表示が可能になり、高い性能が実現されている。このような映像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネを必要とするが、高画質の3次元表示装置が開発され始めている。
 3次元撮像技術に関して、単純な構成をもつ代表的な技術として、2つのカメラから構成される撮像系を用いて、右目用の画像および左目用の画像をそれぞれ取得するという技術がある。このような、いわゆる2眼撮像方式では、カメラを2つ用いるため、撮像装置が大型になり、コストも高くなり得る。そこで、1つのカメラを用いて視差を有する複数の画像(以下、「複数視点画像」と呼ぶことがある。)を取得する方式(単眼撮像方式)が研究されている。例えば、色フィルタを用いて視差を有する2つの画像を同時に取得する方式が特許文献1に開示されている。図16は、この方式による撮像系を模式的に示す図である。この技術における撮像系は、レンズ3、レンズ絞り19、透過波長域の異なる2つの色フィルタ20a、20bが配置された光束制限板20、感光フィルム21を備える。ここで、色フィルタ20a、20bは、例えば赤系統、青系統の光をそれぞれ透過させるフィルタである。
 以上の構成により、入射光は、レンズ3、レンズ絞り19、および光束制限板20を透過し、感光フィルム21に結像する。その際、光束制限板20における2つの色フィルタ20a、20bでは、それぞれ赤系統、青系統の光だけが透過する。その結果、感光フィルム21上にはこれらの2つの色フィルタをそれぞれ透過した光によるマゼンタ系統の色成分の像が形成される。ここで、色フィルタ20a、20bの位置が異なっているため、感光フィルム21上に形成される像には視差が生じる。ここで、感光フィルムから写真を作り、赤色フィルムおよび青色フィルムがそれぞれ右目用および左目用として貼り付けられたメガネを使うと、奥行き感のある画像を見ることができる。このように、特許文献1に開示された技術によれば、2つの色フィルタを使って複数視点画像を作ることができる。
 特許文献1に開示された技術は、感光フィルム上に結像させ、視差を有する複数の画像を作るものであるが、一方で、視差を有する画像を電気信号に変換して取得する技術が特許文献2に開示されている。図17は、この技術における光束制限板22を模式的に表す図である。この技術では、撮像光学系の光軸に垂直な平面上に、赤色光を透過するR領域22R、緑色光を透過するG領域22G、青色光を透過するB領域22Bが設けられた光束制限板22が用いられる。これらの領域を透過した光を、赤色光を検知するR画素、緑色光を検知するG画素、青色光を検知するB画素を有するカラー撮像素子で受けることにより、各領域を透過した光による画像が取得される。
 また、特許文献3にも、図17の構成と同様の構成を用いて視差を有する複数の画像を取得する技術が開示されている。図18は、特許文献3に開示された光束制限板23を模式的に示す図である。この技術でも、光束制限板23に設けられたR領域23R、G領域23G、B領域23Bを入射光が透過することにより視差を有する複数の画像を作ることができる。
 特許文献4も同様に、光軸に対して対称的に配置された、互いに色の異なる一対のフィルタを用いて視差を有する複数の画像を生成する技術を開示している。一対のフィルタとして赤色のフィルタおよび青色のフィルタを利用することにより、赤色光を検知するR画素は赤フィルタを透過した光を観測し、青色光を検知するB画素は青フィルタを透過した光を観測する。赤フィルタと青フィルタとは位置が異なるため、R画素が受ける光の入射方向とB画素が受ける光の入射方向とは互いに異なる。その結果、R画素で観測される画像とB画素で観測される画像とは、互いに視点の異なる画像となる。これらの画像から画素ごとに対応点を求めることにより、視差量を算出することができる。算出された視差量とカメラの焦点距離情報とから、カメラから被写体までの距離が求められる。
 特許文献5は、口径サイズが互いに異なる2枚の色フィルタ(例えば、赤と青)が取り付けられた絞り、または色の異なる2枚の色フィルタが光軸に対して左右対称の位置に取り付けられた絞りを用いて取得した2つの画像から被写体の距離情報を求める技術を開示している。この技術では、口径サイズが互いに異なる赤および青の色フィルタをそれぞれ透過した光を観測する場合、色ごとに観測されるボケの程度が異なる。そのため、赤および青の色フィルタのそれぞれに対応する2つの画像は、被写体の距離によってボケの程度が異なる画像となる。これらの画像から対応点を求め、ボケの程度を比較することにより、カメラから被写体までの距離情報が得られる。一方、光軸に対して左右対称の位置に取り付けられた色の異なる2枚の色フィルタをそれぞれ透過した光を観測する場合、色ごとに観測される入射光の方向が異なる。そのため、赤および青の色フィルタのそれぞれに対応する2つの画像は、視差を有する画像となる。これらの画像から対応点を求め、対応点間の距離を求めることにより、カメラから被写体までの距離情報が得られる。
 上記の特許文献1~5に開示された技術によれば、光束制限板または絞りにRGB系統の色フィルタを配置することによって視差を有する複数の画像を生成することができる。しかしながら、RGB系統の色フィルタを用いるため、入射光量は約1/3に減少する。また、取得する視差量を大きくするためには複数の色フィルタを互いに離れた位置に配置し、それらの面積を小さくする必要があるが、色フィルタの面積を小さくすると入射光量はさらに減少する。
 以上の従来技術に対して、RGBの複数の色フィルタが配置された絞りを用いて、視差を有する複数の画像と光量的に問題のない通常画像とを得ることができる技術が特許文献6に開示されている。この技術によれば、撮像素子は、絞りを閉じた状態ではRGBの色フィルタを透過した光だけを受け、絞りを開いた状態ではRGBの色フィルタ領域が光路から外れるため、入射光をすべて受けることができる。これにより、絞りを閉じた状態では複数視点画像を取得し、絞りを開いた状態では光利用率の高い通常画像を取得することができる。
特開平2-171737号公報 特開2002-344999号公報 特開2009-276294号公報 特開2010-38788号公報 特開2010―79298号公報 特開2003-134533号公報
森上雄太、高木健、石井抱:視点変換アイリスによる実時間単眼ステレオシステム、第27回日本ロボット学会学術講演会講演論文集、3R2-06、2009.
 特許文献1~6に開示された技術によれば、光利用率の高い複数視点画像を得ることはできない。
 本発明の実施形態は、従来よりも高い光利用率で複数視点画像を生成し得る3次元撮像技術を提供する。
 上記課題を解決するために、本発明の一態様に係る3次元撮像装置は、光が並列的に入射するように設けられた、透過率の波長依存性が互いに異なるN種類(Nは2以上の整数)の第1フィルタを有する光透過部と、前記光透過部を透過した光を受けるように配置された撮像素子であって、光感知セルアレイ、および前記光感知セルアレイに対向して配置されたフィルタアレイを有し、前記光感知セルアレイおよび前記フィルタアレイは、複数の単位要素から構成され、各単位要素は、N個の光感知セル、および前記N個の光感知セルに対向して配置された透過率の波長依存性が互いに異なるN個の第2フィルタを含む撮像素子と、前記撮像素子の撮像面に像を形成する結像部と、連続してM回(MはN以上の整数)の撮像を行うように前記光透過部を駆動する撮像駆動部であって、前記N種類の第1フィルタの各位置を、前記撮像素子に対して予め定められたN個の位置上で、撮像ごとに変化させるように前記光透過部を駆動する撮像駆動部とを備える。
 上述の一般的かつ特定の態様は、システム、方法、およびコンピュータプログラムを用いて実装され、または、システム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。
 本発明の一態様に係る3次元撮像装置によれば、従来よりも高い光利用率で複数視点画像を得ることができる。
例示的な実施形態1における全体構成を示すブロック図である。 例示的な実施形態1における透光板、光学系、および撮像素子の概略構成を示す模式図である。 例示的な実施形態1における透光板の色フィルタの配置を示す図である。 例示的な実施形態1における撮像素子の色フィルタの基本構成を示す図である。 例示的な実施形態1における透光板2に入射する光と透過する光とを説明するための模式図である。 例示的な実施形態1における透光板を回転させた例を示す図である。 例示的な実施形態1において透光板を回転させて撮影した3種類のカラー画像の例を示す図である。 例示的な実施形態1において撮影画像から求めた各透過領域を通過する成分の光による画像の例を示す図である。 例示的な実施形態1における透過領域に配置されたフィルタの位置および色成分と出力される信号との関係を示す表である。 例示的な実施形態1における方法で算出した視差を有する画像を示す図である。 例示的な実施形態2における透光板の例を示す図である。 例示的な実施形態2における撮像素子における色フィルタ配列の例を示す図である。 例示的な実施形態2における虹色パタンの透光板2の例を示す図である。 例示的な実施形態2におけるN=7の場合の透光板2の例を示す図である。 例示的な他の実施形態におけるスライド板によって透過領域の分光透過率を変化させる構成の例を示す図である。 例示的な他の実施形態におけるスライド板によって透過領域の分光透過率を変化させる構成の他の例を示す図である。 例示的な他の実施形態における撮像からカラー複数視点画像生成までの手順を示すフロー図である。 特許文献1における撮像系の構成図である。 特許文献2における光束制限板の外観図である。 特許文献3における光束制限板の外観図である。
 本発明の基礎となった知見は以下のとおりである。
 特許文献1~5に開示された技術によれば、複数視点画像を取得することはできるが、撮像素子における光の利用率を高くすることができない。その理由の1つは、原色(RGB系統)の色フィルタが用いられることにある。一方、特許文献6に開示された技術によれば、機械的駆動によって色フィルタを光路から外す機構を用いることにより、光利用率の高い通常画像を取得することができる。しかし、この技術においても複数視点画像を取得する際には原色の色フィルタが用いられるため、光利用率の高い複数視点画像を得ることはできない。
 また、有彩色の被写体を撮影する場合、被写体によって反射される光の波長域は偏りを持つため、全ての波長の光が等しく撮像装置に入射するわけではない。そのため、例えば、赤および青の色フィルタを用いて赤色の被写体を撮影する場合、被写体からの反射光は赤の色フィルタを通過するが、青の色フィルタを通過しないといった事態が生じる。その結果、従来の技術では、被写体が有彩色の場合に正しく複数視点画像が得られない可能性が生じる。
 特許文献3には、有彩色の被写体を撮影する場合において、色の線型性を利用して距離情報を取得することにより、視差を有するカラー画像を生成する技術が開示されている。しかしながら、被写体が原色である場合や撮影シーンにテクスチャがない場合には、色線型性による距離情報の取得が困難である。
 本願発明者らは、先行技術に関する以上の知見を見出し、本発明を完成させた。本発明の一態様によれば、従来よりも高い光利用率で複数視点画像を生成し得る。
 本発明の実施形態の概要は以下のとおりである。
 (1)本発明の一態様である3次元撮像装置は、光が並列的に入射するように設けられた、透過率の波長依存性が互いに異なるN種類(Nは2以上の整数)の第1フィルタを有する光透過部と、前記光透過部を透過した光を受けるように配置された撮像素子であって、光感知セルアレイ、および前記光感知セルアレイに対向して配置されたフィルタアレイを有し、前記光感知セルアレイおよび前記フィルタアレイは、複数の単位要素から構成され、各単位要素は、N個の光感知セル、および前記N個の光感知セルに対向して配置された透過率の波長依存性が互いに異なるN個の第2フィルタを含む撮像素子と、前記撮像素子の撮像面に像を形成する結像部と、連続してM回(MはN以上の整数)の撮像を行うように前記光透過部を駆動する撮像駆動部であって、前記N種類の第1フィルタの各位置を、前記撮像素子に対して予め定められたN個の位置上で、撮像ごとに変化させるように前記光透過部を駆動する撮像駆動部とを備えている。
 (2)ある態様において、前記N種類の第1フィルタは、可視光に含まれる任意の波長の光が前記N種類の第1フィルタの少なくとも1種類を透過できるように設計されており、前記N種類の第1フィルタの少なくとも1種類は、原色の波長域よりも広い透過波長域を有している。
 (3)項目(1)または(2)に記載の3次元撮像装置は、ある態様において、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力される複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成する画像生成部を備えている。
 (4)項目(3)に記載の3次元撮像装置のある態様において、前記画像生成部は、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力される複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成し、生成した前記N×M個の画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成する。
 (5)項目(1)から(4)のいずれかに記載の3次元撮像装置のある態様において、前記N種類の第1フィルタのうちの3種類の透過波長域は、シアン、マゼンタ、黄、赤、青、緑のうちの3つの波長域にそれぞれ等しく設計されている。
 (6)項目(1)から(5)のいずれかに記載の3次元撮像装置のある態様において、N=3であり、前記N種類の第1フィルタの透過波長域は、シアン、マゼンタ、黄の波長域にそれぞれ等しく設計され、前記N個の第2フィルタの透過波長域は、赤、青、緑の波長域にそれぞれ等しく設計されている。
 (7)項目(1)から(6)のいずれかに記載の3次元撮像装置のある態様において、前記光透過部における前記N種類の第1フィルタは、前記光透過部の中心からの距離が全て等しく、隣接する2つの第1フィルタ間の距離が等しくなるように配置されている。
 (8)項目(1)から(7)のいずれかに記載の3次元撮像装置のある態様において、前記撮像駆動部は、前記光透過部の中心を軸として前記光透過部を回転させることにより、前記N種類の第1フィルタの各位置を、前記N個の位置上で、撮像ごとに変化させる。
 (9)本発明の一態様である画像処理装置は、項目(1)から(8)のいずれかに記載の3次元撮像装置によって取得された信号に基づいて複数視点画像を生成する画像処理装置であって、前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成する。
 (10)ある態様において、前記画像処理装置は、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成し、生成した前記N×M個の画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成する。
 (11)本発明の一態様である画像処理方法は、項目(1)から(8)のいずれかに記載の3次元撮像装置によって取得された信号に基づいて複数視点画像を生成するための画像処理方法であって、前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成するステップを含む。
 (12)ある態様において、前記N個の複数視点画像を生成するステップは、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成するステップと、生成した前記N×M個の前記画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成するステップとを含む。
 (13)本発明の一態様である画像処理プログラムは、本発明の実施形態による3次元撮像装置によって取得された信号に基づいて複数視点画像を生成するための画像処理プログラムであって、コンピュータに対し、前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成するステップを実行させる。
 (14)ある態様において、前記N個の複数視点画像を生成するステップは、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成するステップと、生成した前記N×M個の前記画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成するステップとを含む。
 以下、図面を参照しながら本発明の実施形態をより具体的に説明する。以下の説明において、共通または対応する要素には同一の符号を付している。なお、本明細書において、画像を示す信号または情報を単に「画像」と称する場合がある。また、「上」、「左」、「右」等の位置を示す用語は、参照される図面に基づいて解釈されるものとする。実際の撮像装置の向きは常に変化し得るため、本明細書における位置を示す用語は、現実には撮像装置の向きに応じて様々な位置を意味し得る。
(実施形態1)
 図1は、本発明の第1の実施形態における撮像装置の全体構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、撮像部100からの信号に基づいて画像を示す信号(画像信号)を生成する信号処理部200とを備えている。なお、本実施形態における撮像装置は、静止画のみを生成してもよいし、動画を生成する機能を備えていてもよい。
 撮像部100は、撮像面上に配列された複数の光感知セル(画素)を備える撮像素子(イメージセンサ)1と、透過波長域が互いに異なる3つの透過領域を有し入射光を透過させる透光板(光透過部)2と、撮像素子の撮像面上に像を形成するための光学レンズ3と、赤外カットフィルタ4とを備えている。撮像部100はまた、撮像素子1を駆動するための基本信号を発生するとともに撮像素子1からの出力信号を受信して信号処理部200に送出する信号発生/受信部5と、信号発生/受信部5によって発生された基本信号に基づいて撮像素子1を駆動する素子駆動部6と、透光板2を回転させる回転駆動部9とを備えている。本実施形態では、回転駆動部9が本発明における撮像駆動部の機能を有している。
 撮像素子1は、典型的にはCCDまたはCMOSセンサであり、公知の半導体製造技術によって製造される。信号発生/受信部5および素子駆動部6は、例えばCCDドライバなどのLSIから構成されている。回転駆動部9は、透光板2を回転させるモータを有し、素子駆動部6と連動して透光板2を、その中心を軸として回転させる。
 信号処理部200は、撮像部100から出力された信号を処理して画像信号を生成する画像信号生成部7と、画像信号の生成に用いられる各種のデータを格納するメモリ30と、生成した画像信号を外部に送出するインターフェース(IF)部8とを備えている。画像信号生成部7は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。メモリ30は、DRAMなどによって構成される。メモリ30は、撮像部100から得られた信号を記録するとともに、画像信号生成部7によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、インターフェース部8を介して不図示の記録媒体や表示部などに送出される。
 なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本実施形態の理解に特に必要でないため省略する。
 次に、図2~4を参照しながら撮像部100の構成をより詳細に説明する。
 図2は、撮像部100における透光板2、レンズ3、および撮像素子1の配置関係を模式的に示す図である。なお、図2では、透光板2、レンズ3、および撮像素子1以外の構成要素は省略されている。レンズ3は、複数のレンズ群から構成されたレンズユニットであり得るが、図2では簡単のため、単一のレンズとして描かれている。透光板2は、透過波長域が互いに異なる3つの透過領域C1、C2、C3を有し、入射光の少なくとも一部を透過させる。レンズ3は、公知のレンズであり、透光板2を透過した光を集光し、撮像素子1の撮像面1aに結像する。なお、本実施形態では、光は、透光板2の透過領域C1、C2、C3以外の領域は通過しないものとする。以下の説明においては、図2に示すxy座標を用いる。なお、図2に示す各構成要素の配置関係はあくまでも一例であって、本発明はこのような配置関係に限られるものではない。例えば、レンズ3は、撮像面1aに像を形成できれば透光板2よりも撮像素子1から離れて配置されていてもよい。また、レンズ3と透光板2とが一体となって構成されていてもよい。
 図3は、本実施形態における透光板2の正面図である。本実施形態における透光板2の形状は、レンズ3と同様、円形であるが、四角形や六角形等の他の形状であってもよい。領域C1には、シアン(Cy)の波長域(緑および青の波長域)の光を透過させる色フィルタ(Cyフィルタ)が配置される。領域C2には、黄(Ye)の波長域(赤および緑の波長域)の光を透過させる色フィルタ(Yeフィルタ)が配置される。領域C3には、マゼンタ(Mg)の波長域(赤および青の波長域)の光を透過させる色フィルタ(Mgフィルタ)が配置される。
 なお、本実施形態における領域C1、C2、C3は、それぞれCyの波長域の光、Yeの波長域の光、Mgの波長域の光を透過し、他の波長域の光を透過しないように構成されていれば、色フィルタに限らず、どのような部材で構成されていてもよい。例えば、特定の波長域の光を透過し、他の波長域の光を反射するダイクロイックミラー等で構成されていてもよい。ここで、領域C1、C2、C3は、透光板2の中心に対して回転対称になるように配置され、各々の中心が互いに距離Lだけ離れて配置されている。初期状態において、これらの領域間の距離Lは、レンズ3のサイズに応じて、取得される画像が適切な視差を有するように決定される。距離Lは、例えば、数mm~数cmに設定され得る。
 図2に示される撮像素子1の撮像面1aには、2次元状に配列された光感知セルアレイおよび光感知セルアレイに対向して配置された色フィルタアレイが形成されている。光感知セルアレイおよび色フィルタアレイは、後述するように複数の単位要素を有し、各単位要素は、4つの光感知セルおよびそれらに対向する4つの色フィルタを含んでいる。各光感知セルは、典型的にはフォトダイオードであり、光電変換によって各々の受光量に応じた電気信号(以下、「光電変換信号」または「画素信号」と呼ぶ。)を出力する。また、各色フィルタは、公知の顔料などを用いて作製され、特定の波長域の光を選択的に透過させるように設計されている。
 図4は、本実施形態における色フィルタアレイの一部を模式的に示す図である。図示されるように、撮像面1a上には多数の色フィルタ110が行列状に配列されている。近接する4つの色フィルタ110およびそれらに対向する4つの光感知セル120が1つの単位要素40を構成している。各単位要素40において、1行1列目には赤(R)の波長域の光を透過させる色フィルタ(Rフィルタ)が配置されている。1行2列目および2行1列目には緑(G)の波長域の光を透過させる色フィルタ(Gフィルタ)が配置されている。2行2列目には青(B)の波長域の光を透過させる色フィルタ(Bフィルタ)が配置されている。このように、本実施形態における色フィルタ110の配列は、2行2列を基本とする公知のBayer配列である。なお、光感知セル120および色フィルタ110の配列は、必ずしもBayer配列である必要はなく、公知のどのような配列であってもよい。例えば、図4に示す画素配列を、紙面垂直方向を軸方向として45度回転させた斜交型の配列であってもよい。また、1つの単位要素に含まれる光感知セル120の数は4つに限らず、透光板2の光透過部の数(本実施形態では3つ)以上であればよい。
 以上の構成により、露光中に撮像装置に入射する光は、透光板2、レンズ3、赤外カットフィルタ4、色フィルタ110を通って光感知セル120に入射する。各光感知セルは、透光板2の領域C1、C2、C3の各々を透過した光のうち、対向する色フィルタ110を通った光を受け、受けた光の量に応じた光電変換信号を出力する。各光感知セルによって出力された光電変換信号は、信号発生/受信部5を通して信号処理部200に送出される。信号処理部200における画像信号生成部7は、撮像部100から送出された信号に基づいて視差を有する複数のカラー画像を生成する。
 図5は、透光板2に入射する光と透光板2を透過する光との関係を模式的に示す図である。3つの透過領域C1、C2、C3における各色フィルタ、および単位要素40に含まれる各色フィルタ110が全て透明であると仮定したとき、1つの単位要素40に含まれる個々の光感知セル120には、赤成分の光R1、R2、R3と、緑成分の光G1、G2、G3と、青成分の光B1、B2、B3とが入射するものと仮定する。ここで、R1、G1、B1は、領域C1に入射する光であり、R2、G2、B2は、領域C2に入射する光であり、R3、G3、B3は、領域C3に入射する光である。なお、赤成分、緑成分、青成分とは、可視光の波長域(約400nm~約700nm)を3分割した場合における、長波長帯、中間波長帯、短波長帯をそれぞれ意味する。ここで、1つの単位要素40のサイズは、撮像面1a全体のサイズに比べて十分に小さいため(例えば、1千万分の1以下の面積)、4つの光感知セル120の各々には、同一の分光分布の光が入射するものと仮定している。以下の説明では、記号R1、G1、B1、R2、G2、B2、R3、G3、B3を、光の量を表す記号として用いる場合がある。
 実際には、領域C1、C2、C3には、Cy、Ye、Mgフィルタがそれぞれ配置されている。そのため、領域C1を透過する光はG1およびB1であり、領域C2を透過する光はR2およびG2であり、領域C3を透過する光はR3およびB3である。さらに、各光感知セル120に対向して、R、G、Bフィルタのいずれかが配置されている。そのため、Rフィルタに対向する光感知セル(R画素)は、R2およびR3を受け、Gフィルタに対向する光感知セル(G画素)は、G1およびG2を受け、Bフィルタに対向する光感知セル(B画素)は、B1およびB3を受ける。
 以上のように、各光感知セル120は、透過領域C1、C2、C3を透過した光のうち、対向する色フィルタを透過した色成分の光を受ける。各光感知セル120は、受けた光の量に応じた光電変換信号を出力する。これらの光電変換信号を用いた演算により、各透過領域C1、C2、C3の位置に対応する3つの複数視点画像を生成することができる。
 以下、各光感知セルから出力される光電変換信号を用いた演算処理を説明する。
 透過領域C1、C2、C3における3つの色フィルタ、および単位要素40に含まれる4つの色フィルタ110の透過率の波長依存性(分光透過率)は、理想的な特性からずれていることがある。また、レンズ3や赤外カットフィルタ4等においても僅かながら入射光が減衰する。そこで、本実施形態における画像信号生成部7は、これらの特性のずれや減衰を考慮して以下の演算を行う。
 まず、1つの単位要素40に着目し、Cy、Mg、Ye、R、G、Bのいずれの色フィルタも存在しないと仮定した場合にその単位要素40に入射する光のうち、透光板2の領域C1、C2、C3を透過する成分の光の強度に相当する信号を、それぞれ添え字「i」を付けてCi1、Ci2、Ci3で表すこととする。すなわち、Ci1は、B1およびG1の光強度を表し、Ci2は、R2およびG2の光強度を表し、Ci3は、R3およびB3の光強度を表す。
 また、レンズ3および赤外カットフィルタ4を合わせた分光透過率をTwとし、Cyフィルタ、Yeフィルタ、Mgフィルタの分光透過率をそれぞれTcy、Tye、Tmgとする。同様に、R、G、Bの各色フィルタの分光透過率を、それぞれTr、Tg、Tbと表す。ここで、Tw、Tcy、Tye、Tmg、Tr、Tg、Tbは、入射する光の波長λに依存する関数である。そして、R、G、Bの色フィルタ110を透過して直下の光感知セル120で受光される光の強度を示す信号を、それぞれ添え字「s」を付けてRs、Gs、Bsと表す。また、可視光の波長域における分光透過率の積分演算を記号Σで表すこととする。例えば、波長λについての積分演算∫TwTcyTrdλなどを、ΣTwTcyTrなどと表すこととする。ここで、積分は可視光の全波長域にわたって行われるものとする。
 すると、Rsは、Ci1ΣTwTcyTr、Ci2ΣTwTyeTr、およびCi3ΣTwTmgTrを合算した結果に比例する。同様に、Gsは、Ci1ΣTwTcyTg、Ci2ΣTwTyeTg、およびCi3ΣTwTmgTgを合算した結果に比例する。Bsは、Ci1ΣTwTcyTb、Ci2ΣTwTyeTb、Ci3ΣTwTmgTbを合算した結果に比例する。これらの関係における比例係数を1とすれば、Rs、Gs、Bsは、以下の式1~3で表すことができる。
 (式1)Rs=Ci1ΣTwTcyTr+Ci2ΣTwTyeTr+Ci3ΣTwTmgTr
 (式2)Gs=Ci1ΣTwTcyTg+Ci2ΣTwTyeTg+Ci3ΣTwTmgTg
 (式3)Bs=Ci1ΣTwTcyTb+Ci2ΣTwTyeTb+Ci3ΣTwTmgTb
 式1~3において、ΣTwTcyTr、ΣTwTyeTr、ΣTwTmgTrを、それぞれMx11、Mx12、Mx13で表し、ΣTwTcyTg、ΣTwTyeTg、ΣTwTmgTgを、それぞれMx21、Mx22、Mx23で表し、ΣTwTcyTb、ΣTwTyeTb、ΣTwTmgTbを、それぞれMx31、Mx32、Mx33で表すこととする。すると、Rs、Gs、BsとCi1、Ci2、Ci3との関係は、行列を用いて以下の式4で表すことができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、式4における要素Mx11~Mx33からなる行列の逆行列の要素を、それぞれiM11~iM33とすると、式4は次の式5に変形できる。すなわち、領域C1に入射する光に含まれるCy成分の光の強度を示す信号Ci1、領域C2に入射する光に含まれるYe成分の光の強度を示す信号Ci2、および領域C3に入射する光に含まれるMg成分の光の強度を示す信号Ci3を、光電変換信号Rs、Gs、Bsおよび既知の分光透過率に関する情報を用いて表すことができる。
Figure JPOXMLDOC01-appb-M000002
 画像信号生成部7は、式5に基づく信号演算を実行し、信号Ci1、Ci2、Ci3を、単位要素ごとに生成する。このようにして単位要素ごとに生成された信号Ci1、Ci2、Ci3は、それぞれ領域C1に入射するCy成分の光による画像、領域C2に入射するYe成分の光による画像、および領域C3に入射するMg成分の光による画像を構成する。
 以上の処理によって得られる画像信号Ci1、Ci2、Ci3は、光電変換信号Rs、Gs、Bsを用いて表されるが、これらはカラー画像ではなく、領域C1、C2、C3に入射する光のうち、各領域を透過する波長域の光の強度を示す濃淡画像に相当する。また、信号Ci1、Ci2、Ci3によって表される3つの画像は、領域C1、C2、C3の位置からそれぞれ被写体を見たときの画像に相当するため、複数視点画像である。
 一般的なシーンを撮影する場合、有彩色の被写体が存在する。あるいは、光源から出射される光の分光分布が太陽のように均一であるとは限らない。被写体からの反射光量は、光源から出射される光の分光分布と被写体の分光反射率との積分演算で表される。そのため、被写体が無彩色であっても、光源から出射される光の分光分布に偏りがある場合は、被写体から反射される光の分光分布も偏りを持つ。もし光源から出射される光の分光分布が均一であり、無彩色の被写体を撮影する場合は、理想的には図5におけるR1、G1、B1は同じ値になる。同様に、R2、G2、B2も同じ値になり、R3、G3、B3も同じ値になる。したがって、Cyフィルタを通過した光の強度G1+B1と、Yeフィルタを通過した光の強度R2+G2とは等しい。
 しかしながら、光源から出射される光の分光分布に偏りがある場合や、被写体が有彩色である場合には、3次元の実世界中で同じ被写体の点から反射される光であっても、G1+B1、R2+G2、およびR3+B3は異なる値になる。例えば、赤い被写体であればG1+B1=0となり、R2+G2=R2となるが、R2≠0のため、G1+B1≠R2+G2となる。
 ここで、(式5)に示す演算によって得られる信号Ci1、Ci2、Ci3は、図3に示す透光板2の色フィルタの配置であれば、それぞれ被写体を図3における上(C3の位置)から見たMg成分の画像、被写体を左(C1の位置)から見たCy成分の画像、および被写体を右(Yeの位置)から見たYe成分の画像に対応する。したがって、信号Ci1、Ci2、Ci3はそれぞれ被写体の色を補色系に分離した画像であって、それぞれ視点が異なる画像を表すと考えることができる。
 そこで、本実施形態では、図3の透光板2を図6(a)、(b)、(c)に示すように回転させて3枚の画像を撮影し、演算処理によって複数の異なる視点の画像の生成と合成処理とを行うことにより、視差を有する複数のカラー画像を生成する。透光板2の回転は、例えば非特許文献1に記載の方法のように、透光板2にベルトを付け、モータでベルトを回転させることによって実現できる。回転駆動部9は、このような機構により、透光板2を回転させ、撮像素子1は、図6(a)、(b)、(c)の各状態において画像信号を取得する。以下の説明では、図6(b)および図6(c)の各状態において、式5におけるCi1、Ci2、Ci3に対応する信号を、それぞれCj1、Cj2、Cj3、およびCk1、Ck2、Ck3と表す。
 まず、図6(a)に示す状態1において、式5に基づく演算により、画像信号Ci1、Ci2、Ci3を算出する。次に、透光板2を120度回転させ、図6(b)に示す状態2にした上で、同様に画像信号Cj1、Cj2、Cj3を算出する。最後に、透光板2をさらに120度回転させ、図6(c)に示す状態3にした上で、画像信号Ck1、Ck2、Ck3を算出する。
 以上のようにして算出された画像信号から各状態に対応する3つのカラー画像を生成した結果の例を図7に示す。図7(a)は、初期状態である状態1において取得された画像信号Ci1、Ci2、Ci3をそれぞれCy成分、Ye成分、Mg成分として撮影されたカラー画像を示している。図7(b)は、初期状態から120度回転させた状態2において取得された画像信号Cj1、Cj2、Cj3をそれぞれCy成分、Ye成分、Mg成分として撮影されたカラー画像を示している。図7(c)は、初期状態から240度回転させた状態3において取得された画像信号Ck1、Ck2、Ck3をそれぞれCy成分、Ye成分、Mg成分として撮影されたカラー画像を示している。図7に示す各画像において、左側の被写体の色は赤であり、中央付近の被写体の色は青であり、右上部の被写体の色は緑である。左側の被写体が最も手前にあり、右側の被写体が最も奥にある。なお、図7に示す3つの画像は、いずれも視差の情報を含んでいない。
 図8は、図7に示す画像について、Rs、Gs、Bsの信号からCi1、Ci2、Ci3、Cj1、Cj2、Cj3、Ck1、Ck2、Ck3を演算によって算出した結果を画像として表示した例を示す図である。図8において、1列目、2列目、3列目は、それぞれ状態1(0度回転)、状態2(120度回転)、状態3(240度回転)における透光板2の各位置(左、上、右)を透過した光による濃淡画像を示している。また、図9は、透光板2における各位置と各色成分との組み合わせがどの画像信号に対応しているかを示す表である。図9に示す表の横方向に各透過領域に配置された色フィルタの色成分を示し、縦方向に色フィルタの透光板2における位置を示している。図8に示すように、透光板2を回転させて撮影した3枚の画像に基づいて演算で求められる画像成分は、3つの位置×3つの色成分の合計9個ある。ここで、透光板2の左側を透過する光のCy成分、Ye成分、Mg成分は、それぞれCi1、Cj2、Ck3に対応する。したがって、画像信号Ci1、Cj2、Ck3からカラー画像を合成すれば、被写体を左から見たときのカラー画像が得られる。同様に、Ck1、Ci2、Cj3を用いることにより、被写体を右から見たときのカラー画像を生成できる。また、Cj1、Ck2、Ci3を用いることにより、被写体を上から見たときのカラー画像を生成できる。
 以下、視点の異なる各カラー画像を求める方法を説明する。被写体を左から見た場合のカラー画像は、(式4)を変形した以下の(式6)で求められる。ここで、当該カラー画像における赤成分、緑成分、青成分の信号を、それぞれRs1、Gs1、Bs1と表す。
Figure JPOXMLDOC01-appb-M000003
 式6は、式4における領域C1、C2、C3を透過する光の強度を示す信号Ci1、Ci2、Ci3が、それぞれCi1、Cj2、Ck3に置き換わったものである。ここで、Ci2とCj2との違いは、フィルタの色の種類はいずれもYeフィルタで等しいが、被写体を見る視点が異なる。図9に示すように、Ci2は右から被写体を見た場合の画像を表しているが、Cj2は左から被写体を見た場合の画像を表している。また、Ci3とCk3との違いも同様であり、Ci3は上から被写体を見た場合のMg成分の画像を表し、Ck3は左から被写体を見た場合のMg成分の画像を表している。
 一方、(式6)において、Mx11~Mx33は、光が入射する方向に関する情報を有していない。Mx11~Mx33は、透光板2におけるCy、Ye、Mgの各色フィルタの分光透過率、撮像素子1におけるR、G、Bの各色フィルタの分光透過率、およびIRフィルタやレンズなどの分光透過率の情報を有している。すなわち、Mx11は、Cyフィルタの分光透過率とRフィルタの分光透過率との積算値を表す。Mx12は、Yeフィルタの分光透過率とRフィルタの分光透過率との積算値を表す。Mx13は、Mgフィルタの分光透過率とRフィルタの分光透過率との積算値を表す。Mx11~Mx33は、撮像装置の製造時に決定される既知の情報である。
 (式6)によって得られるRs1の値は、被写体を左から見た方向からCyフィルタを通過する光強度Ci1とMx11とを掛けたものと、Yeフィルタを通過する光強度Cj2とMx12とを掛けたものと、Mgフィルタを通過する光強度Ck3とMx13とを掛けたものとの合算により算出される。Gs1、Bs1の値も同様に求められる。これは、(式5)で表される、光が入射する方向が異なる場合の画素信号Rs、Gs、Bsから視点位置が異なる補色系の信号を演算する処理の逆演算により、視点位置の等しい3種類の補色系の信号から、光の入射する方向が同一の画素信号Rs1、Gs1、Bs1が求められることを意味する。
 同様に、被写体を右から見たときのカラー画像は、赤成分をRs2、青成分をGs2、青成分をBs2と表すと、以下の(式7)によって算出できる。
Figure JPOXMLDOC01-appb-M000004
 また、被写体を上から見たときのカラー画像は、赤成分をRs3、青成分をGs3、青成分をBs3と表すと、以下の(式8)によって算出できる。
Figure JPOXMLDOC01-appb-M000005
 以上のように、透光板2を3回回転させながら撮影を行い、撮影した個々の画像から演算によって透光板2の透過領域C1、C2、C3を透過する複数の光の強度を求めることにより視差を有するカラー画像を生成できる。本実施形態によれば、透光板2の光透過部に補色(Cy、Ye、Mg)の色フィルタを用いて、3回分の画像を合成するため、従来技術に比べ、光利用率を高くすることができ、撮像感度を向上させることができる。また、特許文献3に開示されている色線形性を利用したマッチング処理を行わないため、画像のボケ量や平坦度に依存せず、安定して複数視点画像を生成することができる。
 以上の処理によって生成した画像の例を図10に示す。図10(a)、(b)は、それぞれ左および右から被写体を見た場合のカラー画像を生成した結果を示している。なお、上から被写体を見た場合のカラー画像は図示していない。図10に示す2つの点線(直線1、直線2)は、2枚の画像で同じx座標を示す。直線1は手前にある赤い被写体の輪郭に沿って描かれており、直線2は奥にある緑の被写体の輪郭に沿って描かれている。この例からわかるように手前にある被写体の輪郭のx座標はほぼ同じ値であるが、奥にある緑の被写体の輪郭のx座標が異なる。したがって距離により見え方の異なる画像、つまり複数視点画像が取得できたことがわかる。
 なお、本実施形態における透光板2の透過領域の配置は上記の配置に限らず任意であるが、理想的には、透光板2の中心を原点として、そこから等距離の位置に配置することが望ましい。これにより、透光板2の中心を原点として視差がどの方向に現れるかを容易に知ることができる。さらには、隣接する透過領域間の距離が等しいことが望ましい。具体的には、領域C1および原点を通る直線と、領域C2および原点を通る直線とがなす角度が120度になることが望ましい。同様に、領域C2および原点を通る直線と、領域C3および原点を通る直線とがなす角度が120度になることが望ましい。また、領域C3および原点を通る直線と、領域C3および原点を通る直線とがなす角度が120度になることが望ましい。以上の構成により、透光板2を回転させる角度を一定にすることができるため、機構系の制御が容易になり、かつ安定する。
 本実施形態では、透光板2の透過領域C1、C2、C3にはそれぞれCyフィルタ、Yeフィルタ、Mgフィルタを配置したが、このような構成に限られるものではない。透過領域C1、C2、C3に配置される色フィルタの種類は適宜選択してもよい。これらの色フィルタは、原色フィルタ(例えばR、G、Bフィルタ)であってもよいし、光利用率向上の観点から、少なくとも1つの透過領域に原色よりも広い波長域の光を透過させる透過フィルタが配置されていてもよい。例えば、3つの透過領域のうちの1つに補色系のフィルタが配置され、残りの2つに原色系のフィルタが配置されていてもよい。3つの透過領域における透過率の波長依存性が互いに異なっていれば、本実施形態と同様の処理を適用できる。また、可視光に含まれる任意の波長の光がいずれかの透過領域を透過できるように、各透過領域の分光透過率が設計されていれば、良好なカラー複数視点画像を生成できる。同様に、撮像素子1の1つの単位要素40に含まれる色フィルタ110は、必ずしもR、G、Bの色フィルタである必要はなく、透過率の波長依存性が互いに異なっていれば、本実施形態と同様の処理を適用できる。
(実施形態2)
 次に、本発明の第2の実施形態を説明する。本実施形態における撮像装置は、透光板2におけるフィルタの数が実施形態1の撮像装置とは異なっている。以下、実施形態1と異なる点を中心に説明し、重複する事項についての説明は省略する。
 透光板2のフィルタの数は、3個に限らず、2個以上であれば何個であってもよい。以下、フィルタの種類の数をN(Nは2以上の整数)に一般化した場合に複数視点画像を生成する構成を説明する。前提条件として、透過率の波長依存性が互いに異なるN種類のフィルタを有する透光板2をN回以上回転させて撮影するものとする。また、撮像素子1の各単位要素40は、互いに異なる分光透過率を有するN個の色フィルタおよびそれらに対向するN個の光感知セルを含んでいるものとする。
 図11Aは、このように一般化した透光板2の例を示す図である。図示される透光板2は、光が並列的に入射するように配置された、透過率の波長依存性が互いに異なるN個のフィルタC1~CNを有している。フィルタC1~CNは、透光板2の中心からの距離がいずれも等しく、隣接する2つの透過領域間の距離は全て等しいものとする。
 図11Bは、撮像素子1における1つの単位要素40に含まれるフィルタ配列の例を示す図である。1つの単位要素40は、N個の光感知セルと、それらに対向するN個のフィルタD1~DNを有している。なお、1つの単位要素40に含まれるフィルタの数はN個よりも多くてもよい。また、図示される透過フィルタの配列は一例であり、この例に限られるものではない。
 以下、N=7の場合を例に本実施形態の撮像装置をより具体的に説明する。透光板2として、例えば図12A、図12Bに示すような虹色のパタンが利用できる。図12Aに示す例では、透光板2は、虹色パタンを有するフィルタ2aと、7個の透過領域(開口)を有する遮光板2bとから構成される。図12Aにおけるフィルタ2aは、互いに分光透過率が異なる7種類のフィルタがリング状に結合したものと考えることができる。フィルタ2aを回転させることにより、各開口位置における分光透過率を変化させることができる。なお、虹色パタンのフィルタ2aを設けずに、遮光板2bの7個の開口位置に異なる分光透過率のフィルタを張り付けたものを透光板2として用い、それを回転させてもよい。
 図12Bに示すように、各透過領域C1~C7は、いずれも円形で、同一面積を有しているものとするが、必ずしもこのような形状、面積である必要はない。初期状態において、透過領域C1~C7の位置には、それぞれ赤Re、オレンジOr、黄Ye、緑Gr、青Bl、藍In、紫Viの波長域の光を透過させるフィルタが配置されているものとする。また、撮像素子1においても同様に上記の7種類の分光透過率を有するフィルタが配置されているものと仮定する。
 いずれのフィルタも配置されていないと仮定した場合に、1つの単位要素に含まれる各光感知セルに入射する光のうち、透過領域C1~C7を透過する色成分の光の強度を示す信号を、それぞれCi1~Ci7とする。撮像素子1に配置された7種類の色フィルタに対向する光感知セルにおける受光量を示す信号を、Res、Ors、Yes、Grs、Bls、Ins、Visとすると、各光感知セルで観測される信号量は、以下の(式9)~(式15)で表すことができる。
(式9)
 Res = Ci1ΣTwTreT're + Ci2ΣTwTorT're + Ci3ΣTwTyeT're + Ci4ΣTwTgrT're+ Ci5ΣTwTblT're + Ci6ΣTwTInT're + Ci7ΣTwTviT're
(式10)
 Ors = CiTwTreT'or + Ci2ΣTwTorT'or + Ci3ΣTwTyeT'or + Ci4ΣTwTgrT'or+ Ci5ΣTwTblT'or + Ci6ΣTwTInT'or + Ci7ΣTwTviT'or
(式11)
 Yes = Ci1ΣTwTreT'ye + Ci2ΣTwTorT'ye + Ci3ΣTwTyeT'ye + Ci4ΣTwTgrT'ye+ Ci5ΣTwTblT'ye + Ci6ΣTwTInT'ye + Ci7ΣTwTviT'ye
(式12)
 Grs = Ci1ΣTwTreT'gr + Ci2ΣTwTorT'gr + Ci3ΣTwTyeT'gr + Ci4ΣTwTgrT'gr+ Ci5ΣTwTblT'gr + Ci6ΣTwTInT'gr + Ci7ΣTwTviT'gr
(式13)
 Bls = Ci1ΣTwTreT'bl + Ci2ΣTwTorT'bl + Ci3ΣTwTyeT'bl + Ci4ΣTwTgrT'bl+ Ci5ΣTwTblT'bl + Ci6ΣTwTInT'bl + Ci7ΣTwTviT'bl
(式14)
 Ins = Ci1ΣTwTreT'In + Ci2ΣTwTorT'In + Ci3ΣTwTyeT'In + Ci4ΣTwTgrT'In+ Ci5ΣTwTblT'In + Ci6ΣTwTInT'In + Ci7ΣTwTviT'In
(式15)
 Vis = Ci1ΣTwTreT'vi + Ci2ΣTwTorT'vi + Ci3ΣTwTyeT'vi + Ci4ΣTwTgrT'vi+ Ci5ΣTwTblT'vi + Ci6ΣTwTInT'vI + Ci7ΣTwTviT'vi
 ここで、T’re、T’or、T’ye、T’gr、T’bl、T’In、T’viは、それぞれ撮像素子1に配置された赤、オレンジ、黄、緑、青、藍、紫のフィルタの分光透過率を表す。また、Tre、Tor、Tye、Tgr、Tbl、TIn、Tviは、それぞれ透光板2に配置された赤、オレンジ、黄、緑、青、藍、紫のフィルタの分光透過率を表す。Twは(式1)~(式3)と同様にレンズ3、および赤外カットフィルタ4を合わせた分光透過率である。撮像素子1の受光信号Res、Ors、Yes、Grs、Bls、Ins、Visと、透過領域C1~C7を透過する光の強度を示す信号Ci1~Ci7、および色フィルタの分光透過率との関係から、(式4)と同様、以下の(式16)が得られる。
Figure JPOXMLDOC01-appb-M000006
 ここで、行列要素Mx11~Mx77は、Tw、透光板1における透過領域の分光透過率、撮像素子1における色フィルタの分光透過率の積分によって得られる値である。すなわち、Mx11、Mx12、Mx13、Mx14、Mx15、Mx16、Mx17は、それぞれΣTwTreT’re、ΣTwTorT’re、ΣTwTyeT’re、ΣTwTgrT’re、ΣTwTblT’re、ΣTwTInT’re、ΣTwTviT’reである。以下同様に、Mx21~Mx27は、それぞれMx11~Mx17のT’reをT’orに、Mx31~Mx37は、それぞれMx11~Mx17のT’reをT’yeに、Mx41~Mx47は、それぞれMx11~Mx17のT’reをT’grに、Mx51~Mx57は、それぞれMx11~Mx17のT’reをT’blに、Mx61~Mx67は、それぞれMx11~Mx17のT’reをT’Inに、Mx71~Mx77は、それぞれMx11~Mx17のT’reをT’viに置き換えたものである。
 式16に示す演算の逆演算を行うことにより、1回の撮影で7方向からの光の強度を示す信号(Ci1~Ci7)を求めることできる。これにより、例えば透過領域C1を通過する光の強度を示す信号(Ci1)から、被写体を上から見たときの画像を得ることができる。透光板2を(360/7)度ずつ回転させて最低7回撮影を行い、演算によって各透過領域を透過する光の強度を示す信号を求めることで、7つの方向から、7種類の分光透過率を有するフィルタを通過する色成分の光の強度(合計49種類)が得られる。(式6)~(式8)と同様に、取得した光の強度を示す信号のうち、同じ方向から被写体を見た場合に相当する信号を利用して、カラー画像を合成することができる。例えば、初期状態における領域C1の位置から被写体を見たときの画像の色情報は、以下の式17によって表される。
Figure JPOXMLDOC01-appb-M000007
 ここで、Ci1、Cj2、Ck3、Cl4、Cm5、Cn6、Co7は、それぞれ1回目~7回目の撮影において当該位置を透過する色成分の光強度を示す信号である。Res1、Ors1、Yes1、Grs1、Bls1、Ins1、Vis1は、それぞれ求めるカラー画像の赤、オレンジ、黄、緑、青、藍、紫の色成分の量を示す信号である。他の位置におけるカラー画像も同様の演算によって取得することができる。以上の処理により、7個の透過領域に対応して7個のカラー複数視点画像を得ることができる。
 なお、本実施形態では、透光板2を7段階に回転させて7方向からの光を取得するが、8段階以上回転および撮影を行っても構わない。その場合、追加で撮影したときの光の強度の情報は既に算出しているが、それらを加算することで暗い環境でも明るい画像を得ることができるという効果がある。
 上記の各実施形態では、透光板2を回転させることにより、各透過領域C1~C7の分光透過率を変化させるが、回転ではなく、縦や横に色フィルタをずらすことにより、分光透過率を変化させてもよい。また、透光板2の複数の透過領域に透明フィルタまたは特定の色フィルタを設け、透光板2の外側から透過領域ごとに異なる他の色フィルタを被せることによって複数の透過領域の分光透過率を変化させるように構成してもよい。本発明の実施形態では、光透過部におけるN種類の色フィルタの各位置が、撮像素子1に対して予め設定されたN個の位置上で、撮像ごとに変化するように構成されていれば、どのように光透過部を駆動してもよい。
 例えば、色フィルタを一方向にずらす構成として、図13に示すような構成を採用してもよい。図13は、2つの透過領域C1、C2を有する透光板2cの構成例を示す図である。透光板2cには、3つの色フィルタが配置されたスライド板2dが取り付けられ、スライド板2dをスライドさせることによって透過領域C1、C2の分光透過率を変化させることができる。図示される例では、スライド板2dには、中央にCyフィルタ、両端にYeフィルタが配置されている。図13(a)に示すように、スライド板2dがない状態では透過領域C1、C2は透明である。図13(b)に示すように、透過領域C1の位置にCyフィルタが位置し、透過領域C2の位置にYeフィルタが位置する状態で1回目の撮像が行われる。続いて、図13(c)に示すように、透過領域C1の位置にYeフィルタが位置し、透過領域C2の位置にCyフィルタが位置する状態で2回目の撮像が行われる。この例では、撮像素子1の各単位要素に2つの光感知セルおよびそれらに対向する2つの分光透過率の異なる色フィルタが設けられていればよい。2つの光感知セルから撮像ごとに出力される光電変換信号を用いた演算によって透光板2cの各透過領域を透過する成分の光の強度を示す信号を求めることにより、複数視点画像を得ることができる。ただし、この例では、透過領域が2つしかないため、カラー画像ではなく濃淡画像が得られることになる。透過領域が3つ以上の場合も同様の機構によって複数視点画像を生成することができる。
 なお、図13の代わりに図14に示す構成を採用してもよい。図14に示す構成では、スライド板2dがない状態における透過領域C1、C2は、透明ではなく、Gフィルタで構成される。この場合、スライド板2dには、中央にBフィルタ、両端にRフィルタが配置される。図14(b)に示す状態では、領域C1はCyフィルタと同じ特性を有し、領域C2はYeフィルタと同じ特性を有する。図14(c)に示す状態では、領域C1はYeフィルタと同じ特性を有し、領域C2はCyフィルタと同じ特性を有する。そのため、図13に示す構成と全く同じ効果が得られる。
 上記の各実施形態の撮像装置は、撮像によって得られる光電変換信号から信号演算によって画像を生成するが、信号演算による画像の生成処理を撮像装置とは独立した他の装置に実行させてもよい。例えば、上記の各実施形態における撮像部100を有する撮像装置によって取得した信号を他の装置(画像処理装置)に読み込ませ、上記の信号演算処理を規定するプログラムを当該画像処理装置に内蔵されたコンピュータに実行させることによっても上記と同様の効果を得ることができる。
 図15は、このような撮像装置および他の装置による撮像から画像生成までの一連の動作の流れの例を示すフロー図である。撮像装置は、まずステップS1において、光透過部2における複数種類のフィルタの各位置を変化させながら、複数回の撮像を行う(連写撮像)。次に、画像処理装置は、ステップS2において、各撮像によって得られた複数の画素信号から、光透過部2の各透過領域を通過する成分の光による濃淡画像を生成する(濃淡複数視点画像生成)。続いて、画像処理装置は、ステップS3において、式17と同様の演算を用いて濃淡複数視点画像を合成することにより、カラー複数視点画像を生成する(カラー複数視点画像生成)。以上の動作により、撮像機能と画像処理機能とを別々の装置が実行するように構成できる。
 本発明の一態様に係る3次元撮像装置は、固体撮像素子を用いたすべてのカメラに有効である。例えば、デジタルスチルカメラやデジタルビデオカメラなどの民生用カメラや、産業用の固体監視カメラなどに利用できる。
 1 固体撮像素子
 1a 固体撮像素子の撮像面
 2、2a、2b、2c 透光板(光透過部)
 2d スライド板
 3 光学レンズ
 4 赤外カットフィルタ
 5 信号発生/受信部
 6 素子駆動部
 7 画像信号生成部
 8 インターフェース部
 9 回転駆動部
 19 レンズ絞り
 20、22、23 光束制限板
 20a 赤系統の光を透過させる色フィルタ
 20b 青系統の光を透過させる色フィルタ
 21 感光フィルム
 22R、23R 光束制限板のR光透過領域
 22G、23G 光束制限板のG光透過領域
 22B、23B 光束制限板のB光透過領域
 30 メモリ
 40 単位要素
 100 撮像部
 110 色フィルタ
 120 光感知セル
 200 信号処理部

Claims (14)

  1.  光が並列的に入射するように設けられた、透過率の波長依存性が互いに異なるN種類(Nは2以上の整数)の第1フィルタを有する光透過部と、
     前記光透過部を透過した光を受けるように配置された撮像素子であって、光感知セルアレイ、および前記光感知セルアレイに対向して配置されたフィルタアレイを有し、前記光感知セルアレイおよび前記フィルタアレイは、複数の単位要素から構成され、各単位要素は、N個の光感知セル、および前記N個の光感知セルに対向して配置された透過率の波長依存性が互いに異なるN個の第2フィルタを含む撮像素子と、
     前記撮像素子の撮像面に像を形成する結像部と、
     連続してM回(MはN以上の整数)の撮像を行うように前記光透過部を駆動する撮像駆動部であって、前記N種類の第1フィルタの各位置を、前記撮像素子に対して予め定められたN個の位置上で、撮像ごとに変化させるように前記光透過部を駆動する撮像駆動部と、
    を備えている、3次元撮像装置。
  2.  前記N種類の第1フィルタは、可視光に含まれる任意の波長の光が前記N種類の第1フィルタの少なくとも1種類を透過できるように設計されており、前記N種類の第1フィルタの少なくとも1種類は、原色の波長域よりも広い透過波長域を有する、請求項1に記載の3次元撮像装置。
  3.  各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力される複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成する画像生成部を備えている、請求項1または2に記載の3次元撮像装置。
  4.  前記画像生成部は、各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力される複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成し、生成した前記N×M個の画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成する、請求項3に記載の3次元撮像装置。
  5.  前記N種類の第1フィルタのうちの3種類の透過波長域は、シアン、マゼンタ、黄、赤、青、緑のうちの3つの波長域にそれぞれ等しく設計されている、請求項1から4のいずれかに記載の3次元撮像装置。
  6.  N=3であり、
     前記N種類の第1フィルタの透過波長域は、シアン、マゼンタ、黄の波長域にそれぞれ等しく設計され、
     前記N個の第2フィルタの透過波長域は、赤、青、緑の波長域にそれぞれ等しく設計されている、
    請求項1から5のいずれかに記載の3次元撮像装置。
  7.  前記光透過部における前記N種類の第1フィルタは、前記光透過部の中心からの距離が全て等しく、隣接する2つの第1フィルタ間の距離が等しくなるように配置されている、請求項1から6のいずれかに記載の3次元撮像装置。
  8.  前記撮像駆動部は、前記光透過部の中心を軸として前記光透過部を回転させることにより、前記N種類の第1フィルタの各位置を、前記N個の位置上で、撮像ごとに変化させる、請求項1から7のいずれかに記載の3次元撮像装置。
  9.  請求項1から8のいずれかに記載の3次元撮像装置によって取得された信号に基づいて複数視点画像を生成する画像処理装置であって、
     前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成する、画像処理装置。
  10.  各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成し、生成した前記N×M個の画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成する、請求項9に記載の画像処理装置。
  11.  請求項1から8のいずれかに記載の3次元撮像装置によって取得された信号に基づいて複数視点画像を生成するための画像処理方法であって、
     前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成するステップを含む画像処理方法。
  12.  前記N個の複数視点画像を生成するステップは、
     各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成するステップと、
     生成した前記N×M個の前記画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成するステップと、
    を含む、請求項11に記載の画像処理方法。
  13.  請求項1から8のいずれかに記載の3次元撮像装置によって取得された信号に基づいて複数視点画像を生成するための画像処理プログラムであって、
    コンピュータに対し、
     前記撮像素子における各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置に対応するN個の複数視点画像を生成するステップを実行させる画像処理プログラム。
  14.  前記N個の複数視点画像を生成するステップは、
     各単位要素に含まれる前記N個の光感知セルから前記M回の撮像ごとに出力された複数の光電変換信号に基づいて、前記N個の位置を通過する成分の光によるM×N個の画像信号を生成するステップと、
     生成した前記N×M個の前記画像信号を合成することにより、前記N個の位置に対応するN個のカラー複数視点画像を生成するステップと、
    を含む、請求項13に記載の画像処理プログラム。
PCT/JP2012/002321 2011-04-07 2012-04-03 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム WO2012137485A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/004,465 US9628776B2 (en) 2011-04-07 2012-04-03 Three-dimensional imaging device, image processing device, image processing method, and image processing program
JP2013508765A JP5903670B2 (ja) 2011-04-07 2012-04-03 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム
CN201280012326.5A CN103636199B (zh) 2011-04-07 2012-04-03 三维摄像装置、图像处理装置、图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011085492 2011-04-07
JP2011-085492 2011-04-07

Publications (1)

Publication Number Publication Date
WO2012137485A1 true WO2012137485A1 (ja) 2012-10-11

Family

ID=46968894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002321 WO2012137485A1 (ja) 2011-04-07 2012-04-03 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム

Country Status (4)

Country Link
US (1) US9628776B2 (ja)
JP (1) JP5903670B2 (ja)
CN (1) CN103636199B (ja)
WO (1) WO2012137485A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016034055A (ja) * 2014-07-31 2016-03-10 ソニー株式会社 画像処理装置、画像処理方法、及び、撮像装置
CN105493504A (zh) * 2013-09-11 2016-04-13 索尼公司 立体图片生成设备以及立体图片生成方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299180B2 (ja) * 2013-11-27 2018-03-28 株式会社リコー 撮像装置、撮像システムおよび当該撮像装置による撮像方法
JP2016102733A (ja) * 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置
USD757010S1 (en) * 2015-05-28 2016-05-24 Hewlett-Packard Development Company, L.P. Scanner turntable
USD810747S1 (en) * 2015-06-01 2018-02-20 Xyzprinting, Inc. Three dimensional scanning device
JP6699897B2 (ja) * 2016-11-11 2020-05-27 株式会社東芝 撮像装置、自動制御システム及びシステム
CN112475626B (zh) * 2020-11-10 2022-09-06 武汉华俄激光工程有限公司 一种智能制造用激光切割机构

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171737A (ja) * 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオカメラ用撮影レンズ
JP2002344999A (ja) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd ステレオ画像撮像装置
JP2007017536A (ja) * 2005-07-05 2007-01-25 Ricoh Co Ltd プロジェクタ装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3863319B2 (ja) * 1999-06-29 2006-12-27 富士フイルムホールディングス株式会社 視差画像撮像装置及びカメラ
WO2001063907A2 (en) * 2000-02-23 2001-08-30 Tenebraex Corporation Methods and apparatus for providing color images from monochromatic night vision and other electro-optical viewing devices
JP3869702B2 (ja) 2001-10-30 2007-01-17 ペンタックス株式会社 ステレオ画像撮像装置
US20030147002A1 (en) * 2002-02-06 2003-08-07 Eastman Kodak Company Method and apparatus for a color sequential scannerless range imaging system
EP1672932A1 (en) * 2004-12-20 2006-06-21 Barco, naamloze vennootschap. Improved single light valve projection device and method for projecting images
JP2009276294A (ja) 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
CN101587283B (zh) * 2008-05-23 2011-01-05 鸿富锦精密工业(深圳)有限公司 成像装置
JP5099704B2 (ja) 2008-08-06 2012-12-19 独立行政法人産業技術総合研究所 高さを測定する方法及び高さ測定装置
GB2463480A (en) 2008-09-12 2010-03-17 Sharp Kk Camera Having Large Depth of Field
JP5472584B2 (ja) * 2008-11-21 2014-04-16 ソニー株式会社 撮像装置
CN201740969U (zh) 2010-07-19 2011-02-09 张德忠 三基色立体图像摄取设备
CN101902658A (zh) 2010-07-19 2010-12-01 张德忠 无重影多目立体图像摄取与重现系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171737A (ja) * 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオカメラ用撮影レンズ
JP2002344999A (ja) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd ステレオ画像撮像装置
JP2007017536A (ja) * 2005-07-05 2007-01-25 Ricoh Co Ltd プロジェクタ装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105493504A (zh) * 2013-09-11 2016-04-13 索尼公司 立体图片生成设备以及立体图片生成方法
CN105493504B (zh) * 2013-09-11 2018-08-17 索尼公司 立体图片生成设备以及立体图片生成方法
EP3000230B1 (en) * 2013-09-11 2018-10-10 Sony Corporation Stereoscopic picture generation apparatus and stereoscopic picture generation method
US10574968B2 (en) 2013-09-11 2020-02-25 Sony Corporation Stereoscopic picture generation apparatus and stereoscopic picture generation method
JP2016034055A (ja) * 2014-07-31 2016-03-10 ソニー株式会社 画像処理装置、画像処理方法、及び、撮像装置

Also Published As

Publication number Publication date
CN103636199B (zh) 2015-12-23
CN103636199A (zh) 2014-03-12
JP5903670B2 (ja) 2016-04-13
US20130342661A1 (en) 2013-12-26
JPWO2012137485A1 (ja) 2014-07-28
US9628776B2 (en) 2017-04-18

Similar Documents

Publication Publication Date Title
JP5903670B2 (ja) 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JP5879549B2 (ja) ライトフィールド撮像装置、および画像処理装置
JP5227368B2 (ja) 3次元撮像装置
JP5923754B2 (ja) 3次元撮像装置
JP5853202B2 (ja) 撮像装置
JP5995084B2 (ja) 3次元撮像装置、撮像素子、光透過部、および画像処理装置
JP5406151B2 (ja) 3次元撮像装置
US9544570B2 (en) Three-dimensional image pickup apparatus, light-transparent unit, image processing apparatus, and program
JP5507362B2 (ja) 3次元撮像装置および光透過板
JP5914881B2 (ja) 3次元撮像装置、画像処理装置、画像処理方法、およびプログラム
JP5406163B2 (ja) 3次元撮像装置および画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12767505

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2013508765

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14004465

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12767505

Country of ref document: EP

Kind code of ref document: A1