WO2013042323A1 - ライトフィールド撮像装置、および画像処理装置 - Google Patents

ライトフィールド撮像装置、および画像処理装置 Download PDF

Info

Publication number
WO2013042323A1
WO2013042323A1 PCT/JP2012/005581 JP2012005581W WO2013042323A1 WO 2013042323 A1 WO2013042323 A1 WO 2013042323A1 JP 2012005581 W JP2012005581 W JP 2012005581W WO 2013042323 A1 WO2013042323 A1 WO 2013042323A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
imaging device
region
image
pixel
Prior art date
Application number
PCT/JP2012/005581
Other languages
English (en)
French (fr)
Inventor
平本 政夫
育規 石井
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013506026A priority Critical patent/JP5879549B2/ja
Priority to CN201280002605.3A priority patent/CN103119516B/zh
Priority to US13/882,523 priority patent/US9100639B2/en
Publication of WO2013042323A1 publication Critical patent/WO2013042323A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing

Definitions

  • the present application relates to a monocular three-dimensional imaging technique for generating a multi-viewpoint image using one optical system and one imaging element.
  • imaging device such as a CCD or CMOS.
  • imaging device solid-state imaging device
  • the pixel structure in an image sensor has been miniaturized.
  • higher integration of pixels and drive circuits of the image sensor has been achieved.
  • the number of pixels of the image sensor has increased significantly from about 1 million pixels to over 10 million pixels.
  • the quality of the image obtained by imaging has improved dramatically.
  • a thin liquid crystal display or a plasma display enables high-resolution and high-contrast display without taking up space, and high performance is realized.
  • Such a flow of improving the quality of video is spreading from a two-dimensional image to a three-dimensional image.
  • polarized glasses are required, but high-quality three-dimensional display devices are being developed.
  • a typical method having a simple configuration is a method of acquiring a right-eye image and a left-eye image using an imaging system including two cameras.
  • an imaging system including two cameras.
  • two-lens imaging method since two cameras are used, the imaging apparatus becomes large and the cost can be high. Therefore, a method (monocular imaging method) for acquiring a plurality of images having parallax (hereinafter sometimes referred to as “multi-viewpoint images”) using one camera has been studied.
  • Patent Documents 1 and 2 disclose a method of acquiring a multi-viewpoint image using two polarizing plates whose transmission axes are orthogonal to each other and a rotating polarizing filter.
  • Patent Documents 3 to 5 disclose methods for acquiring a multi-viewpoint image using a diaphragm (light flux limiting plate) provided with a plurality of color filters.
  • Patent Documents 1 to 5 are mainly used when a multi-viewpoint image is generated by a monocular camera.
  • Such a technique is called light field photography, and a monocular camera using it is called a light field camera.
  • a light field camera a plurality of microlenses are arranged on an image sensor. Each microlens is disposed so as to cover a plurality of pixels. After imaging, the depth of the subject can be estimated by calculating information related to the direction of incident light from the acquired image information.
  • Such a camera is disclosed in Non-Patent Document 1, for example.
  • Patent Document 6 discloses a technique for improving resolution using two imaging systems.
  • incident light is divided into two, and each of the divided incident lights is imaged by an imaging system having a microlens group arranged with a spatially shifted pitch of 1/2 pitch, and then the acquired images are synthesized. To improve the resolution.
  • this technique requires two imaging systems and has problems in terms of size and cost.
  • Patent Document 7 discloses a technique for switching between a normal imaging mode and a mode based on light field photography using one imaging system.
  • a microlens whose focal length changes according to the applied voltage is used, and the focal length of the microlens is set to infinity in the former mode, and is set to a predetermined distance in the latter mode.
  • This technique requires a mechanism for changing the focal length of the microlens and a mechanism for controlling the same, and has a problem that a high-resolution image and depth information cannot be obtained simultaneously.
  • the depth information can be obtained with the light field camera, but there is a problem that the resolution of the image is lowered.
  • two imaging systems are required or a high-resolution image is required.
  • depth information cannot be obtained at the same time.
  • the present application provides an imaging technique capable of simultaneously acquiring a high-resolution image and depth information using an optical system and signal processing different from those of the conventional techniques.
  • a light field imaging device includes a plurality of unit blocks each including a first type pixel and a second type pixel having different spectral transmittance characteristics.
  • An image forming unit having at least a second image forming region having a longer second focal length. The distance between the light transmission part and the imaging part is equal to the first focal distance, and the distance between the imaging surface of the imaging element and the imaging part is equal to the second focal distance.
  • the embodiment of the present invention it is possible to pick up an image in a focused state on the image pickup surface of the image pickup device, and it is possible to separate image information by light incident on two types of light-transmitting regions. For this reason, it is possible to simultaneously obtain the depth information of the subject and the high resolution image from these image information.
  • FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus according to Embodiments 1 to 3.
  • FIG. 3 is a schematic diagram illustrating an arrangement relationship of an optical lens, a light transmitting plate, and an image sensor in Embodiment 1.
  • FIG. 3 is a front view of a light transmissive plate in Embodiment 1.
  • FIG. 2 is a diagram illustrating a basic color configuration of a color solid-state imaging element according to Embodiment 1. It is a figure which shows the spectral transmittance characteristic of the light transmission board in Embodiment 1.
  • FIG. FIG. 3 is an overview diagram illustrating an image formation state by the optical lens in the first embodiment.
  • FIG. 6 is an overview diagram illustrating an imaging state by an optical lens according to Embodiment 2.
  • FIG. 6 is a diagram illustrating a basic color configuration of a color solid-state imaging element according to Embodiment 2.
  • FIG. 10 is an overview diagram illustrating an imaging state by an optical lens according to Embodiment 3.
  • a plurality of unit blocks each including a first type pixel and a second type pixel having different spectral transmittance characteristics are arranged on an imaging surface
  • a light-transmitting portion disposed so as to face the imaging surface of the image pickup device, a first light-transmitting region composed of a plurality of partial regions spaced apart from each other, and the first light-transmitting portion
  • a light transmissive part having a second light transmissive region having a spectral transmittance characteristic different from that of the light transmissive region, a first imaging region having a first focal length, and a second longer than the first focal length.
  • an image forming unit having at least a second image forming region having a focal length of.
  • the distance between the light transmission part and the imaging part is equal to the first focal distance, and the distance between the imaging surface of the imaging element and the imaging part is equal to the second focal distance.
  • spectral transmittance characteristics of the first and second types of pixels are spectral transmittances of the first and second light-transmitting regions, respectively. It is the same as the rate characteristic.
  • the plurality of partial regions are surrounded by the second light-transmitting region.
  • the plurality of partial regions are arranged in a matrix at equal intervals.
  • each of the plurality of partial regions is circular.
  • a microlens is disposed on a light incident side of the first light transmitting region.
  • a first function representing a spectral transmittance characteristic of the first light-transmitting region, and the second function Both of the second functions representing the spectral transmittance characteristics of the light-transmitting region have a plurality of maximum values in the visible light wavelength range, and the wavelengths at which each function has a maximum value are different from each other.
  • spectral transmittance characteristics of the first light-transmitting region and spectral transmittance of the second light-transmitting region One of the characteristics does not have wavelength dependency.
  • one of the first light-transmitting region and the second light-transmitting region is transparent.
  • the second light-transmitting region is configured by a set of a plurality of color filters.
  • the plurality of color filters may be a combination of a magenta filter and a green filter, or a combination of a red filter, a green filter, and a blue filter. It is configured.
  • each unit block of the imaging element includes a third type pixel that detects light of different colors, and A fourth type of pixel is further included.
  • the first type of pixel is a pixel that detects light in a red wavelength range, and a green wavelength range
  • the second type of pixel is a single pixel that detects light in all wavelength ranges of red, green, and blue. It is configured.
  • the first imaging region is located in a peripheral portion of the imaging unit, and the second connection is performed.
  • the image region is located at the center of the image forming unit.
  • the light field imaging device may be arranged on the light incident side of the first imaging region in a certain aspect, and A first translucent member having the same spectral transmittance characteristic and a second translucent element disposed on the light incident side of the second imaging region and having the same spectral transmittance characteristic as the second translucent region The translucent member is further provided.
  • the light field imaging device is based on pixel signals respectively output from the first and second types of pixels.
  • the image processing unit further includes first image information generated by light incident on one light-transmitting region and second image information generated by light incident on the second light-transmitting region.
  • the image processing unit generates depth information of a subject based on the first image information.
  • each unit block of the imaging element includes a third type of pixel that detects light of different colors and a fourth type of pixel.
  • the image processing unit further includes a type of pixel, and the image processing unit generates a color image based on the pixel signal output from each of the third and fourth types of pixels and the second image information.
  • An image processing apparatus is incident on the first light-transmitting region based on a signal output from the light field imaging device according to any one of items (1) to (19).
  • the first image information by the light to be generated and the second image information by the light incident on the second light transmission region are generated.
  • FIG. 1 is a block diagram showing a schematic configuration of a light field imaging device (hereinafter simply referred to as “imaging device”) in the present embodiment.
  • the imaging apparatus according to the present embodiment is a digital electronic camera, and includes an imaging unit 100 and a signal processing unit 200 that generates a signal (image signal) indicating an image based on a signal generated by the imaging unit 100. ing.
  • the imaging unit 100 includes a color solid-state imaging device 2 (hereinafter simply referred to as “imaging device”) including a plurality of photosensitive cells arranged on the imaging surface, and wavelength dependency of transmittance (spectral transmittance characteristics).
  • a transparent plate 1 (light transmitting portion) having two different types of light transmitting regions, a circular optical lens 3 (image forming portion) for forming an image on the imaging surface 2a of the imaging device 2, and red
  • An outer cut filter 4 is provided.
  • the imaging unit 100 also generates a basic signal for driving the imaging device 2, receives an output signal from the imaging device 2, and sends the signal to the signal processing unit 200.
  • Signal generation / reception And an element driving unit 6 that drives the image sensor 2 based on the basic signal generated by the unit 5.
  • the image sensor 2 is typically a CCD or CMOS sensor, and is manufactured by a known semiconductor manufacturing technique.
  • the signal generation / reception unit 5 and the element driving unit 6 are composed of an LSI such as a CCD driver, for example
  • the signal processing unit 200 processes the signal output from the imaging unit 100 to generate a high-resolution image and depth information, and a memory 30 that stores various data used for generating the image signal. And an image interface (IF) unit 8 for transmitting the generated high-resolution image and depth information to the outside.
  • the image processing unit 7 can be suitably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image signal generation processing. Alternatively, the image processing unit 7 may be configured by dedicated hardware.
  • the memory 30 can be configured by a known semiconductor memory such as DRAM or SRAM. The memory 30 records the signal obtained from the imaging unit 100 and temporarily records the image data generated by the image processing unit 7 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the image interface unit 8.
  • the imaging apparatus may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present embodiment.
  • said structure is an example and in this embodiment, components other than the light transmission board 1, the image pick-up element 2, and the image process part 7 can be used combining a well-known element suitably.
  • incident light is imaged on the imaging surface 2a of the imaging device 2 through the optical lens 3, the infrared cut filter 4, and the light transmitting plate 1, and is subjected to photoelectric conversion.
  • the photoelectrically converted image signal is sent to the image processing unit 7 through the signal generation / reception unit 5.
  • This image signal is separated into a signal indicating an image by light incident on each region of the translucent plate 1 by the image processing unit 7, and a high resolution image and depth information are generated.
  • the generated information is transmitted to the outside via the image interface unit 8.
  • FIG. 2 is a diagram schematically showing an arrangement relationship of the optical lens 3, the translucent plate 1, and the imaging element 2 in the imaging unit 100.
  • components other than the optical lens 3, the translucent plate 1, and the image sensor 2 are omitted.
  • each element is drawn in a simplified manner, and the size, shape, and distance between the elements do not necessarily reflect actual ones.
  • the optical lens 3 may be a lens unit composed of a plurality of lens groups, but is illustrated as a single lens in FIG. 2 for simplicity.
  • the translucent plate 1 and the image sensor 2 are drawn separately, but the translucent plate 1 and the image sensor 2 may be configured integrally. In the following description, xy coordinates shown in the figure are used.
  • FIG. 3 is a front view of the translucent plate 1 in the present embodiment.
  • the translucent plate 1 has a translucent region 1a composed of a plurality of pinhole-shaped minute partial regions and a translucent region 1b composed of other portions, and the translucent regions 1a and 1b have spectral transmittance characteristics. Different from each other.
  • region 1a is circular, and is arrange
  • the total area ratio of the light transmitting region 1a and the light transmitting region 1b is about 1:10, but the present invention is not limited to such an example.
  • each partial region may be set to a diameter of about 10 ⁇ m to 20 ⁇ m, for example, and the arrangement interval thereof may be set to about 40 ⁇ m to 50 ⁇ m.
  • the position of each partial area is preferably the same as the center of any pixel.
  • the translucent area 1a has at least two mutually separated partial areas, as long as the light transmitted through these areas forms a plurality of parallax images of the same subject on the imaging surface 2a of the imaging device 2. Any configuration may be used.
  • region 1a is not restricted circularly.
  • FIG. 4 shows a part of a plurality of pixels arranged in a matrix on the imaging surface 2a of the imaging device 2.
  • four pixels are used as one unit block 60, and a plurality of unit blocks 60 are arranged on the imaging surface 2a.
  • One pixel includes a photosensitive cell and a transmission filter disposed on the light incident side opposite to the photosensitive cell.
  • a combination of one photosensitive cell and one transmission filter arranged to face the photosensitive cell is referred to as a “pixel”.
  • Each photosensitive cell typically includes a photodiode, and outputs an electrical signal (hereinafter referred to as “photoelectric conversion signal” or “pixel signal”) corresponding to the amount of received light by photoelectric conversion.
  • the arrangement of transmission filters in this embodiment is an arrangement based on 2 rows and 2 columns.
  • the red element R is arranged in the first row and the first column, the blue element B in the second row and the first column, the transparent element W1 in the first row and the second column, and the transparent element W2 in the second row and the second column. Yes.
  • the red element R and the blue element B are filters that mainly transmit light in the red and blue wavelength regions, respectively.
  • about 400 nm to about 500 nm are defined as a blue wavelength range
  • about 500 nm to about 600 nm are defined as a green wavelength range
  • about 600 nm to about 700 nm are defined as a red wavelength range.
  • This definition is merely for convenience, and it may be determined how to define which wavelength range as which color.
  • the transparent elements W1 and W2 have different spectral transmittance characteristics and are not completely transparent. However, the transparent elements W1 and W2 are designed to transmit at least part of light of any color component of red, green, and blue. Yes.
  • the transparent element W1 and the photosensitive cell opposed thereto correspond to the first type pixel
  • the transparent element W2 and the photosensitive cell opposed thereto correspond to the second type pixel.
  • the number of pixels and the pixel size of the image sensor 2 can be arbitrarily selected. However, if the size of each pixel is too small, the sensitivity is lowered and the accuracy of pattern matching described later is lowered. Therefore, it is necessary to select a pixel size that does not cause a problem in sensitivity.
  • the effective area size of the imaging surface is 6.4 mm ⁇ 4.8 mm, and the number of pixels is 1.5 million pixels.
  • the translucent regions 1a and 1b in the translucent plate 1 and the transparent elements W1 and W2 of the image sensor 2 can be made of, for example, a dielectric multilayer film.
  • a dielectric multilayer film By using the dielectric multilayer film, it is possible to create a transmission filter having a maximum or minimum transmittance for light of a desired wavelength.
  • the red element R and the blue element B of the image sensor 2 can be manufactured using a known pigment or the like.
  • FIG. 5 is a graph showing the spectral transmittance characteristics of the light-transmitting regions 1a and 1b of the light-transmitting plate 1 in this embodiment.
  • the horizontal axis represents the wavelength ⁇ (nm) and the vertical axis represents the transmittance Tr (%).
  • the spectral transmittance characteristic of the light transmitting region 1a is approximately the square characteristic of the trigonometric function Sin
  • the spectral transmittance characteristic of the light transmitting region 1b is approximately the trigonometric function Cos. It has a square characteristic. That is, both waveforms are the same, but the phases are different by 90 degrees.
  • the spectral transmittance characteristic of the transparent element W1 of the imaging device 2 is designed to be equal to the characteristic of the light-transmitting region 1a
  • the spectral transmittance characteristic of the transparent element W2 is designed to be equal to the characteristic of the light-transmitting region 1b.
  • the translucent plate 1 can be manufactured as follows, for example. First, a plurality of thin film laminated structures (dielectric multilayer films) made of a plurality of dielectric materials having different refractive indexes are formed on a first transparent substrate, and the first light transmitting region 1a is produced. Further, a dielectric multilayer film having a spectral transmittance characteristic different from the above is formed on the second transparent substrate at a position other than the position corresponding to the first light-transmitting region 1a, and the second light-transmitting region 1b is produced. The translucent plate 1 can be produced by joining these two produced structures.
  • the transparent elements W1 and W2 of the image pickup device 2 can be manufactured by forming, for example, a thin film of about 10 layers made of a dielectric material by patterning. By changing the film thickness of a part of the thin film between the transparent element W1 and the transparent element W2, it is possible to realize the assumed spectral characteristics.
  • FIG. 6 is an overview diagram showing the state of image formation by the optical lens 3.
  • the optical lens 3 is a long focal lens, and both the light transmitting plate 1 and the imaging surface 2 a of the imaging device 2 are included in the focal range of the optical lens 3. More specifically, the optical lens 3 has a partially different curvature, and light passing through the peripheral portion (first imaging region) of the optical lens 3 forms an image on the translucent plate 1, The light that has passed through the inner portion (second imaging region) forms an image on the imaging surface 2 a of the imaging device 2.
  • the focal length f1 of the first imaging region is equal to the distance between the optical lens 3 and the translucent plate 1
  • the focal length f2 of the second imaging region is the imaging of the optical lens 3 and the imaging device 2.
  • the optical lens 3 is a single lens, but has two or more focal points.
  • the fact that a certain distance is equal to one focal length is not limited to the case where they are exactly the same, but also includes the case where the distance is included within 15% before and after the focal distance.
  • the optical lens 3 is designed so that the focal length of the peripheral portion is short and the focal length of the central portion is long.
  • the optical lens 3 is not limited to this example, and is an optical system having two or more focal lengths. I just need it.
  • a broken line represents a light beam focused on the translucent plate 1
  • a solid line represents a light beam focused on the imaging surface 2 a of the rear imaging device 2.
  • the former light beam forms a so-called pinhole image that has passed through the translucent region 1a.
  • This pinhole image is an image obtained by simply enlarging an image captured in the translucent area 1a.
  • the latter light beam forms an image with the highest resolution.
  • each pixel (photosensitive cell) of the image sensor 2 can acquire a pinhole image and a high resolution image at the same time.
  • Rs is a signal that is transmitted through the R element of the image sensor 2 and photoelectrically converted
  • Bs is a signal that is transmitted through the B element and is photoelectrically converted
  • light is photoelectrically converted through the W1 element.
  • the signal by W1s and the signal by the light photoelectrically converted through the W2 element are represented by W2s.
  • the red component and the blue component are photoelectrically converted by the image sensor 2 through the light transmitting region 1a or 1b of the light transmitting plate 1, the lens 3, the infrared cut filter 4, the red element R, or the blue element B.
  • a signal Rs and a signal Bs are generated.
  • the white component (all components of red, green, and blue) of the subject is photoelectrically converted through the W1 element and the W2 element of the image sensor 2, and signals W1s and W2s are generated.
  • the amount of the signals W1s and W2s varies depending on the difference in the amount of light incident on the light transmitting regions 1a and 1b.
  • the W1 element and the W2 element have different spectral transmittance characteristics and are equal to the characteristics of the light transmitting regions 1a and 1b, respectively. Assuming that the total area ratio of the light transmitting regions 1a and 1b is 1: 1, the W1 element transmits more light transmitted through the light transmitting region 1a than the light transmitted through the light transmitting region 1b, and the W2 element transmits light. More light is transmitted through the translucent region 1b than through the light transmitted through the region 1a.
  • the photoelectric conversion signals W1s and W2s in the present embodiment will be described.
  • a signal W1as by light that is photoelectrically converted through the light-transmitting regions 1a and W1 elements of the light-transmitting plate 1 and a signal W1bs by light that is photoelectrically converted by being transmitted through the light-transmitting regions 1b and W1 elements will be described.
  • the transmittances of the light transmitting regions 1a and W1 are approximately proportional to the square of the trigonometric function Sin, and the transmittances of the light transmitting regions 1b and W2 are approximately equal to the square of the trigonometric function Cos. Proportional.
  • the photoelectric conversion efficiency including the proportionality coefficient is k, and the total area ratio of the light transmitting regions 1a and 1b is 1: S.
  • achromatic light light having no wavelength dependency
  • the signal W1as is proportional to the integral of the transmissivity of the translucent region 1a and the W1 element, it is expressed by the following formula 1.
  • the signal W1bs is proportional to the integral of the transmissivity of the translucent region 1b and the W1 element, and therefore is represented by the following Expression 2.
  • Expressions 3 and 4 are further transformed into the following expressions 5 and 6, respectively.
  • the signal W2as is proportional to the integral of the transmissivity of the translucent region 1a and the W2 element, and is expressed by the following Expression 7.
  • the signal W2bs is proportional to the integral of the transmissivity of the translucent region 1b and the W2 element, and is expressed by the following Expression 8.
  • equation 11 is obtained by multiplying both sides by the inverse matrix of the 2 ⁇ 2 matrix on the right side of equation 10.
  • the image processing unit 7 obtains a signal component of light incident on the light transmitting regions 1a and 1b for each unit block from the pixel signals W1s and W2s by the calculation shown in Expression 11. Thereby, an image formed by light incident on each region can be generated.
  • depth information can be calculated using a pinhole image obtained through the translucent region 1a. Specifically, since the geometrical positional relationship between the optical lens 3, the pinhole group (translucent region 1a), and the imaging device 2 is known in advance, the positional relationship between them, and a certain pinhole image and its periphery Depth information is calculated based on the amount of parallax with the pinhole image.
  • the pinhole image is an image based on an image formed on the imaging surface 2a by light transmitted through each partial region of the translucent region 1a. It can be said that the image represented by the signal IMG (a) is a set of a plurality of pinhole images. These pinhole images are images representing the same subject, but have parallax due to the difference in position of the partial areas. Depth information can be calculated by detecting the parallax. For example, a common partial image exists in a pinhole image B adjacent to a certain pinhole image A.
  • the detected partial image is separated from the center by a distance XA in the pinhole image A and separated from the center by a distance XB in the pinhole image B.
  • XA ⁇ XB represents the amount of parallax. Since the amount of parallax varies depending on the depth of the subject, the depth can be calculated from the amount of parallax if the relationship between the amount of parallax and the depth is obtained theoretically or experimentally in advance.
  • the IMG (b) as a result of the arithmetic processing is used as a high resolution image.
  • the image based on the signal IMG (b) does not include the light information transmitted through the light transmitting region 1a, the information is lost. Therefore, in order to further improve the image quality, part or all of the information of the signal IMG (a) may be added to the information of the IMG (b). That is, a high-resolution image may be generated using k ′ as an integer between 0 and 1 and using the signal IMG (b) + k′IMG (a) instead of the signal IMG (b).
  • the image processing unit 7 generates an RGB signal by performing matrix calculation processing shown in the following Expression 12.
  • the R signal, the G signal, and the B signal to be generated are represented by cIMG (r), cIMG (g), and cIMG (b), respectively, and the matrix coefficients are represented by M11 to M33.
  • Matrix coefficients M11 to M33 are known values obtained in advance by simulation.
  • the imaging apparatus includes the long-focus optical lens 3, the translucent plate 1 including two regions having different spectral transmittance characteristics, one of which is a group of pinholes, and An image pickup device 2 including two types of transparent elements having the same optical characteristics as the translucent plate 1 is used.
  • depth information can be calculated and a high-resolution image can be obtained. Furthermore, it has an excellent effect that a high-resolution image can be colored.
  • the red element R and the blue element B are used as the color elements in addition to the transparent elements W1 and W2.
  • the present invention is not limited to these, and any color element may be used as long as the colors are different. I do not care.
  • a green element G that mainly transmits green light
  • a yellow element Ye that mainly transmits red light and green light
  • a cyan element Cy that mainly transmits green light and blue light
  • Any of the magenta element Mg that mainly transmits red light and blue light may be used.
  • the image processing unit 7 does not need to perform color image generation processing, and the red element R and the blue element B do not need to be provided in the image sensor 2.
  • the arrangement of each pixel is not limited to the arrangement shown in FIG.
  • the spectral transmittance characteristics of the light-transmitting regions 1a and 1b of the light-transmitting plate 1 and the transparent elements W1 and W2 of the image pickup device 2 are expressed by Expression 10 even though they are not characteristics approximate to the trigonometric function shown in FIG.
  • the spectral transmittance characteristic can be obtained as an inverse matrix of the matrix.
  • the light transmitted through the first light-transmitting region 1a and the light transmitted through the second light-transmitting region 1b are superimposed on the light-sensitive cell facing the element W1 and the light-sensitive cell facing the element W2. There is no problem if the received light is received and the amounts of received light are different from each other.
  • one of the spectral transmittance characteristics of the light transmitting regions 1a and 1b may not have wavelength dependency.
  • one of the translucent areas 1a and 1b may be transparent.
  • transparent refers to a characteristic having a transmittance of 85% or more for any of the color components of red, green, and blue.
  • a microlens may be arranged at the position of the light transmitting region 1 a of the light transmitting plate 1. Even when a microlens is disposed in the light transmitting region 1a, the same effect as in the present embodiment can be obtained.
  • the micro lens is arrange
  • the entire light-transmitting region 1b of the light-transmitting plate 1 is not necessarily required to have a uniform spectral transmittance characteristic, and may have a spectral transmittance characteristic that varies depending on the portion.
  • the translucent region 1b may be composed of a set of a plurality of color filters.
  • the plurality of color filters a combination of a magenta filter and a green filter, or a combination of a red filter, a green filter, and a blue filter can be used. With such a configuration, the entire translucent region 1b can have the same characteristics as in the present embodiment.
  • FIG. 7 is a diagram showing a state of image formation by the optical lens 3 in the present embodiment.
  • the optical lens 3 has different focal lengths in the peripheral portion 3a and the central portion 3b.
  • the lens peripheral portion 3a has a relatively short focal length
  • the lens central portion 3b has a relatively long focal length. Due to the characteristics, the optical lens 3 and the translucent lens 3a are arranged so that the subject is focused on the translucent plate 1 for the lens peripheral portion 3a and the subject is focused on the imaging surface 2a of the image sensor 2 for the lens central portion 3b.
  • a plate 1 and an image sensor 2 are arranged.
  • FIG. 8 is a diagram showing a basic color configuration of the image sensor 2 in the present embodiment.
  • the color configuration is basically 2 rows and 2 columns, the first row and the first column are red elements (R), the second row and the first column are blue elements (B), the first row and the second column are green elements (G), and the second row
  • the second column is a transparent element (W2).
  • the transparent element W2 is the same as the transparent element W2 in the first embodiment.
  • the spectral transmittance characteristics of the B element are the same as the characteristics at 400 to 500 nm of the light transmitting region 1a shown in FIG.
  • the spectral transmittance characteristics of the G element are the same as the characteristics of the light transmitting region 1a shown in FIG.
  • the spectral transmittance characteristics of the R element are the same as the characteristics at 600 to 700 nm of the light transmitting region 1a shown in FIG. That is, the result of adding the spectral transmittance characteristics of the R, G, and B elements is the same as the characteristics of the light-transmitting region 1a and the transparent element W1 in the first embodiment.
  • the translucent plate 1 is the same as the translucent plate 1 in the first embodiment.
  • the R element, the G element, the B element, and the three photosensitive cells that face the R element, the G element, and the B element correspond to the first type of pixel, and the W2 element and the photosensitive cell that opposes the second type of pixel. It corresponds to a pixel.
  • the imaging device 2 has the W1 element, and the signal is used.
  • the result of adding the signals of the R, G, and B elements instead of the W1 element is handled as the W1s signal. .
  • the operations related to the W1 element and the W2 element are exactly the same as those in the first embodiment.
  • the image signal IMG (a) obtained by transmitting through the translucent region 1a and the image signal IMG (b) obtained by transmitting through the translucent region 1b are expressed by Expression 11.
  • the optical lens 3 having different focal lengths in the peripheral portion 3a and the central portion 3b is used, the lens peripheral portion 3a is on the translucent plate 1, and the lens central portion 3b is determined.
  • the optical lens 3, the translucent plate 1, and the image sensor 2 are arranged so as to be focused on the imaging surface 2 a of the image sensor 2.
  • the sum of the spectral transmittance characteristics of the R element, G element, and B element of the image sensor 2 the same as the characteristics of the light transmitting region 1a shown in FIG. be able to.
  • the basic color configuration of the image sensor 2 includes the R element, the G element, the B element, and the W2 element.
  • FIG. 8 The configuration shown in FIG. Further, the arrangement shown in FIG. 8 is not unique, and there is no problem even if the arrangement is changed. Further, the spectral transmittance characteristics of the light transmitting plate 1 and the image sensor 2 are not limited to the above-described spectral transmittance characteristics as long as they are spectral transmittance characteristics in which an inverse matrix of the matrix is obtained in the matrix calculation shown in Equation 10. Absent.
  • the calculation result becomes negative in the calculation shown in Expression 11, the calculation result can be prevented from becoming negative by further multiplying the matrix that changes the ratio of the matrix elements. Also in this embodiment, the same effect can be obtained even if a microlens is arranged at the position instead of the light transmitting region 1a of the light transmitting plate 1.
  • the same spectral transmission as that of the translucent region 1a of the translucent plate 1 disposed in front of the peripheral portion 3a of the optical lens 3 is achieved.
  • a translucent member 1aa having a transmissivity characteristic and a translucent member 1bb having the same spectral transmissivity characteristic as the translucent region 1b of the translucent plate 1 disposed in front of the central portion 3b of the optical lens 3 are disposed. Is done. With such a configuration, it is possible to improve the calculation accuracy of depth information and the image quality of a high-resolution image.
  • the image processing unit 7 incorporated in the imaging apparatus performs image processing.
  • another apparatus independent of the imaging apparatus may execute the image processing.
  • a signal that is acquired by the imaging device having the imaging unit 100 in each of the above embodiments is input to another device (image processing device), and a program that defines the signal calculation processing is incorporated in the image processing device.
  • image processing device image processing device
  • a program that defines the signal calculation processing is incorporated in the image processing device.
  • the imaging apparatus may not include an image processing unit.
  • the light field imaging device is effective for all cameras using a solid-state imaging device.
  • it can be used for consumer cameras such as digital cameras and digital video cameras, and industrial solid-state surveillance cameras.

Abstract

 撮像装置は、分光透過率特性が互いに異なる第1の種類の画素および第2の種類の画素を含む撮像素子2と、撮像素子2の撮像面に対向するように配置された光透過部1と、第1の焦点距離を有する第1の結像領域、および前記第1の焦点距離よりも長い第2の焦点距離を有する第2の結像領域を少なくとも有する結像部3とを備えている。光透過部1は、複数の互いに離間した部分領域から構成される第1の透光領域1a、および第1の透光領域1aとは分光透過率特性が異なる第2の透光領域1bを有している。光透過部1と結像部3との距離は、第1の焦点距離f1に等しく、撮像素子2の撮像面と結像部3との距離は、第2の焦点距離f2に等しい。

Description

ライトフィールド撮像装置、および画像処理装置
 本願は1つの光学系と1つの撮像素子とを用いて複数視点画像を生成する単眼の3次元撮像技術に関する。
 近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の進歩により、撮像素子における画素構造の微細化が進んでいる。その結果、撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加している。さらに、撮像によって得られる画像の質も飛躍的に向上している。一方、表示装置に関しては、薄型の液晶やプラズマによるディスプレイにより、場所を取らず、高解像度で高コントラストの表示が可能になり、高い性能が実現されている。このような映像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネを必要とするが、高画質の3次元表示装置が開発され始めている。
 3次元撮像技術に関して、単純な構成をもつ代表的な方式として、2つのカメラから構成される撮像系を用いて、右目用の画像および左目用の画像をそれぞれ取得するという方式がある。このような、いわゆる2眼撮像方式では、カメラを2つ用いるため、撮像装置が大型になり、コストも高くなり得る。そこで、1つのカメラを用いて視差を有する複数の画像(以下、「複数視点画像」と呼ぶことがある。)を取得する方式(単眼撮像方式)が研究されている。
 例えば、特許文献1、2には、透過軸の方向が互いに直交する2枚の偏光板と回転する偏光フィルタとを用いて複数視点画像を取得する方式が開示されている。また、特許文献3~5には、複数の色フィルタが設けられた絞り(光束制限板)を用いて複数視点画像を取得する方式が開示されている。
 上記の特許文献1~5に開示された方式は、単眼のカメラによって主に複数視点画像を生成する際に利用される。一方、複数のマイクロレンズを備えた単眼のカメラを用いて奥行き情報を取得し、その情報に基づいて、取得後の画像の焦点位置を自由に変えることができる技術も存在する。そのような技術は、ライトフィールド・フォトグラフィーと呼ばれ、それを用いた単眼カメラは、ライトフィールドカメラと呼ばれる。ライトフィールドカメラでは、撮像素子上に複数のマイクロレンズが配置される。各マイクロレンズは、複数の画素を覆うように配置される。撮像後、取得した画像情報から、入射光の方向に関する情報を算出することにより、被写体の奥行きを推定できる。そのようなカメラは、例えば非特許文献1に開示されている。
 ライトフィールドカメラでは、奥行き情報を算出することができるが、マイクロレンズの数によって解像度が決まるため、撮像素子の画素数から決まる解像度よりも解像度が低下するという課題がある。その課題に対して、特許文献6には、2つの撮像系を用いて解像度を向上させる技術が開示されている。この技術では、入射光を2分割し、分割したそれぞれの入射光を、空間的に1/2ピッチずつずれて配列されたマイクロレンズ群を有する撮像系で撮像し、その後取得された画像を合成することによって解像度を向上させる。しかしながら、この技術では、撮像系が2つ必要であり、サイズおよびコストの面で課題がある。
 上記の課題に対して、1つの撮像系を用いて通常撮像モードとライトフィールド・フォトグラフィーに基づくモードとを切り換える技術が特許文献7に開示されている。この技術によれば、印加電圧に応じて焦点距離が変化するマイクロレンズが用いられ、マイクロレンズの焦点距離が、前者のモードでは無限大に設定され、後者のモードでは、所定の距離に設定される。このような機構により、解像度の高い画像と奥行き情報とを得ることができる。しかしながら、この技術では、マイクロレンズの焦点距離を変化させる機構と、それを制御する機構とが必要である上、高解像度画像と奥行き情報とが同時には得られないという課題がある。
特開昭62-291292号公報 特開昭62-217790号公報 特開2002-344999号公報 特開2009-276294号公報 特開2003-134533号公報 特開平11-98532号公報 特開2008-167395号公報
Ren Ng,et al,"Light Field Photography with a Hand-held Plenoptic Camera", Stanford Tech Report CTSR 2005-02
 ライトフィールドカメラでは、奥行き情報を得ることはできるが、画像の解像度が低下するという課題がある。その課題を解決するためには、上記の特許文献6、7の技術のように光学系の改良が必要であるが、仮に改良したとしても、撮像系が2つ必要であったり、高解像度画像と奥行き情報とが同時に得られないという課題がある。
 本願は、上記の課題に鑑み、従来技術とは異なる光学系および信号処理を用いて、高解像度画像と奥行き情報とを同時に取得できる撮像技術を提供する。
 上記課題を解決するために、本発明の一態様によるライトフィールド撮像装置は、各々が、分光透過率特性が互いに異なる第1の種類の画素および第2の種類の画素を含む、複数の単位ブロックが撮像面に配列された撮像素子と、前記撮像素子の撮像面に対向するように配置された光透過部であって、複数の互いに離間した部分領域から構成される第1の透光領域、および前記第1の透光領域とは分光透過率特性が異なる第2の透光領域を有する光透過部と、第1の焦点距離を有する第1の結像領域、および前記第1の焦点距離よりも長い第2の焦点距離を有する第2の結像領域を少なくとも有する結像部とを備えている。前記光透過部と前記結像部との距離は、前記第1の焦点距離に等しく、前記撮像素子の撮像面と前記結像部との距離は、前記第2の焦点距離に等しい。
 本発明の実施形態によれば、撮像素子の撮像面で焦点が合った状態で撮像でき、かつ、2種類の透光領域をそれぞれ入射した光による画像情報を分離できる。このため、これらの画像情報から、被写体の奥行き情報と、高解像度画像とを同時に得ることが可能となる。
実施形態1~3における撮像装置の概略構成を示す図である。 実施形態1における光学レンズ、透光板、および撮像素子の配置関係を示す模式図である。 実施形態1における透光板の正面図である。 実施形態1におけるカラー固体撮像素子の基本色構成を示す図である。 実施形態1における透光板の分光透過率特性を示す図である。 実施形態1における光学レンズによる結像状況を示した概観図である。 実施形態2における光学レンズによる結像状況を示した概観図である。 実施形態2におけるカラー固体撮像素子の基本色構成を示す図である。 実施形態3における光学レンズによる結像状況を示した概観図である。
 本発明の例示的な実施形態の概要は以下のとおりである。
 (1)本発明の一態様によるライトフィールド撮像装置は、各々が、分光透過率特性が互いに異なる第1の種類の画素および第2の種類の画素を含む、複数の単位ブロックが撮像面に配列された撮像素子と、前記撮像素子の撮像面に対向するように配置された光透過部であって、複数の互いに離間した部分領域から構成される第1の透光領域、および前記第1の透光領域とは分光透過率特性が異なる第2の透光領域を有する光透過部と、第1の焦点距離を有する第1の結像領域、および前記第1の焦点距離よりも長い第2の焦点距離を有する第2の結像領域を少なくとも有する結像部とを備える。前記光透過部と前記結像部との距離は、前記第1の焦点距離に等しく、前記撮像素子の撮像面と前記結像部との距離は、前記第2の焦点距離に等しい。
 (2)項目(1)に記載のライトフィールド撮像装置のある態様において、前記第1および第2の種類の画素の分光透過率特性は、それぞれ前記第1および第2の透光領域の分光透過率特性と同一である。
 (3)項目(1)または(2)に記載のライトフィールド撮像装置のある態様において、前記複数の部分領域は、前記第2の透光領域に囲まれている。
 (4)項目(1)から(3)のいずれかに記載のライトフィールド撮像装置のある態様において、前記複数の部分領域は、等間隔で行列状に配列されている。
 (5)項目(1)から(4)のいずれかに記載のライトフィールド撮像装置のある態様において、前記複数の部分領域の各々の形状は円形である。
 (6)項目(1)から(5)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の透光領域の光入射側には、マイクロレンズが配置されている。
 (7)項目(1)から(6)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の透光領域の分光透過率特性を表す第1の関数、および前記第2の透光領域の分光透過率特性を表す第2の関数は、ともに可視光の波長域において複数の極大値を有し、各関数が極大値をとる波長は、互いに異なっている。
 (8)項目(1)から(7)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の透光領域の分光透過率特性を表す第1の関数、および前記第2の透光領域の分光透過率特性を表す第2の関数の少なくとも一方は、赤、緑、青の各波長域において極大値を有する。
 (9)項目(1)から(8)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の透光領域の分光透過率特性および前記第2の透光領域の分光透過率特性の一方は、波長依存性を有していない。
 (10)項目(9)に記載のライトフィールド撮像装置のある態様において、前記第1の透光領域および前記第2の透光領域の一方は、透明である。
 (11)項目(1)から(8)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第2の透光領域は、複数の色フィルタの集合から構成されている。
 (12)項目(11)に記載のライトフィールド撮像装置のある態様において、前記複数の色フィルタは、マゼンタフィルタおよび緑フィルタの組み合わせ、または赤フィルタ、緑フィルタ、および青フィルタの組み合わせのいずれかから構成されている。
 (13)項目(1)から(12)のいずれかに記載のライトフィールド撮像装置のある態様において、前記撮像素子の各単位ブロックは、互いに異なる色の光を検知する第3の種類の画素および第4の種類の画素をさらに含む。
 (14)項目(1)から(12)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の種類の画素は、赤の波長域の光を検知する画素、緑の波長域の光を検知する画素、および青の波長域の光を検知する画素から構成され、前記第2の種類の画素は、赤、緑、青の全ての波長域の光を検知する1つの画素から構成されている。
 (15)項目(1)から(14)のいずれかに記載のライトフィールド撮像装置のある態様において、前記第1の結像領域は前記結像部の周辺部に位置し、前記第2の結像領域は前記結像部の中央部に位置する。
 (16)項目(1)から(15)のいずれかに記載のライトフィールド撮像装置は、ある態様において、前記第1の結像領域の光入射側に配置され、前記第1の透光領域と同一の分光透過率特性を有する第1の透光性部材と、前記第2の結像領域の光入射側に配置され、前記第2の透光領域と同一の分光透過率特性を有する第2の透光性部材とをさらに備える。
 (17)項目(1)から(16)のいずれかに記載のライトフィールド撮像装置は、ある態様において、前記第1および第2の種類の画素からそれぞれ出力された画素信号に基づいて、前記第1の透光領域に入射する光による第1の画像情報、および前記第2の透光領域に入射する光による第2の画像情報を生成する画像処理部をさらに備える。
 (18)項目(17)に記載のライトフィールド撮像装置のある態様において、前記画像処理部は、前記第1の画像情報に基づいて、被写体の奥行き情報を生成する。
 (19)項目(17)または(18)に記載のライトフィールド撮像装置のある態様において、前記撮像素子の各単位ブロックは、互いに異なる色の光を検知する第3の種類の画素および第4の種類の画素をさらに含み、前記画像処理部は、前記第3および第4の種類の画素からそれぞれ出力された画素信号と、前記第2の画像情報とに基づいて、カラー画像を生成する。
 (20)本発明の一態様による画像処理装置は、項目(1)から(19)のいずれかに記載のライトフィールド撮像装置から出力された信号に基づいて、前記第1の透光領域に入射する光による第1の画像情報と、前記第2の透光領域に入射する光による第2の画像情報とを生成する。
 以下、図面を参照しながら本発明のより具体的な実施形態を説明する。以下の説明において、複数の図にわたって共通または対応する要素には同一の符号を付している。以下の説明において、画像を示す信号または情報を単に「画像」と称する場合がある。
 (実施形態1)
 まず、本発明の第1の実施形態による撮像装置を説明する。図1は、本実施形態におけるライトフィールド撮像装置(以下、単に「撮像装置」と呼ぶ。)の概略構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、撮像部100で生成された信号に基づいて画像を示す信号(画像信号)を生成する信号処理部200とを備えている。
 撮像部100は、撮像面上に配列された複数の光感知セルを備えるカラー固体撮像素子2(以下、単に「撮像素子」と呼ぶ。)と、透過率の波長依存性(分光透過率特性)が互いに異なる2種類の透光領域を有する透光板1(光透過部)と、撮像素子2の撮像面2a上に像を形成するための円形の光学レンズ3(結像部)と、赤外カットフィルタ4とを備えている。撮像部100はまた、撮像素子2を駆動するための基本信号を発生するとともに撮像素子2からの出力信号を受信して信号処理部200に送出する信号発生/受信部5と、信号発生/受信部5によって生成された基本信号に基づいて撮像素子2を駆動する素子駆動部6とを備えている。撮像素子2は、典型的にはCCDまたはCMOSセンサであり、公知の半導体製造技術によって製造される。信号発生/受信部5および素子駆動部6は、例えばCCDドライバなどのLSIから構成されている。
 信号処理部200は、撮像部100から出力された信号を処理して高解像度画像と奥行き情報とを生成する画像処理部7と、画像信号の生成に用いられる各種のデータを格納するメモリ30と、生成した高解像度画像および奥行き情報を外部に送出する画像インターフェース(IF)部8とを備えている。画像処理部7は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。あるいは、画像処理部7は、専用のハードウェアから構成されていてもよい。メモリ30は、DRAMやSRAMなどの公知の半導体メモリによって構成され得る。メモリ30は、撮像部100から得られた信号を記録するとともに、画像処理部7によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、画像インターフェース部8を介して不図示の記録媒体や表示部などに送出される。
 なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本実施形態の理解に特に必要でないため省略する。また、上記の構成は一例であり、本実施形態において、透光板1、撮像素子2、画像処理部7以外の構成要素は、公知の要素を適宜組み合わせて用いることができる。
 以上の構成により、入射光は、光学レンズ3、赤外カットフィルタ4、透光板1を通して撮像素子2の撮像面2aで結像され、光電変換される。光電変換された画像信号は、信号発生/受信部5を通して画像処理部7に送られる。この画像信号は、画像処理部7によって透光板1の各領域に入射した光による画像を示す信号に分離され、高解像度画像と奥行き情報とが生成される。生成されたこれらの情報は、画像インターフェース部8を介して外部に送出される。
 図2は、撮像部100における光学レンズ3、透光板1、および撮像素子2の配置関係を模式的に示す図である。図2では、光学レンズ3、透光板1、および撮像素子2以外の構成要素は省略されている。また、図2では、各要素は単純化して描かれており、これらの要素のサイズ、形状、および要素間の距離は、必ずしも実際のものを反映していない。例えば、光学レンズ3は、複数のレンズ群から構成されたレンズユニットであり得るが、図2では簡単のため、単一のレンズとして描かれている。図2では透光板1と撮像素子2とは分離して描かれているが、透光板1と撮像素子2とは一体となって構成されていてもよい。以下の説明では、図中に示すxy座標を用いる。
 図3は、本実施形態における透光板1の正面図である。透光板1は、複数のピンホール形状の微小な部分領域からなる透光領域1aと、その他の部分からなる透光領域1bとを有し、透光領域1a、1bは分光透過率特性が互いに異なる。本実施形態では、透光領域1aの各部分領域は円形であり、x方向およびy方向のそれぞれについて、一定の間隔で配列されている。本実施形態では、透光領域1aと透光領域1bとの総面積比は1:10程度であるが、本発明はこのような例に限られるものではない。
 各部分領域のサイズは、例えば直径約10μm~20μmに設定され、それらの配置間隔は、約40μm~50μmに設定され得る。また、各部分領域の位置は、透光板1を撮像素子2の撮像面2aに射影した場合、各部分領域の中心が、いずれかの画素の中心と一致していることが好ましい。なお、透光領域1aの部分領域の数、形状、大きさ、配置間隔は、この例に限られるものではない。透光領域1aは、少なくとも2つの互いに離間した部分領域を有し、それらの領域を透過した光が、撮像素子2の撮像面2a上に同一被写体の、視差を有する複数の像を形成する限り、どのように構成されていてもよい。そのような複数の像が形成されていれば、後述するように、パターンマッチングを行い、それぞれの対応点がそれぞれの画像の中心からどの程度ずれているかを解析することにより、奥行きを算出することができる。また、透光領域1aの各部分領域の形状は円形に限られない。
 図4は、撮像素子2の撮像面2aに行列状に配列された複数の画素の一部を示している。本実施形態では、4つの画素を1つの単位ブロック60とし、複数の単位ブロック60が撮像面2aに配列されている。1つの画素は、光感知セルと、それに対向して光入射側に配置された透過フィルタとを含んでいる。このように、本明細書では、1つの光感知セルおよびそれに対向して配置された1つの透過フィルタの組み合わせを「画素」と呼ぶ。各光感知セルは、典型的にはフォトダイオードを含み、光電変換によって各々の受光量に応じた電気信号(以下、「光電変換信号」または「画素信号」と呼ぶ。)を出力する。
 図4に示すように、本実施形態における透過フィルタの配列は、2行2列を基本とする配列である。1行1列目には赤要素Rが、2行1列目には青要素Bが、1行2列目には透明要素W1が、2行2列目には透明要素W2が配置されている。
 ここで、赤要素Rおよび青要素Bは、それぞれ赤および青の波長域の光を主に透過させるフィルタである。本明細書では、約400nm~約500nmを青の波長域、約500nm~約600nmを緑の波長域、約600nm~約700nmを赤の波長域と定義する。なお、この定義はあくまで便宜上のものであり、どの波長域をどの色と定義するかはどのように定めてもよい。
 透明要素W1、W2は、分光透過率特性が互いに異なっており、いずれも完全透明ではないものの、赤、緑、青のいずれの色成分の光も、少なくとも一部は透過するように設計されている。本実施形態では、透明要素W1およびそれに対向する光感知セルが第1の種類の画素に相当し、透明要素W2およびそれに対向する光感知セルが第2の種類の画素に相当する。
 撮像素子2の画素数および画素サイズは、任意に選択することができる。ただし、個々の画素のサイズが小さすぎると、感度が低下し、後述するパターンマッチングの精度が低下するため、感度上問題のない画素サイズを選択する必要がある。本実施形態では、一例として、撮像面の有効エリアのサイズは6.4mm×4.8mm、画素数は150万画素とする。
 透光板1における透光領域1a、1b、および撮像素子2の透明要素W1、W2は、例えば誘電体多層膜によって作製され得る。誘電体多層膜を用いることにより、所望の波長の光について透過率が極大または極小となる透過フィルタを作成することができる。また、撮像素子2の赤要素Rおよび青要素Bは、公知の顔料等を用いて作製され得る。
 図5は、本実施形態における透光板1の透光領域1a、1bの分光透過率特性を表すグラフである。図中において、横軸は波長λ(nm)を表し、縦軸は透過率Tr(%)を表している。図5に示すように、透光領域1aの分光透過率特性は、近似的に三角関数Sinの2乗の特性であり、透光領域1bの分光透過率特性は、近似的に三角関数Cosの2乗の特性になっている。すなわち、両者の波形は同様であるが、位相は90度異なっている。本実施形態では、撮像素子2の透明要素W1の分光透過率特性は透光領域1aの特性と等しく、透明要素W2の分光透過率特性は透光領域1bの特性と等しくなるように設計されている。このように、本実施形態における透光領域1a、1b、透明要素W1、W2の分光透過率特性を示す関数は、いずれも赤、緑、青の各波長域において、極大値をもつ。
 透光板1は、例えば以下のようにして作製され得る。まず、第1の透明基板上に屈折率の異なる複数の誘電体材料からなる薄膜の積層構造(誘電体多層膜)を複数形成し、第1の透光領域1aを作製する。また、第2の透明基板上に、上記とは異なる分光透過率特性を有する誘電体多層膜を、第1の透光領域1aに対応する位置以外の位置に形成し、第2の透光領域1bを作製する。作製したこれらの2つの構造物を接合することにより、透光板1を作製することができる。
 撮像素子2の透明要素W1、W2は、例えば誘電体材料からなる10層程度の薄膜をパターニングによって形成することにより作製され得る。透明要素W1と透明要素W2とで、一部の薄膜の膜厚を変えることにより、想定する分光特性を実現することが可能である。
 図6は、光学レンズ3による結像の状況を示した概観図である。本実施形態では、光学レンズ3は長焦点レンズであり、透光板1および撮像素子2の撮像面2aの両方が光学レンズ3の焦点範囲内に含まれる。より具体的には、光学レンズ3は、部分的に曲率が異なっており、光学レンズ3の周辺部(第1の結像領域)を通った光は透光板1上に結像し、それよりも内側の部分(第2の結像領域)を通った光は撮像素子2の撮像面2a上に結像する。言い換えれば、第1の結像領域の焦点距離f1は、光学レンズ3と透光板1との距離に等しく、第2の結像領域の焦点距離f2は、光学レンズ3と撮像素子2の撮像面2aとの距離に等しい。このように、本実施形態における光学レンズ3は、1つのレンズでありながら、2以上の焦点を有している。なお、本明細書では、ある距離が1つの焦点距離に等しいとは、両者が厳密に一致する場合に限らず、当該距離が当該焦点距離の前後15%以内に含まれる場合も含むものとする。本実施形態では、光学レンズ3は、周辺部の焦点距離が短く、中央部の焦点距離が長くなるように設計されているが、この例に限らず、2以上の焦点距離を有する光学系であればよい。
 図6において、破線は透光板1上で焦点が合った光線を表しており、実線は後方の撮像素子2の撮像面2a上で焦点が合った光線を表している。前者の光線は、透光領域1aを透過した、謂わばピンホール画像を形成する。このピンホール画像は、透光領域1aに写された画像を単純に引き伸ばした画像である。一方、後者の光線は、最も解像度が高い画像を形成する。以上の状況が示すように、撮像素子2の各画素(光感知セル)は、ピンホール画像と高解像度画像とを同時に取得することができる。
 以下、透光板1を介して被写体を撮像したときの動作および画像処理部7で行われる信号処理を説明する。ここで、撮像素子2のR要素を透過して光電変換される光による信号をRs、B要素を透過して光電変換される光による信号をBs、W1要素を透過して光電変換される光による信号をW1s、W2要素を透過して光電変換される光による信号をW2sで表す。
 被写体から入射する光のうち、赤色成分および青色成分は、透光板1の透光領域1aまたは1b、レンズ3、赤外カットフィルタ4、赤要素Rまたは青要素Bを通して撮像素子2で光電変換され、信号Rs、信号Bsが生成される。同様に、被写体の白成分(赤、緑、青の全成分)は、撮像素子2のW1要素およびW2要素を通して光電変換され、信号W1s、W2sが生成される。信号W1s、W2sの量は、透光領域1a、1bへの入射光量の差によって異なる。その理由は、W1要素とW2要素とは、分光透過率特性が互いに異なると共に、それらはそれぞれ透光領域1a、1bの特性と等しいためである。仮に透光領域1a、1bの総面積比を1:1とすると、W1要素は透光領域1bを透過した光よりも透光領域1aを透過した光を多めに透過させ、W2要素は透光領域1aを透過した光よりも透光領域1bを透過した光を多めに透過させる。
 以下、本実施形態における光電変換信号W1s、W2sを説明する。まず、透光板1の透光領域1aおよびW1要素を透過して光電変換される光による信号W1asと、透光領域1bおよびW1要素を透過して光電変換される光による信号W1bsとを説明する。上記のように、透光領域1aおよびW1要素の透過率は近似的に三角関数Sinの2乗に比例し、透光領域1bおよびW2要素の透過率は近似的に三角関数Cosの2乗に比例する。その比例係数を含めた光電変換効率をkとし、透光領域1a、1bの総面積比を1:Sとする。ここでは、透光領域1a、1bには同じ強度の無彩色光(波長依存性のない光)が入射するものと仮定する。この場合、信号W1asは、透光領域1aおよびW1要素の透過率の積分に比例するため、以下の式1で表される。一方、信号W1bsは、透光領域1bおよびW1要素の透過率の積分に比例するため、以下の式2で表される。ここで、積分は可視光の全波長域(例えばλ=400nm~700nm)にわたって行われる。
Figure JPOXMLDOC01-appb-M000001

Figure JPOXMLDOC01-appb-M000002
 ここで、式1、式2の計算を容易にするため、図5に基づき、積分範囲を可視光の400~700nmとし、波長λが400nmの場合を角度θ=0ラジアン、波長λが500nmの場合を角度θ=πラジアンとするデータに置き換えると、式1、式2は、それぞれ以下の式3、式4に書き直すことができる。
Figure JPOXMLDOC01-appb-M000003

Figure JPOXMLDOC01-appb-M000004
 式3、式4は、さらに、それぞれ以下の式5、式6のように変形される。
Figure JPOXMLDOC01-appb-M000005

Figure JPOXMLDOC01-appb-M000006
 同様に、信号W2asは、透光領域1aおよびW2要素の透過率の積分に比例するので、以下の式7で表される。一方、信号W2bsは、透光領域1bおよびW2要素の透過率の積分に比例するので、以下の式8で表される。
Figure JPOXMLDOC01-appb-M000007

Figure JPOXMLDOC01-appb-M000008
 ここで、式7の右辺の積分演算と式2の右辺の積分演算とは同一であるため、それらの積分計算結果は等しくなる。式8については、上記と同様に積分変数λをθに変換して計算すると、以下の式9に示す結果が得られる。
Figure JPOXMLDOC01-appb-M000009
 以上の結果から、W1as:W1bs=1:S/3であり、W2as:W2bs=1/3:Sであることがわかる。実際には、透光領域1a、1bには同じ強度の光が入射するわけではない。そこで、透光領域1a、1b、W1要素、W2要素のすべてが完全透明であると仮定したときに、透光領域1a、1bを透過して着目する画素で光電変換される光の強度を示す信号を、それぞれIMG(a)、IMG(b)と表す。すると、それらと画素信号W1s、W2sとの関係は、以下の式10で表される。ここで、比例係数は省略している。
Figure JPOXMLDOC01-appb-M000010
 さらに、式10の右辺の2行2列の行列の逆行列を両辺にかけることによって以下の式11が得られる。
Figure JPOXMLDOC01-appb-M000011
 画像処理部7は、式11に示す演算により、画素信号W1s、W2sから、透光領域1a、1bに入射した光による信号成分を単位ブロックごとに求める。これにより、各領域に入射する光によって形成される画像を生成することができる。また、透光領域1aを通して得られるピンホール画像を利用し、奥行き情報を算出することができる。具体的には、光学レンズ3、ピンホール群(透光領域1a)、撮像素子2の幾何学的な位置関係が予めわかっているため、それらの位置関係、および、あるピンホール画像とその周辺のピンホール画像との間の視差量に基づいて、奥行き情報が算出される。
 ここで、ピンホール画像とは、透光領域1aの各部分領域を透過する光によって撮像面2a上に形成された像に基づく画像である。上記の信号IMG(a)によって表される画像は、複数のピンホール画像の集合であると言える。これらのピンホール画像は、同一の被写体を表す画像であるが、部分領域の位置の違いに起因する視差を有している。その視差を検出することにより、奥行き情報を算出することができる。例えば、あるピンホール画像Aと隣接するピンホール画像Bには共通の部分画像が存在する。その部分画像を公知のパターンマッチングによって検出した結果、検出した部分画像がピンホール画像Aではその中心から距離XAだけ離れ、ピンホール画像Bではその中心から距離XBだけ離れていたとする。その差|XA-XB|が視差量を表している。視差量は、被写体の奥行きによって変わるので、予め視差量と奥行きとの関係を理論的または実験的に求めておけば、視差量から奥行きを算出できる。
 一方、上記演算処理結果のIMG(b)は高解像度画像として用いられる。但し、信号IMG(b)に基づく画像は透光領域1aを透過した光情報を含んでいないため、当該情報が損失している。そこで、さらに画質を向上させるために、信号IMG(a)の情報の一部または全部をIMG(b)の情報に加えてもよい。すなわち、k´を0以上1以下の整数として、信号IMG(b)の代わりに信号IMG(b)+k´IMG(a)を用いて高解像度画像を生成してもよい。
 次に、高解像度画像のカラー信号処理を説明する。撮像素子2から得られる画素信号W1s、W2s、Rs、Bsのうち、上記演算によって得られたIMG(b)、あるいはIMG(a)+k´IMG(b)は輝度信号として処理され、Rs、Bsは色信号として処理される。撮像素子2によって得られた画素信号は、画像処理部7に送られ、そこで画素信号W1s、W2sから、上記の式11に基づいて2つの画像信号IMG(a)、IMG(b)が生成される。画像処理部7は、輝度信号YLをYL=IMG(b)+k´×IMG(a)とし、色差信号(Rs-YL)および(Bs-YL)を生成する。これらの色差信号に対してホワイトバランス調整を行った後、それらを複合カラー画像信号とする。
 画像処理部7は、その後、以下の式12に示すマトリックス演算処理を行うことにより、RGB信号を生成する。ここで、生成するR信号、G信号、B信号をそれぞれcIMG(r)、cIMG(g)、cIMG(b)で表し、マトリックス係数をM11~M33で表す。マトリックス係数M11~M33は、予めシミュレーションによって求められた既知の値である。
Figure JPOXMLDOC01-appb-M000012
 以上のように、本実施形態の撮像装置は、長焦点の光学レンズ3、互いに分光透過率特性の異なる2領域を有しその内1領域はピンホール形状の群から成る透光板1、および当該透光板1と同様の光学特性を有する2種類の透明要素を含む撮像素子2が用いられる。このような構成により、奥行き情報を算出できると共に、高解像度画像も得ることができる。さらに、高解像度画像のカラー化も図れるという優れた効果を有する。
 なお、本実施形態では、透明要素W1、W2以外に色要素として赤要素Rおよび青要素Bを用いたが、これらに限定されるものではなく、異なる色であれば如何なる色要素を用いても構わない。例えば、赤要素Rおよび青要素Bの代わりに、緑光を主に透過させる緑要素G、赤光および緑光を主に透過させる黄要素Ye、緑光および青光を主に透過させるシアン要素Cy、および赤光および青光を主に透過させるマゼンタ要素Mgのいずれかを用いてもよい。また、カラーの高精細画像が必要ない場合は、画像処理部7は、カラー画像生成処理を行う必要はなく、撮像素子2に赤要素R、青要素Bが設けられている必要もない。加えて、各画素の配置に関しても、図4に示す配置に限定されるものではない。
 また、透光板1の透光領域1a、1b、および撮像素子2の透明要素W1、W2の分光透過率特性は、図5に示す三角関数に近似した特性でなくとも、式10で示した行列演算において、当該行列の逆行列が求まる分光透過率特性であれば問題ない。言い換えれば、要素W1に対向する光感知セルおよび要素W2に対向する光感知セルが、ともに第1の透光領域1aを透過した光と、第2の透光領域1bを透過した光とが重畳した光を受け、かつその受光量が互いに異なっていれば問題はない。例えば、透光領域1a、1bの一方の分光透過率特性が、波長依存性を有してなくてもよい。さらに、透光領域1a、1bの一方が透明であってもよい。なお、本明細書において、透明とは、赤、緑、青のいずれの色成分についても85%以上の透過率を有する特性をいう。
 さらに、透光板1の透光領域1aの位置にマイクロレンズが配置されていてもよい。透光領域1aにマイクロレンズが配置されている場合でも、本実施形態と同様の効果を得ることができる。なお、マイクロレンズが配置されている場合、集光効果がさらに高くなるという効果がある。これにより、感度が向上し、取得される画像が明るくなるため、上記の画像マッチングによる奥行算出の精度が向上するという利点がある。
 また、透光板1の透光領域1bの全体は、一様な分光透過率特性を有している必要はなく、部分によって異なる分光透過率特性を有していてもよい。例えば、透光領域1bは、複数の色フィルタの集合から構成されていてもよい。複数の色フィルタとして、マゼンタフィルタおよび緑フィルタの組み合わせや、赤フィルタ、緑フィルタ、および青フィルタの組み合わせを用いることができる。このような構成により、透光領域1b全体として、本実施形態と同様の特性をもたせることができる。
 (実施形態2)
 次に本発明の第2の実施形態を説明する。本実施形態では、光学レンズ3および撮像素子2の基本色構成が上記実施形態1とは異なり、それ以外は実施形態1と同じである。以下、実施形態1と異なる点を中心に説明し、同様の事項についての説明は省略する。
 図7は、本実施形態における光学レンズ3による結像の状況を示す図である。本実施形態では、光学レンズ3は周辺部3aと中央部3bとで焦点距離が異なる。レンズ周辺部3aでは焦点距離が相対的に短く、レンズ中央部3bでは焦点距離が相対的に長い。その特性から、レンズ周辺部3aについては透光板1上で被写体の焦点が合い、レンズ中央部3bについては撮像素子2の撮像面2a上で被写体の焦点が合うように光学レンズ3、透光板1、撮像素子2が配置されている。
 図8は、本実施形態における撮像素子2の基本色構成を示す図である。その色構成は2行2列を基本とし、1行1列目が赤要素(R)、2行1列目が青要素(B)、1行2列目が緑要素(G)、2行2列目は透明要素(W2)である。透明要素W2は実施形態1における透明要素W2と同じである。ここで、B要素の分光透過率特性は、図5に示す透光領域1aの400~500nmにおける特性と同じである。G要素における分光透過率特性は、図5に示す透光領域1aの500~600nmにおける特性と同じである。R要素における分光透過率特性は、図5に示す透光領域1aの600~700nmにおける特性と同じである。すなわち、R、G、B各要素の分光透過率特性を合算させた結果は、実施形態1における透光領域1aおよび透明要素W1の特性と同じである。一方、透光板1は実施形態1における透光板1と同じである。本実施形態では、R要素、G要素、B要素、およびそれらに対向する3つの光感知セルが第1の種類の画素に相当し、W2要素およびそれに対向する光感知セルが第2の種類の画素に相当する。
 以下、本実施形態における信号処理を、上記の実施形態1における処理と対比しながら説明する。実施形態1では、撮像素子2はW1要素を有し、その信号が用いられたが、本実施形態ではW1要素の代わりにR、G、B要素の信号を合算させた結果をW1s信号として扱う。そうすることによって、W1要素及びW2要素に関わる演算は実施形態1における演算とまったく同じになる。その結果、本実施形態においても、透光領域1aを透過して得られる画像信号IMG(a)と透光領域1bを透過して得られる画像信号IMG(b)とは、式11で表される。
 また、画像のカラー化についても、実施形態1と全く同様の方法で行うことができる。すなわち、画像処理部7は、まず信号W1sとW2sとにより、信号IMG(a)、IMG(b)を作り、輝度信号YL(=IMG(b)+k´×IMG(a))、色差信号(Rs-YL)、(Bs-YL)を生成する。これらの色差信号に対してホワイトバランス調整を行った後、それらを複合カラー画像信号とする。その後、式12に基づくマトリックス演算処理を行い、RGB信号を生成する。また、画像処理部7は、上記のカラー化処理の代わりに、画素信号Rs、Gs、Bsをそのまま赤、緑、青のカラー信号として処理してもよい。
 以上のように本実施形態によれば、周辺部3aと中央部3bとで焦点距離が異なる光学レンズ3を用いて、レンズ周辺部3aについては透光板1上で、レンズ中央部3bについては撮像素子2の撮像面2a上で焦点が合うように光学レンズ3、透光板1、撮像素子2が配置される。その上で、撮像素子2のR要素、G要素、B要素の分光透過率特性の合算を図5に示す透光領域1aの特性と同じにすることにより、実施形態1と同様の効果を得ることができる。
 なお、本実施形態では、図8に示すように、撮像素子2の基本色構成はR要素、G要素、B要素、およびW2要素を含むこととしたが、実施形態1のように、図4に示す構成を用いてもよい。また、図8に示す配置は唯一のものではなく、それらの配置が変わっていても問題はない。また、透光板1及び撮像素子2の分光透過率特性は、式10に示す行列演算において、当該行列の逆行列が求まる分光透過率特性であれば上記の分光透過率特性でなくとも問題はない。但し、式11に示す演算で演算結果が負になる場合は、行列要素の比率を変える行列をさらに乗算することにより、演算結果が負にならないようにすることができる。また、本実施形態においても、透光板1の透光領域1aの代わりにマイクロレンズを当該位置に配置しても同様な効果を得ることができる。
 (実施形態3)
 次に、本発明の第3の実施形態について説明する。本実施形態では、実施形態2における光学レンズ3の光入射側の面(前面)に、透光板1の2種類の透光領域と同様の分光透過率特性を有する2種類の透光性部材が配置される。具体的には、図9に示すように、レンズ3の周辺部3aの前面に透光板1の透光領域1aと同じ分光透過率特性を有する透光性部材1aaが配置され、レンズ3の中央部3bの前面に透光板1の透光領域1bと同じ分光透過率特性を有する透光性部材1bbが配置される。それ以外の構成および処理は、実施形態2におけるものと同様である。
 上記の構成により、透光板1の透光領域1aにはレンズ中央部3bからの入射光が削減され、一方、透光板1の透光領域1bにはレンズ周辺部3aからの入射光が削減される。その結果、透光領域1aを透過した光と透光領域1bを透過した光の分離性が高くなり、奥行き情報の算出精度および高解像度画像の画質が向上する。なお、具体的な処理は上記の実施形態と同じであるため、説明を省略する。
 以上のように、本実施形態によれば、実施形態2における構成要素に加え、さらに、光学レンズ3の周辺部3aの前面に配置された、透光板1の透光領域1aと同じ分光透過率特性を有する透光性部材1aaと、光学レンズ3の中央部3bの前面に配置された、透光板1の透光領域1bと同じ分光透過率特性を有する透光性部材1bbとが配置される。このような構成により、奥行き情報の算出精度と高解像度画像の画質とを向上させることができる。
 以上の実施形態では、撮像装置に内蔵された画像処理部7が画像処理を行うものとしたが、撮像装置とは独立した他の装置に当該画像処理を実行させてもよい。例えば、上記の各実施形態における撮像部100を有する撮像装置によって取得した信号を、他の装置(画像処理装置)に入力し、上記の信号演算処理を規定するプログラムを当該画像処理装置に内蔵されたコンピュータに実行させることによっても同様の効果を得ることができる。外部の画像処理装置に画像処理を実行させる場合、撮像装置は画像処理部を備えていなくてもよい。
 本発明の実施形態にかかるライトフィールド撮像装置は、固体撮像素子を用いたすべてのカメラに有効である。例えば、デジタルカメラやデジタルビデオカメラ等の民生用カメラや、産業用の固体監視カメラ等に利用できる。
 1 透光板
 1a、1b 透光領域
 1aa、1bb 透光性部材
 2 カラー固体撮像素子
 2a 撮像面
 3 光学レンズ
 3a レンズ周辺部
 3b レンズ中央部
 4 赤外カットフィルタ
 5 信号発生/受信部
 6 素子駆動部
 7 画像処理部
 8 画像インターフェース部
 30 メモリ
 100 撮像部
 200 信号処理部

Claims (20)

  1.  各々が、分光透過率特性が互いに異なる第1の種類の画素および第2の種類の画素を含む、複数の単位ブロックが撮像面に配列された撮像素子と、
     前記撮像素子の撮像面に対向するように配置された光透過部であって、複数の互いに離間した部分領域から構成される第1の透光領域、および前記第1の透光領域とは分光透過率特性が異なる第2の透光領域を有する光透過部と、
     第1の焦点距離を有する第1の結像領域、および前記第1の焦点距離よりも長い第2の焦点距離を有する第2の結像領域を少なくとも有する結像部と、
    を備え、
     前記光透過部と前記結像部との距離は、前記第1の焦点距離に等しく、前記撮像素子の撮像面と前記結像部との距離は、前記第2の焦点距離に等しい、
    ライトフィールド撮像装置。
  2.  前記第1および第2の種類の画素の分光透過率特性は、それぞれ前記第1および第2の透光領域の分光透過率特性と同一である、請求項1に記載のライトフィールド撮像装置。
  3.  前記複数の部分領域は、前記第2の透光領域に囲まれている、請求項1または2に記載のライトフィールド撮像装置。
  4.  前記複数の部分領域は、等間隔で行列状に配列されている、請求項1から3のいずれかに記載のライトフィールド撮像装置。
  5.  前記複数の部分領域の各々の形状は円形である、請求項1から4のいずれかに記載のライトフィールド撮像装置。
  6.  前記第1の透光領域の光入射側には、マイクロレンズが配置されている、請求項1から5のいずれかに記載のライトフィールド撮像装置。
  7.  前記第1の透光領域の分光透過率特性を表す第1の関数、および前記第2の透光領域の分光透過率特性を表す第2の関数は、ともに可視光の波長域において複数の極大値を有し、各関数が極大値をとる波長は、互いに異なっている、請求項1から6のいずれかに記載のライトフィールド撮像装置。
  8.  前記第1の透光領域の分光透過率特性を表す第1の関数、および前記第2の透光領域の分光透過率特性を表す第2の関数の少なくとも一方は、赤、緑、青の各波長域において極大値を有する、請求項1から7のいずれかに記載のライトフィールド撮像装置。
  9.  前記第1の透光領域の分光透過率特性および前記第2の透光領域の分光透過率特性の一方は、波長依存性を有していない、請求項1から8のいずれかに記載のライトフィールド撮像装置。
  10.  前記第1の透光領域および前記第2の透光領域の一方は、透明である、請求項9に記載のライトフィールド撮像装置。
  11.  前記第2の透光領域は、複数の色フィルタの集合から構成されている、請求項1から8のいずれかに記載のライトフィールド撮像装置。
  12.  前記複数の色フィルタは、マゼンタフィルタおよび緑フィルタの組み合わせ、または赤フィルタ、緑フィルタ、および青フィルタの組み合わせのいずれかから構成されている、請求項11に記載のライトフィールド撮像装置。
  13.  前記撮像素子の各単位ブロックは、互いに異なる色の光を検知する第3の種類の画素および第4の種類の画素をさらに含む、請求項1から12のいずれかに記載のライトフィールド撮像装置。
  14.  前記第1の種類の画素は、赤の波長域の光を検知する画素、緑の波長域の光を検知する画素、および青の波長域の光を検知する画素から構成され、
     前記第2の種類の画素は、赤、緑、青の全ての波長域の光を検知する1つの画素から構成されている、
    請求項1から12のいずれかに記載のライトフィールド撮像装置。
  15.  前記第1の結像領域は前記結像部の周辺部に位置し、前記第2の結像領域は前記結像部の中央部に位置する、請求項1から14のいずれかに記載のライトフィールド撮像装置。
  16.  前記第1の結像領域の光入射側に配置された、前記第1の透光領域と同一の分光透過率特性を有する第1の透光性部材と、
     前記第2の結像領域の光入射側に配置された、前記第2の透光領域と同一の分光透過率特性を有する第2の透光性部材と、
    をさらに備える、請求項1から15のいずれかに記載のライトフィールド撮像装置。
  17.  前記第1および第2の種類の画素からそれぞれ出力された画素信号に基づいて、前記第1の透光領域に入射する光による第1の画像情報、および前記第2の透光領域に入射する光による第2の画像情報を生成する画像処理部をさらに備える、請求項1から16のいずれかに記載のライトフィールド撮像装置。
  18.  前記画像処理部は、前記第1の画像情報に基づいて、被写体の奥行き情報を生成する、請求項17に記載のライトフィールド撮像装置。
  19.  前記撮像素子の各単位ブロックは、互いに異なる色の光を検知する第3の種類の画素および第4の種類の画素をさらに含み、
     前記画像処理部は、前記第3および第4の種類の画素からそれぞれ出力された画素信号と、前記第2の画像情報とに基づいて、カラー画像を生成する、請求項17または18に記載のライトフィールド撮像装置。
  20.  請求項1から19のいずれかに記載のライトフィールド撮像装置から出力された信号に基づいて、前記第1の透光領域に入射する光による第1の画像情報と、前記第2の透光領域に入射する光による第2の画像情報とを生成する画像処理装置。
PCT/JP2012/005581 2011-09-20 2012-09-04 ライトフィールド撮像装置、および画像処理装置 WO2013042323A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013506026A JP5879549B2 (ja) 2011-09-20 2012-09-04 ライトフィールド撮像装置、および画像処理装置
CN201280002605.3A CN103119516B (zh) 2011-09-20 2012-09-04 光场摄像装置和图像处理装置
US13/882,523 US9100639B2 (en) 2011-09-20 2012-09-04 Light field imaging device and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011204828 2011-09-20
JP2011-204828 2011-09-20

Publications (1)

Publication Number Publication Date
WO2013042323A1 true WO2013042323A1 (ja) 2013-03-28

Family

ID=47914116

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005581 WO2013042323A1 (ja) 2011-09-20 2012-09-04 ライトフィールド撮像装置、および画像処理装置

Country Status (4)

Country Link
US (1) US9100639B2 (ja)
JP (1) JP5879549B2 (ja)
CN (1) CN103119516B (ja)
WO (1) WO2013042323A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111812838A (zh) * 2014-06-25 2020-10-23 技术创新动力基金(以色列)有限合伙公司 用于光场成像的系统和方法
JP7458355B2 (ja) 2021-09-16 2024-03-29 株式会社東芝 光学装置、及び、推定方法

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN102037717B (zh) 2008-05-20 2013-11-06 派力肯成像公司 使用具有异构成像器的单片相机阵列的图像拍摄和图像处理
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
KR101824672B1 (ko) 2010-05-12 2018-02-05 포토네이션 케이맨 리미티드 이미저 어레이 구조 및 어레이 카메라
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9380221B2 (en) * 2013-02-27 2016-06-28 Massachusetts Institute Of Technology Methods and apparatus for light field photography
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
KR102228456B1 (ko) * 2014-03-13 2021-03-16 삼성전자주식회사 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
WO2015137635A1 (en) 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
US9521319B2 (en) * 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
KR101638681B1 (ko) * 2014-07-15 2016-07-12 주식회사 듀얼어퍼처인터네셔널 색재현성이 개선된 듀얼 애퍼처 카메라 및 그 동작 방법
US9438778B2 (en) 2014-08-08 2016-09-06 Industrial Technology Research Institute Image pickup device and light field image pickup lens
TWI569087B (zh) * 2014-08-08 2017-02-01 財團法人工業技術研究院 攝像裝置與光場攝像鏡頭
CN104166242B (zh) * 2014-08-27 2017-11-17 深圳市华星光电技术有限公司 三维图像显示装置及三维图像显示器
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
WO2017180615A1 (en) 2016-04-12 2017-10-19 Quidient, Llc Quotidian scene reconstruction engine
CN105867028B (zh) * 2016-06-23 2018-11-23 京东方科技集团股份有限公司 一种背光模组及显示装置
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10598936B1 (en) * 2018-04-23 2020-03-24 Facebook Technologies, Llc Multi-mode active pixel sensor
AU2019262147A1 (en) 2018-05-02 2020-12-10 Quidient, Llc A codec for processing scenes of almost unlimited detail
CN108508616A (zh) * 2018-05-17 2018-09-07 成都工业学院 一种3d显示系统及3d显示装置
CN110310337B (zh) * 2019-06-24 2022-09-06 西北工业大学 一种基于光场基本矩阵的多视光场成像系统全参数估计方法
CN110322514B (zh) * 2019-06-24 2022-05-03 西北工业大学 一种基于多中心投影模型的光场相机参数估计方法
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
CN114766003B (zh) 2019-10-07 2024-03-26 波士顿偏振测定公司 用于利用偏振增强传感器系统和成像系统的系统和方法
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的系统和方法
CN115552486A (zh) 2020-01-29 2022-12-30 因思创新有限责任公司 用于表征物体姿态检测和测量系统的系统和方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
TWI772040B (zh) * 2021-05-27 2022-07-21 大陸商珠海凌煙閣芯片科技有限公司 物體深度資訊獲取方法、裝置、電腦裝置及儲存介質
CN113538300B (zh) * 2021-06-22 2023-07-14 武汉工程大学 基于液晶d型光学元件的高清光场成像方法
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016611A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及びカメラ
JP2003134533A (ja) * 2001-10-30 2003-05-09 Pentax Corp ステレオ画像撮像装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748878B2 (ja) 1986-03-19 1995-05-24 日本放送協会 立体画像撮像表示システム
JPS62291292A (ja) 1986-06-11 1987-12-18 Sharp Corp 撮像装置
JP3676916B2 (ja) 1997-09-25 2005-07-27 日本放送協会 立体撮像装置および立体表示装置
US6396873B1 (en) * 1999-02-25 2002-05-28 Envision Advanced Medical Systems Optical device
US6807295B1 (en) 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
DE10044199B9 (de) * 2000-09-07 2005-07-28 Carl Zeiss Smt Ag Ablenkanordnung und Projektionssystem für geladene Teilchen
US6825440B2 (en) * 2001-05-15 2004-11-30 Moritax Corporation Laser beam machining method and apparatus
JP2002344999A (ja) 2001-05-21 2002-11-29 Asahi Optical Co Ltd ステレオ画像撮像装置
JP3950715B2 (ja) * 2002-03-05 2007-08-01 富士フイルム株式会社 固体撮像素子およびこれを用いた撮像装置
JP4383080B2 (ja) * 2003-04-15 2009-12-16 オリンパス株式会社 対物レンズ
US6940641B2 (en) * 2003-11-18 2005-09-06 Olympus Corporation Fluorescence observation apparatus
JP2006113404A (ja) * 2004-10-15 2006-04-27 Konica Minolta Opto Inc 変倍光学系、撮像レンズ装置及びデジタル機器
JP2006217131A (ja) * 2005-02-02 2006-08-17 Matsushita Electric Ind Co Ltd 撮像装置
JP4725385B2 (ja) * 2006-03-24 2011-07-13 ソニー株式会社 携帯型電話機及び電子機器
JP4380663B2 (ja) * 2006-06-08 2009-12-09 コニカミノルタセンシング株式会社 三次元形状測定方法、装置、及びフォーカス調整方法
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
JP2009117976A (ja) * 2007-11-02 2009-05-28 Panasonic Corp 撮像装置
US8199212B2 (en) * 2008-05-03 2012-06-12 Olympus Imaging Corp. Image recording and playback device, and image recording and playback method
JP2009276294A (ja) 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
US20110116006A1 (en) * 2008-08-07 2011-05-19 Sharp Kabushiki Kaisha Illumination device and liquid crystal display device
WO2010047178A1 (ja) * 2008-10-24 2010-04-29 コニカミノルタオプト株式会社 撮像レンズ及び撮像装置並びに携帯端末
US9036004B2 (en) * 2010-01-05 2015-05-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image capture device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016611A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及びカメラ
JP2003134533A (ja) * 2001-10-30 2003-05-09 Pentax Corp ステレオ画像撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111812838A (zh) * 2014-06-25 2020-10-23 技术创新动力基金(以色列)有限合伙公司 用于光场成像的系统和方法
JP7458355B2 (ja) 2021-09-16 2024-03-29 株式会社東芝 光学装置、及び、推定方法

Also Published As

Publication number Publication date
JPWO2013042323A1 (ja) 2015-03-26
US20130215231A1 (en) 2013-08-22
CN103119516A (zh) 2013-05-22
JP5879549B2 (ja) 2016-03-08
CN103119516B (zh) 2016-09-07
US9100639B2 (en) 2015-08-04

Similar Documents

Publication Publication Date Title
JP5879549B2 (ja) ライトフィールド撮像装置、および画像処理装置
JP5227368B2 (ja) 3次元撮像装置
US9041770B2 (en) Three-dimensional image capture device
US9118796B2 (en) Polarization color image capture device
JP5923754B2 (ja) 3次元撮像装置
JP5958837B2 (ja) 奥行き推定撮像装置
JP5995084B2 (ja) 3次元撮像装置、撮像素子、光透過部、および画像処理装置
JP5903670B2 (ja) 3次元撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JP6004280B2 (ja) ライトフィールド撮像装置および撮像素子
JP5507362B2 (ja) 3次元撮像装置および光透過板
US9425229B2 (en) Solid-state imaging element, imaging device, and signal processing method including a dispersing element array and microlens array
US8860855B2 (en) Solid-state image sensor with dispersing element that disperses light according to color component, image capture device and signal processing method
US8902339B2 (en) Solid-state imaging element and dispersing element array for improved color imaging
JP5406163B2 (ja) 3次元撮像装置および画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002605.3

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2013506026

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13882523

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12834318

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12834318

Country of ref document: EP

Kind code of ref document: A1