JP5406151B2 - 3D imaging device - Google Patents

3D imaging device Download PDF

Info

Publication number
JP5406151B2
JP5406151B2 JP2010213225A JP2010213225A JP5406151B2 JP 5406151 B2 JP5406151 B2 JP 5406151B2 JP 2010213225 A JP2010213225 A JP 2010213225A JP 2010213225 A JP2010213225 A JP 2010213225A JP 5406151 B2 JP5406151 B2 JP 5406151B2
Authority
JP
Japan
Prior art keywords
light
parallax
image
unit
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010213225A
Other languages
Japanese (ja)
Other versions
JP2012070215A (en
Inventor
育規 石井
政夫 平本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010213225A priority Critical patent/JP5406151B2/en
Priority to PCT/JP2011/004626 priority patent/WO2012039093A1/en
Priority to CN201180004365.6A priority patent/CN102598682B/en
Priority to US13/511,029 priority patent/US9429834B2/en
Publication of JP2012070215A publication Critical patent/JP2012070215A/en
Application granted granted Critical
Publication of JP5406151B2 publication Critical patent/JP5406151B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/214Image signal generators using stereoscopic image cameras using a single 2D image sensor using spectral multiplexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20088Trinocular vision calculations; trifocal tensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Color Television Image Signal Generators (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は視差を有する複数の画像を生成する単眼の3次元撮像技術に関する。   The present invention relates to a monocular three-dimensional imaging technique for generating a plurality of images having parallax.

近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する場合がある。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の進歩により、固体撮像素子における画素構造の微細化が進んでいる。その結果、固体撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加した。さらに、撮像によって得られる画像の質も飛躍的に向上している。一方、表示装置に関しては、薄型の液晶やプラズマによるディスプレイにより、場所を取らず、高解像度で高コントラストの表示が可能になり、高い性能が実現されている。このような映像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネを必要とするが、高画質の3次元表示装置が開発され始めている。   In recent years, there has been a remarkable increase in functionality and performance of digital cameras and digital movies using a solid-state image sensor such as a CCD or CMOS (hereinafter sometimes referred to as “image sensor”). In particular, due to advances in semiconductor manufacturing technology, the pixel structure in a solid-state image sensor has been miniaturized. As a result, higher integration of pixels and drive circuits of solid-state image sensors has been attempted. For this reason, in a few years, the number of pixels of the image sensor has increased significantly from about 1 million pixels to over 10 million pixels. Furthermore, the quality of the image obtained by imaging has improved dramatically. On the other hand, with respect to the display device, a thin liquid crystal display or a plasma display enables high-resolution and high-contrast display without taking up space, and high performance is realized. Such a flow of improving the quality of video is spreading from a two-dimensional image to a three-dimensional image. In recent years, polarized glasses are required, but high-quality three-dimensional display devices are being developed.

3次元撮像技術に関して、単純な構成をもつ代表的な技術として、2つのカメラから構成される撮像系を用いて、右目用の画像および左目用の画像をそれぞれ取得するという技術がある。このような、いわゆる2眼撮像方式では、カメラを2つ用いるため、撮像装置が大型になり、コストも高くなり得る。そこで、1つのカメラを用いて視差を有する複数の画像を取得する方式が研究されている。例えば、色フィルタを用いて視差を有する2つの画像を同時に取得する技術が特許文献1に開示されている。図8は、この技術を用いた撮像系を模式的に示す図である。この技術における撮像系は、レンズ3、レンズ絞り19、透過波長域の異なる2つの色フィルタ20a、20bが配置された光束制限板20、感光フィルム21を備える。ここで、色フィルタ20a、20bは、例えば赤系統、青系統の光をそれぞれ透過させるフィルタである。   As a representative technique having a simple configuration with respect to the three-dimensional imaging technique, there is a technique of acquiring a right-eye image and a left-eye image using an imaging system including two cameras. In such a so-called two-lens imaging method, since two cameras are used, the imaging apparatus becomes large and the cost can be high. Therefore, a method of acquiring a plurality of images having parallax using one camera has been studied. For example, Patent Document 1 discloses a technique for simultaneously acquiring two images having parallax using a color filter. FIG. 8 is a diagram schematically showing an imaging system using this technique. The imaging system in this technique includes a lens 3, a lens diaphragm 19, a light flux limiting plate 20 on which two color filters 20a and 20b having different transmission wavelength ranges are arranged, and a photosensitive film 21. Here, the color filters 20a and 20b are filters that transmit, for example, red and blue light, respectively.

以上の構成により、入射光は、レンズ3、レンズ絞り19、および光束制限板20を透過し、感光フィルムに結像する。その際、光束制限板20における2つの色フィルタ20a、20bでは、それぞれ赤系統、青系統の光だけが透過する。その結果、感光フィルム上にはこれら2つの色フィルタをそれぞれ透過した光によるマゼンタ系統の色の像が形成される。ここで、色フィルタ20a、20bの位置が異なっているため、感光フィルム上に形成される像には視差が生じる。ここで、感光フィルムから写真を作り、赤色フィルムおよび青色フィルムがそれぞれ右目用および左目用として貼り付けられたメガネを使うと、奥行き感のある画像を見ることができる。このように、特許文献1に開示された技術によれば、2つの色フィルタを使って視差を有する画像を作ることができる。   With the above configuration, the incident light passes through the lens 3, the lens diaphragm 19, and the light flux limiting plate 20, and forms an image on the photosensitive film. At this time, only the red and blue light beams are transmitted through the two color filters 20a and 20b in the light flux limiting plate 20, respectively. As a result, a magenta color image is formed on the photosensitive film by the light transmitted through the two color filters. Here, since the positions of the color filters 20a and 20b are different, parallax occurs in the image formed on the photosensitive film. Here, when a photograph is made from a photosensitive film and glasses with red and blue films attached for the right eye and the left eye, respectively, an image with a sense of depth can be seen. Thus, according to the technique disclosed in Patent Document 1, an image having parallax can be created using two color filters.

特許文献1に開示された技術は、感光フィルム上に結像させ、視差を有する複数の画像を作るものであるが、一方で、視差を有する画像を電気信号に変換して取得する技術が特許文献2に開示されている。図9は、この技術における光束制限板を模式的に表す図である。この技術では、撮像光学系の光軸に垂直な平面上に、赤色光を透過するR領域22R、緑色光を透過するG領域22G、青色光を透過するB領域22Bが設けられた光束制限板22が用いられる。これらの領域を透過した光を赤用のR画素、緑用のG画素、青用のB画素を有するカラー撮像素子で受けることにより、各領域を透過した光による画像が取得される。   The technique disclosed in Patent Document 1 forms an image on a photosensitive film and creates a plurality of images having parallax. On the other hand, a technique for acquiring an image having parallax by converting it into an electrical signal is patented. It is disclosed in Document 2. FIG. 9 is a diagram schematically showing a light flux limiting plate in this technique. In this technique, a light flux limiting plate in which an R region 22R that transmits red light, a G region 22G that transmits green light, and a B region 22B that transmits blue light are provided on a plane perpendicular to the optical axis of the imaging optical system. 22 is used. The light transmitted through these areas is received by a color imaging device having R pixels for red, G pixels for green, and B pixels for blue, whereby an image of light transmitted through each area is acquired.

また、特許文献3にも、図9の構成と同様の構成を用いて視差を有する複数の画像を取得する技術が開示されている。図10は、特許文献3に開示された光束制限板を模式的に示す図である。この技術でも、光束制限板23に設けられたR領域23R、G領域23G、B領域23Bを入射光が透過することにより視差のある画像を作ることができる。   Patent Document 3 also discloses a technique for acquiring a plurality of images having parallax using a configuration similar to the configuration of FIG. FIG. 10 is a diagram schematically showing the light flux limiting plate disclosed in Patent Document 3. As shown in FIG. Also with this technique, an image with parallax can be created by transmitting incident light through the R region 23R, the G region 23G, and the B region 23B provided on the light flux limiting plate 23.

上記の特許文献1〜3に示された技術によれば、光束制限板にR、G、Bの各色フィルタを配置することによって視差を有する画像を生成することができる。しかしながら、光束制限板を用いるため、入射光量が減少する。また、視差の効果を高めるにはR、G、Bの各色フィルタを互いに離れた位置に配置し、それらの面積を小さくする必要があるが、そのようにすると入射光量はさらに減少する。   According to the techniques disclosed in Patent Documents 1 to 3, an image having parallax can be generated by disposing R, G, and B color filters on the light flux limiting plate. However, since the light flux limiting plate is used, the amount of incident light is reduced. Further, in order to enhance the parallax effect, it is necessary to dispose the R, G, and B color filters at positions separated from each other to reduce their area. However, the incident light quantity is further reduced.

以上の技術に対して、R、G、Bの各色フィルタが配置された絞りを用いて、視差を有する複数の画像と光量的に問題のない通常画像とを得ることができる技術が特許文献4に開示されている。この技術では、絞りを閉じた状態ではR、G、Bの各色フィルタを透過した光だけが受光され、絞りを開いた状態ではRGBの色フィルタ領域が光路から外されるため、入射光をすべて受けることができる。これにより、絞りを閉じた状態では視差を有する画像を取得し、絞りを開いた状態では光利用率の高い通常画像を取得することができる。   In contrast to the above technique, Patent Document 4 discloses a technique capable of obtaining a plurality of images having parallax and a normal image having no problem in light quantity using a diaphragm in which R, G, and B color filters are arranged. Is disclosed. In this technique, only the light transmitted through the R, G, and B color filters is received when the diaphragm is closed, and the RGB color filter area is removed from the optical path when the diaphragm is opened. Can receive. As a result, an image having parallax can be acquired when the aperture is closed, and a normal image with a high light utilization rate can be acquired when the aperture is open.

特開平2−171737号公報Japanese Patent Laid-Open No. 2-171737 特開2002−344999号公報JP 2002-344999 A 特開2009−276294号公報JP 2009-276294 A 特開2003−134533号公報JP 2003-134533 A

"Color Lines: Image Specific Color Representation", Ido Omer and Michael Werman, In Proc. CVPR, vol. 2, 946-953."Color Lines: Image Specific Color Representation", Ido Omer and Michael Werman, In Proc. CVPR, vol. 2, 946-953.

従来技術によれば、視差を有する複数の画像を取得することができるが、光束制限板に色フィルタを用いるため、撮像素子の受光量は減少する。入射光量を十分に確保するためには、色フィルタを機械的駆動によって光路から外す機構を用いて光利用率の高い通常画像を取得する方法や、光束制限板に設けられる色フィルタの数を最小の2つにすることで光の減少を抑える方法がある。前者には、装置の大型化および高コスト化を招くという問題がある。後者の場合、2つの色フィルタを透過する光の波長域が異なるため、得られる2つの画像の濃淡が異なることになる。そのため、ブロックマッチングなどの、濃淡値の類似度を利用した対応点探索に基づく視差算出が困難であるという課題がある。   According to the prior art, a plurality of images having parallax can be acquired. However, since a color filter is used for the light flux limiting plate, the amount of light received by the image sensor is reduced. In order to ensure a sufficient amount of incident light, a method of obtaining a normal image with a high light utilization rate using a mechanism that removes the color filter from the optical path by mechanical drive, and the number of color filters provided on the light flux limiting plate are minimized. There is a method of suppressing the decrease in light by using two. The former has a problem that the apparatus is increased in size and cost. In the latter case, since the wavelength ranges of the light transmitted through the two color filters are different, the two images obtained have different shades. Therefore, there is a problem that it is difficult to calculate a parallax based on a corresponding point search using a similarity value of gray values such as block matching.

本発明は、機械的駆動を行うことなく、光利用率が高く、かつ視差を有する複数の画像の生成が可能な3次元撮像技術を提供する。   The present invention provides a three-dimensional imaging technique capable of generating a plurality of images having high light utilization and parallax without performing mechanical driving.

本発明の3次元撮像装置は、透過波長域が互いに異なる第1、第2、および第3の透過領域を有する光透過部と、光感知セルアレイを有し、前記光透過部を透過した光を受けるように配置された固体撮像素子と、前記固体撮像素子の撮像面に像を形成する光学系と、前記固体撮像素子から出力される信号を処理する信号処理部を備えている。前記第1、第2、および第3の透過領域の少なくとも1つは、シアン、黄、マゼンタのいずれかの波長域の光を透過させる部材、または透明部材で形成されている。前記光感知セルアレイは、複数の単位ブロックを有し、各単位ブロックは、赤の波長域の光の量に応じた第1の光電変換信号を出力するR検知セル、緑の波長域の光の量に応じた第2の光電変換信号を出力するG検知セル、および青の波長域の光の量に応じた第3の光電変換信号を出力するB検知セルを含んでいる。前記信号処理部は、前記第1、第2、および第3の光電変換信号を用いた加減算を含む処理に基づいて前記第1、第2、および第3の透過領域の各々に入射する光の量に応じた3つの混色信号を生成することによって視差を有する3つの画像を生成する画像生成部、および前記3つの画像の間の視差を推定する視差推定部を有している。   The three-dimensional imaging device of the present invention includes a light transmission unit having first, second, and third transmission regions having different transmission wavelength ranges, and a photosensitive cell array, and transmits light transmitted through the light transmission unit. A solid-state imaging device arranged to receive the optical system; an optical system that forms an image on an imaging surface of the solid-state imaging device; and a signal processing unit that processes a signal output from the solid-state imaging device. At least one of the first, second, and third transmission regions is formed of a member that transmits light in a wavelength range of cyan, yellow, or magenta, or a transparent member. The photosensitive cell array has a plurality of unit blocks, and each unit block outputs an R detection cell that outputs a first photoelectric conversion signal corresponding to the amount of light in the red wavelength range, and the light in the green wavelength range. A G detection cell that outputs a second photoelectric conversion signal according to the amount and a B detection cell that outputs a third photoelectric conversion signal according to the amount of light in the blue wavelength range are included. The signal processing unit is configured to transmit light incident on each of the first, second, and third transmission regions based on processing including addition / subtraction using the first, second, and third photoelectric conversion signals. An image generation unit that generates three images having parallax by generating three color mixture signals according to the amount, and a parallax estimation unit that estimates parallax between the three images.

ある実施形態において、前記信号処理部は、前記視差推定部によって推定した前記視差から被写体の距離を示す情報を生成する距離情報生成部をさらに有する。   In one embodiment, the signal processing unit further includes a distance information generation unit that generates information indicating the distance of the subject from the parallax estimated by the parallax estimation unit.

ある実施形態において、前記視差推定部は、前記3つの画像の各画素について、視差量の推定値を複数の候補の中から設定し、前記推定値に基づいて前記3つの画像から画像上の位置が互いにずれた同一サイズの3つの画素ブロックをそれぞれ抽出する画素ブロック抽出部と、前記3つの画素ブロックの画素値の集合によって規定される3次元色空間上の点集合の分布が直線からどの程度ずれているかを判定するずれ判定部と、前記ずれ判定部によって判定された直線からのずれの程度が最小となる前記推定値を各画素における視差量として決定する視差量決定部とを含む。   In one embodiment, the parallax estimation unit sets an estimated value of the amount of parallax from among a plurality of candidates for each pixel of the three images, and the position on the image from the three images based on the estimated value. A pixel block extraction unit that extracts three pixel blocks of the same size that are shifted from each other, and the degree of distribution of a point set in a three-dimensional color space defined by a set of pixel values of the three pixel blocks from a straight line A deviation determination unit that determines whether or not there is a deviation; and a parallax amount determination unit that determines the estimated value that minimizes the degree of deviation from the straight line determined by the deviation determination unit as a parallax amount in each pixel.

ある実施形態において、前記第1の透過領域は、シアン、黄、およびマゼンタのうちの1つの波長域の光を透過させる部材で形成され、前記第2の透過領域は、シアン、黄、およびマゼンタのうちの他の1つの波長域の光を透過させる部材で形成され、前記第3の透過領域は、透明部材で形成される。   In one embodiment, the first transmission region is formed of a member that transmits light in one wavelength region of cyan, yellow, and magenta, and the second transmission region is cyan, yellow, and magenta. The third transmission region is formed of a transparent member. The third transmission region is formed of a transparent member.

ある実施形態において、前記第1、第2、および第3の透過領域は、それぞれシアン、黄、およびマゼンタの波長域の光を透過させる部材で形成される。   In one embodiment, the first, second, and third transmission regions are formed of members that transmit light in the wavelength bands of cyan, yellow, and magenta, respectively.

ある実施形態において、前記光透過部は、第4の透過領域を有し、前記第4の透過領域は、赤、緑、および青のいずれかの波長域の光を透過させる部材、または透明部材で形成される。   In one embodiment, the light transmission part has a fourth transmission region, and the fourth transmission region is a member that transmits light in a wavelength region of red, green, and blue, or a transparent member Formed with.

本発明の信号処理方法は、透過波長域が互いに異なる第1、第2、および第3の透過領域を有する光透過部と、光感知セルアレイを有し前記光透過部を透過した光を受けるように配置された固体撮像素子と、前記固体撮像素子の撮像面に像を形成する光学系とを備える撮像装置から出力される信号を処理する方法である。ここで、前記第1、第2、および第3の透過領域の少なくとも1つは、シアン、黄、マゼンタのいずれかの波長域の光を透過させる部材、または透明部材で形成されている。前記光感知セルアレイは、複数の単位ブロックを有し、各単位ブロックは、赤の波長域の光の量に応じた第1の光電変換信号を出力するR検知セル、緑の波長域の光の量に応じた第2の光電変換信号を出力するG検知セル、および青の波長域の光の量に応じた第3の光電変換信号を出力するB検知セルを含む。本発明の信号処理方法は、前記第1、第2、および第3の光電変換信号を用いた加減算を含む処理に基づいて前記第1、第2、および第3の透過領域の各々に入射する光の量に応じた3つの混色信号を生成することによって視差を有する3つの画像を生成するステップと、前記3つの画像の間の視差を推定するステップとを含む。   According to the signal processing method of the present invention, a light transmission unit having first, second, and third transmission regions having different transmission wavelength ranges and a light having a photosensitive cell array and receiving light transmitted through the light transmission unit. Is a method for processing a signal output from an image pickup apparatus including a solid-state image pickup element disposed on the image pickup apparatus and an optical system that forms an image on an image pickup surface of the solid-state image pickup element. Here, at least one of the first, second, and third transmission regions is formed of a member that transmits light in a wavelength band of cyan, yellow, or magenta, or a transparent member. The photosensitive cell array has a plurality of unit blocks, and each unit block outputs an R detection cell that outputs a first photoelectric conversion signal corresponding to the amount of light in the red wavelength range, and the light in the green wavelength range. A G detection cell that outputs a second photoelectric conversion signal according to the amount, and a B detection cell that outputs a third photoelectric conversion signal according to the amount of light in the blue wavelength region. The signal processing method of the present invention is incident on each of the first, second, and third transmission regions based on processing including addition / subtraction using the first, second, and third photoelectric conversion signals. Generating three images having parallax by generating three color mixture signals corresponding to the amount of light; and estimating a parallax between the three images.

本発明の信号処理方法は、推定した前記視差から被写体の距離を示す情報を生成するステップをさらに含んでいてもよい。   The signal processing method of the present invention may further include a step of generating information indicating the distance of the subject from the estimated parallax.

ある実施形態において、前記視差を推定するステップは、前記3つの画像の各画素について、視差量の推定値を複数の候補の中から設定し、前記推定値に基づいて前記3つの画像から画像上の位置が互いにずれた同一サイズの3つの画素ブロックをそれぞれ抽出するステップと、前記3つの画素ブロックの画素値の集合によって規定される3次元色空間上の点集合の分布が直線からどの程度ずれているかを判定するステップと、判定された直線からのずれの程度が最小となる前記推定値を各画素における視差量として決定するステップとを含む。   In one embodiment, the step of estimating the parallax sets an estimated value of the amount of parallax from among a plurality of candidates for each pixel of the three images, and based on the estimated value, The steps of extracting three pixel blocks of the same size whose positions are shifted from each other, and how much the point set distribution in the three-dimensional color space defined by the set of pixel values of the three pixel blocks deviates from the straight line. And determining the estimated value that minimizes the degree of deviation from the determined straight line as the amount of parallax for each pixel.

本発明によれば、光利用率が高く、かつ視差を有する複数の画像を生成できる。さらに、有彩色の被写体を撮影した場合であっても視差量を推定できるため、視差量の推定と光利用率の高い画像の取得の両立が可能である。   According to the present invention, it is possible to generate a plurality of images with high light utilization and parallax. Furthermore, since the amount of parallax can be estimated even when a chromatic color subject is photographed, both estimation of the amount of parallax and acquisition of an image with a high light utilization rate are possible.

実施形態1における撮像装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to Embodiment 1. FIG. 実施形態1における透光板、光学系、および撮像素子の概略構成を示す模式図である。2 is a schematic diagram illustrating a schematic configuration of a light-transmitting plate, an optical system, and an image sensor in Embodiment 1. FIG. 実施形態1における透光板の透過領域の配置を示す図である。FIG. 3 is a diagram illustrating an arrangement of transmission regions of a light transmission plate in the first embodiment. 実施形態1における撮像素子の画素構成を示す図である。2 is a diagram illustrating a pixel configuration of an image sensor in Embodiment 1. FIG. 実施形態1における視差量dと距離zとの関係を示す図である。It is a figure which shows the relationship between the parallax amount d in Embodiment 1, and the distance z. 実施形態1におけるカラー画像、Ci1画像、Ci2画像の例を示す図である。4 is a diagram illustrating an example of a color image, a Ci1 image, and a Ci2 image in Embodiment 1. FIG. (a)はR、G、B色空間における直線の例を示す図であり、(b)はCy、Ye、Mg色空間における直線の例を示す図である。(A) is a figure which shows the example of the straight line in R, G, B color space, (b) is a figure which shows the example of the straight line in Cy, Ye, and Mg color space. 実施形態1における信号処理手順を示すフロー図である。FIG. 3 is a flowchart showing a signal processing procedure in the first embodiment. 実施形態1における画素ブロックを示す図である。2 is a diagram illustrating a pixel block according to Embodiment 1. FIG. (a)は視差推定値が真の視差量に比較的近い場合の3次元色空間における点集合の分布の例を示す図であり、(b)は視差推定値が真の視差量からずれている場合の3次元色空間における点集合の分布の例を示す図である。(A) is a figure which shows the example of distribution of a point set in a three-dimensional color space when a parallax estimated value is comparatively close to a true parallax amount, (b) It is a figure which shows the example of distribution of the point set in the three-dimensional color space in the case of being. 実施形態1における視差推定部の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a parallax estimation unit according to Embodiment 1. FIG. 実施形態1における視差量推定手順を示すフロー図である。FIG. 5 is a flowchart showing a parallax amount estimation procedure in the first embodiment. 実施形態2における透光板の透過領域の配置を示す図である。FIG. 6 is a diagram illustrating an arrangement of transmission regions of a light transmission plate in Embodiment 2. 実施形態3における透光板の透過領域の配置を示す図である。It is a figure which shows arrangement | positioning of the permeation | transmission area | region of the translucent board in Embodiment 3. FIG. 実施形態3における透光板の他の透過領域の配置を示す図である。It is a figure which shows arrangement | positioning of the other permeation | transmission area | region of the light transmission board in Embodiment 3. FIG. 特許文献1における撮像系の模式図である。FIG. 11 is a schematic diagram of an imaging system in Patent Document 1. 特許文献2における光束制限板の模式図である。It is a schematic diagram of the light beam restricting plate in Patent Document 2. 特許文献3における光束制限板の模式図である。It is a schematic diagram of the light beam restricting plate in Patent Document 3.

以下、図面を参照しながら本発明の実施形態を説明する。以下の説明において共通する要素には同一の符号を付している。なお、本明細書において、画像を示す信号または情報を単に「画像」と称する場合がある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, common elements are denoted by the same reference numerals. In the present specification, a signal or information indicating an image may be simply referred to as “image”.

(実施形態1)
図1は、本発明の第1の実施形態における3次元撮像装置(以下、「撮像装置」と呼ぶ。)の全体構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、撮像部100からの信号に基づいて画像を示す信号(画像信号)を生成する信号処理部200とを備えている。本実施形態の撮像装置は静止画のみならず動画を撮影する機能を備えていてもよい。
(Embodiment 1)
FIG. 1 is a block diagram showing an overall configuration of a three-dimensional imaging apparatus (hereinafter referred to as “imaging apparatus”) according to the first embodiment of the present invention. The imaging apparatus according to the present embodiment is a digital electronic camera, and includes an imaging unit 100 and a signal processing unit 200 that generates a signal (image signal) indicating an image based on a signal from the imaging unit 100. . The imaging apparatus according to the present embodiment may have a function of shooting a moving image as well as a still image.

撮像部100は、撮像面上に配列された複数の光感知セルを備える撮像素子(イメージセンサ)1と、透過波長域が互いに異なる3つの透過領域を有し入射光を透過させる透光板(光透過部)2と、撮像素子1の撮像面上に像を形成するための光学レンズ3と、赤外カットフィルタ4とを備えている。撮像部100は、また、撮像素子1を駆動するための基本信号を発生するとともに撮像素子1からの出力信号を受信して信号処理部200に送出する信号発生/受信部5と、信号発生/受信部5によって発生された基本信号に基づいて撮像素子1を駆動する素子駆動部6とを備えている。撮像素子1は、典型的にはCCDまたはCMOSセンサであり、公知の半導体製造技術によって製造される。信号発生/受信部5および素子駆動部30は、例えばCCDドライバなどのLSIから構成されている。   The imaging unit 100 includes an imaging element (image sensor) 1 including a plurality of photosensitive cells arranged on an imaging surface, and a light-transmitting plate (transmission plate) that has three transmission regions having different transmission wavelength ranges and transmits incident light. A light transmitting portion) 2, an optical lens 3 for forming an image on the imaging surface of the imaging device 1, and an infrared cut filter 4. The imaging unit 100 also generates a basic signal for driving the imaging device 1, receives an output signal from the imaging device 1, and sends it to the signal processing unit 200. And an element driving unit 6 that drives the image sensor 1 based on the basic signal generated by the receiving unit 5. The image sensor 1 is typically a CCD or CMOS sensor, and is manufactured by a known semiconductor manufacturing technique. The signal generation / reception unit 5 and the element driving unit 30 are composed of an LSI such as a CCD driver, for example.

信号処理部200は、撮像部100から出力された信号を処理して画像信号を生成する画像生成部7と、画像信号の生成に用いられる各種のデータを格納するメモリ30と、生成した画像信号を外部に送出するインターフェース(IF)部8とを備えている。また、信号処理部200は、画像生成部7によって生成した複数の画像の間の視差を推定する視差推定部40と、推定した視差に基づいて被写体の距離情報を生成する距離情報生成部50とを備えている。画像生成部7、視差推定部40、距離情報生成部50は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、後述する画像信号生成処理、視差推定処理、距離情報生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。メモリ30は、DRAMなどによって構成される。メモリ30は、撮像部100から得られた信号を記録するとともに、画像生成部7によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、インターフェース部8を介して不図示の記録媒体や表示部などに送出される。   The signal processing unit 200 processes the signal output from the imaging unit 100 to generate an image signal, the memory 30 that stores various data used for generating the image signal, and the generated image signal And an interface (IF) unit 8 for sending the data to the outside. The signal processing unit 200 also includes a parallax estimation unit 40 that estimates parallax between a plurality of images generated by the image generation unit 7, and a distance information generation unit 50 that generates distance information of the subject based on the estimated parallax. It has. The image generation unit 7, the parallax estimation unit 40, and the distance information generation unit 50 are images including hardware such as a known digital signal processor (DSP) and image signal generation processing, parallax estimation processing, and distance information generation processing described later. It can be suitably realized by a combination with software that executes processing. The memory 30 is configured by a DRAM or the like. The memory 30 records the signal obtained from the imaging unit 100 and temporarily records the image data generated by the image generation unit 7 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the interface unit 8.

なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本発明の理解に特に必要でないため省略する。   Note that the imaging apparatus of the present embodiment may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present invention.

次に、図2〜4を参照しながら撮像部100の構成をより詳細に説明する。   Next, the configuration of the imaging unit 100 will be described in more detail with reference to FIGS.

図2は、撮像部100における透光板2、レンズ3、および撮像素子1の配置関係を模式的に示す図である。なお、図2では、透光板2、レンズ3、および撮像素子1以外の構成要素は省略されている。透光板2は、透過波長域が互いに異なる3つの透過領域C1、C2、C3を有し、入射光を透過させる。レンズ3は、公知のレンズであり、透光板2を透過した光を集光し、撮像素子1の撮像面1aに結像する。なお、以下の説明において、撮像面1aに平行な平面において、領域C1からC2へ向かう方向をx方向とし、x方向に垂直な方向をy方向とする。   FIG. 2 is a diagram schematically illustrating an arrangement relationship of the light transmitting plate 2, the lens 3, and the imaging element 1 in the imaging unit 100. In FIG. 2, components other than the translucent plate 2, the lens 3, and the image sensor 1 are omitted. The translucent plate 2 has three transmission regions C1, C2, and C3 having different transmission wavelength ranges, and transmits incident light. The lens 3 is a known lens, collects the light transmitted through the translucent plate 2, and forms an image on the imaging surface 1 a of the imaging device 1. In the following description, on the plane parallel to the imaging surface 1a, the direction from the region C1 to the region C2 is the x direction, and the direction perpendicular to the x direction is the y direction.

図2に示す各構成要素の配置関係はあくまでも一例であって、本発明はこのような配置関係に限られるものではない。例えば、レンズ3は、撮像面1aに像を形成できれば透光板2よりも撮像素子1から離れて配置されていてもよい。また、レンズ3は、複数のレンズ群から構成されたレンズユニットであり、それらの間に透光板2が配置されていてもよい。また、レンズ3と透光板2とは独立した構成要素である必要はなく、者は一体化された1つの光学素子として構成されていてもよい。さらに、透光板2と撮像素子1の撮像面とは必ずしも平行に配置されている必要はない。例えば、両者の間にミラーやプリズムなどの、光を反射する光学素子を配置することにより、透光板2と撮像素子1の撮像面とが互いに交差する平面上に位置するように構成することも可能である。   The arrangement relationship of each component shown in FIG. 2 is merely an example, and the present invention is not limited to such an arrangement relationship. For example, the lens 3 may be arranged farther from the imaging element 1 than the translucent plate 2 as long as an image can be formed on the imaging surface 1a. The lens 3 is a lens unit composed of a plurality of lens groups, and the translucent plate 2 may be disposed between them. Further, the lens 3 and the translucent plate 2 do not need to be independent components, and a person may be configured as one integrated optical element. Furthermore, the translucent plate 2 and the imaging surface of the imaging device 1 do not necessarily have to be arranged in parallel. For example, by arranging an optical element that reflects light, such as a mirror or a prism, between the two, the translucent plate 2 and the imaging surface of the imaging element 1 are positioned on a plane intersecting each other. Is also possible.

図3は、本実施形態における透光板2の正面図である。本実施形態における透光板2の形状は、レンズ3と同様、円形であるが、他の形状であってもよい。領域C1には、シアン(Cy)の波長域(GおよびBの波長域)の光を透過させる色フィルタ(Cyフィルタ)が配置される。領域C2には、黄(Ye)の波長域(RおよびGの波長域)の光を透過させる色フィルタ(Yeフィルタ)が配置される。   FIG. 3 is a front view of the translucent plate 2 in the present embodiment. The shape of the translucent plate 2 in the present embodiment is circular as in the case of the lens 3, but may be other shapes. In the region C1, a color filter (Cy filter) that transmits light in the cyan (Cy) wavelength region (G and B wavelength regions) is disposed. A color filter (Ye filter) that transmits light in the yellow (Ye) wavelength region (R and G wavelength regions) is disposed in the region C2.

なお、本実施形態における領域C1およびC2は、それぞれCyおよびYeの波長域の光を透過し、他の波長域の光を透過しないように構成されていれば、色フィルタに限らず、どのような部材で構成されていてもよい。例えば、一部の波長域の光を透過させ、他の波長域の光を反射するダイクロイックミラーなどの光学素子で構成されていてもよい。ここで、領域C1および領域C2は、x方向に離れて配置される。領域C1と領域C2との間の距離Lは、レンズ3のサイズに応じて、取得される画像が適切な視差を有するように決定される。距離Lは、例えば、数mm〜数cmに設定され得る。また、透光板2における他の領域C3は、白色光(W)に含まれる全波長域の可視光を透過させる透明部材で形成された透明領域である。透明部材は、光を高い透過率で透過させる部材であればどのようなものでもよい。本実施形態では、領域C1および領域C2の面積は等しく、領域C3の面積は領域C1、C2の面積よりも大きく設計されている。   Note that the regions C1 and C2 in the present embodiment are not limited to color filters, as long as they are configured to transmit light in the wavelength regions of Cy and Ye and not transmit light in other wavelength regions, respectively. It may be composed of various members. For example, you may be comprised with optical elements, such as a dichroic mirror which permeate | transmits the light of a one part wavelength range and reflects the light of another wavelength range. Here, the region C1 and the region C2 are arranged apart from each other in the x direction. The distance L between the region C1 and the region C2 is determined according to the size of the lens 3 so that the acquired image has an appropriate parallax. The distance L can be set to several mm to several cm, for example. Further, the other region C3 in the light transmitting plate 2 is a transparent region formed of a transparent member that transmits visible light in the entire wavelength region included in the white light (W). The transparent member may be any member that transmits light with high transmittance. In this embodiment, the areas of the region C1 and the region C2 are equal, and the area of the region C3 is designed to be larger than the areas of the regions C1 and C2.

図2に示される撮像素子1の撮像面1aには、2次元状に複数の光感知セルが配列された光感知セルアレイおよび光感知セルアレイに対向して配置された色フィルタアレイが形成されている。光感知セルアレイおよび色フィルタアレイは、複数の単位ブロックを有し、各単位ブロックは、4つの光感知セルおよびそれらに対向する4つの色フィルタを含んでいる。各光感知セルは、典型的にはフォトダイオードであり、光電変換によって各々の受光量に応じた電気信号(以下、「光電変換信号」または「画素信号」と呼ぶ。)を出力する。また、各色フィルタは、公知の顔料などを用いて作製され、特定の波長域の光を選択的に透過させるように設計されている。   On the imaging surface 1a of the imaging device 1 shown in FIG. 2, a photosensitive cell array in which a plurality of photosensitive cells are arranged in a two-dimensional manner and a color filter array arranged to face the photosensitive cell array are formed. . The photosensitive cell array and the color filter array have a plurality of unit blocks, and each unit block includes four photosensitive cells and four color filters facing them. Each photosensitive cell is typically a photodiode, and outputs an electrical signal (hereinafter referred to as “photoelectric conversion signal” or “pixel signal”) corresponding to the amount of received light by photoelectric conversion. Each color filter is manufactured using a known pigment or the like, and is designed to selectively transmit light in a specific wavelength range.

図4は、光感知セルアレイおよび色フィルタアレイの一部を模式的に示す図である。撮像面1a上には多数の光感知セル120およびそれらに1対1に対向する色フィルタ110が行列状に配列されている。本実施形態では、近接する4つの光感知セル120が1つの単位ブロックを構成している。各単位ブロックにおいて、1行1列目には赤(R)の波長域の光を透過させる色フィルタ(Rフィルタ)が配置されている。1行2列目および2行1列目には緑(G)の波長域の光を透過させる色フィルタ(Gフィルタ)が配置されている。2行2列目には青の波長域の光を透過させる色フィルタ(Bフィルタ)が配置されている。このように、本実施形態における色フィルタ110の配列は、2行2列を基本とする公知のBayer配列である。なお、光感知セル120および色フィルタ110の配列は、必ずしもBayer配列である必要はなく、公知のどのような配列であってもよい。   FIG. 4 is a diagram schematically showing a part of the photosensitive cell array and the color filter array. On the imaging surface 1a, a large number of photosensitive cells 120 and color filters 110 facing them one-to-one are arranged in a matrix. In the present embodiment, four adjacent photosensitive cells 120 constitute one unit block. In each unit block, a color filter (R filter) that transmits light in the red (R) wavelength region is arranged in the first row and the first column. A color filter (G filter) that transmits light in the green (G) wavelength region is arranged in the first row, second column, and second row, first column. A color filter (B filter) that transmits light in the blue wavelength region is arranged in the second row and the second column. Thus, the arrangement of the color filters 110 in the present embodiment is a known Bayer arrangement based on 2 rows and 2 columns. Note that the arrangement of the photosensitive cells 120 and the color filters 110 is not necessarily a Bayer arrangement, and may be any known arrangement.

以上の構成により、露光中に撮像装置に入射する光は、透光板2、レンズ3、赤外カットフィルタ4、色フィルタ110を通って光感知セル120に入射する。各光感知セル120は、透光板2の領域C1、C2、C3の各々を透過した光のうち、対向する色フィルタを通った光を受け、受けた光の量(強度)に応じた光電変換信号を出力する。各光感知セルによって出力された光電変換信号は、信号発生/受信部5を通して信号処理部200に送出される。信号処理部200における画像生成部7は、撮像部100から送出された信号に基づいて右目用画像、左目用画像、およびカラー画像を生成する。   With the above configuration, light incident on the imaging device during exposure passes through the light transmitting plate 2, the lens 3, the infrared cut filter 4, and the color filter 110 and enters the light sensing cell 120. Each light sensing cell 120 receives light that has passed through the opposite color filter among the light transmitted through the regions C1, C2, and C3 of the translucent plate 2, and receives the light according to the amount (intensity) of the received light. Output the conversion signal. The photoelectric conversion signal output by each photosensitive cell is sent to the signal processing unit 200 through the signal generation / reception unit 5. The image generation unit 7 in the signal processing unit 200 generates a right-eye image, a left-eye image, and a color image based on the signal transmitted from the imaging unit 100.

なお、本実施形態における撮像素子1は上記の色フィルタアレイによって色分離を行うが、本発明においては色フィルタアレイを用いない撮像素子を用いてもよい。例えば、特表2002−513145に開示された三重ウエル構造を有する撮像素子を用いることができる。このように、各単位ブロックが赤の波長域の光を検知するR検知セル、緑の波長域の光を検知するG検知セル、および青の波長域の光を検知するB検知セルを含んでいればどのような撮像素子も利用可能である。   In addition, although the image sensor 1 in this embodiment performs color separation by said color filter array, you may use the image sensor which does not use a color filter array in this invention. For example, an imaging device having a triple well structure disclosed in JP-T-2002-513145 can be used. Thus, each unit block includes an R detection cell that detects light in the red wavelength range, a G detection cell that detects light in the green wavelength range, and a B detection cell that detects light in the blue wavelength range. Any imaging device can be used.

また、本実施形態では、1つの光感知セルが赤、緑、青のいずれかの波長域の光を検知するが、1つの光感知セルが検知する波長域をさらに細分化させてもよい。例えば、赤光の波長域λrを3つの波長域λr1、λr2、λr3に分割し、各々がλr1、λr2、λr3に対応する3つの光感知セルを設けてもよい。この場合、3つの光感知セルの画素信号の合計を赤光に対応する信号であるとして処理することができる。   In the present embodiment, one photosensitive cell detects light in a wavelength range of red, green, or blue, but the wavelength range detected by one photosensitive cell may be further subdivided. For example, the wavelength range λr of red light may be divided into three wavelength ranges λr1, λr2, and λr3, and three photosensitive cells each corresponding to λr1, λr2, and λr3 may be provided. In this case, the sum of the pixel signals of the three photosensitive cells can be processed as a signal corresponding to red light.

以下、各光感知セルから出力される光電変換信号を説明する。まず、透光板2の領域C1、C2、C3に入射する光の強度に相当する信号を、それぞれ添え字「i」を付けてCi1、Ci2、Ci3と表すこととする。また、透光板2における透明領域C3、レンズ3、および赤外カットフィルタ4を合わせた分光透過率をTw、Cyフィルタの分光透過率をTcy、Yeフィルタの分光透過率をTyeとする。同様に、R、G、Bの各色フィルタの分光透過率を、それぞれTr、Tg、Tbと表す。ここで、Tw、Tcy、Tye、Tr、Tg、Tbは、入射する光の波長λに依存する関数である。R、G、Bの色フィルタを透過して対向する光感知セルで受光される光の強度を示す信号を、それぞれ添え字「s」を付けてRs、Gs、Bsと表す。また、可視光の波長域における分光透過率の積分演算を記号Σで表すこととする。例えば、波長λについての積分演算∫TwTcyTrdλなどを、ΣTwTcyTrなどと表すこととする。ここで、積分は可視光の全波長域にわたって行われるものとする。すると、Rsは、Ci1ΣTwTcyTr、Ci2ΣTwTyeTr、およびCi3ΣTwTrを合算した結果に比例する。Gsは、Ci1ΣTwTcyTg、Ci2ΣTwTyeTg、およびCi3ΣTwTgを合算した結果に比例する。Bsは、Ci1ΣTwTcyTb、Ci2ΣTwTyeTb、Ci3ΣTwTbを合算した結果に比例する。これらの関係における比例係数を1とすれば、Rs、Gs、Bsは、以下の式1〜3で表すことができる。   Hereinafter, a photoelectric conversion signal output from each photosensitive cell will be described. First, signals corresponding to the intensities of light incident on the regions C1, C2, and C3 of the translucent plate 2 are denoted by Ci1, Ci2, and Ci3 with the suffix “i”, respectively. In addition, the spectral transmittance of the transparent region C3, the lens 3, and the infrared cut filter 4 in the light transmitting plate 2 is Tw, the spectral transmittance of the Cy filter is Tcy, and the spectral transmittance of the Ye filter is Tye. Similarly, the spectral transmittances of the R, G, and B color filters are expressed as Tr, Tg, and Tb, respectively. Here, Tw, Tcy, Tye, Tr, Tg, and Tb are functions that depend on the wavelength λ of incident light. Signals indicating the intensity of light transmitted through the R, G, and B color filters and received by the opposing photosensitive cells are denoted by Rs, Gs, and Bs with a suffix “s”, respectively. Further, the integral calculation of the spectral transmittance in the wavelength range of visible light is represented by the symbol Σ. For example, the integral operation ∫TwTcyTrdλ for the wavelength λ is represented as ΣTwTcyTr. Here, it is assumed that the integration is performed over the entire wavelength range of visible light. Then, Rs is proportional to the result of adding Ci1ΣTwTcyTr, Ci2ΣTwTyeTr, and Ci3ΣTwTr. Gs is proportional to the sum of Ci1ΣTwTcyTg, Ci2ΣTwTyeTg, and Ci3ΣTwTg. Bs is proportional to the sum of Ci1ΣTwTcyTb, Ci2ΣTwTyeTb, and Ci3ΣTwTb. If the proportionality coefficient in these relationships is 1, Rs, Gs, and Bs can be expressed by the following formulas 1 to 3.

(式1)Rs=Ci1ΣTwTcyTr+Ci2ΣTwTyeTr+Ci3ΣTwTr
(式2)Gs=Ci1ΣTwTcyTg+Ci2ΣTwTyeTg+Ci3ΣTwTg
(式3)Bs=Ci1ΣTwTcyTb+Ci2ΣTwTyeTb+Ci3ΣTwTb
式1〜3において、ΣTwTcyTr、ΣTwTyeTr、ΣTwTrを、それぞれMx11、Mx12、Mx13で表し、ΣTwTcyTg、ΣTwTyeTg、ΣTwTgを、それぞれMx21、Mx22、Mx23で表し、ΣTwTcyTb、ΣTwTyeTb、ΣTwTbを、それぞれMx31、Mx32、Mx33で表すこととする。すると、Rs、Gs、BsとCi1、Ci2、Ci3との関係は、行列を用いて以下の式4で表すことができる。
(Formula 1) Rs = Ci1ΣTwTcyTr + Ci2ΣTwTyeTr + Ci3ΣTwTr
(Formula 2) Gs = Ci1ΣTwTcyTg + Ci2ΣTwTyeTg + Ci3ΣTwTg
(Expression 3) Bs = Ci1ΣTwTcyTb + Ci2ΣTwTyeTb + Ci3ΣTwTb
In Equations 1 to 3, ΣTwTcyTr, ΣTwTyTr, and ΣTwTr are represented by Mx11, Mx12, and Mx13, respectively, ΣTwTcyTg, ΣTwTyeTg, and ΣTwTg are represented by Mx21, Mx22, and Mx23, and ΣTwTcyTb, ΣTwTxTb, It will be expressed as Mx33. Then, the relationship between Rs, Gs, and Bs and Ci1, Ci2, and Ci3 can be expressed by the following Expression 4 using a matrix.

Figure 0005406151
ここで、式4における要素Mx11〜Mx33からなる行列の逆行列の要素を、それぞれiM11〜iM33とすると、式4は次の式5に変形できる。すなわち、領域C1、C2、C3に入射する光の強度を示す信号を、光電変換信号Rs、Gs、Bsを用いて表すことができる。
Figure 0005406151
Here, if the elements of the inverse matrix of the matrix composed of the elements Mx11 to Mx33 in Expression 4 are iM11 to iM33, respectively, Expression 4 can be transformed into the following Expression 5. That is, a signal indicating the intensity of light incident on the regions C1, C2, and C3 can be expressed using the photoelectric conversion signals Rs, Gs, and Bs.

Figure 0005406151
画像生成部7(図1)は、式5に基づく信号演算を実行し、信号Ci1、Ci2、Ci3を、単位ブロックごとに生成する。このようにして単位ブロックごとに生成された信号Ci1、Ci2、Ci3は、領域C1、C2、C3のそれぞれに入射する光によって形成される3つの画像を表す。特に、信号Ci1、Ci2によって表される画像は、x方向に離れて位置する領域C1、C2からそれぞれ被写体を見たときの画像に相当するため、左目用画像および右目用画像として扱うことができる。すなわち、信号Ci1、Ci2によって表される2つの画像は、領域C1、C2の距離に応じた視差を有する。したがって、これらの画像から被写体の奥行きを示す情報を得ることができる。
Figure 0005406151
The image generation unit 7 (FIG. 1) performs signal calculation based on Expression 5, and generates signals Ci1, Ci2, and Ci3 for each unit block. The signals Ci1, Ci2, and Ci3 generated for each unit block in this way represent three images formed by light incident on each of the regions C1, C2, and C3. In particular, since the images represented by the signals Ci1 and Ci2 correspond to images when the subject is viewed from the regions C1 and C2 that are located apart in the x direction, they can be handled as a left-eye image and a right-eye image. . That is, the two images represented by the signals Ci1 and Ci2 have parallax according to the distance between the regions C1 and C2. Therefore, information indicating the depth of the subject can be obtained from these images.

以上の処理によって得られる画像信号Ci1、Ci2、Ci3は、光電変換信号Rs、Gs、Bsを用いて表されるが、これらはカラー画像ではなく、濃淡画像(白黒画像)に相当する。濃淡画像ではなくカラー画像を得るには、上記の信号演算処理は行わず、得られた各光電変換信号から通常のBayer配列におけるカラー処理を行えばよい。その際、透光板2に配置されたCyフィルタ、Yeフィルタによって入射光の損失や色温度ずれが発生し得るが、これらの色フィルタの光透過率が高いため、入射光の損失を従来技術の場合よりも小さくできる。また、全体的な色のずれが発生しても白バランスの調整により対処できる。このように、本実施形態の撮像装置によれば、光利用率の高い良好なカラー画像を得ることができる。   Image signals Ci1, Ci2, and Ci3 obtained by the above processing are expressed using photoelectric conversion signals Rs, Gs, and Bs, but these correspond to grayscale images (monochrome images), not color images. In order to obtain a color image instead of a grayscale image, the above signal calculation processing is not performed, and color processing in a normal Bayer array may be performed from each obtained photoelectric conversion signal. At this time, the loss of incident light and the color temperature shift may occur due to the Cy filter and Ye filter disposed on the light-transmitting plate 2. However, since the light transmittance of these color filters is high, the loss of the incident light is reduced. It can be smaller than the case. Further, even if an overall color shift occurs, it can be dealt with by adjusting the white balance. Thus, according to the imaging apparatus of the present embodiment, a good color image with a high light utilization rate can be obtained.

なお、カラー画像を得る際に、各光電変換信号から通常のBayer配列におけるカラー処理を行うのではなく、式4におけるCi3の項だけを利用してカラー情報を得てもよい。すなわち、式5に基づいてCi3を求めた後、Mx13×Ci3をRの光量、Mx23×Ci3をGの光量、Mx33×Ci3をBの光量とすることによってもカラー画像を得ることができる。   When obtaining a color image, color information may be obtained by using only the term Ci3 in Equation 4 instead of performing color processing in a normal Bayer array from each photoelectric conversion signal. That is, after obtaining Ci3 based on Equation 5, a color image can also be obtained by setting Mx13 × Ci3 as the R light amount, Mx23 × Ci3 as the G light amount, and Mx33 × Ci3 as the B light amount.

ここで得られた画像信号Ci1とCi2とを用いて、視差信号を生成し、距離情報の算出を行うことが考えられる。距離情報の算出ができれば、カラー画像における視差信号の生成や、任意視点の画像生成、前景と背景の切り出しなど、様々な応用が可能となる。   It is conceivable that a parallax signal is generated using the image signals Ci1 and Ci2 obtained here, and distance information is calculated. If the distance information can be calculated, various applications such as generation of a parallax signal in a color image, generation of an image of an arbitrary viewpoint, and clipping of the foreground and background become possible.

一般に、距離情報を算出するためには、画像信号Ci1の各画素と画像信号Ci2の各画素との対応を求める必要がある。画素の対応を求めるとは、画像信号Ci1における特定の画素に写る被写体の3次元中の点pが、画像信号Ci2のどの画素に写っているかを探索することである。画像信号Ci1において座標(x1,y1)で表される画素に写る被写体が画像信号Ci2において座標(x2,y2)で表される画素に写っているとする。このとき、対応する画素間の距離(座標(x1,y1)と座標(x2,y2)との距離であり、ユークリッド距離や市街地距離など)が求められれば、カメラから被写体までの距離を計算することができる。この対応する画素間の距離を本実施形態では「視差量」と呼ぶ。   In general, in order to calculate distance information, it is necessary to obtain a correspondence between each pixel of the image signal Ci1 and each pixel of the image signal Ci2. Obtaining the correspondence of the pixel means searching for which pixel in the image signal Ci2 the point p in the three-dimensional object of the subject that appears in the specific pixel in the image signal Ci1. It is assumed that the subject shown in the pixel represented by the coordinates (x1, y1) in the image signal Ci1 is shown in the pixel represented by the coordinates (x2, y2) in the image signal Ci2. At this time, if the distance between the corresponding pixels (the distance between the coordinates (x1, y1) and the coordinates (x2, y2), such as the Euclidean distance or the city area distance) is obtained, the distance from the camera to the subject is calculated. be able to. The distance between the corresponding pixels is referred to as “parallax amount” in the present embodiment.

以下、図5を参照しながら、カメラから被写体までの距離計測の原理を説明する。図5は、透光板2、被写体9、および撮像素子1の配置関係を示す模式図である。なお、図5において、レンズ3(不図示)の中心は透光板2の中心の位置にあるものと仮定している。図5において、レンズ3の焦点距離をf、透光板2から被写体9までの距離をz、カメラが被写体9を撮影したときに生じる視差量をd、領域C1、C2の中心間の距離をLとする。このとき、一般的な二眼ステレオの原理から、距離zは以下の式6によって求められる。
(式6) z=fL/d
焦点距離fと領域C1、C2間の距離Lは事前に求められるので、視差量dがわかれば、距離zが求められる。これにより、被写体までの距離情報を求めることができる。
Hereinafter, the principle of distance measurement from the camera to the subject will be described with reference to FIG. FIG. 5 is a schematic diagram showing a positional relationship among the light transmitting plate 2, the subject 9, and the image sensor 1. In FIG. 5, it is assumed that the center of the lens 3 (not shown) is located at the center of the translucent plate 2. In FIG. 5, the focal length of the lens 3 is f, the distance from the translucent plate 2 to the subject 9 is z, the amount of parallax generated when the camera captures the subject 9 is d, and the distance between the centers of the regions C1 and C2 is shown. Let L be. At this time, the distance z is obtained by the following equation 6 from the principle of general binocular stereo.
(Formula 6) z = fL / d
Since the distance L between the focal distance f and the areas C1 and C2 is obtained in advance, if the parallax amount d is known, the distance z is obtained. Thereby, distance information to the subject can be obtained.

画像信号Ci1の特徴点と、その特徴点に対応する画像信号Ci2の特徴点との視差量を求めるための既存の方法として、濃淡値の類似度に基づいて対応点の座標を求める方法がある。例えば、画像を複数の小ブロックに分割し、ブロック同士のSAD(絶対誤差)やSSD(二乗誤差)を算出する方法がある。類似するブロックから算出された誤差は小さくなるため、誤差が最小となるブロックの組合せを決定することで信号Ci1と信号Ci2との間の対応点を求めることができる。これにより、視差量dを算出できる。   As an existing method for obtaining the parallax amount between the feature point of the image signal Ci1 and the feature point of the image signal Ci2 corresponding to the feature point, there is a method of obtaining the coordinates of the corresponding point based on the similarity of the gray value. . For example, there is a method of dividing an image into a plurality of small blocks and calculating SAD (absolute error) or SSD (square error) between the blocks. Since the error calculated from the similar blocks becomes small, the corresponding point between the signal Ci1 and the signal Ci2 can be obtained by determining the combination of the blocks that minimizes the error. Thereby, the parallax amount d can be calculated.

しかしながら、画像信号Ci1およびCi2は、一般に対応点同士の濃淡値が異なるため、上記の方法で視差量dを求めると誤差が生じる。画像信号Ci1、Ci2、Ci3は、それぞれ被写体から透過領域C1、C2、C3に入射する光の強度を示す信号である。したがって、透過領域C1、C2を透過した光の強度を求めれば、各領域に入射するシアン光(緑光および青光)および黄光(赤光および緑光)の強度を求めることができる。透過領域C1、C2を透過した光の強度を示す信号は、それぞれCi1ΣTwTcyおよびCi2ΣTwTyeで表される。しかしながら、透過領域C1とC2とは透過波長域が異なるため、被写体が有彩色の場合、視差を有する信号Ci1ΣTwTcyおよびCi2ΣTwTyeについても対応点同士の濃淡値は互いに異なる。   However, since the image signals Ci1 and Ci2 generally have different gray values at corresponding points, an error occurs when the parallax amount d is obtained by the above method. The image signals Ci1, Ci2, and Ci3 are signals that indicate the intensities of light incident on the transmission regions C1, C2, and C3 from the subject, respectively. Therefore, if the intensity of the light transmitted through the transmission areas C1 and C2 is obtained, the intensity of cyan light (green light and blue light) and yellow light (red light and green light) incident on each area can be obtained. Signals indicating the intensity of light transmitted through the transmission regions C1 and C2 are represented by Ci1ΣTwTcy and Ci2ΣTwTye, respectively. However, since the transmission regions C1 and C2 have different transmission wavelength ranges, when the subject has a chromatic color, the gray values of corresponding points of the signals Ci1ΣTwTcy and Ci2ΣTwTye having parallax are also different from each other.

図6(a)、(b)、(c)は、それぞれ撮影画像(カラー画像)、Ci1ΣTwTcyで表される画像、Ci2ΣTwTyeで表される画像を示す図である。これらの画像の背景にはカラーチャート(色比較表)が置かれている。図6(a)の矢印は、カラーチャートの一部の区画が何色であるかを示している。例えば、被写体が青い場合、CyフィルタC1を透過する光の強度を示す信号Ci1ΣTwTcyの濃淡値は、YeフィルタC2を透過する光の強度を示す信号Ci2ΣTwTyeの濃淡値よりも大きくなる。したがって、図6(b)における青い区画の部分は、図6(c)における青い区画の部分よりも明るくなる。逆に、図6(b)における黄色い区画の部分は、図6(c)における黄色い区画の部分よりも暗くなる。このように、被写体が有彩色の場合にはCi1ΣTwTcyとCi2ΣTwTyeとで濃淡値が異なる。このため、濃淡値の類似度に基づく既存のマッチング方法を利用することができない。   6A, 6B, and 6C are diagrams illustrating a captured image (color image), an image represented by Ci1ΣTwTcy, and an image represented by Ci2ΣTwTye, respectively. The background of these images is a color chart (color comparison table). The arrows in FIG. 6A indicate the colors of some sections of the color chart. For example, when the subject is blue, the gray value of the signal Ci1ΣTwTcy indicating the intensity of light transmitted through the Cy filter C1 is larger than the gray value of the signal Ci2ΣTwTye indicating the intensity of light transmitted through the Ye filter C2. Accordingly, the blue section in FIG. 6B is brighter than the blue section in FIG. Conversely, the yellow section in FIG. 6B is darker than the yellow section in FIG. As described above, when the subject is a chromatic color, the gradation value is different between Ci1ΣTwTcy and Ci2ΣTwTye. For this reason, the existing matching method based on the similarity of the gray value cannot be used.

特許文献3には、絞りにR、G、Bの色フィルタを配置し、各色フィルタを透過した光によって生成される視差を有する3枚の画像を用いて視差量を求める方法が開示されている。この方法では、R、G、Bの各成分の間に視差が生じていない通常の自然画像においては、局所的にR、G、Bの値の分布が(R,G,B)の3次元空間(3次元色空間)で線型になるという性質が利用される。すなわち、R画像、G画像、B画像との間に視差が生じていない場合、(R,G,B)の3次元空間における画素値の分布は直線状になり、視差が生じている場合、分布は直線状にはならない。したがって、視差量を仮にdとし、dの値をある範囲内で変動させたときに、(R,G,B)の分布が直線からどの程度ずれているかを示す量が最小となるdの値を求めることによって視差を推定することができる。このように、色成分によって視差が生じていない自然画像では局所的に3次元色空間上の分布が直線状になるモデルを「線型色モデル(color lines model)」と呼ぶ。線型色モデルについての詳細は、例えば非特許文献1に開示されている。   Patent Document 3 discloses a method of disposing an R, G, B color filter on a diaphragm and obtaining a parallax amount using three images having parallax generated by light transmitted through each color filter. . In this method, in a normal natural image in which no parallax occurs between the R, G, and B components, the three-dimensional distribution of R, G, and B values is locally (R, G, B). The property of being linear in space (three-dimensional color space) is used. That is, when there is no parallax between the R image, G image, and B image, the distribution of pixel values in the three-dimensional space (R, G, B) is linear, and when parallax occurs, The distribution is not linear. Accordingly, when the parallax amount is assumed to be d and the value of d is varied within a certain range, the value of d that minimizes the amount indicating how much the distribution of (R, G, B) is deviated from the straight line. Can be estimated. As described above, a model in which the distribution in the three-dimensional color space is locally linear in a natural image in which no parallax is generated by the color component is referred to as a “color line model”. Details of the linear color model are disclosed in Non-Patent Document 1, for example.

本実施形態における撮像装置は、上記の特許文献3の方法と同様、線型色モデルを利用して画像間の視差を求める。ただし、本実施形態では、特許文献3とは異なり、各画素信号Rs、Gs、Bsは、特定の透過領域に直接対応しているわけではなく、複数の透過領域C1、C2、C3から入射する光によって生成される信号成分が重畳する。よって、C1、C2、C3に入射する光の強度に応じた3つの信号であり、かつ互いに異なる色成分を表す3つの信号を生成する必要がある。   The imaging apparatus according to the present embodiment obtains parallax between images using a linear color model, as in the method of Patent Document 3 described above. However, in this embodiment, unlike Patent Document 3, each pixel signal Rs, Gs, Bs does not directly correspond to a specific transmission region, but is incident from a plurality of transmission regions C1, C2, C3. Signal components generated by light are superimposed. Therefore, it is necessary to generate three signals corresponding to the intensity of light incident on C1, C2, and C3 and representing different color components.

本実施形態では、透光板2の透過領域における色フィルタとして、CyおよびYeの2種類の補色フィルタが用いられる。そこで、まず、各色成分の間で視差が生じていない場合、補色系においてもR、G、Bを利用する既存の方法と同様、補色(Cy、マゼンタ(Mg)、Ye)の3次元空間上で各画像の画素値(Cy、Mg、Ye)の分布が直線状になることを示す。   In the present embodiment, two types of complementary color filters, Cy and Ye, are used as color filters in the transmission region of the translucent plate 2. Therefore, first, when there is no parallax between the color components, the complementary colors (Cy, magenta (Mg), Ye) on the three-dimensional space are also used in the complementary color system as in the existing method using R, G, B. This indicates that the distribution of pixel values (Cy, Mg, Ye) of each image is linear.

原色系で線型な分布となる画素値の集合が、補色系でも線型な分布となるためには、原色と補色とが線型な関係にあればよい。ここで、原色R、G、Bと補色Cy、Mg、Yeとの関係は次の式7で表される。   In order for a set of pixel values having a linear distribution in the primary color system to have a linear distribution in the complementary color system, the primary color and the complementary color need only have a linear relationship. Here, the relationship between the primary colors R, G, and B and the complementary colors Cy, Mg, and Ye is expressed by the following Expression 7.

(式7) (R、G、B)=(bit―Cy、bit−Mg、bit−Ye)
定数bitは1画素の信号の最大値であり、例えば8ビット画像であれば255である。式7より、補色と原色とは線型変換が可能であるため、局所線型性の関係は補色の3次元空間でも成立することがわかる。図7は、原色系における直線が補色系でも直線になる例を示している。図7(a)は、R、G、Bの3次元色空間における直線を示し、図7(b)は、Cy、Mg、Yeの3次元色空間における対応する直線を示している。このように、線型色モデルを利用した視差の推定は補色系においても有効である。
(Formula 7) (R, G, B) = (bit-Cy, bit-Mg, bit-Ye)
The constant bit is the maximum value of the signal of one pixel, and is, for example, 255 for an 8-bit image. From Equation 7, it can be seen that the linear color can be linearly converted between the complementary color and the primary color, so that the local linearity relationship is also established in the three-dimensional space of the complementary color. FIG. 7 shows an example in which the straight line in the primary color system becomes a straight line even in the complementary color system. FIG. 7A shows straight lines in the three-dimensional color space of R, G, and B, and FIG. 7B shows corresponding straight lines in the three-dimensional color space of Cy, Mg, and Ye. Thus, parallax estimation using a linear color model is also effective in a complementary color system.

以上の事から、補色系の視差を有する3枚の画像から視差量を推定することができる。以下、Cy領域、Ye領域、および透明領域からなる透光板2を用いた撮像によって得られるRGBの画素信号から、視差を有するCy、Mg、Yeの3つの画像信号を生成する手順を説明する。続いて、これらの画像の間の視差量を推定し、被写体の距離情報を算出する手順を説明する。   From the above, the amount of parallax can be estimated from three images having complementary color parallax. Hereinafter, a procedure for generating three image signals of Cy, Mg, and Ye having parallax from RGB pixel signals obtained by imaging using the light-transmitting plate 2 including the Cy region, the Ye region, and the transparent region will be described. . Next, a procedure for estimating the amount of parallax between these images and calculating subject distance information will be described.

図8は、信号処理部200における処理の概略手順を示すフロー図である。撮影が完了すると、画像生成部7は、撮影によって得られた画素信号Rs、Gs、Bsから視差を有する3つの補色画像(視差補色画像)を生成する(S100)。次に、視差推定部40は、3次元色空間における色線型性を利用して3つの視差補色画像間の視差量を推定する(S200)。最後に、距離情報生成部50は、推定された視差量に基づいて、式6により、各画素に写る被写体の距離情報を算出する(S300)。   FIG. 8 is a flowchart showing a schematic procedure of processing in the signal processing unit 200. When shooting is completed, the image generation unit 7 generates three complementary color images (parallax complementary color images) having parallax from the pixel signals Rs, Gs, and Bs obtained by shooting (S100). Next, the parallax estimation unit 40 estimates the amount of parallax between the three parallax complementary color images using the color linearity in the three-dimensional color space (S200). Finally, the distance information generation unit 50 calculates the distance information of the subject shown in each pixel based on the estimated amount of parallax, using Equation 6 (S300).

以下、各処理の詳細を説明する。   Details of each process will be described below.

まず、Cy領域、Ye領域、透明領域を有する透光板2を用いた撮像によって得られる画素信号Rs、Gs、Bsから、視差を有する3つの補色画像信号Cs、Ys、Msを生成する手順を説明する。画像生成部7は、式1、式2、式3のそれぞれをTwで除算することにより、以下の式8、式9、式10でそれぞれ表される信号Rt、Gt、Btを得る。   First, a procedure for generating three complementary color image signals Cs, Ys, and Ms having parallax from pixel signals Rs, Gs, and Bs obtained by imaging using the translucent plate 2 having a Cy region, a Ye region, and a transparent region. explain. The image generation unit 7 obtains signals Rt, Gt, and Bt represented by the following Expression 8, Expression 9, and Expression 10, respectively, by dividing Expression 1, Expression 2, and Expression 3 by Tw.

(式8)Rt=Rs/Tw=Ci1ΣTcyTr+Ci2ΣTyeTr+Ci3ΣTr
(式9)Gt=Gs/Tw=Ci1ΣTcyTg+Ci2ΣTyeTg+Ci3ΣTg
(式10)Bt=Bs/Tw=Ci1ΣTcyTb+Ci2ΣTyeTb+Ci3ΣTb
Cyは、GおよびBの波長域を有するため、本実施形態では、以下の式11で表されるGt+Bt−RtをCy成分の画像信号Csと定義する。
(Expression 8) Rt = Rs / Tw = Ci1ΣTcyTr + Ci2ΣTyeTr + Ci3ΣTr
(Formula 9) Gt = Gs / Tw = Ci1ΣTcyTg + Ci2ΣTyeTg + Ci3ΣTg
(Expression 10) Bt = Bs / Tw = Ci1ΣTcyTb + Ci2ΣTyeTb + Ci3ΣTb
Since Cy has wavelength ranges of G and B, in this embodiment, Gt + Bt−Rt expressed by the following Expression 11 is defined as an image signal Cs of a Cy component.

(式11) Cs=Gt+Bt−Rt
= Ci1(ΣTcyTg+ΣTcyTb−ΣTcyTr)
+Ci2(ΣTyeTg+ΣTyeTb−ΣTyeTr)
+Ci3(ΣTg+ΣTb−ΣTr)
同様に、以下の式12、13で表される信号をそれぞれMg、Ye成分の画像信号Ms、Ysと定義する。
(Formula 11) Cs = Gt + Bt−Rt
= Ci1 (ΣTcyTg + ΣTcyTb−ΣTcyTr)
+ Ci2 (ΣTyeTg + ΣTyeTb−ΣTyeTr)
+ Ci3 (ΣTg + ΣTb−ΣTr)
Similarly, signals represented by the following expressions 12 and 13 are defined as image signals Ms and Ys of Mg and Ye components, respectively.

(式12) Ms=Rt+Bt−Gt
= Ci1(ΣTcyTr+ΣTcyTb−ΣTcyTg)
+Ci2(ΣTyeTr+ΣTyeTb−ΣTyeTg)
+Ci3(ΣTr+ΣTb−ΣTg)
(式13) Ys=Rt+Gt−Bt
= Ci1(ΣTcyTr+ΣTcyTg−ΣTcyTb)
+Ci2(ΣTyeTr+ΣTyeTg−ΣTyeTb)
+Ci3(ΣTr+ΣTg−ΣTb)
ここで、Cyフィルタの透過波長域にはRの波長域が殆ど含まれず、Yeフィルタの透過波長域にはBの波長域が殆ど含まれないため、ΣTcyTr≒ΣTyeTb≒0となる。また、Cyフィルタの透過波長域はGの波長域とBの波長域とをほぼ等しく含み、Yeフィルタの透過波長域はGの波長域とRの波長域とをほぼ等しく含むと仮定する。すると、ΣTcyTg≒ΣTcyTb、およびΣTyeTg≒ΣTyeTrが成立する。さらに、撮像素子1の各画素に対向する色フィルタの分光透過率の積算値は全ての色成分について等しいと仮定する。すなわち、ΣTr≒ΣTg≒ΣTgが成立するものとする。以上の仮定により、式11、12、13は、それぞれ以下の式14、15、16に書き替えられる。
(Formula 12) Ms = Rt + Bt−Gt
= Ci1 (ΣTcyTr + ΣTcyTb−ΣTcyTg)
+ Ci2 (ΣTyeTr + ΣTyeTb−ΣTyeTg)
+ Ci3 (ΣTr + ΣTb−ΣTg)
(Formula 13) Ys = Rt + Gt−Bt
= Ci1 (ΣTcyTr + ΣTcyTg−ΣTcyTb)
+ Ci2 (ΣTyeTr + ΣTyeTg−ΣTyeTb)
+ Ci3 (ΣTr + ΣTg−ΣTb)
Here, the R wavelength range is hardly included in the transmission wavelength range of the Cy filter, and the B wavelength range is hardly included in the transmission wavelength range of the Ye filter, so that ΣTcyTr≈ΣTyeTb≈0. Further, it is assumed that the transmission wavelength range of the Cy filter includes the G wavelength range and the B wavelength range substantially equal, and the transmission wavelength range of the Ye filter includes the G wavelength range and the R wavelength range substantially equal. Then, ΣTcyTg≈ΣTcyTb and ΣTyeTg≈ΣTyeTr are established. Furthermore, it is assumed that the integrated value of the spectral transmittance of the color filter facing each pixel of the image sensor 1 is the same for all color components. That is, ΣTr≈ΣTg≈ΣTg is established. Based on the above assumptions, the equations 11, 12, and 13 are rewritten as the following equations 14, 15, and 16, respectively.

(式14) Cs=Gt+Bt―Rt
=Ci1(ΣTcyTg+ΣTcyTb)+Ci3ΣTg
(式15) Ms=Rt+Bt―Gt
=Ci3ΣTr
(式16) Ys=Rt+Gt―Bt
=Ci2(ΣTyeTr+ΣTyeTg)+Ci3ΣTg
式14は、式11からCi2の項が除去されている。式14の第1項はCy領域を透過する光の量を表しており、Ci1のみに依存している。第2項は透明領域Ci3を透過してGフィルタを透過する光の量を表している。ここで、Gの波長域の光(G光)は、Cy領域、Ye領域、透明領域の全ての領域を透過する光である。したがって、第2項は、全ての透過領域を透過するG光の量に、透光板2の面積に対する領域C3の面積の割合を掛けた量を示すため、明るさに関するオフセットと考えることができる。オフセットがある場合でも、補色系の3次元空間の分布が全体的にシフトするだけであるため、線型性の算出には影響しない。
(Formula 14) Cs = Gt + Bt−Rt
= Ci1 (ΣTcyTg + ΣTcyTb) + Ci3ΣTg
(Formula 15) Ms = Rt + Bt−Gt
= Ci3ΣTr
(Formula 16) Ys = Rt + Gt−Bt
= Ci2 (ΣTyeTr + ΣTyeTg) + Ci3ΣTg
In Expression 14, the term Ci2 is removed from Expression 11. The first term of Equation 14 represents the amount of light that passes through the Cy region and depends only on Ci1. The second term represents the amount of light that passes through the transparent region Ci3 and passes through the G filter. Here, the light in the G wavelength range (G light) is light that passes through all of the Cy region, the Ye region, and the transparent region. Therefore, the second term indicates the amount of G light transmitted through all the transmission regions multiplied by the ratio of the area of the region C3 to the area of the translucent plate 2, and can be considered as an offset related to brightness. . Even when there is an offset, the distribution of the three-dimensional space of the complementary color system only shifts as a whole, and thus does not affect the calculation of linearity.

同様に、式15は、式12からCi1およびCi2の成分が除去されている。式16は、式13からCi1の成分が除去されている。このようにして、RGBの画素信号から、式14〜16に示す演算を行うことにより、視差を有する3つの補色画像の濃淡値が得られる。   Similarly, in Equation 15, the components Ci1 and Ci2 are removed from Equation 12. In Expression 16, the component Ci1 is removed from Expression 13. In this way, the grayscale values of the three complementary color images having parallax are obtained by performing the calculations shown in Expressions 14 to 16 from the RGB pixel signals.

次に、視差量の推定方法を説明する。   Next, a method for estimating the amount of parallax will be described.

まず、Mg画像に対するCy画像およびYe画像の視差量をd画素とする。すると、Cy画像の値(画素値)をIcy(x―d,y)、Ye画像の値(画素値)をIye(x+d、y)、Mg画像の値(画素値)をImg(x,y)とし、それらが実世界上の同一の点を示していることを、局所領域における補色の線型性を利用して求めればよい。   First, the parallax amount of the Cy image and Ye image with respect to the Mg image is set to d pixels. Then, the Cy image value (pixel value) is Icy (x−d, y), the Ye image value (pixel value) is Iye (x + d, y), and the Mg image value (pixel value) is Img (x, y). And the fact that they indicate the same point in the real world may be obtained using the linearity of complementary colors in the local region.

ある画素(x,y)において局所領域における線型性を利用して視差量dを求めるためには、次のようにすればよい。局所的な画素値の分布が直線状に分布するか否かを判定することによって視差量dが求められる。画素(x,y)の近傍領域の画素値の集合を次の式17で定義する。   In order to obtain the parallax amount d using the linearity in the local region in a certain pixel (x, y), the following may be performed. The parallax amount d is obtained by determining whether or not the local pixel value distribution is linearly distributed. A set of pixel values in the vicinity region of the pixel (x, y) is defined by the following Expression 17.

(式17) P={Icy(s−d,t),Img(s,t),Iye(s+d,t)|(s,t)は(x,y)周りの近傍画素}
図9は、Cy画像、Mg画像、Ye画像の各々における対応点の近傍領域の画素ブロック60a、60b、60cを示す図である。ここで、Mg画像における対応点の座標を(x、y)としている。視差量がd画素であるため、Cy画像は、Mg画像に比べて水平方向にーd画素だけ対応点がずれる。同様に、Ye画像は、Mg画像に比べて水平方向に+d画素だけ対応点がずれる。したがって、Mg画像における点(x、y)の近傍の画素ブロック60bは、Cy画像では点(x−d、y)の近傍の画素ブロック60aに対応し、Ye画像では点(x+d、y)の近傍の画素ブロック60cに対応する。
(Expression 17) P = {Icy (s−d, t), Img (s, t), Iye (s + d, t) | (s, t) is a neighboring pixel around (x, y)}
FIG. 9 is a diagram illustrating pixel blocks 60a, 60b, and 60c in the vicinity of corresponding points in each of the Cy image, Mg image, and Ye image. Here, the coordinates of corresponding points in the Mg image are (x, y). Since the parallax amount is d pixels, the Cy image has a corresponding point shifted by −d pixels in the horizontal direction compared to the Mg image. Similarly, the Ye image has a corresponding point shifted by + d pixels in the horizontal direction compared to the Mg image. Therefore, the pixel block 60b in the vicinity of the point (x, y) in the Mg image corresponds to the pixel block 60a in the vicinity of the point (x−d, y) in the Cy image, and the point (x + d, y) in the Ye image. This corresponds to the neighboring pixel block 60c.

式17によって得られる分布に直線を当てはめ、当てはめた直線からの二乗平均を線型色モデルからの誤差Er(x,y,d)とする。直線を求めるためには、補色の3次元空間の分布から、分布の広がり方向である主軸を算出すればよい。そのために、まずPの共分散行列Sを求める。集合Pの主軸は、共分散行列の最大固有値λmaxに対する固有ベクトルである。分布が直線状であるとき、Cy、Ye、Mgの各画像の局所領域内の分散の和とλmaxは等しい値となる。すなわち、誤差Er(x,y,d)は、次の式18で表される。   A straight line is fitted to the distribution obtained by Expression 17, and the mean square from the fitted straight line is defined as an error Er (x, y, d) from the linear color model. In order to obtain a straight line, it is only necessary to calculate the main axis, which is the direction in which the distribution spreads, from the distribution of the complementary color three-dimensional space. For this purpose, first, a covariance matrix S of P is obtained. The principal axis of the set P is an eigenvector for the maximum eigenvalue λmax of the covariance matrix. When the distribution is linear, λmax is equal to the sum of the variances in the local regions of the Cy, Ye, and Mg images. That is, the error Er (x, y, d) is expressed by the following equation 18.

(式18) Er(x,y,d)=S00+S11+S22―λmax
ここで、S00,S11,S22は、以下の式19、式20、式21で表される値であり、それぞれCy、Mg、Yeの分散である。
(Expression 18) Er (x, y, d) = S00 + S11 + S22−λmax
Here, S00, S11, and S22 are values represented by the following Expressions 19, 20, and 21, which are dispersions of Cy, Mg, and Ye, respectively.

(式19)S00=Σ(Icy(s―d,t)−avg(Icy))2/N
(式20)S11=Σ(Img(s,t)−avg(Img))2/N
(式21)S22=Σ(Iye(s+d,t)−avg(Iye))2/N
ここで、Nは集合Pに含まれる画素数、avg(Icy)、avg(Img)、avg(Iye)は各成分の平均値であり、次の式22、式23、式24で表される。
(Expression 19) S00 = Σ (Icy (s−d, t) −avg (Icy)) 2 / N
(Formula 20) S11 = Σ (Img (s, t) −avg (Img)) 2 / N
(Formula 21) S22 = Σ (Iye (s + d, t) −avg (Iye)) 2 / N
Here, N is the number of pixels included in the set P, avg (Icy), avg (Img), and avg (Iye) are average values of the respective components, and are expressed by the following Expression 22, Expression 23, and Expression 24. .

(式22)avg(Icy)=ΣIcy(s―d,t)/N
(式23)avg(Img)=ΣImg(s,t)/N
(式24)avg(Iye)=ΣIye(s+d,t)/N
式18で表される誤差Er(x,y,d)が大きければ、視差量がdであるという仮定が誤りである可能性が高いことを意味する。
(Formula 22) avg (Icy) = ΣIcy (s−d, t) / N
(Equation 23) avg (Img) = ΣImg (s, t) / N
(Formula 24) avg (Iye) = ΣIye (s + d, t) / N
If the error Er (x, y, d) expressed by Equation 18 is large, it means that the assumption that the amount of parallax is d is likely to be erroneous.

図10(a)は、誤差Erが比較的小さい場合の3次元色空間における点集合の分布の例を示している。一方、図10(b)は、誤差Erが比較的大きい場合の3次元色空間における点集合の分布の例を示している。この図の例では、図10(b)に示す分布よりも図10(a)に示す分布の方が直線lに近いため、図10(a)における視差量の推定値dがより正しい視差量であると判定される。   FIG. 10A shows an example of the distribution of the point set in the three-dimensional color space when the error Er is relatively small. On the other hand, FIG. 10B shows an example of the distribution of the point set in the three-dimensional color space when the error Er is relatively large. In the example of this figure, since the distribution shown in FIG. 10A is closer to the straight line l than the distribution shown in FIG. 10B, the estimated value d of the parallax amount in FIG. It is determined that

以上のことから、視差量の推定値dを一定の範囲で変化させ(例えば、dを−20から20まで1ずつ変化させ)、Er(x,y,d)が最小となるdを座標(x,y)における視差量とすればよい。以上の処理を各画素について行うことにより、3つの視差補色画像間の視差の算出が可能となる。   From the above, the estimated value d of the parallax amount is changed within a certain range (for example, d is changed by 1 from −20 to 20), and d at which Er (x, y, d) is minimized is expressed as a coordinate ( What is necessary is just to set it as the amount of parallax in x, y). By performing the above processing for each pixel, the parallax between the three parallax complementary color images can be calculated.

以下、視差推定部40の構成および処理の手順を具体的に説明する。   Hereinafter, the configuration and processing procedure of the parallax estimation unit 40 will be specifically described.

図11は、視差推定部40の構成を示すブロック図である。視差推定部40は、画像生成部7によって生成された3つの視差補色画像から画素ごとに画素ブロックを抽出する画素ブロック抽出部42と、各画素ブロックにおける画素値の集合から直線に対するずれの程度を判定するずれ判定部44と、判定結果に基づいて視差量を決定する視差量決定部46とを含んでいる。視差量決定部46によって画素ごとに決定された視差量dは、距離情報生成部50に出力される。   FIG. 11 is a block diagram illustrating a configuration of the parallax estimation unit 40. The parallax estimation unit 40 extracts a pixel block extraction unit 42 for each pixel from the three parallax complementary color images generated by the image generation unit 7, and the degree of deviation with respect to a straight line from a set of pixel values in each pixel block. A shift determination unit 44 for determination and a parallax amount determination unit 46 for determining a parallax amount based on the determination result are included. The parallax amount d determined for each pixel by the parallax amount determining unit 46 is output to the distance information generating unit 50.

図12は、視差推定部40による処理の手順を示すフロー図である。画像生成部7によって3つの視差補色画像が生成されると、各画像について画素ごとに以下の手順で視差量を推定する。まずステップS202において、画素ブロック抽出部42は、Cy画像およびYe画像がMg画像から何画素ずれているかを示す視差量の推定値dを複数の候補の中から設定する。次に、ステップS203において、推定した視差量dに応じて3つの画像の各々から画素ブロックを抽出する。続いて、ステップS204において、式17に基づき、3つの画素ブロックの画素値の集合から3次元色空間上の点集合を求める。次に、ステップS205において、ずれ判定部44は、3次元色空間上の点集合の分布が直線からどの程度ずれているかを式18に基づいて判定する。視差量の推定値dの全候補について判定が完了していない場合は、ステップS207において、視差推定値dを他の候補値に変更してステップS203〜S205を繰り返す。視差量の推定値dの全候補について判定が完了した場合は、ステップS208において、視差量決定部46は、式18で示される誤差Er(x,y,d)が最小となるdを座標(x,y)における真の視差量として決定する。視差推定部40は、以上の処理を各画素について実行することにより、3つの視差補色画像間の視差を求める。   FIG. 12 is a flowchart illustrating a processing procedure performed by the parallax estimation unit 40. When three parallax complementary color images are generated by the image generation unit 7, the amount of parallax is estimated for each pixel in the following procedure for each pixel. First, in step S202, the pixel block extracting unit 42 sets an estimated value d of the parallax amount indicating how many pixels the Cy image and Ye image are deviated from the Mg image from among a plurality of candidates. Next, in step S203, a pixel block is extracted from each of the three images according to the estimated parallax amount d. Subsequently, in step S204, a point set in the three-dimensional color space is obtained from the set of pixel values of the three pixel blocks based on Expression 17. Next, in step S <b> 205, the deviation determination unit 44 determines how much the point set distribution in the three-dimensional color space is deviated from the straight line based on Expression 18. If determination has not been completed for all candidates for the estimated value d of the parallax amount, the parallax estimated value d is changed to another candidate value in step S207, and steps S203 to S205 are repeated. When the determination is completed for all candidates for the estimated value d of the parallax amount, in step S208, the parallax amount determination unit 46 sets the coordinate d (d) at which the error Er (x, y, d) expressed by Equation 18 is minimized. It is determined as the true amount of parallax in x, y). The parallax estimation unit 40 obtains the parallax between the three parallax complementary color images by executing the above processing for each pixel.

以上の処理により、画素ごとの視差量の分布(disparity map)が得られ、距離情報を算出することができる。距離情報生成部50は、視差推定部40によって得られた視差情報から、式6に基づいて被写体の距離を画素ごとに算出する。   Through the above processing, a disparity amount distribution (disparity map) for each pixel is obtained, and distance information can be calculated. The distance information generation unit 50 calculates the distance of the subject for each pixel based on Equation 6 from the parallax information obtained by the parallax estimation unit 40.

以上のように、本実施形態の撮像装置によれば、Cyの波長域の光を透過させるCy領域、Yeの波長域の光を透過させるYe領域、および透明部材で形成される透明領域からなる透光板2を用いて撮像を行う。その結果、視差を有する複数の画像およびカラー画像を生成することができる。さらに、上述した信号処理を行えば、視差を有する3つの補色画像を生成することができる。生成した3つの補色画像から視差情報を求めることにより、被写体の距離情報を得ることができる。   As described above, according to the imaging apparatus of the present embodiment, the imaging device includes the Cy region that transmits light in the Cy wavelength region, the Ye region that transmits light in the Ye wavelength region, and the transparent region formed of the transparent member. Imaging is performed using the translucent plate 2. As a result, a plurality of images and color images having parallax can be generated. Furthermore, if the signal processing described above is performed, three complementary color images having parallax can be generated. By obtaining parallax information from the generated three complementary color images, it is possible to obtain subject distance information.

なお、本実施形態の撮像装置は、3つの視差補色画像から視差情報および距離情報を生成するが、撮像装置は視差情報のみを生成するように構成されていてもよい。また、信号演算による画像の生成処理、視差情報生成処理、および距離情報生成処理の少なくとも一部を撮像装置とは独立した他の装置に実行させてもよい。例えば、本実施形態における撮像部100を有する撮像装置によって取得した信号を他の装置に読み込ませ、上記の信号演算処理を規定するプログラムを当該他の装置に実行させることによっても本実施形態と同様の効果を得ることができる。   In addition, although the imaging device of this embodiment produces | generates parallax information and distance information from three parallax complementary color images, the imaging device may be comprised so that only parallax information may be produced | generated. In addition, at least a part of the image generation process, the parallax information generation process, and the distance information generation process by signal calculation may be executed by another device independent of the imaging device. For example, the signal acquired by the imaging apparatus having the imaging unit 100 according to the present embodiment is read by another apparatus, and the program for defining the signal calculation process is executed by the other apparatus as in the present embodiment. The effect of can be obtained.

また、本実施形態における画像生成部7は、視差を有する3つの視差補色画像、光利用率の高い白黒画像およびカラー画像を生成することができるが、これらの画像を全て生成することは必須ではない。画像生成部7は、少なくとも視差を有する3つの画像を生成するように構成されていればよい。   In addition, the image generation unit 7 in the present embodiment can generate three parallax complementary color images having parallax, a black and white image and a color image with high light utilization, but it is not necessary to generate all of these images. Absent. The image generation unit 7 may be configured to generate at least three images having parallax.

以上の説明では、透光板2の透過領域は、Cy領域、Ye領域、透明領域の組み合わせで構成されるが、本発明では、このような組み合わせに限られない。Cy、Yeの組み合わせの代わりにCy、Mgの組合せ、またはMg、Yeの組合せを用いても同様の処理により、画素信号から視差を有する補色系の画像信号に変換することができる。   In the above description, the transmission region of the light-transmitting plate 2 is configured by a combination of a Cy region, a Ye region, and a transparent region, but the present invention is not limited to such a combination. Even if a combination of Cy and Mg or a combination of Mg and Ye is used instead of the combination of Cy and Ye, the pixel signal can be converted into a complementary color image signal having parallax by the same processing.

(実施形態2)
次に、図13を参照しながら、本発明の第2の実施形態を説明する。本実施形態の撮像装置は、透光板2および3つの視差補色画像の生成方法が実施家形態1と異なるだけであり、それ以外は実施形態1と同じである。したがって、以下の説明では、実施形態1と異なる点のみを説明し、重複する点は説明を省略する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described with reference to FIG. The imaging apparatus of the present embodiment is the same as that of the first embodiment except that the translucent plate 2 and the three parallax complementary color image generation methods are different from those of the first embodiment. Therefore, in the following description, only points different from the first embodiment will be described, and description of overlapping points will be omitted.

図13は、本実施形態における透光板2の構成を示す正面図である。本実施形態における透光板2は、Cy光を透過するCy領域C1、Ye光を透過するYe領域C2、Mg光を透過するMg領域C3を含んでいる。領域C1、C2、C3は、それぞれCyフィルタ、Yeフィルタ、Mgフィルタで形成される。また、透光板2の領域C1〜C3以外の領域は遮光性部材で形成される。   FIG. 13 is a front view showing the configuration of the light-transmitting plate 2 in the present embodiment. The translucent plate 2 in this embodiment includes a Cy region C1 that transmits Cy light, a Ye region C2 that transmits Ye light, and an Mg region C3 that transmits Mg light. The regions C1, C2, and C3 are formed by a Cy filter, a Ye filter, and an Mg filter, respectively. Moreover, areas other than the areas C1 to C3 of the translucent plate 2 are formed of a light shielding member.

なお、本実施形態において、透過領域C1、C2、C3の形状、面積、位置関係は、図13に示す例に限らず、任意に設定可能である。   In the present embodiment, the shape, area, and positional relationship of the transmission regions C1, C2, and C3 are not limited to the example shown in FIG. 13, and can be arbitrarily set.

本実施形態でも各フィルタの分光透過率を実施形態1と同様に表現する。Mgフィルタの分光透過率をTmgとすると、式8、式9、式10に対応する信号は、本実施形態では次の式25、式26、式27でそれぞれ表される。   Also in this embodiment, the spectral transmittance of each filter is expressed in the same manner as in the first embodiment. Assuming that the spectral transmittance of the Mg filter is Tmg, the signals corresponding to Expressions 8, 9, and 10 are represented by the following Expressions 25, 26, and 27 in this embodiment, respectively.

(式25)Rt=Rs/Tw=Ci1ΣTcyTr+Ci2ΣTyeTr+Ci3ΣTmgTr
(式26)Gt=Gs/Tw=Ci1ΣTcyTg+Ci2ΣTyeTg+Ci3ΣTmgTg
(式27)Bt=Bs/Tw=Bt=Ci1ΣTcyTb+Ci2ΣTyeTb+Ci3ΣTmgTb
本実施形態においても、以下の式28で表されるGt+Bt−RtをCy成分の画像信号Csと定義する。
(Expression 25) Rt = Rs / Tw = Ci1ΣTcyTr + Ci2ΣTyeTr + Ci3ΣTmgTr
(Formula 26) Gt = Gs / Tw = Ci1ΣTcyTg + Ci2ΣTyeTg + Ci3ΣTmgTg
(Expression 27) Bt = Bs / Tw = Bt = Ci1ΣTcyTb + Ci2ΣTyeTb + Ci3ΣTmgTb
Also in this embodiment, Gt + Bt−Rt expressed by the following Expression 28 is defined as an image signal Cs of a Cy component.

(式28) Cs=Gt+Bt−Rt
= Ci1(ΣTcyTg+ΣTcyTb−ΣTcyTr)
+Ci2(ΣTyeTg+ΣTyeTb−ΣTyeTr)
+Ci3(ΣTmgTg+ΣTmgTb−ΣTmgTr)
同様に、以下の式29、30で表される信号をそれぞれMg、Ye成分の画像信号Ms、Ysと定義する。
(Formula 28) Cs = Gt + Bt−Rt
= Ci1 (ΣTcyTg + ΣTcyTb−ΣTcyTr)
+ Ci2 (ΣTyeTg + ΣTyeTb−ΣTyeTr)
+ Ci3 (ΣTmgTg + ΣTmgTb−ΣTmgTr)
Similarly, signals represented by the following formulas 29 and 30 are defined as image signals Ms and Ys of Mg and Ye components, respectively.

(式29) Ms=Rt+Bt−Gt
= Ci1(ΣTcyTr+ΣTcyTb−ΣTcyTg)
+Ci2(ΣTyeTr+ΣTyeTb−ΣTyeTg)
+Ci3(ΣTmgTr+ΣTmgTb−ΣTmgTg)
(式30) Ys=Rt+Gt−Bt
= Ci1(ΣTcyTr+ΣTcyTg−ΣTcyTb)
+Ci2(ΣTyeTr+ΣTyeTg−ΣTyeTb)
+Ci3(ΣTmgTr+ΣTmgTg−ΣTmgTb)
ここで、Cy、Ye、Mgフィルタの透過波長域には、それぞれR、B、Gの波長域が殆ど含まれないため、ΣTcyTr≒ΣTyeTb≒ΣTmgTg≒0となる。また、Cyフィルタの透過波長域はGおよびBの波長域をほぼ等しく含み、Yeフィルタの透過波長域はGおよびRの波長域をほぼ等しく含み、Mgフィルタの透過波長域はRおよびBの波長域をほぼ等しく含むと仮定する。すると、ΣTcyTg≒ΣTcyTb、ΣTyeTg≒ΣTyeTr、ΣTmgTr≒ΣTmgTbが成立する。さらに、撮像素子1の各画素に対向する色フィルタの分光透過率の積算値は全ての色成分について等しいと仮定する。すなわち、ΣTr≒ΣTg≒ΣTgが成立するものとする。以上の仮定により、式28、29、30は、それぞれ以下の式31、32、33に書き替えられる。
(Formula 29) Ms = Rt + Bt−Gt
= Ci1 (ΣTcyTr + ΣTcyTb−ΣTcyTg)
+ Ci2 (ΣTyeTr + ΣTyeTb−ΣTyeTg)
+ Ci3 (ΣTmgTr + ΣTmgTb−ΣTmgTg)
(Formula 30) Ys = Rt + Gt−Bt
= Ci1 (ΣTcyTr + ΣTcyTg−ΣTcyTb)
+ Ci2 (ΣTyeTr + ΣTyeTg−ΣTyeTb)
+ Ci3 (ΣTmgTr + ΣTmgTg−ΣTmgTb)
Here, since the transmission wavelength ranges of the Cy, Ye, and Mg filters hardly include the R, B, and G wavelength ranges, respectively, ΣTcyTr≈ΣTyeTb≈ΣTmgTg≈0. The transmission wavelength range of the Cy filter includes the G and B wavelength ranges substantially equal, the transmission wavelength range of the Ye filter includes the G and R wavelength ranges substantially equal, and the transmission wavelength range of the Mg filter includes the R and B wavelengths. Suppose that it contains almost equal areas. Then, ΣTcyTg≈ΣTcyTb, ΣTyeTg≈ΣTyeTr, and ΣTmgTr≈ΣTmgTb are established. Furthermore, it is assumed that the integrated value of the spectral transmittance of the color filter facing each pixel of the image sensor 1 is the same for all color components. That is, ΣTr≈ΣTg≈ΣTg is established. Based on the above assumptions, the expressions 28, 29, and 30 are rewritten into the following expressions 31, 32, and 33, respectively.

(式31) Cs=Gt+Bt―Rt
=Ci1(ΣTcyTg+ΣTcyTb)
(式32) Ms=Rt+Bt―Gt
=Ci3(ΣTmgTr+ΣTcyTb)
(式33) Ys=Rt+Gt―Bt
=Ci2(ΣTyeTr+ΣTyeTg)
以上より、本実施形態では、3つの視差補色画像を示す信号Cs、Ys、Msは、それぞれ領域Ci1、Ci2、Ci3に入射する光に対応する信号となる。各信号に他の領域からの光の成分が混入しないため、本実施形態の構成では、視差量の推定精度が実施形態1における構成よりも向上する。
(Formula 31) Cs = Gt + Bt−Rt
= Ci1 (ΣTcyTg + ΣTcyTb)
(Formula 32) Ms = Rt + Bt−Gt
= Ci3 (ΣTmgTr + ΣTcyTb)
(Formula 33) Ys = Rt + Gt−Bt
= Ci2 (ΣTyeTr + ΣTyeTg)
As described above, in the present embodiment, the signals Cs, Ys, and Ms indicating the three parallax complementary color images are signals corresponding to light incident on the areas Ci1, Ci2, and Ci3, respectively. Since components of light from other regions are not mixed in each signal, the configuration of the present embodiment improves the accuracy of estimating the amount of parallax compared to the configuration of the first embodiment.

(実施形態3)
次に、図14を参照しながら、本発明の第3の実施形態を説明する。本実施形態の撮像装置は、透光板2および3つの視差補色画像の生成方法が実施形態1と異なるだけであり、それ以外は実施形態1と同じである。したがって、以下の説明では、実施形態1と異なる点のみを説明し、重複する点は説明を省略する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described with reference to FIG. The imaging apparatus of the present embodiment is the same as that of the first embodiment except that the translucent plate 2 and the three parallax complementary color image generation methods are different from those of the first embodiment. Therefore, in the following description, only points different from the first embodiment will be described, and description of overlapping points will be omitted.

図14は、本実施形態における透光板2の構成を示す正面図である。本実施形態における透光板2は、Cy光を透過するCy領域C1、Ye光を透過するYe領域C2、Mg光を透過するMg領域C3、および透明領域C4を含んでいる。領域C1、C2、C3、C4は、それぞれCyフィルタ、Yeフィルタ、Mgフィルタ、透明部材で形成される。   FIG. 14 is a front view showing the configuration of the light-transmitting plate 2 in the present embodiment. The translucent plate 2 in this embodiment includes a Cy region C1 that transmits Cy light, a Ye region C2 that transmits Ye light, an Mg region C3 that transmits Mg light, and a transparent region C4. Regions C1, C2, C3, and C4 are formed of a Cy filter, a Ye filter, an Mg filter, and a transparent member, respectively.

本実施形態では、透光板を4つの領域に分割し、各領域C1、C2、C3、C4を通過した光による信号成分Ci1、Ci2、Ci3、Ci4を利用する。各領域の配置については、例えば、図14に示すように、透光板の上部にC1、左下にC2、右下にC3が配置され、それ以外の領域をC4として構成される。領域C1、C2、C3によって三方向の視差を得ることができる。   In the present embodiment, the translucent plate is divided into four regions, and signal components Ci1, Ci2, Ci3, and Ci4 due to light that has passed through the regions C1, C2, C3, and C4 are used. For example, as shown in FIG. 14, C1 is arranged at the upper part of the translucent plate, C2 is arranged at the lower left, and C3 is arranged at the lower right, and the other areas are configured as C4. Three-direction parallax can be obtained by the regions C1, C2, and C3.

以上の構成により、式8、9、10に対応する信号は、本実施形態では以下の式34、35、36でそれぞれ表される。   With the above configuration, signals corresponding to the expressions 8, 9, and 10 are represented by the following expressions 34, 35, and 36, respectively, in the present embodiment.

(式34)Rt=Rs/Tw=Rt=Ci1ΣTcyTr+Ci2ΣTyeTr+Ci3ΣTmgTr+Ci4
(式35)Gt=Gs/Tw=Gt=Ci1ΣTcyTg+Ci2ΣTyeTg+Ci3ΣTmgTg+Ci4
(式36)Bt=Bs/Tw=Bt=Ci1ΣTcyTb+Ci2ΣTyeTb+Ci3ΣTmgTb+Ci4
実施形態1、2と同様にして、式34、35、36を、以下の式37、式38、式39に変換することができる。
(Expression 34) Rt = Rs / Tw = Rt = Ci1ΣTcyTr + Ci2ΣTyeTr + Ci3ΣTmgTr + Ci4
(Expression 35) Gt = Gs / Tw = Gt = Ci1ΣTcyTg + Ci2ΣTyeTg + Ci3ΣTmgTg + Ci4
(Expression 36) Bt = Bs / Tw = Bt = Ci1ΣTcyTb + Ci2ΣTyeTb + Ci3ΣTmgTb + Ci4
In the same manner as in the first and second embodiments, the expressions 34, 35, and 36 can be converted into the following expressions 37, 38, and 39.

(式37)Cs=Gt+Bt−Rt=Ci1(ΣTcyTg+ΣTcyTb)+Ci4
(式38)Ms=Rt+Bt−Gt=Ci3(ΣTmgTr+ΣTcyTb)―Ci4
(式39)Ys=Gt+Rt+Bt=Ci2(ΣTyeTg+ΣTyeTr)+Ci4
以上の処理により、領域C1、C2、C3に入射する光に対応する信号Ci1、Ci2、Ci3に透明領域を通過する信号Ci4を加算または減算した信号を得ることができる。
(Expression 37) Cs = Gt + Bt−Rt = Ci1 (ΣTcyTg + ΣTcyTb) + Ci4
(Formula 38) Ms = Rt + Bt−Gt = Ci3 (ΣTmgTr + ΣTcyTb) −Ci4
(Formula 39) Ys = Gt + Rt + Bt = Ci2 (ΣTyeTg + ΣTyeTr) + Ci4
Through the above processing, a signal obtained by adding or subtracting the signal Ci4 passing through the transparent region to the signals Ci1, Ci2, and Ci3 corresponding to the light incident on the regions C1, C2, and C3 can be obtained.

本実施形態における透光板2によれば、3方向から入射する光による信号を算出できるため、図14に示す横方向および縦方向の両方についての色ずれを考慮して色線型性に基づく視差情報を得ることができる。これにより、直線など、特徴を得にくい形状やテクスチャ領域における視差量推定の精度が向上する。また、透明領域を有する透光板であるため、高感度な二次元のカラー画像も同時に得られるという利点がある。   According to the translucent plate 2 in the present embodiment, since signals from light incident from three directions can be calculated, the parallax based on the color linearity in consideration of the color shift in both the horizontal direction and the vertical direction shown in FIG. Information can be obtained. This improves the accuracy of parallax estimation in a shape or texture region where it is difficult to obtain features such as a straight line. Further, since the transparent plate has a transparent region, there is an advantage that a highly sensitive two-dimensional color image can be obtained at the same time.

なお、本実施形態における領域C4には透明部材が設けられるが、領域C4に赤、緑、青のいずれかの色フィルタが配置されていてもよい。一例として、領域C4に緑フィルタが配置された透光板2を図15に示す。このような透光板2を用いても、同様の処理により、視差情報および奥行情報を得ることができる。   In addition, although the transparent member is provided in the region C4 in the present embodiment, any one of red, green, and blue color filters may be disposed in the region C4. As an example, FIG. 15 shows a translucent plate 2 in which a green filter is arranged in the region C4. Even when such a light transmitting plate 2 is used, parallax information and depth information can be obtained by the same processing.

以上の実施形態1〜3では、透光板(光透過部)2における透過領域の数は3または4であるが、本発明における光透過部の透過領域の数は5以上であってもよい。これらの透過領域の透過波長域が互いに異なっていれば、同様の処理により視差情報を得ることができる。また、各透過領域の位置関係に応じて視差の得られる方向を様々に変えることができる。撮影シーンのテクスチャや物体形状や色に応じて、最適な配置関係を決定し、視差を推定することにより、視差量推定の精度が向上する。   In the above Embodiments 1 to 3, the number of transmission regions in the light transmission plate (light transmission part) 2 is 3 or 4, but the number of transmission regions in the light transmission part in the present invention may be 5 or more. . If the transmission wavelength regions of these transmission regions are different from each other, parallax information can be obtained by the same processing. In addition, the direction in which the parallax can be obtained can be variously changed according to the positional relationship between the transmission regions. The accuracy of parallax estimation is improved by determining an optimal arrangement relationship and estimating the parallax according to the texture, object shape, and color of the shooting scene.

また、以上の実施形態1〜3では、透光板2の各透過領域には補色フィルタまたは透明部材が配置されるが、各透過領域の一部に原色フィルタが配置されていてもよい。本発明においては、透過領域の少なくとも1つがシアン、黄、マゼンタ、透明のいずれかの透過波長域を有するように構成されていればよい。原色フィルタと補色フィルタとを組合せることにより、フィルタのバリエーションを様々に変えて撮像することができる。   In Embodiments 1 to 3 described above, a complementary color filter or a transparent member is disposed in each transmission region of the translucent plate 2, but a primary color filter may be disposed in a part of each transmission region. In the present invention, it is only necessary that at least one of the transmission regions has a transmission wavelength region of cyan, yellow, magenta, or transparent. By combining the primary color filter and the complementary color filter, it is possible to change the filter variation and take an image.

本発明の3次元撮像装置は、固体撮像素子を用いたすべてのカメラに有効である。例えば、デジタルスチルカメラやデジタルビデオカメラなどの民生用カメラや、産業用の固体監視カメラなどに利用可能である。   The three-dimensional imaging device of the present invention is effective for all cameras using a solid-state imaging device. For example, it can be used for consumer cameras such as digital still cameras and digital video cameras, and industrial solid-state surveillance cameras.

1 固体撮像素子
1a 固体撮像素子の撮像面
2 透光板(光透過部)
3 光学レンズ
4 赤外カットフィルタ
5 信号発生/受信部
6 素子駆動部
7 画像生成部
8 インターフェース部
9 被写体
19 レンズ絞り
20、22、23 光束制限板
20a 赤系統の光を透過させる色フィルタ
20b 青系統の光を透過させる色フィルタ
21 感光フィルム
22R、23R 光束制限板のR光透過領域
22G、23G 光束制限板のG光透過領域
22B、23B 光束制限板のB光透過領域
30 メモリ
40 視差推定部
42 画素ブロック抽出部
44 ずれ判定部
46 視差量決定部
50 距離情報生成部
60a、60b、60c 画素ブロック
100 撮像部
110 色フィルタ
120 光感知セル
200 信号処理部
DESCRIPTION OF SYMBOLS 1 Solid-state image sensor 1a Imaging surface of solid-state image sensor 2 Translucent plate (light transmissive part)
DESCRIPTION OF SYMBOLS 3 Optical lens 4 Infrared cut filter 5 Signal generation / reception part 6 Element drive part 7 Image generation part 8 Interface part 9 Subject 19 Lens diaphragm 20, 22, 23 Light flux limiting plate 20a Color filter 20b which transmits red system light 20b Blue Color filter for transmitting system light 21 Photosensitive film 22R, 23R R light transmission region 22G, 23G G light transmission region 22B of light beam limiting plate B light transmission region 30B of light beam limiting plate 30 Memory 40 Parallax estimation unit 42 pixel block extraction unit 44 displacement determination unit 46 parallax amount determination unit 50 distance information generation unit 60a, 60b, 60c pixel block 100 imaging unit 110 color filter 120 photosensitive cell 200 signal processing unit

Claims (9)

透過波長域が互いに異なる第1、第2、および第3の透過領域を有し、前記第1、第2、および第3の透過領域の少なくとも1つは、シアン、黄、マゼンタのいずれかの波長域の光を透過させる部材、または透明部材で形成されている光透過部と、
光感知セルアレイを有し、前記光透過部を透過した光を受けるように配置された固体撮像素子であって、前記光感知セルアレイは、複数の単位ブロックを有し、各単位ブロックは、赤の波長域の光の量に応じた第1の光電変換信号を出力するR検知セル、緑の波長域の光の量に応じた第2の光電変換信号を出力するG検知セル、および青の波長域の光の量に応じた第3の光電変換信号を出力するB検知セルを含む固体撮像素子と、
前記固体撮像素子の撮像面に像を形成する光学系と、
前記固体撮像素子から出力される信号を処理する信号処理部であって、前記第1、第2、および第3の光電変換信号を用いた加減算を含む処理に基づいて前記第1、第2、および第3の透過領域の各々に入射する光の量に応じた3つの混色信号を生成することによって視差を有する3つの画像を生成する画像生成部、および前記3つの画像の間の視差を推定する視差推定部を有する信号処理部と、
を備える、3次元撮像装置。
The first, second, and third transmission regions have different transmission wavelength ranges, and at least one of the first, second, and third transmission regions is any one of cyan, yellow, and magenta A member that transmits light in the wavelength range, or a light transmitting portion formed of a transparent member;
A solid-state imaging device having a photosensitive cell array and arranged to receive light transmitted through the light transmission unit, wherein the photosensitive cell array has a plurality of unit blocks, and each unit block is red R detection cell that outputs a first photoelectric conversion signal according to the amount of light in the wavelength range, G detection cell that outputs a second photoelectric conversion signal according to the amount of light in the green wavelength range, and blue wavelength A solid-state imaging device including a B detection cell that outputs a third photoelectric conversion signal corresponding to the amount of light in the region;
An optical system for forming an image on the imaging surface of the solid-state imaging device;
A signal processing unit for processing a signal output from the solid-state imaging device, wherein the first, second, and second signals are based on processing including addition and subtraction using the first, second, and third photoelectric conversion signals. And an image generation unit that generates three images having parallax by generating three color mixing signals corresponding to the amount of light incident on each of the third transmission regions, and estimates the parallax between the three images A signal processing unit having a parallax estimation unit to perform,
A three-dimensional imaging device.
前記信号処理部は、前記視差推定部によって推定した前記視差から被写体の距離を示す情報を生成する距離情報生成部をさらに有する、請求項1に記載の3次元撮像装置。   The three-dimensional imaging apparatus according to claim 1, wherein the signal processing unit further includes a distance information generation unit that generates information indicating a distance of a subject from the parallax estimated by the parallax estimation unit. 前記視差推定部は、
前記3つの画像の各画素について、視差量の推定値を複数の候補の中から設定し、前記推定値に基づいて前記3つの画像から画像上の位置が互いにずれた同一サイズの3つの画素ブロックをそれぞれ抽出する画素ブロック抽出部と、
前記3つの画素ブロックの画素値の集合によって規定される3次元色空間上の点集合の分布が直線からどの程度ずれているかを判定するずれ判定部と、
前記ずれ判定部によって判定された直線からのずれの程度が最小となる前記推定値を各画素における視差量として決定する視差量決定部と、
を含む、請求項1または2に記載の3次元撮像装置。
The parallax estimation unit
For each pixel of the three images, an estimated value of the parallax amount is set from among a plurality of candidates, and three pixel blocks of the same size whose positions on the image are shifted from the three images based on the estimated value A pixel block extraction unit for extracting
A shift determination unit that determines how much the distribution of the point set on the three-dimensional color space defined by the set of pixel values of the three pixel blocks is shifted from a straight line;
A parallax amount determination unit that determines, as a parallax amount in each pixel, the estimated value that minimizes the degree of deviation from the straight line determined by the shift determination unit;
The three-dimensional imaging device according to claim 1, comprising:
前記第1の透過領域は、シアン、黄、およびマゼンタのうちの1つの波長域の光を透過させる部材で形成され、前記第2の透過領域は、シアン、黄、およびマゼンタのうちの他の1つの波長域の光を透過させる部材で形成され、前記第3の透過領域は、透明部材で形成されている、請求項1から3のいずれかに記載の3次元撮像装置。   The first transmission region is formed of a member that transmits light in one wavelength region of cyan, yellow, and magenta, and the second transmission region is the other of cyan, yellow, and magenta. 4. The three-dimensional imaging apparatus according to claim 1, wherein the three-dimensional imaging device is formed of a member that transmits light in one wavelength region, and the third transmission region is formed of a transparent member. 前記第1、第2、および第3の透過領域は、それぞれシアン、黄、およびマゼンタの波長域の光を透過させる部材で形成されている、請求項1から4のいずれかに記載の3次元撮像装置。   The three-dimensional according to any one of claims 1 to 4, wherein each of the first, second, and third transmission regions is formed of a member that transmits light in a wavelength range of cyan, yellow, and magenta, respectively. Imaging device. 前記光透過部は、第4の透過領域を有し、前記第4の透過領域は、赤、緑、および青のいずれかの波長域の光を透過させる部材、または透明部材で形成されている、請求項5に記載の3次元撮像装置。   The light transmission part has a fourth transmission region, and the fourth transmission region is formed of a member that transmits light in any one of the wavelength ranges of red, green, and blue, or a transparent member. The three-dimensional imaging device according to claim 5. 透過波長域が互いに異なる第1、第2、および第3の透過領域を有し、前記第1、第2、および第3の透過領域の少なくとも1つは、シアン、黄、マゼンタのいずれかの波長域の光を透過させる部材、または透明部材で形成されている光透過部と、
光感知セルアレイを有し、前記光透過部を透過した光を受けるように配置された固体撮像素子であって、前記光感知セルアレイは、複数の単位ブロックを有し、各単位ブロックは、赤の波長域の光の量に応じた第1の光電変換信号を出力するR検知セル、緑の波長域の光の量に応じた第2の光電変換信号を出力するG検知セル、および青の波長域の光の量に応じた第3の光電変換信号を出力するB検知セルを含む固体撮像素子と、
前記固体撮像素子の撮像面に像を形成する光学系と、
を備える撮像装置から出力される信号を処理する信号処理方法であって、
前記第1、第2、および第3の光電変換信号を用いた加減算を含む処理に基づいて前記第1、第2、および第3の透過領域の各々に入射する光の量に応じた3つの混色信号を生成することによって視差を有する3つの画像を生成するステップと、
前記3つの画像の間の視差を推定するステップと、
を含む信号処理方法。
The first, second, and third transmission regions have different transmission wavelength ranges, and at least one of the first, second, and third transmission regions is any one of cyan, yellow, and magenta A member that transmits light in the wavelength range, or a light transmitting portion formed of a transparent member;
A solid-state imaging device having a photosensitive cell array and arranged to receive light transmitted through the light transmission unit, wherein the photosensitive cell array has a plurality of unit blocks, and each unit block is red R detection cell that outputs a first photoelectric conversion signal according to the amount of light in the wavelength range, G detection cell that outputs a second photoelectric conversion signal according to the amount of light in the green wavelength range, and blue wavelength A solid-state imaging device including a B detection cell that outputs a third photoelectric conversion signal corresponding to the amount of light in the region;
An optical system for forming an image on the imaging surface of the solid-state imaging device;
A signal processing method for processing a signal output from an imaging device comprising:
Based on the processing including addition / subtraction using the first, second, and third photoelectric conversion signals, three values corresponding to the amount of light incident on each of the first, second, and third transmission regions Generating three images having parallax by generating a color mixture signal;
Estimating the parallax between the three images;
A signal processing method including:
推定した前記視差から被写体の距離を示す情報を生成するステップをさらに含む、請求項7に記載の信号処理方法。   The signal processing method according to claim 7, further comprising: generating information indicating a distance of a subject from the estimated parallax. 前記視差を推定するステップは、
前記3つの画像の各画素について、視差量の推定値を複数の候補の中から設定し、前記推定値に基づいて前記3つの画像から画像上の位置が互いにずれた同一サイズの3つの画素ブロックをそれぞれ抽出するステップと、
前記3つの画素ブロックの画素値の集合によって規定される3次元色空間上の点集合の分布が直線からどの程度ずれているかを判定するステップと、
判定された直線からのずれの程度が最小となる前記推定値を各画素における視差量として決定するステップと、
を含む、請求項7または8に記載の信号処理方法。
Estimating the parallax comprises:
For each pixel of the three images, an estimated value of the parallax amount is set from among a plurality of candidates, and three pixel blocks of the same size whose positions on the image are shifted from the three images based on the estimated value Extracting each of the
Determining how much the point set distribution in the three-dimensional color space defined by the set of pixel values of the three pixel blocks deviates from a straight line;
Determining the estimated value that minimizes the degree of deviation from the determined straight line as the amount of parallax in each pixel;
The signal processing method of Claim 7 or 8 containing these.
JP2010213225A 2010-09-24 2010-09-24 3D imaging device Expired - Fee Related JP5406151B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010213225A JP5406151B2 (en) 2010-09-24 2010-09-24 3D imaging device
PCT/JP2011/004626 WO2012039093A1 (en) 2010-09-24 2011-08-19 Three-dimensional imaging device
CN201180004365.6A CN102598682B (en) 2010-09-24 2011-08-19 Three-dimensional Imaging Device
US13/511,029 US9429834B2 (en) 2010-09-24 2011-08-19 Three-dimensional imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010213225A JP5406151B2 (en) 2010-09-24 2010-09-24 3D imaging device

Publications (2)

Publication Number Publication Date
JP2012070215A JP2012070215A (en) 2012-04-05
JP5406151B2 true JP5406151B2 (en) 2014-02-05

Family

ID=45873598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010213225A Expired - Fee Related JP5406151B2 (en) 2010-09-24 2010-09-24 3D imaging device

Country Status (4)

Country Link
US (1) US9429834B2 (en)
JP (1) JP5406151B2 (en)
CN (1) CN102598682B (en)
WO (1) WO2012039093A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927570B2 (en) * 2011-04-22 2016-06-01 パナソニックIpマネジメント株式会社 Three-dimensional imaging device, light transmission unit, image processing device, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227368B2 (en) * 2010-06-02 2013-07-03 パナソニック株式会社 3D imaging device
JP5507362B2 (en) 2010-06-30 2014-05-28 パナソニック株式会社 Three-dimensional imaging device and light transmission plate
JP2013236172A (en) * 2012-05-07 2013-11-21 Samsung Techwin Co Ltd Parallax detection device and parallax detection method
JP6231284B2 (en) * 2013-02-21 2017-11-15 クラリオン株式会社 Imaging device
JP6214233B2 (en) * 2013-06-21 2017-10-18 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program.
CN106157285B (en) * 2015-04-03 2018-12-21 株式会社理光 For selecting the method and system of the preferred value of the parameter group for disparity computation
CN108665418B (en) * 2017-03-30 2021-12-21 奇景光电股份有限公司 Depth sensing device
CN113301321A (en) * 2021-04-01 2021-08-24 维沃移动通信(杭州)有限公司 Imaging method, system, device, electronic equipment and readable storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171737A (en) 1988-12-26 1990-07-03 Minolta Camera Co Ltd Photographing lens for stereo camera
US5965875A (en) 1998-04-24 1999-10-12 Foveon, Inc. Color separation in an active pixel cell imaging array using a triple-well structure
US6606120B1 (en) 1998-04-24 2003-08-12 Foveon, Inc. Multiple storage node full color active pixel sensors
US6781716B1 (en) * 1999-08-03 2004-08-24 Fuji Photo Film Co., Ltd. Color conversion method, color conversion apparatus, and color conversion definition storage medium
JP2002344999A (en) * 2001-05-21 2002-11-29 Asahi Optical Co Ltd Stereoscopic image pickup device
JP3869702B2 (en) 2001-10-30 2007-01-17 ペンタックス株式会社 Stereo image pickup device
US7916180B2 (en) * 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
JP2009276294A (en) * 2008-05-16 2009-11-26 Toshiba Corp Image processing method
KR20110084367A (en) * 2008-11-19 2011-07-22 파나소닉 주식회사 Imaging device
JP5472584B2 (en) 2008-11-21 2014-04-16 ソニー株式会社 Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927570B2 (en) * 2011-04-22 2016-06-01 パナソニックIpマネジメント株式会社 Three-dimensional imaging device, light transmission unit, image processing device, and program

Also Published As

Publication number Publication date
US9429834B2 (en) 2016-08-30
WO2012039093A1 (en) 2012-03-29
CN102598682B (en) 2015-06-03
CN102598682A (en) 2012-07-18
JP2012070215A (en) 2012-04-05
US20120293634A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
JP5406151B2 (en) 3D imaging device
TWI525382B (en) Camera array systems including at least one bayer type camera and associated methods
TWI468021B (en) Image sensing device and method for image capture using luminance and chrominance sensors
JP5227368B2 (en) 3D imaging device
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP5853202B2 (en) Imaging device
JP5903670B2 (en) Three-dimensional imaging apparatus, image processing apparatus, image processing method, and image processing program
US9544570B2 (en) Three-dimensional image pickup apparatus, light-transparent unit, image processing apparatus, and program
JP5186517B2 (en) Imaging device
JP6034197B2 (en) Image processing apparatus, three-dimensional imaging apparatus, image processing method, and image processing program
JP5995084B2 (en) Three-dimensional imaging device, imaging device, light transmission unit, and image processing device
US9706186B2 (en) Imaging apparatus for generating parallax image data
JP5914881B2 (en) Three-dimensional imaging apparatus, image processing apparatus, image processing method, and program
JP5406163B2 (en) 3D imaging apparatus and image processing apparatus
JP5549564B2 (en) Stereo camera
JP2017215851A (en) Image processing device, image processing method, and molding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131031

R150 Certificate of patent or registration of utility model

Ref document number: 5406151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees