JP2013106217A - Depth estimating/imaging apparatus - Google Patents

Depth estimating/imaging apparatus Download PDF

Info

Publication number
JP2013106217A
JP2013106217A JP2011249260A JP2011249260A JP2013106217A JP 2013106217 A JP2013106217 A JP 2013106217A JP 2011249260 A JP2011249260 A JP 2011249260A JP 2011249260 A JP2011249260 A JP 2011249260A JP 2013106217 A JP2013106217 A JP 2013106217A
Authority
JP
Japan
Prior art keywords
optical filter
light
transmittance
wavelength range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011249260A
Other languages
Japanese (ja)
Inventor
Masao Hiramoto
政夫 平本
Yasunori Ishii
育規 石井
Yusuke Monobe
祐亮 物部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011249260A priority Critical patent/JP2013106217A/en
Publication of JP2013106217A publication Critical patent/JP2013106217A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide imaging technique for acquiring depth information in a method different from a conventional one.SOLUTION: A depth estimating/imaging apparatus includes: a first optical filter 1a and a second optical filter 1b, in which transmission factors to light in a specified wavelength region periodically change in a first direction parallel to an imaging face of an imaging element 2. The first optical filter 1a and the second optical filter 1b confront each other, and periodical changes of the transmission factors to the specified wavelength region are mutually shifted by 1/4 period.

Description

本発明は1つの光学系と1つの撮像素子とを用いて被写体の奥行き情報を取得する単眼の3次元撮像技術に関する。   The present invention relates to a monocular three-dimensional imaging technique for acquiring depth information of a subject using one optical system and one imaging device.

近年、CCDやCMOS等の固体撮像素子(以下、「撮像素子」と称する。)を用いたデジタルカメラやデジタルムービーの高機能化、高性能化には目を見張るものがある。特に半導体製造技術の進歩により、撮像素子における画素構造の微細化が進んでいる。その結果、撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加している。さらに、撮像によって得られる画像の質も飛躍的に向上している。一方、表示装置に関しては、薄型の液晶やプラズマによるディスプレイにより、場所を取らず、高解像度で高コントラストの表示が可能になり、高い性能が実現されている。このような映像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネを必要とするが、高画質の3次元表示装置が開発され始めている。   In recent years, there has been a remarkable increase in functionality and performance of digital cameras and digital movies that use a solid-state imaging device (hereinafter referred to as “imaging device”) such as a CCD or CMOS. In particular, with the advancement of semiconductor manufacturing technology, the pixel structure in an image sensor has been miniaturized. As a result, higher integration of pixels and drive circuits of the image sensor has been achieved. For this reason, in a few years, the number of pixels of the image sensor has increased significantly from about 1 million pixels to over 10 million pixels. Furthermore, the quality of the image obtained by imaging has improved dramatically. On the other hand, with respect to the display device, a thin liquid crystal display or a plasma display enables high-resolution and high-contrast display without taking up space, and high performance is realized. Such a flow of improving the quality of video is spreading from a two-dimensional image to a three-dimensional image. In recent years, polarized glasses are required, but high-quality three-dimensional display devices are being developed.

3次元撮像技術に関して、単純な構成をもつ代表的な方式として、2つのカメラから構成される撮像系を用いて、右目用の画像および左目用の画像をそれぞれ取得するという方式がある。このような、いわゆる2眼撮像方式では、カメラを2つ用いるため、撮像装置が大型になり、コストも高くなり得る。そこで、1つのカメラを用いて視差を有する複数の画像(以下、「複数視点画像」と呼ぶことがある。)を取得する方式(単眼撮像方式)が研究されている。   Regarding a three-dimensional imaging technique, there is a method of acquiring a right-eye image and a left-eye image using an imaging system including two cameras, as a typical method having a simple configuration. In such a so-called two-lens imaging method, since two cameras are used, the imaging apparatus becomes large and the cost can be high. Therefore, a method (monocular imaging method) for acquiring a plurality of images having parallax (hereinafter sometimes referred to as “multi-viewpoint images”) using one camera has been studied.

例えば、特許文献1、2には、透過軸の方向が互いに直交する2枚の偏光板と回転する偏光フィルタとを用いて複数視点画像を取得する方式が開示されている。また、特許文献3〜5には、複数の色フィルタが設けられた絞り(光束制限板)を用いて複数視点画像を取得する方式が開示されている。   For example, Patent Documents 1 and 2 disclose a method of acquiring a multi-viewpoint image using two polarizing plates whose transmission axes are orthogonal to each other and a rotating polarizing filter. Patent Documents 3 to 5 disclose methods for acquiring a multi-viewpoint image using a diaphragm (light flux limiting plate) provided with a plurality of color filters.

上記の特許文献1〜5に開示された方式は、単眼のカメラによって主に複数視点画像を生成する際に利用される。一方、複数のマイクロレンズを備えた単眼のカメラを用いて奥行き情報を取得し、その情報に基づいて、取得後の画像の焦点位置を自由に変えることができる技術も存在する。そのような技術は、ライトフィールド・フォトグラフィーと呼ばれ、それを用いた単眼カメラは、ライトフィールドカメラと呼ばれる。ライトフィールドカメラでは、撮像素子上に複数のマイクロレンズが配置される。各マイクロレンズは、複数の画素を覆うように配置される。撮像後、取得した画像情報から、入射光の方向に関する情報を算出することにより、被写体の奥行きを推定できる。そのようなカメラは、例えば非特許文献1に開示されている。   The methods disclosed in Patent Documents 1 to 5 are mainly used when a multi-viewpoint image is generated by a monocular camera. On the other hand, there is a technique that can acquire depth information using a monocular camera equipped with a plurality of microlenses and can freely change the focal position of the acquired image based on the information. Such a technique is called light field photography, and a monocular camera using it is called a light field camera. In a light field camera, a plurality of microlenses are arranged on an image sensor. Each microlens is disposed so as to cover a plurality of pixels. After imaging, the depth of the subject can be estimated by calculating information related to the direction of incident light from the acquired image information. Such a camera is disclosed in Non-Patent Document 1, for example.

ライトフィールドカメラでは、奥行き情報を算出することができるが、マイクロレンズの数によって解像度が決まるため、撮像素子の画素数から決まる解像度よりも解像度が低下するという課題がある。その課題に対して、特許文献6には、2つの撮像系を用いて解像度を向上させる技術が開示されている。この技術では、入射光を2分割し、分割したそれぞれの入射光を、空間的に1/2ピッチずつずれて配列されたマイクロレンズ群を有する撮像系で撮像し、その後取得された画像を合成することによって解像度を向上させる。しかしながら、この技術では、撮像系が2つ必要であり、サイズおよびコストの面で課題がある。   In a light field camera, depth information can be calculated. However, since the resolution is determined by the number of microlenses, there is a problem that the resolution is lower than the resolution determined by the number of pixels of the image sensor. In response to this problem, Patent Document 6 discloses a technique for improving resolution using two imaging systems. In this technology, incident light is divided into two, and each of the divided incident lights is imaged by an imaging system having a microlens group arranged with a spatially shifted pitch of 1/2 pitch, and then the acquired images are synthesized. To improve the resolution. However, this technique requires two imaging systems and has problems in terms of size and cost.

上記の課題に対して、1つの撮像系を用いて通常撮像モードとライトフィールド・フォトグラフィーに基づくモードとを切り換える技術が特許文献7に開示されている。この技術によれば、印加電圧に応じて焦点距離が変化するマイクロレンズが用いられ、マイクロレンズの焦点距離が、前者のモードでは無限大に設定され、後者のモードでは、所定の距離に設定される。このような機構により、解像度の高い画像と奥行き情報とを得ることができる。しかしながら、この手法では、マイクロレンズの焦点距離を制御するという高度な制御技術が必要である。   A technique for switching between a normal imaging mode and a mode based on light field photography using a single imaging system is disclosed in Japanese Patent Application Laid-Open No. 2004-151867. According to this technique, a microlens whose focal length changes according to the applied voltage is used, and the focal length of the microlens is set to infinity in the former mode, and is set to a predetermined distance in the latter mode. The With such a mechanism, an image with high resolution and depth information can be obtained. However, this method requires an advanced control technique for controlling the focal length of the microlens.

特開昭62−291292号公報JP-A-62-291292 特開昭62−217790号公報JP-A-62-2217790 特開2002−344999号公報JP 2002-344999 A 特開2009−276294号公報JP 2009-276294 A 特開2003−134533号公報JP 2003-134533 A 特開平11−98532号公報Japanese Patent Laid-Open No. 11-98532 特開2008−167395号公報JP 2008-167395 A

Ren Ng,et al,”Light Field Photography with a Hand−held Plenoptic Camera”, Stanford Tech Report CTSR 2005−02Ren Ng, et al, “Light Field Photography with a Hand-held Plenological Camera”, Stanford Tech Report CTSR 2005-02

ライトフィールドカメラでは、奥行き情報を得ることはできるが、画像の解像度が低下するという課題がある。その課題を解決するためには、上記の特許文献6、7の技術のように、2つの撮像系が必要であったり、マイクロレンズの焦点距離を制御しなければならないという課題がある。   In the light field camera, depth information can be obtained, but there is a problem that the resolution of the image is lowered. In order to solve the problem, there are problems that two imaging systems are required or the focal length of the microlens has to be controlled as in the techniques of Patent Documents 6 and 7 described above.

本発明の実施形態では、上記の課題に鑑み、従来技術とは異なる光学系および信号処理を用いて、奥行き情報を取得し得る撮像技術を提供する。さらに、本発明の好ましい実施形態では、解像度の低下のない画像と奥行き情報とを1回の撮影で取得し得る撮像技術を提供する。   In the embodiment of the present invention, in view of the above problems, an imaging technique capable of acquiring depth information using an optical system and signal processing different from those of the conventional techniques is provided. Furthermore, in a preferred embodiment of the present invention, there is provided an imaging technique that can acquire an image with no reduction in resolution and depth information by one imaging.

本発明による奥行き推定撮像装置は、複数の光感知セルが撮像面に行列状に配列された撮像素子と、前記撮像面に像を形成するように配置された光学レンズと、前記光学レンズおよび前記撮像素子の間に配置された、特定の波長域の光に対する透過率が前記撮像面に平行な第1の方向に周期的に変化している第1の光学フィルタと、前記第1の光学フィルタと前記撮像素子との間に配置された、前記特定の波長域の光に対する透過率が前記第1の方向に周期的に変化し、かつ前記透過率の周期変化が前記第1の光学フィルタにおける前記特定の波長域の光に対する透過率の周期変化と比べて1/4周期ずれている第2の光学フィルタと、前記複数の光感知セルから出力される画素信号を処理する信号処理部とを備えている。   The depth estimation imaging apparatus according to the present invention includes an imaging element in which a plurality of photosensitive cells are arranged in a matrix on an imaging surface, an optical lens arranged to form an image on the imaging surface, the optical lens, and the optical lens. A first optical filter disposed between the imaging elements and having a transmittance with respect to light in a specific wavelength range periodically changing in a first direction parallel to the imaging surface; and the first optical filter The transmittance with respect to the light in the specific wavelength range, which is arranged between the image sensor and the image sensor, periodically changes in the first direction, and the periodic change of the transmittance is in the first optical filter. A second optical filter shifted by ¼ period compared to a periodic change in transmittance with respect to light in the specific wavelength range, and a signal processing unit for processing pixel signals output from the plurality of photosensitive cells. I have.

ある実施形態において、前記信号処理部は、前記複数の光感知セルから出力される画素信号の空間周波数特性に基づいて、被写体の奥行きを示す情報を生成する。   In one embodiment, the signal processing unit generates information indicating the depth of a subject based on a spatial frequency characteristic of pixel signals output from the plurality of photosensitive cells.

ある実施形態において、前記複数の光感知セルから出力される前記画素信号の前記空間周波数特性と前記被写体の奥行きとの対応関係を規定する情報が記録されたメモリをさらに備え、前記信号処理部は、前記対応関係を規定する情報を参照することによって前記奥行きを示す情報を生成する。   In one embodiment, the signal processing unit further includes a memory in which information defining a correspondence relationship between the spatial frequency characteristics of the pixel signals output from the plurality of photosensitive cells and the depth of the subject is recorded. The information indicating the depth is generated by referring to the information defining the correspondence.

ある実施形態において、前記複数の光感知セルの配列のうち、特定の行または列に対応する位置における前記第1の光学フィルタと前記第2の光学フィルタとの距離は、前記特定の行または列に隣接する行または列に対応する位置における前記第1の光学フィルタと前記第2の光学フィルタとの距離と異なっている。   In one embodiment, a distance between the first optical filter and the second optical filter at a position corresponding to a specific row or column in the array of the plurality of photosensitive cells is the specific row or column. Is different from the distance between the first optical filter and the second optical filter at a position corresponding to a row or a column adjacent to.

ある実施形態において、前記第1の光学フィルタおよび前記第2の光学フィルタは、前記複数の光感知セルの配列のn行(nは1以上の整数)ごとまたはn列ごとに対応する位置に配置されている。   In one embodiment, the first optical filter and the second optical filter are arranged at positions corresponding to every n rows (n is an integer of 1 or more) or every n columns of the array of the plurality of photosensitive cells. Has been.

ある実施形態において、前記第1の光学フィルタおよび前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化は、三角関数または矩形関数で表される。   In one embodiment, the spatial change in the first direction of the transmittance of the first optical filter and the second optical filter with respect to the light in the specific wavelength range is represented by a trigonometric function or a rectangular function. .

ある実施形態において、aおよびbを、a+b<1、b−a>0を満たす正の実数とし、ω0を正の実数とするとき、前記第1の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化を表す関数は、近似的にasinω0x+bで表され、前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化を表す関数は、近似的にacosω0x+bで表される。 In one embodiment, when a and b are positive real numbers satisfying a + b <1, b−a> 0, and ω 0 is a positive real number, light in the specific wavelength band of the first optical filter A function representing a spatial change of the transmittance with respect to the first direction is approximately represented by asinω 0 x + b, and the first transmittance of the second optical filter with respect to the light in the specific wavelength range is represented by A function representing a spatial change in the direction is approximately represented by acos ω 0 x + b.

ある実施形態において、前記複数の光感知セルを、各々がu行v列(u,vは2以上の整数)に配列されたu×v個の光感知セルを含む複数のブロックに分けるとき、前記第1の光学フィルタおよび前記第2の光学フィルタは、各ブロックを覆うように配置され、各ブロック上で透過率が前記第1の方向に1周期以上変化している。   In one embodiment, when the plurality of photosensitive cells are divided into a plurality of blocks each including u × v photosensitive cells arranged in u rows and v columns (u and v are integers of 2 or more), The first optical filter and the second optical filter are arranged so as to cover each block, and the transmittance is changed in the first direction by one period or more on each block.

ある実施形態では、各ブロックにおいて、前記第1の光学フィルタおよび前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化は、複数の異なる周期をもつ周期関数の線型結合で表される。   In one embodiment, in each block, the spatial change in the first direction of the transmittance of the first optical filter and the second optical filter with respect to the light in the specific wavelength range has a plurality of different periods. It is expressed as a linear combination of periodic functions.

ある実施形態において、前記特定の波長域の下限は、650nmよりも長い。   In one embodiment, the lower limit of the specific wavelength range is longer than 650 nm.

ある実施形態において、前記奥行き推定撮像装置は、前記第1の光学フィルタよりも被写体に近い側に配置された、可視光のみを透過させる第3の光学フィルタをさらに備え、前記特定の波長域は、可視光の波長域に含まれている。   In one embodiment, the depth estimation imaging apparatus further includes a third optical filter that is disposed closer to the subject than the first optical filter and transmits only visible light, and the specific wavelength range is Included in the visible light wavelength range.

ある実施形態において、前記信号処理部は、前記第1および第2の光学フィルタが設けられていないと仮定した場合に各光感知セルから出力される画素信号と、前記第1および第2の光学フィルタが設けられている場合に各光感知セルから出力される画素信号との比を示す情報に基づいて、前記複数の光感知セルから出力される画素信号を補正することにより、可視光画像を生成する。   In one embodiment, the signal processing unit includes a pixel signal output from each photosensitive cell when the first and second optical filters are not provided, and the first and second optical filters. When a filter is provided, a visible light image is obtained by correcting pixel signals output from the plurality of photosensitive cells based on information indicating a ratio with pixel signals output from the photosensitive cells. Generate.

ある実施形態において、前記奥行き推定撮像装置は、前記第1の光学フィルタよりも被写体に近い側に配置された、複数の遮光部および複数の透明部が交互に配列された第4の光学フィルタをさらに備え、各透明部を透過した光束が入射する前記第1の光学フィルタの部分において、前記特定の波長域の光に対する透過率が前記第1の方向について1周期以上変化している。   In one embodiment, the depth estimation imaging device includes a fourth optical filter arranged on the side closer to the subject than the first optical filter, in which a plurality of light shielding portions and a plurality of transparent portions are alternately arranged. In addition, in the portion of the first optical filter on which the light beam that has passed through each transparent portion is incident, the transmittance for light in the specific wavelength region changes by one period or more in the first direction.

本発明の実施形態によれば、特定の波長域の光に対する透過率の空間分布が周期関数で表され、位相が互いにπ/2(1/4周期)異なる2つの光学フィルタを通して撮像する。このため、これらの光学フィルタの透過率の周期変化のパターンの影響が取得した画素信号に現れる。これらの光学フィルタは、光軸方向に離れて配置されているため、これらの光学フィルタによって変調された画像のパターンから、入射光の集光状態を把握することができる。その結果、被写体の奥行き情報を算出することができる。一方、取得した画素信号に対して2つの光学フィルタの透過特性に基づく演算を行えば、通常の画像を取得することも可能である。   According to the embodiment of the present invention, imaging is performed through two optical filters in which the spatial distribution of transmittance with respect to light in a specific wavelength range is represented by a periodic function and the phases are different from each other by π / 2 (1/4 period). For this reason, the influence of the periodic change pattern of the transmittance of these optical filters appears in the acquired pixel signal. Since these optical filters are arranged apart from each other in the optical axis direction, the condensing state of incident light can be grasped from the pattern of the image modulated by these optical filters. As a result, the depth information of the subject can be calculated. On the other hand, if an operation based on the transmission characteristics of the two optical filters is performed on the acquired pixel signal, a normal image can be acquired.

実施形態1における光学フィルタ1a、1bを示す平面図である。3 is a plan view showing optical filters 1a and 1b in Embodiment 1. FIG. 図1AにおけるA−A’線断面図であり、撮像面に集光する光束を示す図である。It is an A-A 'line sectional view in Drawing 1A, and is a figure showing light flux condensed on an image pick-up surface. 光学フィルタ1a、1bの第1波長域の光に対する透過率のx方向の変化を示すグラフである。It is a graph which shows the change of the x direction of the transmittance | permeability with respect to the light of the 1st wavelength range of the optical filters 1a and 1b. 図1AにおけるA−A’線断面図であり、撮像面の奥に集光する光束を示す図である。FIG. 1B is a cross-sectional view taken along line A-A ′ in FIG. 図1AにおけるA−A’線断面図であり、撮像面の手前に集光する光束を示す図である。FIG. 1B is a cross-sectional view taken along the line A-A ′ in FIG. 1A and shows a light beam that is condensed before the imaging surface. 実施形態1の変形例における光学フィルタ1a、1bを示す平面図である。FIG. 6 is a plan view showing optical filters 1a and 1b in a modification of the first embodiment. 実施形態1の他の変形例における光学フィルタ1a、1b、複数の光感知セル10を示す断面図である。FIG. 6 is a cross-sectional view showing optical filters 1a and 1b and a plurality of photosensitive cells 10 according to another modification of the first embodiment. 実施形態2における光学フィルタ1a、1bを示す平面図である。6 is a plan view showing optical filters 1a and 1b in Embodiment 2. FIG. 図2AにおけるB−B’線断面図である。It is a B-B 'line sectional view in Drawing 2A. 図2AにおけるC−C’線断面図である。FIG. 2C is a cross-sectional view taken along line C-C ′ in FIG. 2A. 実施形態3における遮光フィルタ1c、光学フィルタ1a、1bを示す平面図である。It is a top view which shows the light shielding filter 1c in Embodiment 3, and the optical filters 1a and 1b. 図5AにおけるA−A’線断面図である。FIG. 5B is a cross-sectional view taken along line A-A ′ in FIG. 5A. 実施形態3の変形例における光学フィルタ1a、1b、複数の光感知セル10を示す断面図である。FIG. 10 is a cross-sectional view showing optical filters 1a and 1b and a plurality of photosensitive cells 10 in a modification of the third embodiment. 本発明の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in embodiment of this invention. 本発明の実施形態における撮像装置の光学系構成を模式的に示す斜視図である。1 is a perspective view schematically showing an optical system configuration of an imaging apparatus in an embodiment of the present invention.

以下、図面を参照しながら、本発明の実施形態による奥行き推定撮像装置(以下、単に「撮像装置」と呼ぶ。)を説明する。以下の説明において、複数の図にわたって共通または対応する要素には同一の参照符号を付している。   Hereinafter, a depth estimation imaging device (hereinafter, simply referred to as “imaging device”) according to an embodiment of the present invention will be described with reference to the drawings. In the following description, the same or corresponding elements are denoted by the same reference symbols throughout the drawings.

(実施形態1)
まず、本発明の第1の実施形態による撮像装置を説明する。図6は、本実施形態における撮像装置の全体構成を示すブロック図である。本実施形態の撮像装置は、デジタル式の電子カメラであり、撮像部100と、撮像部100で生成された信号に基づいて画像を示す信号(画像信号)を生成する信号処理部200とを備えている。撮像装置は、静止画のみならず動画を生成する機能を備えていてもよい。
(Embodiment 1)
First, the imaging device according to the first embodiment of the present invention will be described. FIG. 6 is a block diagram illustrating the overall configuration of the imaging apparatus according to the present embodiment. The imaging apparatus according to the present embodiment is a digital electronic camera, and includes an imaging unit 100 and a signal processing unit 200 that generates a signal (image signal) indicating an image based on a signal generated by the imaging unit 100. ing. The imaging device may have a function of generating not only a still image but also a moving image.

撮像部100は、撮像面に行列状に配列された複数の光感知セル(画素)を備える固体撮像素子2(以下、単に「撮像素子」と呼ぶ。)と、赤外光に近い波長域の光の一部を除去する光学フィルタ部1と、撮像素子2の撮像面上に像を形成するための光学レンズ3と、可視光のみを透過させる可視光透過フィルタ4とを備えている。光学フィルタ部1は、2種類の光学フィルタを含み、撮像素子2の撮像面上に配置されている。光学フィルタ部1の2種類の光学フィルタの各々は、およそ650nm〜700nmの波長域の光の一部を吸収または反射し、他の波長域の光を概ね透過させるように設計されている。一方、可視光透過フィルタ4は、650nm〜700nmの波長域の光を含む可視光を概ね透過させ、可視光以外の赤外線や紫外線を殆ど透過させないように設計されている。なお、本明細書では、約400nm〜700nmの波長域の電磁波を「可視光」と呼ぶ。上記の650nm〜700nmの光は、本明細書では「可視光」に含まれるが、人間にとって殆ど視認できないため、赤外光として扱う場合もある。以下の説明では、約650nm〜700nmの光を、「第1波長域の光」と呼ぶことがある。   The imaging unit 100 includes a solid-state imaging device 2 (hereinafter simply referred to as “imaging device”) including a plurality of photosensitive cells (pixels) arranged in a matrix on the imaging surface, and a wavelength region close to infrared light. An optical filter unit 1 that removes part of the light, an optical lens 3 for forming an image on the imaging surface of the imaging element 2, and a visible light transmission filter 4 that transmits only visible light are provided. The optical filter unit 1 includes two types of optical filters and is disposed on the imaging surface of the imaging device 2. Each of the two types of optical filters of the optical filter unit 1 is designed to absorb or reflect a part of light in the wavelength range of approximately 650 nm to 700 nm and transmit light in other wavelength ranges in general. On the other hand, the visible light transmission filter 4 is designed to transmit almost all visible light including light having a wavelength range of 650 nm to 700 nm and hardly transmit infrared light and ultraviolet light other than visible light. In this specification, an electromagnetic wave having a wavelength range of about 400 nm to 700 nm is referred to as “visible light”. The light of 650 nm to 700 nm described above is included in “visible light” in this specification, but is hardly visible to humans and may be treated as infrared light. In the following description, light of about 650 nm to 700 nm may be referred to as “light in the first wavelength range”.

撮像部100はまた、撮像素子2を駆動するための基本信号を発生するとともに撮像素子2からの出力信号を受信して信号処理部200に送出する信号発生/受信部5と、信号発生/受信部5によって生成された基本信号に基づいて撮像素子2を駆動する素子駆動部6とを備えている。   The imaging unit 100 also generates a basic signal for driving the imaging device 2, receives an output signal from the imaging device 2, and sends the signal to the signal processing unit 200. Signal generation / reception And an element driving unit 6 that drives the image sensor 2 based on the basic signal generated by the unit 5.

撮像素子2は、典型的にはCCDまたはCMOSセンサであり、公知の半導体製造技術によって製造される。信号発生/受信部5および素子駆動部6は、例えばCCDドライバなどのLSIから構成されている。撮像素子2の撮像面には行列状に複数の光感知セルが配列されている。各光感知セルは、典型的にはフォトダイオードを含み、受けた光の強度に応じた光電変換信号(画素信号)を出力する。   The image sensor 2 is typically a CCD or CMOS sensor, and is manufactured by a known semiconductor manufacturing technique. The signal generation / reception unit 5 and the element driving unit 6 are composed of an LSI such as a CCD driver, for example. A plurality of photosensitive cells are arranged in a matrix on the imaging surface of the imaging device 2. Each photosensitive cell typically includes a photodiode and outputs a photoelectric conversion signal (pixel signal) corresponding to the intensity of received light.

信号処理部200は、撮像部100から出力された信号を処理して画像信号および被写体の奥行きを示す情報(奥行き情報)を生成する画像処理部7と、画像信号の生成に用いられる各種のデータを格納するメモリ30と、生成した画像信号および奥行き情報を外部に送出するインターフェース(IF)部8とを備えている。画像処理部7は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。メモリ30は、DRAMなどによって構成される。メモリ30は、撮像部100から得られた信号を記録すると共に、画像処理部7によって生成された画像データや、圧縮された画像データを一時的に記録する。これらの画像データは、インターフェース部8を介して不図示の記録媒体や表示部などに送出される。   The signal processing unit 200 processes the signal output from the imaging unit 100 to generate an image signal and information indicating the depth of the subject (depth information), and various data used for generating the image signal. And an interface (IF) unit 8 for sending the generated image signal and depth information to the outside. The image processing unit 7 can be suitably realized by a combination of hardware such as a known digital signal processor (DSP) and software that executes image processing including image signal generation processing. The memory 30 is configured by a DRAM or the like. The memory 30 records the signal obtained from the imaging unit 100 and temporarily records the image data generated by the image processing unit 7 and the compressed image data. These image data are sent to a recording medium (not shown) or a display unit via the interface unit 8.

なお、本実施形態の撮像装置は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本発明の理解に特に必要でないため省略する。また、上記の構成は一例であり、本実施形態において、光学フィルタ部1、撮像素子2、画像処理部7以外の構成要素は、公知の要素を適宜組み合わせて用いることができる。   Note that the imaging apparatus of the present embodiment may include known components such as an electronic shutter, a viewfinder, a power source (battery), and a flashlight, but a description thereof is omitted because it is not particularly necessary for understanding the present invention. In addition, the above configuration is an example, and in the present embodiment, components other than the optical filter unit 1, the image sensor 2, and the image processing unit 7 can be used by appropriately combining known elements.

以下、撮像部100の構成をより詳細に説明する。以下の説明では、撮像部100内の領域の位置や方向を説明する場合には、図中に示すxyz座標を用いる。なお、以下の説明における「上」、「下」などの用語は、参照される図に基づいており、必ずも現実の位置関係を反映しているわけではない。   Hereinafter, the configuration of the imaging unit 100 will be described in more detail. In the following description, when explaining the position and direction of the area in the imaging unit 100, xyz coordinates shown in the figure are used. Note that terms such as “upper” and “lower” in the following description are based on the referenced drawings and do not necessarily reflect actual positional relationships.

図7は、撮像部100におけるレンズ3、可視光透過フィルタ4、光学フィルタ部1、および撮像素子2の配置関係を模式的に示す図である。レンズ3は、複数のレンズ群から構成されたレンズユニットであり得るが、図7では簡単のため、単一のレンズとして描かれている。レンズ3は、公知のレンズであり、可視光透過フィルタ4の有無に関わらず、入射光を集光し、撮像素子2の撮像部に結像させる。なお、図7に示す各構成要素の配置関係はあくまでも一例であって、本発明はこのような例に限られるものではない。例えば、レンズ3と可視光透過フィルタ4の配置関係が入れ替わってもよい。   FIG. 7 is a diagram schematically illustrating an arrangement relationship of the lens 3, the visible light transmission filter 4, the optical filter unit 1, and the imaging element 2 in the imaging unit 100. The lens 3 may be a lens unit composed of a plurality of lens groups, but is illustrated as a single lens in FIG. 7 for simplicity. The lens 3 is a known lens, and collects incident light and forms an image on the imaging unit of the image sensor 2 regardless of the presence or absence of the visible light transmission filter 4. 7 is merely an example, and the present invention is not limited to such an example. For example, the arrangement relationship between the lens 3 and the visible light transmission filter 4 may be switched.

図1Aは、光学フィルタ部1が配置された撮像素子2の撮像面の一部を示す平面図である。撮像面に行列状に配列された複数の光感知セルに対向して、2種類の光学フィルタ1a、1bが配置されている。図1Bは、図1AにおけるA−A’線断面図であり、複数の光感知セル10上に光学フィルタ1a、1bが配置されている状況を示している。光学フィルタ1a、1bの第1波長域の光に対する透過率は、x方向に周期的に変化している。この周期的変化の周波数をω0とする。光学フィルタ1aおよび光学フィルタ1bの第1波長域の光に対する透過率の周期変化の位相はπ/2(1/4周期)異なっている。 FIG. 1A is a plan view showing a part of the imaging surface of the imaging device 2 on which the optical filter unit 1 is arranged. Two types of optical filters 1a and 1b are arranged to face a plurality of photosensitive cells arranged in a matrix on the imaging surface. FIG. 1B is a cross-sectional view taken along the line AA ′ in FIG. 1A and shows a situation where the optical filters 1 a and 1 b are arranged on the plurality of photosensitive cells 10. The transmittance of the optical filters 1a and 1b with respect to the light in the first wavelength range periodically changes in the x direction. The frequency of this periodic change is ω 0 . The phase of the periodic change of the transmittance of the optical filter 1a and the optical filter 1b with respect to the light in the first wavelength region is different by π / 2 (1/4 period).

ここで、光学フィルタ1a、1bの第1波長域の光に対する透過率T1a、T1bを数式で表すと、近似的にそれぞれ以下の式1、式2で表される。但し、両式において、aおよびbは、a+b<1、b−a>0を満たす正の実数である。
Here, when the transmittances T1a and T1b of the optical filters 1a and 1b with respect to the light in the first wavelength range are expressed by equations, they are approximately expressed by the following equations 1 and 2, respectively. However, in both formulas, a and b are positive real numbers that satisfy a + b <1, ba−a> 0.

図1Cは、T1aおよびT1bを示すグラフである。ここで、x座標の原点は任意の位置にとってよく、例えば光学フィルタ部1の中心や端部に設定され得る。また、パラメータa、bは、上記の条件を満たす限り、任意の値に設定してよい。このように、本実施形態における光学フィルタ1a、1bの第1波長域の光に対する透過率のx方向の空間変化は、三角関数で表される。   FIG. 1C is a graph showing T1a and T1b. Here, the origin of the x coordinate may be any position, and may be set at the center or end of the optical filter unit 1, for example. The parameters a and b may be set to arbitrary values as long as the above conditions are satisfied. As described above, the spatial change in the x direction of the transmittance of the optical filters 1a and 1b in the present embodiment with respect to the light in the first wavelength band is represented by a trigonometric function.

このような透過特性を有する光学フィルタ1a、1bは、例えば650nm〜700nmの波長域の光を主に吸収する公知の顔料または染料を用いて作製され得る。当該顔料または染料の含有率をx座標に応じて調整することにより、式1および式2に示す透過特性を実現することが可能である。   The optical filters 1a and 1b having such transmission characteristics can be manufactured using a known pigment or dye that mainly absorbs light in a wavelength range of 650 nm to 700 nm, for example. By adjusting the content of the pigment or dye according to the x-coordinate, it is possible to realize the transmission characteristics shown in Equation 1 and Equation 2.

光学フィルタ1bは、光感知セル10の直上に配置され、その上に距離d離れて光学フィルタ1aが配置されている。入射光は、光学フィルタ1a、光学フィルタ1bの順に透過し、光感知セル10に入射して光電変換される。各光感知セル10は、光電変換によって受光量に応じた画素信号を出力する。   The optical filter 1b is disposed immediately above the photosensitive cell 10, and the optical filter 1a is disposed on the optical filter 1b at a distance d. Incident light passes through the optical filter 1a and the optical filter 1b in this order, and enters the photosensitive cell 10 for photoelectric conversion. Each photosensitive cell 10 outputs a pixel signal corresponding to the amount of received light by photoelectric conversion.

以上の構成により、露光中に撮像装置に入射する光は、レンズ3、可視光透過フィルタ4、光学フィルタ部1を通して撮像素子2の撮像面上に結像され、各光感知セル10によって光電変換される。各光感知セル10から出力された画素信号は、信号発生/受信部5を介して信号処理部200に送出される。信号処理部200における画像処理部7は、送られてきた信号に基づいて画像を生成すると共に、奥行き情報も算出する。   With the above configuration, light incident on the imaging device during exposure is imaged on the imaging surface of the imaging device 2 through the lens 3, the visible light transmission filter 4, and the optical filter unit 1, and photoelectrically converted by each photosensitive cell 10. Is done. The pixel signal output from each photosensitive cell 10 is sent to the signal processing unit 200 via the signal generation / reception unit 5. The image processing unit 7 in the signal processing unit 200 generates an image based on the transmitted signal and calculates depth information.

以下、画像処理部7による奥行き情報および画像の生成処理を説明する。なお、以下の説明では、可視光による通常の画像信号を「通常画像」または「可視光画像」と呼ぶことがある。   Hereinafter, depth information and image generation processing by the image processing unit 7 will be described. In the following description, a normal image signal using visible light may be referred to as a “normal image” or a “visible light image”.

まず、奥行き情報の算出方法を説明する。レンズ3、可視光透過フィルタ4を透過した光は、光学フィルタ1aを透過する。この時、第1波長域の光については、光学フィルタ1aの透過特性により、x方向に式1で表される透過率特性によって変調された光パターンが発生する。すなわち、光学フィルタ1aを透過した直後の第1波長域の光の強度分布は、式1にほぼ比例する。一方、第1波長域以外の可視光については、変調されることなく光学フィルタ1aを透過する。光学フィルタ1aを透過した光は、さらに光学フィルタ1bを透過する。光学フィルタ1bでは、第1波長域の光については、x方向に式2で表される透過率特性によって変調された光パターンが発生する。すなわち、光学フィルタ1bを透過した第1波長域の光の強度分布は、当該光が平行光と見なせる場合、式1で表される関数および式2で表される関数の積にほぼ比例する。一方、第1波長域以外の可視光は、変調されることなく光学フィルタ1bを透過する。光学フィルタ1bを透過した光は、光感知セル10により光電変換される。なお、上記の変調された光パターンは微細ではあるが、光感知セル10の信号を解析することにより、その周波数を特定できる程度の広がりを有するように、光学フィルタ1a、1bの位置および光感知セル10の数およびサイズが予め調整されている。   First, a method for calculating depth information will be described. The light that has passed through the lens 3 and the visible light transmission filter 4 passes through the optical filter 1a. At this time, with respect to the light in the first wavelength region, a light pattern modulated by the transmittance characteristic represented by Equation 1 in the x direction is generated due to the transmission characteristic of the optical filter 1a. That is, the intensity distribution of the light in the first wavelength region immediately after passing through the optical filter 1a is almost proportional to Equation 1. On the other hand, visible light outside the first wavelength band is transmitted through the optical filter 1a without being modulated. The light that has passed through the optical filter 1a further passes through the optical filter 1b. In the optical filter 1b, for the light in the first wavelength region, a light pattern modulated by the transmittance characteristic represented by Expression 2 is generated in the x direction. That is, the intensity distribution of the light in the first wavelength range that has passed through the optical filter 1b is substantially proportional to the product of the function expressed by Equation 1 and the function expressed by Equation 2 when the light can be regarded as parallel light. On the other hand, visible light outside the first wavelength range passes through the optical filter 1b without being modulated. The light transmitted through the optical filter 1b is photoelectrically converted by the light sensing cell 10. Although the above-described modulated light pattern is fine, the position of the optical filters 1a and 1b and the light sensing so that the frequency can be determined by analyzing the signal of the light sensing cell 10. The number and size of the cells 10 are adjusted in advance.

本実施形態では、レンズ3から被写体までの距離(奥行き)により、撮像素子2の撮像面、すなわち複数の光感知セル10が配列された面における集光状態が異なることを利用して当該被写体の奥行が求められる。例えば、被写体のある部分から入射する光が撮像素子2の撮像面上で結像する場合、波動光学によれば、当該入射光は、図1Bに示すように平行光であるものとして扱うことができる。これに対し、奥行きの異なる部分から入射する光は、図1Dまたは図1Eに示されているように、撮像面の後方または前方で結像するため、平行光として扱うことはできない。図1Dに示す例では、入射光は光感知セル10の後方で結像し、図1Eに示す例では、入射光は光感知セル10の前方で結像している。光学フィルタ1a、1bは、光軸上の配置(z座標)が互いに異なるため、光学フィルタ1aを透過し式1で表される透過率で変調された光パターンは、光学フィルタ1b上では、入射光の集光状態に応じて異なるパターンとなる。光学フィルタ1b上での光パターンの周波数をωとすると、図1Bに示す状態ではω=ωoであり、図1Dに示す状態ではω>ωoであり、図1Eに示す状態ではω<ωoとなる。   In the present embodiment, the light collecting state on the imaging surface of the imaging device 2, that is, the surface on which the plurality of photosensitive cells 10 are arranged, varies depending on the distance (depth) from the lens 3 to the subject. Depth is required. For example, when light incident from a certain part of the subject forms an image on the imaging surface of the image sensor 2, according to wave optics, the incident light can be treated as parallel light as shown in FIG. 1B. it can. On the other hand, light incident from different depths forms an image behind or in front of the imaging surface as shown in FIG. 1D or FIG. 1E and cannot be treated as parallel light. In the example shown in FIG. 1D, the incident light forms an image behind the photosensitive cell 10, and in the example shown in FIG. 1E, the incident light forms an image in front of the photosensitive cell 10. Since the optical filters 1a and 1b have different arrangements (z-coordinates) on the optical axis, an optical pattern that is transmitted through the optical filter 1a and modulated by the transmittance represented by Equation 1 is incident on the optical filter 1b. The pattern varies depending on the light condensing state. If the frequency of the optical pattern on the optical filter 1b is ω, ω = ωo in the state shown in FIG. 1B, ω> ωo in the state shown in FIG. 1D, and ω <ωo in the state shown in FIG. 1E. .

以上のことから、光感知セル10によって光電変換される光による上記光パターンの交流成分は、以下の式3で表される値Acに比例する。
From the above, the AC component of the light pattern due to the light photoelectrically converted by the photosensitive cell 10 is proportional to the value Ac represented by the following Equation 3.

式4において、第4項sin(ω−ωo)xは、光学フィルタ1a、1b間を光が進む間に生じる光パターンの変化量を周波数で表しており、しかも奇関数である。このため、各光感知セル10から出力される画素信号から、第4項に相当する周波数(ω−ωo)の成分を検出することにより、光がどの程度集束または発散しているのかを判別することができる。具体的な周波数解析は、例えば複数の光感知セル10から出力される画素信号にωo以上の周波数成分を除去するローパスフィルタを用いて低域のsin(ω−ωo)xの成分を取り出し、その符号および周波数を検出することによって行われる。検出した符号および周波数に基づいて、入射光の集光状態を判別し、被写体までの距離を推定することができる。なお、ω<ω0の場合、式4におけるsinωxの成分が残るが、ωよりもω−ω0の方が著しく小さいため、ローパスフィルタ後の信号の低周波成分だけを解析すればよい。また、ω0ではなく、例えばω0/2以上の周波数成分を除去するローパスフィルタを用いてもよい。 In Equation 4, the fourth term sin (ω−ωo) x represents the amount of change in the light pattern that occurs while the light travels between the optical filters 1a and 1b, and is an odd function. For this reason, by detecting the component of the frequency (ω−ωo) corresponding to the fourth term from the pixel signal output from each photosensitive cell 10, it is determined how much light is focused or diverged. be able to. Specifically, for example, a low-frequency sin (ω−ωo) x component is extracted using a low-pass filter that removes a frequency component equal to or higher than ωo from the pixel signals output from the plurality of photosensitive cells 10, and the frequency analysis is performed. This is done by detecting the sign and frequency. Based on the detected code and frequency, the condensing state of incident light can be determined, and the distance to the subject can be estimated. In the case of ω <ω 0, the sin ωx component in Equation 4 remains, but ω−ω 0 is significantly smaller than ω, and therefore only the low frequency component of the signal after the low-pass filter needs to be analyzed. Further, instead of ω0, for example, a low-pass filter that removes frequency components of ω0 / 2 or more may be used.

ここで、sin(ω−ωo)xの成分の値と、被写体までの距離との対応関係を示す情報(例えばデータベース)が、予め実験やシミュレーションなどによって求められ、メモリ30などの記録媒体に記録されている。画像処理部7は、当該情報を参照して、画素信号から被写体の奥行を求めることができる。   Here, information (for example, a database) indicating a correspondence relationship between the value of the component of sin (ω−ωo) x and the distance to the subject is obtained in advance by experiments or simulations, and is recorded in a recording medium such as the memory 30. Has been. The image processing unit 7 can obtain the depth of the subject from the pixel signal with reference to the information.

ここで、周波数ωは、光学フィルタ1a、1bの光軸方向の距離dに依存する。本実施形態では、周波数ωがωoに近い値となるように距離dが設定されている。また、上記の演算は、(ω−ωo)に近い低域の画像周波数帯域を有していない被写体の部分に対して有効であるため、本実施形態ではそのような被写体の部分を奥行き算出の対象とする。但し、上記の奥行き算出に使われる光の波長域である約650nm〜700nmは、赤〜赤外の波長域に該当するため、RGBのカラー撮像素子を利用すれば、被写体画像の空間周波数に関わらず奥行き情報を算出できる可能性がある。これは、赤(R)画素による画像と、緑(G)画素または青(B)画素による画像とから、上記光パターンの画像と被写体画像とを切り分けることができるからである。したがって、画像処理部7は、赤画素による画像から奥行き情報を推定し、緑画素および青画素による画像から通常画像を生成してもよい。   Here, the frequency ω depends on the distance d in the optical axis direction of the optical filters 1a and 1b. In the present embodiment, the distance d is set so that the frequency ω becomes a value close to ωo. In addition, since the above calculation is effective for a portion of a subject that does not have a low-frequency image frequency band close to (ω−ωo), in this embodiment, such a subject portion is subjected to depth calculation. set to target. However, about 650 nm to 700 nm, which is the wavelength range of light used for the depth calculation described above, corresponds to the red to infrared wavelength range. Therefore, if an RGB color image sensor is used, the spatial frequency of the subject image is affected. There is a possibility that depth information can be calculated. This is because the image of the light pattern and the subject image can be separated from an image of red (R) pixels and an image of green (G) pixels or blue (B) pixels. Therefore, the image processing unit 7 may estimate the depth information from the image by the red pixel and generate a normal image from the image by the green pixel and the blue pixel.

次に、解像度低下のない通常画像(可視光画像)を取得する処理を説明する。本実施形態では、撮像光学系に可視光透過フィルタ4が含まれているので、仮に光学フィルタ部1が装着されていないとすると、解像度低下のない可視光による通常画像を取得できる。ところが、実際には光学フィルタ部1が装着されているため、赤光〜赤外光に近い波長域において光の変調が生じる。その結果、光学フィルタ1a、1bによって変調された光のパターンが被写体画像に重畳される。そこで、本実施形態では、予め光学フィルタ部1が装着されていない場合の画像と光学フィルタ部1を装着した場合の画像とから、それらの画素信号の比率(以下、「光パターン除去比率」と呼ぶ)を求めておく。例えば、一定強度の白色光を用いて、光学フィルタ部1がない場合の画素信号S1と、光学フィルタ部1がある場合の画素信号S2との比S1/S2を、光パターン除去比率として、画素ごとに予めメモリ30などに記録しておく。画像処理部7は、光パターン除去比率を用いて各光感知セル10から取得した信号を変換することによって光学フィルタ1a、1bによる光の変調の影響を取り除く。例えば、上記のS1/S2を光パターン除去比率とする場合、撮像によって取得した各画素信号にS1/S2を乗ずることにより、画像信号を得る。このようにして、画像処理部7は、解像度低下のない通常画像を取得する。   Next, a process for acquiring a normal image (visible light image) with no resolution reduction will be described. In the present embodiment, the visible light transmission filter 4 is included in the imaging optical system. Therefore, if the optical filter unit 1 is not mounted, a normal image with visible light without a reduction in resolution can be acquired. However, since the optical filter unit 1 is actually mounted, light modulation occurs in a wavelength range close to red light to infrared light. As a result, the light pattern modulated by the optical filters 1a and 1b is superimposed on the subject image. Therefore, in the present embodiment, a ratio of pixel signals (hereinafter referred to as “light pattern removal ratio”) from an image when the optical filter unit 1 is not mounted in advance and an image when the optical filter unit 1 is mounted. Call). For example, using white light having a constant intensity, a ratio S1 / S2 between the pixel signal S1 when there is no optical filter unit 1 and the pixel signal S2 when there is the optical filter unit 1 is used as a light pattern removal ratio. Each time it is recorded in advance in the memory 30 or the like. The image processing unit 7 removes the influence of the light modulation by the optical filters 1a and 1b by converting the signal acquired from each photosensitive cell 10 using the light pattern removal ratio. For example, when the above S1 / S2 is the light pattern removal ratio, an image signal is obtained by multiplying each pixel signal acquired by imaging by S1 / S2. In this way, the image processing unit 7 acquires a normal image with no resolution reduction.

以上のように、本実施形態によれば、光感知セル10上に、透過率がx方向に周期的に変化し、周期性が互いに約π/2異なる2種類の光学フィルタ1a、1bが、y方向に所定の距離dだけ離れて配置される。これにより、光学フィルタ1a、1bを透過した光のパターン(x方向の強度分布)は、入射光の集光状態を反映して変調される。画素信号の空間周波数特性を解析することにより、入射光の集光状態が検出でき、被写体までの距離を推定することができる。また、光パターン除去比率を用いた演算により、解像度低下のない通常画像を取得することができる。   As described above, according to the present embodiment, two types of optical filters 1a and 1b whose transmittance periodically changes in the x direction and whose periodicities are different from each other by about π / 2 are provided on the photosensitive cell 10. They are arranged at a predetermined distance d in the y direction. As a result, the pattern of light transmitted through the optical filters 1a and 1b (the intensity distribution in the x direction) is modulated to reflect the condensed state of incident light. By analyzing the spatial frequency characteristics of the pixel signal, the condensing state of incident light can be detected, and the distance to the subject can be estimated. In addition, a normal image with no reduction in resolution can be acquired by calculation using the light pattern removal ratio.

なお、本実施形態では、赤外光に近い約650nm〜700nmの波長域の光の一部を減衰させる光学フィルタ1a、1bを用いたが、それに限定するものではなく、他の波長域の光の一部を減衰させる光学フィルタを用いてもよい。例えば、約400nm〜500nmの波長域の青光、約500nm〜600nmの波長域の緑光、700nmを超える波長域の赤外光に対する透過率がx方向に周期的に異なっている光学フィルタを用いてもよい。ただし、光学フィルタによる光の変調は、回折の影響が小さい長波長の波長域、例えば下限が650nm以上の波長域の光に対して行うことが好ましい。波長が700nmを超える赤外光に対する透過率が周期的に変化している光学フィルタを用いる場合、可視光透過フィルタ4の代わりに、当該赤外光の波長域にまで透過特性を有する光学フィルタを設ける必要がある。   In this embodiment, the optical filters 1a and 1b for attenuating a part of light in the wavelength range of about 650 nm to 700 nm close to infrared light are used. However, the present invention is not limited to this, and light in other wavelength ranges is used. An optical filter that attenuates a part of the filter may be used. For example, by using an optical filter whose transmittance for blue light in a wavelength range of about 400 nm to 500 nm, green light in a wavelength range of about 500 nm to 600 nm, and infrared light in a wavelength range exceeding 700 nm is periodically different in the x direction. Also good. However, the modulation of light by the optical filter is preferably performed for light having a long wavelength range where the influence of diffraction is small, for example, light having a lower limit of 650 nm or more. When using an optical filter whose transmittance with respect to infrared light having a wavelength exceeding 700 nm is periodically changed, an optical filter having transmission characteristics up to the wavelength range of the infrared light is used instead of the visible light transmitting filter 4. It is necessary to provide it.

また、本実施形態における光学フィルタ1a、1bの透過特性は、sin関数およびcos関数を用いて表されるが、周期関数であれば、その他の関数で表される透過特性の光学フィルタを用いても問題はない。任意の周期関数はフーリエ級数展開によって周波数の互いに異なる複数のsin関数またはcos関数の線型結合で表すことができるため、フーリエ成分に分解して処理することができればどのような透過特性の光学フィルタを用いてもよい。   In addition, the transmission characteristics of the optical filters 1a and 1b in the present embodiment are expressed by using a sin function and a cos function, but if they are periodic functions, optical filters having transmission characteristics expressed by other functions are used. There is no problem. An arbitrary periodic function can be expressed by a linear combination of a plurality of sine functions or cos functions having different frequencies by Fourier series expansion. Therefore, any optical filter having any transmission characteristic can be used as long as it can be decomposed into Fourier components and processed. It may be used.

さらに、光学フィルタ1a、1bは、x方向に透過率が周期的に変化しているが、この周期変化の方向はx方向である必要はなく、任意の方向であってもよい。画像処理部7は、当該周期変化の方向に関わらず、当該方向の画素信号のパターンに基づいて奥行き情報を生成することができる。   Furthermore, the transmittance of the optical filters 1a and 1b periodically changes in the x direction. However, the direction of the periodic change need not be the x direction, and may be any direction. The image processing unit 7 can generate depth information based on the pattern of the pixel signal in the direction regardless of the direction of the period change.

また、光学フィルタ1a、1bは、図2に示すように、撮像素子2の画素配列の1行おきに対応して配置されていてもよいし、n行(nは2以上の整数)おきに対応して配置されていてもよい。但し、この場合、奥行き推定に関して、垂直方向(y方向)の精度が1/2または1/(n+1)に低下する。あるいは、画素配列の1列おき、またはn列おきに光学フィルタ1a、1bが配置されていてもよい。この場合、光学フィルタ1a、1bは、第1波長域の光に対する透過率がy方向に周期的に変化するように構成される。   Further, as shown in FIG. 2, the optical filters 1a and 1b may be arranged corresponding to every other row of the pixel array of the image sensor 2, or every n rows (n is an integer of 2 or more). It may be arranged correspondingly. However, in this case, regarding the depth estimation, the accuracy in the vertical direction (y direction) is reduced to 1/2 or 1 / (n + 1). Alternatively, the optical filters 1a and 1b may be arranged every other column or every n columns of the pixel array. In this case, the optical filters 1a and 1b are configured such that the transmittance with respect to light in the first wavelength region periodically changes in the y direction.

また、図3に示すように、赤外光吸収部1ab_1と透明部1ab_2とが交互に配列した光学フィルタ1a、1bを用いてもよい。この例では、赤外光に近い波長域の光に対する透過率のx方向の分布がステップ関数で表される。すなわち、赤外光吸収部1ab_1では、約650nm〜700nm付近の波長域の光を、x座標に関わらず一定の透過率で透過させ、透明部1ab_2では、上記の波長域を含む可視光の大部分を透過させる。このような構成でも、2つの光学フィルタ1a、1bが、x方向に互いに1/4周期ずれて配置されていれば、同様の原理によって奥行き情報を得ることができる。なお、個々の赤外光吸収部1ab_1および透明部1ab_2は、例えばu行v列(u、vは2以上の整数)を1ブロックとするu×v個の光感知セル10を覆うように設けられる。そのような構成において、ブロックごとに画素信号を処理することにより、個々のブロックに対応する被写体の部分の奥行きの情報を得ることができる。このようなブロックを単位として処理する構成は、図3に示す構成に限らず、図1Bや図2に示す光学フィルタ1a、1bを用いた構成においても適用できる。その場合、1つのブロックに対応する光学フィルタ1a、1bの部分の第1波長域の光に対する透過率は、少なくとも1つの方向に1周期以上変化していることが好ましい。これは、1ブロックに含まれるu×v個の光感知セルによって検知される信号の周波数特性を検出するためには、1ブロック内で1周期以上の変化が生じることが好ましいからである。   Further, as shown in FIG. 3, optical filters 1a and 1b in which infrared light absorbing portions 1ab_1 and transparent portions 1ab_2 are alternately arranged may be used. In this example, the distribution in the x direction of the transmittance for light in a wavelength region close to infrared light is represented by a step function. That is, the infrared light absorption unit 1ab_1 transmits light in a wavelength range of about 650 nm to 700 nm with a constant transmittance regardless of the x coordinate, and the transparent unit 1ab_2 has a large amount of visible light including the above wavelength range. Make the part transparent. Even in such a configuration, depth information can be obtained based on the same principle as long as the two optical filters 1a and 1b are arranged to be shifted from each other by a quarter period in the x direction. Note that the individual infrared light absorber 1ab_1 and the transparent portion 1ab_2 are provided so as to cover, for example, u × v photosensitive cells 10 each having u rows and v columns (u and v are integers of 2 or more) as one block. It is done. In such a configuration, by processing the pixel signal for each block, it is possible to obtain information on the depth of the portion of the subject corresponding to each block. Such a configuration for processing in units of blocks is not limited to the configuration shown in FIG. 3 but can also be applied to configurations using the optical filters 1a and 1b shown in FIG. 1B and FIG. In that case, it is preferable that the transmittance of the optical filters 1a and 1b corresponding to one block with respect to the light in the first wavelength band changes by one period or more in at least one direction. This is because in order to detect the frequency characteristics of signals detected by the u × v photosensitive cells included in one block, it is preferable that a change of one period or more occurs in one block.

なお、個々の赤外光吸収部1ab_1および透明部1ab_2の透過率は、ステップ関数で表される場合に限らず、第1波長域の光に対する透過率がその範囲内で位置によって異なっていてもよい。また、1ブロック内で第1波長域の光に対する透過率が位置によって異なっている構成においても、複数の光感知セルを含むブロックを基本構成として処理してもよい。   Note that the transmittances of the individual infrared light absorbing portions 1ab_1 and the transparent portions 1ab_2 are not limited to being expressed by step functions, and the transmittance for light in the first wavelength range may vary depending on the position within the range. Good. In addition, even in a configuration in which the transmittance for light in the first wavelength region is different depending on the position in one block, a block including a plurality of photosensitive cells may be processed as a basic configuration.

また、本実施形態では、撮像素子2の画素配列は正方格子状の配列であるが、この配列に限らず、例えば斜交型の配列であってもよい。斜光型の配列を用いる場合、光感知セル10の配列の方向と光学フィルタ1a、1bにおける透過率の周期変化の方向とが交差することになる。その場合であっても、透過率の周期変化の方向と同じ方向に並んだ複数の光感知セルから出力される信号を処理することにより、奥行き情報を求めることができる。   In the present embodiment, the pixel array of the image sensor 2 is a square lattice array, but is not limited to this array, and may be, for example, an oblique array. When the oblique light type array is used, the direction of the array of the photosensitive cells 10 and the direction of the periodic change of the transmittance in the optical filters 1a and 1b intersect. Even in such a case, depth information can be obtained by processing signals output from a plurality of photosensitive cells arranged in the same direction as the direction of periodic change in transmittance.

(実施形態2)
次に、本発明の第2の実施形態による撮像装置を説明する。本実施形態では、実施形態1と比べて、光学フィルタ部1の構造のみが異なる。以下、実施形態1の撮像装置と異なる点を中心に説明し、重複する事項についての説明は省略する。
(Embodiment 2)
Next, an imaging apparatus according to the second embodiment of the present invention will be described. In this embodiment, compared with Embodiment 1, only the structure of the optical filter unit 1 is different. The following description will be focused on differences from the imaging apparatus according to the first embodiment, and description of overlapping items will be omitted.

図4Aは、本実施形態における光学フィルタ部1が配置された撮像素子2の撮像面の一部を示す平面図である。図4Bは、図4AにおけるB−B’線断面図であり、図4Cは、図4AにおけるC−C’線断面図である。本実施形態における光学フィルタ部1は、実施形態1における光学フィルタ部1と同様、光学フィルタ1a、1bを含んでいるが、光学フィルタ1aの構造が異なっている。本実施形態では、光学フィルタ1aと光学フィルタ1bとの距離が撮像素子2の画素配列の行ごとに異なっている。それらの距離は、奇数行ではdであり、偶数行ではほぼ0である。すなわち、光学フィルタ1aは、y方向に凹凸が1画素間隔で繰り返す構造を有している。奇数行に対応する光学フィルタ1aの部分のz座標は、実施形態1における光学フィルタ1aのz座標と同じであるが、偶数行に対応する光学フィルタ1aの部分は、光学フィルタ1bにほぼ密着している。   FIG. 4A is a plan view showing a part of the image pickup surface of the image pickup device 2 on which the optical filter unit 1 is arranged in the present embodiment. 4B is a cross-sectional view taken along line B-B ′ in FIG. 4A, and FIG. 4C is a cross-sectional view taken along line C-C ′ in FIG. 4A. The optical filter unit 1 in the present embodiment includes optical filters 1a and 1b as in the optical filter unit 1 in the first embodiment, but the structure of the optical filter 1a is different. In the present embodiment, the distance between the optical filter 1 a and the optical filter 1 b is different for each row of the pixel array of the image sensor 2. Their distance is d for odd rows and almost zero for even rows. That is, the optical filter 1a has a structure in which unevenness is repeated in the y direction at intervals of one pixel. The z coordinate of the portion of the optical filter 1a corresponding to the odd row is the same as the z coordinate of the optical filter 1a in the first embodiment, but the portion of the optical filter 1a corresponding to the even row is substantially in close contact with the optical filter 1b. ing.

撮像素子2において、奇数行のy座標を2m−1、偶数行のy座標を2m(mは自然数)と表すと、座標(x,2m−1)および座標(x,2m)のそれぞれにおける第1波長域の光に対する透過率の空間変化を示す関数To、Teは、それぞれ以下の式5、式6で表される。また、これらの差分To−Teは、式7で表される。
In the image sensor 2, if the y coordinate of the odd-numbered row is expressed as 2m-1, and the y-coordinate of the even-numbered row is expressed as 2m (m is a natural number), the coordinates (x, 2m-1) and the coordinates (x, 2m) respectively Functions To and Te indicating the spatial change of transmittance with respect to light in one wavelength region are expressed by the following Expressions 5 and 6, respectively. Further, the difference To−Te is expressed by Expression 7.

以上より、隣接する2行の画素信号の差分処理結果は式7で表されるT0−Teに比例し、ωo以上の周波数成分を除去するローパスフィルタで高周波成分を除去すれば、sin(ω−ωo)xの成分を取り出すことができる。この処理により、実施形態1における処理と同様、入射光の集光状態を検出できるため、被写体までの距離も推定できる。なお、一般の被写体では、隣接する2行の画素信号はほぼ等しいので、隣接する2行の画素信号間の差分により、被写体の画像情報を取り除くことができる。その結果、実施形態1とは異なり、被写体の画像の空間周波数に関係なく奥行き情報を算出できる。なお、解像度低下のない通常画像を取得する処理は、実施形態1における処理と同じであるため、その説明は省略する。 From the above, the difference processing result of the pixel signals of adjacent two lines is proportional to T 0 -T e of the formula 7, by removing the high frequency components by the low pass filter for removing ωo or more frequency components, sin ( The component of (ω−ωo) x can be extracted. Since this process can detect the condensing state of incident light as in the process in the first embodiment, the distance to the subject can also be estimated. Note that, in a general subject, the pixel signals of two adjacent rows are substantially equal, and therefore the image information of the subject can be removed by the difference between the pixel signals of two adjacent rows. As a result, unlike Embodiment 1, depth information can be calculated regardless of the spatial frequency of the subject image. Note that the process of acquiring a normal image without a resolution reduction is the same as the process in the first embodiment, and thus the description thereof is omitted.

以上のように、本実施形態によれば、撮像素子2の画素配列の1行おきに光学フィルタ1a、1b間の距離が異なり、それらの距離はdまたは0に設定される。さらに、信号処理として隣接する2行の画素信号の差分処理を行い、その低周波数帯域の成分を検出することにより、入射光の集光状態が特定でき、被写体までの距離を推定できる。   As described above, according to the present embodiment, the distance between the optical filters 1 a and 1 b is different every other row of the pixel array of the image sensor 2, and these distances are set to d or 0. Furthermore, by performing differential processing of the pixel signals of two adjacent rows as signal processing and detecting the low frequency band components, it is possible to identify the condensing state of the incident light and estimate the distance to the subject.

なお、本実施形態でも、赤外光に近い約650nm〜700nmの波長域の光の一部を減衰させる光学フィルタ1a、1bが用いられるが、他の波長域の光の一部を減衰させる光学フィルタを用いてもよい。また、光学フィルタ1a、1bの透過特性に関しても、sin関数、cos関数を用いて表される透過特性に限らず、周期関数で表されれば、どのような透過特性の光学フィルタを用いてもよい。さらに、本実施形態では、1行おきに光学フィルタ1a、1b間の距離を変えたが、n行おきに(nは2以上の整数)変えても問題ない。あるいは、特定の波長域の光に対する透過率がy方向に周期的に変化するように光学フィルタ1a、1bを配置した上で、1列おき、またはn列おきに光学フィルタ1a、1b間の距離を変えてもよい。   In this embodiment, the optical filters 1a and 1b that attenuate part of light in the wavelength range of about 650 nm to 700 nm close to infrared light are used. However, the optical filter attenuates part of light in other wavelength ranges. A filter may be used. Further, the transmission characteristics of the optical filters 1a and 1b are not limited to the transmission characteristics expressed by using the sin function and the cos function, and any transmission characteristics of the optical filter can be used as long as they are expressed by a periodic function. Good. Further, in the present embodiment, the distance between the optical filters 1a and 1b is changed every other row, but there is no problem if the distance is changed every n rows (n is an integer of 2 or more). Alternatively, the optical filters 1a and 1b are arranged so that the transmittance for light in a specific wavelength region periodically changes in the y direction, and the distance between the optical filters 1a and 1b every other row or every n rows. May be changed.

(実施形態3)
次に、本発明の第3の実施形態を説明する。本実施形態の撮像装置は、光学フィルタ1aを覆うように配置された遮光フィルタ1cをさらに備えている点で実施形態1の撮像装置と異なっている。以下、実施形態1と異なる点を中心に説明し、重複する事項についての説明は省略する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The imaging apparatus according to the present embodiment is different from the imaging apparatus according to the first embodiment in that it further includes a light shielding filter 1c disposed so as to cover the optical filter 1a. Hereinafter, the description will focus on the differences from the first embodiment, and a description of the overlapping items will be omitted.

図5Aは、光学フィルタ1a、1b、および遮光フィルタ1cが配置された撮像素子2の撮像面の一部を示す平面図である。図5Bは、図5AにおけるA−A’線断面図である。図5A、図5Bに示すように、遮光部1c_1と透明部1c_2とが交互に配列された遮光フィルタ1cが光学フィルタ1aを覆うように配置されている。   FIG. 5A is a plan view illustrating a part of the imaging surface of the imaging device 2 in which the optical filters 1a and 1b and the light shielding filter 1c are arranged. 5B is a cross-sectional view taken along line A-A ′ in FIG. 5A. As shown in FIGS. 5A and 5B, a light shielding filter 1c in which light shielding portions 1c_1 and transparent portions 1c_2 are alternately arranged is arranged so as to cover the optical filter 1a.

遮光部1c_1は、光の大部分を吸収または反射する部材で形成されている。一方、透明部1c_1は、ガラスや空気などの透明部材で形成されている。このような遮光フィルタ1cを設けることにより、周囲からの不要な光の入射を防ぐことができるため、信号処理の精度が向上する。   The light shielding portion 1c_1 is formed of a member that absorbs or reflects most of the light. On the other hand, the transparent portion 1c_1 is formed of a transparent member such as glass or air. By providing such a light shielding filter 1c, it is possible to prevent unnecessary light from entering from the surroundings, so that the accuracy of signal processing is improved.

本実施形態における画像信号の生成処理および奥行き情報生成処理は、実施形態1のものと同一であるため、詳細な説明は省略する。   Since the image signal generation process and the depth information generation process in the present embodiment are the same as those in the first embodiment, detailed description thereof is omitted.

なお、本実施形態では、個々の遮光部1c_1および透明部1c_2は、ともに正方形状であり、画素25(=5×5)個分のサイズを有しているが、これらの形状およびサイズはこのような例に限られない。透明部1c_1のある方向のサイズが光学フィルタ1aの上記第1波長域の光に対する透過率の1周期分のサイズよりも大きければどのような形状およびサイズであってもよい。   In this embodiment, each of the light-shielding portion 1c_1 and the transparent portion 1c_2 is square, and has a size corresponding to 25 pixels (= 5 × 5). It is not restricted to such an example. Any shape and size may be used as long as the size of the transparent part 1c_1 in a certain direction is larger than the size of one cycle of the transmittance of the optical filter 1a with respect to the light in the first wavelength region.

以上のように、本実施形態では、光学フィルタ1aよりも被写体に近い側に、複数の遮光部1c_1および複数の透明部1c_2が交互に配列された遮光フィルタ1cが配置されている。被写体から入射する光は、まず透明部1c_2を通過し、次いで光学フィルタ1a、1bを透過して複数の光感知セル10に入射する。各透明部1c_2を透過した光束が入射する光学フィルタ1aの部分において、第1波長域の光に対する透過率がx方向に1周期以上変化しているため、実施形態1と同じ原理により、奥行き情報を得ることができる。本実施形態では、周囲からの不要光が遮光部1c_1によって遮断されるため、実施形態1の構成と比較して信号処理の精度が向上するという顕著な効果がある。   As described above, in the present embodiment, the light shielding filter 1c in which the plurality of light shielding portions 1c_1 and the plurality of transparent portions 1c_2 are alternately arranged is disposed closer to the subject than the optical filter 1a. The light incident from the subject first passes through the transparent portion 1c_2, then passes through the optical filters 1a and 1b and enters the plurality of photosensitive cells 10. In the portion of the optical filter 1a where the light beam transmitted through each transparent portion 1c_2 is incident, the transmittance for the light in the first wavelength region changes by one period or more in the x direction. Can be obtained. In the present embodiment, unnecessary light from the surroundings is blocked by the light shielding portion 1c_1, so that there is a remarkable effect that the accuracy of signal processing is improved as compared with the configuration of the first embodiment.

本実施形態においては、上記の構成と同様の遮光効果が得られれば、図5Bに示す構成とは異なる構成を採用してもよい。例えば、図5Cに示す構成を採用してもよい。図5Cに示す構成では、光学フィルタ1aの一部が遮光部材から形成された遮光部1a_1であり、それ以外の部分は実施形態1の光学フィルタ1aと同様の部材によって形成された透光部1a_2である。遮光部1a_1および透光部1a_2の位置は、それぞれ図5Bにおける遮光部1c_1および透明部1c_2の位置に対応しており、それらのz座標のみが異なっている。このような構成であっても、図5Bに示す構成と同様の効果を得ることができる。   In the present embodiment, a configuration different from the configuration shown in FIG. 5B may be adopted as long as the same light shielding effect as the above configuration is obtained. For example, the configuration shown in FIG. 5C may be adopted. In the configuration shown in FIG. 5C, a part of the optical filter 1a is a light shielding part 1a_1 formed from a light shielding member, and the other part is a light transmitting part 1a_2 formed by a member similar to the optical filter 1a of the first embodiment. It is. The positions of the light shielding part 1a_1 and the light transmitting part 1a_2 respectively correspond to the positions of the light shielding part 1c_1 and the transparent part 1c_2 in FIG. 5B, and only their z coordinates are different. Even with such a configuration, the same effect as the configuration shown in FIG. 5B can be obtained.

なお、以上の実施形態では、光学フィルタ1bは、撮像素子2の撮像面に近接しているが、光学フィルタ1bは、撮像面から離れていてもよい。光学フィルタ1bが撮像面から所定距離だけ離れていても、その距離を考慮して信号処理を補正することにより、同様の原理で奥行き情報を得ることができる。   In the above embodiment, the optical filter 1b is close to the imaging surface of the imaging device 2, but the optical filter 1b may be separated from the imaging surface. Even if the optical filter 1b is separated from the imaging surface by a predetermined distance, depth information can be obtained on the same principle by correcting the signal processing in consideration of the distance.

以上の実施形態では、撮像装置に内蔵された画像処理部7が画像処理を行うものとしたが、撮像装置とは独立した他の装置に当該画像処理を実行させてもよい。例えば、上記の各実施形態における撮像部100を有する撮像装置によって取得した信号を、他の装置(画像処理装置)に入力し、上記の信号演算処理を規定するプログラムを当該画像処理装置に内蔵されたコンピュータに実行させることによっても同様の効果を得ることができる。外部の画像処理装置に画像処理を実行させる場合、撮像装置は画像処理部を備えていなくてもよい。本明細書では、このような、自身は奥行き情報を生成しないが、奥行き情報を生成するための信号を出力する撮像装置も、「奥行き推定撮像装置」と呼ぶ。   In the above embodiment, the image processing unit 7 incorporated in the imaging device performs image processing. However, another device independent of the imaging device may execute the image processing. For example, a signal that is acquired by the imaging device having the imaging unit 100 in each of the above embodiments is input to another device (image processing device), and a program that defines the signal calculation processing is incorporated in the image processing device. The same effect can be obtained by causing the computer to execute. When causing an external image processing apparatus to perform image processing, the imaging apparatus may not include an image processing unit. In this specification, such an imaging apparatus that itself does not generate depth information but outputs a signal for generating depth information is also referred to as a “depth estimation imaging apparatus”.

本発明にかかる奥行き推定撮像装置は、撮像素子を用いたすべてのカメラに有効である。例えば、デジタルカメラやデジタルビデオカメラ等の民生用カメラや、産業用の固体監視カメラに利用できる。   The depth estimation imaging apparatus according to the present invention is effective for all cameras using an imaging element. For example, it can be used for consumer cameras such as digital cameras and digital video cameras, and industrial solid-state surveillance cameras.

1 光学フィルタ部
1a、1b 光学フィルタ
1a_1 遮光部
1a_2 透光部
1ab_1 赤外光吸収部
1ab_2 透明部
1c 遮光フィルタ
1c_1遮光部
1c_2透光部
2 固体撮像素子
3 レンズ
4 可視光透過フィルタ
5 信号発生/受信部
6 素子駆動部
7 画像処理部
8 インターフェース部
10 光感知セル
30 メモリ
100 撮像部
200 信号処理部
DESCRIPTION OF SYMBOLS 1 Optical filter part 1a, 1b Optical filter 1a_1 Light-shielding part 1a_2 Light transmission part 1ab_1 Infrared light absorption part 1ab_2 Transparent part 1c Light-shielding filter 1c_1 Light-shielding part 1c_2 Light-transmission part 2 Solid-state image sensor 3 Lens 4 Visible light transmission filter 5 Signal generation / Receiving unit 6 Element driving unit 7 Image processing unit 8 Interface unit 10 Photosensitive cell 30 Memory 100 Imaging unit 200 Signal processing unit

Claims (13)

複数の光感知セルが撮像面に行列状に配列された撮像素子と、
前記撮像面に像を形成するように配置された光学レンズと、
前記光学レンズおよび前記撮像素子の間に配置された、特定の波長域の光に対する透過率が前記撮像面に平行な第1の方向に周期的に変化している第1の光学フィルタと、
前記第1の光学フィルタと前記撮像素子との間に配置された、前記特定の波長域の光に対する透過率が前記第1の方向に周期的に変化し、かつ前記透過率の周期変化が前記第1の光学フィルタにおける前記特定の波長域の光に対する透過率の周期変化と比べて1/4周期ずれている第2の光学フィルタと、
前記複数の光感知セルから出力される画素信号を処理する信号処理部と、
を備える奥行き推定撮像装置。
An imaging device in which a plurality of photosensitive cells are arranged in a matrix on the imaging surface;
An optical lens arranged to form an image on the imaging surface;
A first optical filter disposed between the optical lens and the image sensor, wherein the transmittance for light in a specific wavelength range is periodically changed in a first direction parallel to the imaging surface;
The transmittance for the light in the specific wavelength range, which is disposed between the first optical filter and the imaging element, periodically changes in the first direction, and the periodic change in the transmittance is A second optical filter that is shifted by a quarter of a period compared to a periodic change in transmittance for light in the specific wavelength region in the first optical filter;
A signal processing unit that processes pixel signals output from the plurality of photosensitive cells;
A depth estimation imaging apparatus comprising:
前記信号処理部は、前記複数の光感知セルから出力される画素信号の空間周波数特性に基づいて、被写体の奥行きを示す情報を生成する、請求項1に記載の奥行き推定撮像装置。   The depth estimation imaging apparatus according to claim 1, wherein the signal processing unit generates information indicating a depth of a subject based on a spatial frequency characteristic of pixel signals output from the plurality of photosensitive cells. 前記複数の光感知セルから出力される前記画素信号の前記空間周波数特性と前記被写体の奥行きとの対応関係を規定する情報が記録されたメモリをさらに備え、
前記信号処理部は、前記対応関係を規定する情報を参照することによって前記奥行きを示す情報を生成する、請求項2に記載の奥行き推定撮像装置。
A memory in which information defining a correspondence relationship between the spatial frequency characteristics of the pixel signals output from the plurality of photosensitive cells and the depth of the subject is recorded;
The depth estimation imaging apparatus according to claim 2, wherein the signal processing unit generates information indicating the depth by referring to information defining the correspondence.
前記複数の光感知セルの配列のうち、特定の行または列に対応する位置における前記第1の光学フィルタと前記第2の光学フィルタとの距離は、前記特定の行または列に隣接する行または列に対応する位置における前記第1の光学フィルタと前記第2の光学フィルタとの距離と異なっている、請求項1から3のいずれかに記載の奥行き推定撮像装置。   A distance between the first optical filter and the second optical filter at a position corresponding to a specific row or column in the array of the plurality of photosensitive cells is a row adjacent to the specific row or column or The depth estimation imaging device according to any one of claims 1 to 3, wherein a distance between the first optical filter and the second optical filter at a position corresponding to a column is different. 前記第1の光学フィルタおよび前記第2の光学フィルタは、前記複数の光感知セルの配列のn行(nは1以上の整数)ごとまたはn列ごとに対応する位置に配置されている、請求項1から3のいずれかに記載の奥行き推定撮像装置。   The first optical filter and the second optical filter are arranged at positions corresponding to every n rows (n is an integer of 1 or more) or every n columns of the array of the plurality of photosensitive cells. Item 4. The depth estimation imaging apparatus according to any one of Items 1 to 3. 前記第1の光学フィルタおよび前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化は、三角関数または矩形関数で表される、請求項1から5のいずれかに記載の奥行き推定撮像装置。   The spatial change in the first direction of the transmittance of the first optical filter and the second optical filter with respect to light in the specific wavelength range is represented by a trigonometric function or a rectangular function. The depth estimation imaging device according to any one of claims 5 to 6. aおよびbを、a+b<1、b−a>0を満たす正の実数とし、ω0を正の実数とするとき、
前記第1の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化を表す関数は、近似的にasinω0x+bで表され、
前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化を表す関数は、近似的にacosω0x+bで表される、
請求項6に記載の奥行き推定撮像装置。
When a and b are positive real numbers that satisfy a + b <1, b−a> 0, and ω 0 is a positive real number,
A function representing a spatial change in the first direction of the transmittance of the first optical filter with respect to the light in the specific wavelength range is approximately represented by asinω 0 x + b.
A function representing a spatial change in the first direction of the transmittance of the second optical filter with respect to the light in the specific wavelength range is approximately represented by acosω 0 x + b.
The depth estimation imaging device according to claim 6.
前記複数の光感知セルを、各々がu行v列(u,vは2以上の整数)に配列されたu×v個の光感知セルを含む複数のブロックに分けるとき、
前記第1の光学フィルタおよび前記第2の光学フィルタは、各ブロックを覆うように配置され、各ブロック上で透過率が前記第1の方向に1周期以上変化している、
請求項1から7のいずれかに記載の奥行き推定撮像装置。
When dividing the plurality of photosensitive cells into a plurality of blocks each including u × v photosensitive cells arranged in u rows and v columns (u and v are integers of 2 or more),
The first optical filter and the second optical filter are arranged so as to cover each block, and the transmittance is changed in the first direction by one period or more on each block.
The depth estimation imaging device according to claim 1.
各ブロックにおいて、前記第1の光学フィルタおよび前記第2の光学フィルタの前記特定の波長域の光に対する透過率の前記第1の方向についての空間変化は、複数の異なる周期をもつ周期関数の線型結合で表される、請求項1から8のいずれかに記載の奥行き推定撮像装置。   In each block, the spatial change in the first direction of the transmittance of the first optical filter and the second optical filter with respect to the light in the specific wavelength range is a linear function of a periodic function having a plurality of different periods. The depth estimation imaging device according to any one of claims 1 to 8, represented by a combination. 前記特定の波長域の下限は、650nmよりも長い、請求項1から9のいずれかに記載の奥行き推定撮像装置。   The depth estimation imaging apparatus according to claim 1, wherein a lower limit of the specific wavelength range is longer than 650 nm. 前記第1の光学フィルタよりも被写体に近い側に配置された、可視光のみを透過させる第3の光学フィルタをさらに備え、
前記特定の波長域は、可視光の波長域に含まれている、
請求項1から10のいずれかに記載の奥行き推定撮像装置。
A third optical filter that is disposed closer to the subject than the first optical filter and transmits only visible light;
The specific wavelength range is included in the visible wavelength range,
The depth estimation imaging device according to claim 1.
前記信号処理部は、前記第1および第2の光学フィルタが設けられていないと仮定した場合に各光感知セルから出力される画素信号と、前記第1および第2の光学フィルタが設けられている場合に各光感知セルから出力される画素信号との比を示す情報に基づいて、前記複数の光感知セルから出力される画素信号を補正することにより、可視光画像を生成する、請求項1から11のいずれかに記載の奥行き推定撮像装置。   The signal processing unit is provided with a pixel signal output from each photosensitive cell and the first and second optical filters when it is assumed that the first and second optical filters are not provided. A visible light image is generated by correcting pixel signals output from the plurality of photosensitive cells based on information indicating a ratio with a pixel signal output from each photosensitive cell in a case where The depth estimation imaging device according to any one of 1 to 11. 前記第1の光学フィルタよりも被写体に近い側に配置された、複数の遮光部および複数の透明部が交互に配列された第4の光学フィルタをさらに備え、
各透明部を透過した光束が入射する前記第1の光学フィルタの部分において、前記特定の波長域の光に対する透過率が前記第1の方向について1周期以上変化している、
請求項1から12のいずれかに記載の奥行き推定撮像装置。
A fourth optical filter that is arranged closer to the subject than the first optical filter, and in which a plurality of light shielding portions and a plurality of transparent portions are alternately arranged;
In the portion of the first optical filter on which the light beam that has passed through each transparent portion is incident, the transmittance for light in the specific wavelength region has changed by one period or more in the first direction.
The depth estimation imaging device according to claim 1.
JP2011249260A 2011-11-15 2011-11-15 Depth estimating/imaging apparatus Pending JP2013106217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011249260A JP2013106217A (en) 2011-11-15 2011-11-15 Depth estimating/imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011249260A JP2013106217A (en) 2011-11-15 2011-11-15 Depth estimating/imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013106217A true JP2013106217A (en) 2013-05-30

Family

ID=48625443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011249260A Pending JP2013106217A (en) 2011-11-15 2011-11-15 Depth estimating/imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013106217A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
EP3092788A4 (en) * 2014-01-10 2016-11-16 Ricoh Co Ltd Imaging module and imaging device
CN110415287A (en) * 2019-07-11 2019-11-05 Oppo广东移动通信有限公司 Filtering method, device, electronic equipment and the readable storage medium storing program for executing of depth map

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3092788A4 (en) * 2014-01-10 2016-11-16 Ricoh Co Ltd Imaging module and imaging device
US10110811B2 (en) 2014-01-10 2018-10-23 Ricoh Company, Ltd. Imaging module and imaging device
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
JPWO2016031922A1 (en) * 2014-08-28 2017-06-15 平本 政夫 Multispectral camera
CN110415287A (en) * 2019-07-11 2019-11-05 Oppo广东移动通信有限公司 Filtering method, device, electronic equipment and the readable storage medium storing program for executing of depth map
CN110415287B (en) * 2019-07-11 2021-08-13 Oppo广东移动通信有限公司 Depth map filtering method and device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP5879549B2 (en) Light field imaging apparatus and image processing apparatus
JP5421364B2 (en) 3D imaging device
JP5958837B2 (en) Depth estimation imaging device
US9442362B2 (en) Method and apparatus for generating three-dimensional image information
JP5227368B2 (en) 3D imaging device
US20130188026A1 (en) Depth estimating image capture device and image sensor
JP6004280B2 (en) Light field imaging device and imaging device
TWI505693B (en) Image capture device
US9425229B2 (en) Solid-state imaging element, imaging device, and signal processing method including a dispersing element array and microlens array
JP2008167154A (en) Imaging apparatus
JP5995084B2 (en) Three-dimensional imaging device, imaging device, light transmission unit, and image processing device
JP5507362B2 (en) Three-dimensional imaging device and light transmission plate
JP2013106217A (en) Depth estimating/imaging apparatus
JP4377673B2 (en) Stereoscopic image pickup apparatus and stereoscopic image display apparatus
JP6008298B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9794468B2 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus using pupil division in different directions
JP6234366B2 (en) Grid-modulated single-lens 3-D camera
JP6086681B2 (en) Imaging device and imaging apparatus
JP2013242480A (en) Color polarization imaging element and imaging apparatus