JP2012212978A - Imaging element and imaging device - Google Patents

Imaging element and imaging device Download PDF

Info

Publication number
JP2012212978A
JP2012212978A JP2011076407A JP2011076407A JP2012212978A JP 2012212978 A JP2012212978 A JP 2012212978A JP 2011076407 A JP2011076407 A JP 2011076407A JP 2011076407 A JP2011076407 A JP 2011076407A JP 2012212978 A JP2012212978 A JP 2012212978A
Authority
JP
Japan
Prior art keywords
pixel
image data
photoelectric conversion
pixels
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011076407A
Other languages
Japanese (ja)
Inventor
Taiji Ouchi
泰司 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011076407A priority Critical patent/JP2012212978A/en
Publication of JP2012212978A publication Critical patent/JP2012212978A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, in a conventional camera for outputting polarization image data, ordinary color image data in which the same subject is captured cannot be output together with the polarization image data.SOLUTION: In order to solve the problem, an imaging element comprises: photoelectric conversion elements that photoelectrically convert incident light into electric signals and are two-dimensionally arranged; color filters provided to at least part of the photoelectric conversion elements in one-to-one correspondence, respectively; and photonic crystal polarizers provided to at least part of the photoelectric conversion elements in one-to-one correspondence, respectively.

Description

本発明は、撮像素子および撮像装置に関する。   The present invention relates to an imaging element and an imaging apparatus.

偏光を用いたイメージング技術分野において、パターン化されたフォトニック結晶偏光子を撮像素子上に組み合わせたカメラが知られている。このカメラにより撮像された画像データを解析すれば、被写体表面で反射する反射光の偏光分布情報を取得できる。この偏光分布情報は、例えば被写体表面の傾き検出などに利用される。
[先行技術文献]
[非特許文献]川上彰二郎、川嶋隆之他、"フォトニック結晶偏光子を用いた偏光イメージングカメラの開発"第32回光学シンポジウム、講演番号3、2007年7月5日
In the field of imaging technology using polarized light, a camera in which a patterned photonic crystal polarizer is combined on an image sensor is known. By analyzing the image data captured by this camera, it is possible to obtain the polarization distribution information of the reflected light reflected from the subject surface. This polarization distribution information is used, for example, for detecting the tilt of the subject surface.
[Prior art documents]
[Non-patent literature] Shojiro Kawakami, Takayuki Kawashima et al., "Development of polarization imaging camera using photonic crystal polarizer" 32nd Optical Symposium, Lecture No. 3, July 5, 2007

上記のカメラによれば、一度の撮影動作により得られる画像データは、偏光情報が取得できる偏光画像データのみであった。したがって、当該偏光画像データに対応するカラー画像データは得られなかった。偏光画像データを出力するカメラと、通常のカラー画像データを出力するカメラとを並べて撮影したとしても、撮影タイミングの同期、画角の調整などが困難であった。   According to the camera described above, the only image data obtained by a single photographing operation is polarized image data from which polarization information can be acquired. Therefore, color image data corresponding to the polarized image data could not be obtained. Even if a camera that outputs polarized image data and a camera that outputs normal color image data are photographed side by side, it is difficult to synchronize the photographing timing and adjust the angle of view.

本発明の第1の態様における撮像素子は、入射光を電気信号に光電変換する、二次元的に配列された光電変換素子と、少なくとも一部の前記光電変換素子のそれぞれに一対一に対応して設けられたカラーフィルタと、少なくとも一部の前記光電変換素子のそれぞれに一対一に対応して設けられたフォトニック結晶偏光子とを備える。本発明の第2の態様における撮像装置は、上記の撮像素子を備える。   The imaging device according to the first aspect of the present invention has a one-to-one correspondence with each of a two-dimensionally arranged photoelectric conversion device that photoelectrically converts incident light into an electric signal and at least some of the photoelectric conversion devices. And a photonic crystal polarizer provided in one-to-one correspondence with each of at least some of the photoelectric conversion elements. The imaging device in the 2nd aspect of this invention is equipped with said imaging device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本発明の実施形態に係るデジタルカメラの構成を説明する図である。It is a figure explaining the structure of the digital camera which concerns on embodiment of this invention. 本発明の実施形態に係る撮像素子の断面を表す概略図である。It is the schematic showing the cross section of the image pick-up element which concerns on embodiment of this invention. 偏光子パターンに対する明暗パターンを説明する図である。It is a figure explaining the light-dark pattern with respect to a polarizer pattern. 偏光子の方位角と受光強度との関係を示す図である。It is a figure which shows the relationship between the azimuth angle of a polarizer, and received light intensity. 視差画素の配列パターンを説明する説明図である。It is explanatory drawing explaining the arrangement | sequence pattern of a parallax pixel. 視差画素と被写体の関係を説明する概念図である。It is a conceptual diagram explaining the relationship between a parallax pixel and a to-be-photographed object. 視差画像を生成する処理を説明する概念図である。It is a conceptual diagram explaining the process which produces | generates a parallax image. ベイヤー配列と他の配列のカラーフィルターパターンを説明する図である。It is a figure explaining the color filter pattern of a Bayer arrangement | sequence and another arrangement | sequence. 撮像素子の出力と生成される画像データの関係を示す概念図である。It is a conceptual diagram which shows the relationship between the output of an image pick-up element, and the produced | generated image data. 撮像素子における第1配列を説明する説明図である。It is explanatory drawing explaining the 1st arrangement | sequence in an image pick-up element. 撮像素子における第2配列を説明する説明図である。It is explanatory drawing explaining the 2nd arrangement | sequence in an image pick-up element. 撮像素子における第3配列を説明する説明図である。It is explanatory drawing explaining the 3rd arrangement | sequence in an image pick-up element. 撮像素子における第4配列を説明する説明図である。It is explanatory drawing explaining the 4th arrangement | sequence in an image sensor. 撮像素子における第5配列を説明する説明図である。It is explanatory drawing explaining the 5th arrangement | sequence in an image sensor. 撮像素子における第6配列を説明する説明図である。It is explanatory drawing explaining the 6th arrangement | sequence in an image sensor. 撮像素子における第7配列を説明する説明図である。It is explanatory drawing explaining the 7th arrangement | sequence in an image pick-up element. 輪郭抽出処理を示すフロー図である。It is a flowchart which shows an outline extraction process. 光学ファインダから観察される被写体像および測距領域を示す図である。It is a figure which shows the to-be-photographed image observed from an optical finder, and a ranging area.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンに対してカラー画像データと偏光画像データを一度の撮影により生成できるように構成されている。偏光画像データは、被写体表面の反射光の偏光状態を表す画像データである。また、本実施形態に係るデジタルカメラは、追加的な機能として、視差画像データを生成できる。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。   The digital camera according to the present embodiment, which is one form of the image pickup apparatus, is configured to generate color image data and polarized image data for one scene by one shooting. The polarization image data is image data representing the polarization state of the reflected light on the subject surface. Further, the digital camera according to the present embodiment can generate parallax image data as an additional function. Each image having a different viewpoint is called a parallax image.

図1は、本発明の実施形態に係るデジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209、LCD駆動回路210およびAFセンサ211を備える。   FIG. 1 is a diagram illustrating the configuration of a digital camera 10 according to an embodiment of the present invention. The digital camera 10 includes a photographic lens 20 as a photographic optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100. The photographing lens 20 may be an interchangeable lens that can be attached to and detached from the digital camera 10. The digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, an image processing unit 205, a memory card IF 207, an operation unit 208, a display unit 209, an LCD drive circuit 210, and an AF. A sensor 211 is provided.

なお、図示するように、撮像素子100へ向かう光軸21に平行な方向をz軸プラス方向と定め、z軸と直交する平面において紙面手前へ向かう方向をx軸プラス方向、紙面上方向をy軸プラス方向と定める。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the z-axis plus direction, the direction toward the front of the drawing in the plane orthogonal to the z-axis is the x-axis plus direction, and the upward direction on the drawing is y. The axis is defined as the plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。   The taking lens 20 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane. In FIG. 1, for convenience of explanation, the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil. The image sensor 100 is disposed near the focal plane of the photographic lens 20. The image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged. The image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.

A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。特に、画像処理部205は、偏光画像データを処理して被写体像の輪郭を抽出する輪郭抽出部231を有する。具体的な処理の詳細については、後述する。   The A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203. The image processing unit 205 performs various image processing using the memory 203 as a work space, and generates image data. In particular, the image processing unit 205 includes a contour extraction unit 231 that processes polarized image data and extracts a contour of a subject image. Details of specific processing will be described later.

画像処理部205は、他にも、撮像素子100の画素配列に即して、入力される画像信号からカラー画像データおよび偏光画像データを生成したり、選択された画像フォーマットに従って画像データを調整したりする機能も担う。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示され得る。また、メモリカードIF207に装着されているメモリカード220に記録され得る。   In addition, the image processing unit 205 generates color image data and polarized image data from the input image signal in accordance with the pixel arrangement of the image sensor 100, and adjusts the image data according to the selected image format. It also has a function to perform. The generated image data can be converted into a display signal by the LCD driving circuit 210 and displayed on the display unit 209. Further, it can be recorded on the memory card 220 attached to the memory card IF 207.

AFユニットのAFセンサ211は、被写体空間に対して複数の測距領域が設定された位相差センサであり、それぞれの測距領域において被写体像のデフォーカス量を検出する。一連の撮影シーケンスは、操作部208がユーザの操作を受けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF,AE等の各種動作は、制御部201に制御されて実行される。例えば、制御部201は、AFセンサ211の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。   The AF sensor 211 of the AF unit is a phase difference sensor in which a plurality of distance measurement areas are set with respect to the subject space, and detects the defocus amount of the subject image in each distance measurement area. A series of shooting sequences is started when the operation unit 208 receives an operation of the user and outputs an operation signal to the control unit 201. Various operations such as AF and AE accompanying the imaging sequence are executed under the control of the control unit 201. For example, the control unit 201 analyzes the detection signal of the AF sensor 211 and executes focus control for moving a focus lens that constitutes a part of the photographing lens 20.

次に、撮像素子100の構成について詳細に説明する。図2は、本発明の実施形態に係る撮像素子100の断面を表す概略図である。撮像素子100は、被写体側から順に、偏光子101、カラーフィルタ102、開口マスク103、配線層105および光電変換素子108が配列されて構成されている。光電変換素子108は、入射する光を電気信号に変換するフォトダイオードにより構成される。光電変換素子108は、基板109の表面に二次元的に複数配列されている。   Next, the configuration of the image sensor 100 will be described in detail. FIG. 2 is a schematic diagram showing a cross section of the image sensor 100 according to the embodiment of the present invention. The image sensor 100 includes a polarizer 101, a color filter 102, an aperture mask 103, a wiring layer 105, and a photoelectric conversion element 108 arranged in this order from the subject side. The photoelectric conversion element 108 is configured by a photodiode that converts incident light into an electrical signal. A plurality of photoelectric conversion elements 108 are two-dimensionally arranged on the surface of the substrate 109.

光電変換素子108により変換された画像信号、光電変換素子108を制御する制御信号等は、配線層105に設けられた配線106を介して送受信される。また、各光電変換素子108に一対一に対応して設けられた開口部104を有する開口マスク103が、配線層に接して設けられている。開口部104は、後述するように、対応する光電変換素子108ごとにシフトさせて、相対的な位置が厳密に定められている。詳しくは後述するが、この開口部104を備える開口マスク103の作用により、光電変換素子108が受光する被写体光束に視差が生じる。   An image signal converted by the photoelectric conversion element 108, a control signal for controlling the photoelectric conversion element 108, and the like are transmitted and received through the wiring 106 provided in the wiring layer 105. In addition, an opening mask 103 having openings 104 provided in one-to-one correspondence with each photoelectric conversion element 108 is provided in contact with the wiring layer. As will be described later, the opening 104 is shifted for each corresponding photoelectric conversion element 108 so that the relative position is precisely determined. As will be described in detail later, parallax occurs in the subject light beam received by the photoelectric conversion element 108 by the action of the opening mask 103 including the opening 104.

一方、視差を生じさせない光電変換素子108上には、開口マスク103が存在しない。別言すれば、対応する光電変換素子108に対して入射する被写体光束を制限しない、つまり有効光束の全体を通過させる開口部104を有する開口マスク103が設けられているとも言える。視差を生じさせることはないが、実質的には配線106によって形成される開口107が入射する被写体光束を規定するので、配線106を、視差を生じさせない有効光束の全体を通過させる開口マスクと捉えることもできる。開口マスク103は、各光電変換素子108に対応して別個独立に配列しても良いし、カラーフィルタ102の製造プロセスと同様に複数の光電変換素子108に対して一括して形成しても良い。   On the other hand, the aperture mask 103 does not exist on the photoelectric conversion element 108 that does not generate parallax. In other words, it can be said that the aperture mask 103 having the aperture 104 that does not limit the subject luminous flux incident on the corresponding photoelectric conversion element 108, that is, allows the entire effective luminous flux to pass therethrough is provided. Although no parallax is generated, the aperture 107 formed by the wiring 106 defines the subject luminous flux that is incident, so the wiring 106 is regarded as an aperture mask that allows the entire effective luminous flux that does not cause parallax to pass. You can also. The opening mask 103 may be arranged separately and independently corresponding to each photoelectric conversion element 108, or may be formed collectively for a plurality of photoelectric conversion elements 108 in the same manner as the manufacturing process of the color filter 102. .

カラーフィルタ102は、開口マスク103上に設けられている。カラーフィルタ102は、各光電変換素子108に対して特定の波長帯域を透過させるように着色された、光電変換素子108のそれぞれに一対一に対応して設けられるフィルタである。カラー画像を出力するには、互いに異なる少なくとも2種類のカラーフィルタが配列されれば良いが、より高画質のカラー画像を取得するには3種類以上のカラーフィルタを配列すると良い。例えば赤色波長帯を透過させる赤フィルタ、緑色波長帯を透過させる緑フィルタ、および青色波長帯を透過させる青フィルタを格子状に配列すると良い。また、特定の光電変換素子108には、対応するカラーフィルタ102を設けなくても良い。あるいは、可視光のおよそ全ての波長帯域を透過させるように、着色を施さない透明フィルタを配列しても良い。具体的な配列については後述する。   The color filter 102 is provided on the opening mask 103. The color filter 102 is a filter provided in a one-to-one correspondence with each photoelectric conversion element 108, which is colored so as to transmit a specific wavelength band to each photoelectric conversion element 108. In order to output a color image, it is only necessary to arrange at least two types of color filters that are different from each other. However, in order to obtain a higher quality color image, it is preferable to arrange three or more types of color filters. For example, a red filter that transmits a red wavelength band, a green filter that transmits a green wavelength band, and a blue filter that transmits a blue wavelength band may be arranged in a lattice pattern. Further, the corresponding color filter 102 may not be provided in the specific photoelectric conversion element 108. Or you may arrange | position the transparent filter which does not give coloring so that the substantially all wavelength band of visible light may be permeate | transmitted. A specific arrangement will be described later.

偏光子101は、カラーフィルタ102上に設けられている。偏光子101は、入射される被写体光束を偏光方向により透過率を異ならせて射出する光学素子である。偏光子101は、光電変換素子108のそれぞれに一対一に対応して設けられている。偏光子101は、対応する光電変換素子108により、透過させる偏光方向が異なるように設けられている。また、対応する光電変換素子108によっては、特定方向への偏光特性を有さない偏光子101が設けられている。なお、本実施形態においては、特定方向への偏光特性を有さない場合も、以下のように偏光特性を有する偏光子と共に形成されるので、便宜上、偏光子101として説明する。   The polarizer 101 is provided on the color filter 102. The polarizer 101 is an optical element that emits an incident subject light flux with different transmittances depending on the polarization direction. The polarizer 101 is provided in one-to-one correspondence with each of the photoelectric conversion elements 108. The polarizer 101 is provided by the corresponding photoelectric conversion element 108 so that the polarization direction to be transmitted is different. Further, depending on the corresponding photoelectric conversion element 108, a polarizer 101 that does not have polarization characteristics in a specific direction is provided. In the present embodiment, even when it does not have a polarization characteristic in a specific direction, it is formed with a polarizer having a polarization characteristic as described below.

偏光子101は、フォトニック結晶偏光子により構成される。フォトニック結晶偏光子は、屈折率の異なる光学材料が周期的に並んだ構造体である。特に面内方向に微細な凹凸溝を設けると、入射光に対して面内異方性を生じさせる。すなわち、凹凸溝に沿った方向に偏光成分を有する入射光ほど良く透過させる。この方向を方位角という。凹凸溝を設けない場合は、特定方向への偏光特性を有さない偏光子101となる。つまり、方位角を有さない。   The polarizer 101 is composed of a photonic crystal polarizer. A photonic crystal polarizer is a structure in which optical materials having different refractive indexes are periodically arranged. In particular, when a fine concave-convex groove is provided in the in-plane direction, in-plane anisotropy is generated for incident light. That is, the incident light having the polarization component in the direction along the concave and convex grooves is transmitted better. This direction is called the azimuth angle. When the concave and convex grooves are not provided, the polarizer 101 does not have a polarization characteristic in a specific direction. That is, it has no azimuth.

フォトニック結晶偏光子は、具体的には、SiO、Nb、Alなどのスパッタ成膜可能な材料を用いて自己クローニング成膜技術等により形成される。特に、一つ一つの光電変換素子108に対応させて、凹凸溝の方向を変えることができる。また、凹凸溝を設けず、特定方向への偏光特性を与えないこともできる。したがって、フォトニック結晶偏光子は、異なる偏光特性を有する偏光子101も、特定方向への偏光特性を有さない偏光子101も纏めて一体的に形成することができる。 Specifically, the photonic crystal polarizer is formed by a self-cloning film forming technique or the like using a material that can be formed by sputtering, such as SiO 2 , Nb 2 O 5 , and Al 2 O 5 . In particular, the direction of the concavo-convex groove can be changed corresponding to each photoelectric conversion element 108. Moreover, it is also possible not to provide the concave and convex grooves and to give the polarization characteristics in a specific direction. Therefore, the photonic crystal polarizer can be formed integrally with a polarizer 101 having different polarization characteristics and a polarizer 101 having no polarization characteristics in a specific direction.

このように、各々の光電変換素子108に対応して一対一に設けられる開口マスク103、カラーフィルタ102および偏光子101の一単位を画素と呼ぶ。特に、視差を生じさせる開口マスク103が設けられた画素を視差画素、視差を生じさせる開口マスク103が設けられていない画素を視差なし画素と呼ぶ。また、特定方向への偏光特性を有する偏光子101が設けられた画素を偏光画素、特定方向への偏光特性を有さない偏光子101が設けられた画素を偏光なし画素と呼ぶ。例えば、撮像素子100の有効画素領域が24mm×16mm程度の場合、画素数は1200万程度に及ぶ。   As described above, one unit of the aperture mask 103, the color filter 102, and the polarizer 101 provided on a one-to-one basis corresponding to each photoelectric conversion element 108 is referred to as a pixel. In particular, a pixel provided with the opening mask 103 that generates parallax is referred to as a parallax pixel, and a pixel that is not provided with the opening mask 103 that generates parallax is referred to as a non-parallax pixel. A pixel provided with a polarizer 101 having a polarization characteristic in a specific direction is referred to as a polarization pixel, and a pixel provided with a polarizer 101 not having a polarization characteristic in a specific direction is referred to as a non-polarized pixel. For example, when the effective pixel area of the image sensor 100 is about 24 mm × 16 mm, the number of pixels reaches about 12 million.

なお、個々の画素に対応させて、入射する被写体光束のより多くを光電変換素子108へ導くための集光レンズであるマイクロレンズを設けることもできる。マイクロレンズは、撮影レンズ20の瞳中心と光電変換素子108の相対的な位置関係を考慮して、より多くの被写体光束が光電変換素子108に導かれるようにその光軸がシフトされていても良い。また、裏面照射型イメージセンサの場合は、配線層105が光電変換素子108とは反対側に設けられる。   A microlens that is a condensing lens for guiding more incident subject light flux to the photoelectric conversion element 108 may be provided in correspondence with each pixel. In consideration of the relative positional relationship between the pupil center of the photographing lens 20 and the photoelectric conversion element 108, the microlens has its optical axis shifted so that more subject light flux is guided to the photoelectric conversion element 108. good. In the case of a back-illuminated image sensor, the wiring layer 105 is provided on the side opposite to the photoelectric conversion element 108.

偏光子101について更に説明する。図3は、偏光子パターンに対する明暗パターンを説明する図である。特に図3(a)は、偏光子パターンを示す図であり、図3(b)は、入射する被写体光束の光量を概念的に示す図である。   The polarizer 101 will be further described. FIG. 3 is a diagram illustrating a light / dark pattern with respect to a polarizer pattern. In particular, FIG. 3A is a diagram showing a polarizer pattern, and FIG. 3B is a diagram conceptually showing the amount of incident subject light flux.

上述のように、偏光子101は、形成された凹凸溝の方向により、入射される被写体光束をその偏光方向によって透過率を異ならせて射出する。本実施形態においては、図示するように、それぞれ0°、45°、90°、135°の方向に方位角を有する4つの偏光子101が組み合わされて、一組の偏光子パターンが形成される。   As described above, the polarizer 101 emits the incident subject light flux with different transmittance depending on the direction of the formed concave and convex grooves. In the present embodiment, as shown in the drawing, four polarizers 101 having azimuth angles in directions of 0 °, 45 °, 90 °, and 135 ° are combined to form a set of polarizer patterns. .

この偏光子パターンを通過する被写体光束は、様々な明暗パターンを生成する。例えば、0°方向の直線偏光から成る被写体光束は、0°の方位角を有する偏光子101に対してほぼ透過するのに対して、45°および135°の方位角を有する偏光子101に対しては半減し、90°の方位角を有する偏光子101に対してはほぼ遮断される。また、円偏光から成る被写体光束は、いずれの偏光子101に対しても半減する。つまり、入射光束が、入射する偏光子101の方位角成分をどれだけ含むかにより、光電変換素子108へ届く光量が変化する。   The subject luminous flux that passes through the polarizer pattern generates various bright and dark patterns. For example, a subject luminous flux composed of linearly polarized light in the 0 ° direction is almost transmitted to the polarizer 101 having an azimuth angle of 0 °, whereas the subject luminous flux is directed to the polarizer 101 having azimuth angles of 45 ° and 135 °. The polarizer 101 having a 90 ° azimuth angle is almost cut off. In addition, the subject luminous flux composed of circularly polarized light is halved with respect to any polarizer 101. That is, the amount of light reaching the photoelectric conversion element 108 varies depending on how much the incident light beam includes the azimuth angle component of the incident polarizer 101.

図4は、偏光子101の方位角と光電変換素子108の受光光量との関係を示す図である。具体的には、互いに近接する0°、45°、90°、135°の方位角をそれぞれ有する偏光画素の受光光量を示す。なお、これらの偏光画素は、同色のカラーフィルタ102に対応して設けられているものとする。横軸は、偏光子101の方位角であり、サンプリングポイントである0°、45°、90°、135°を明示的に示す。縦軸は、光電変換素子108の受光光量であり、ひいては光電変換された電荷量を示す。   FIG. 4 is a diagram illustrating the relationship between the azimuth angle of the polarizer 101 and the amount of light received by the photoelectric conversion element 108. Specifically, the received light amounts of the polarized pixels having azimuth angles of 0 °, 45 °, 90 °, and 135 ° close to each other are shown. Note that these polarization pixels are provided corresponding to the color filters 102 of the same color. The horizontal axis is the azimuth angle of the polarizer 101, and explicitly indicates sampling points of 0 °, 45 °, 90 °, and 135 °. The vertical axis represents the amount of light received by the photoelectric conversion element 108 and, by extension, the amount of charge after photoelectric conversion.

ここでは、例として被写体光束Bと被写体光束Bを受光した場合について説明する。被写体光束Bの場合、各偏光画素は、白丸で示される光量を受光する。この白丸を滑らかに繋ぐコサインカーブを当てはめると、f(θ)となる。このとき、f(θ)の最大値はFとなる。また、被写体光束Bの場合、各偏光画素は、黒丸で示される光量を受光する。この黒丸を滑らかに繋ぐコサインカーブを当てはめると、f(θ)となる。このとき、f(θ)の最大値はFとなる。それぞれのコサインカーブは、偏光情報を含む。 Here, the case that receives an object light beam B 1 and the subject light flux B 2 as an example. If the object beam B 1, each polarization pixel, receives the amount of light indicated by white circles. When a cosine curve that smoothly connects the white circles is applied, f 1 (θ) is obtained. At this time, the maximum value of f 1 (θ) is F 1 . Also, if the subject light flux B 2, each polarization pixel, receives the amount of light indicated by black circles. When a cosine curve that smoothly connects the black circles is applied, f 2 (θ) is obtained. At this time, the maximum value of f 2 (θ) is F 2 . Each cosine curve includes polarization information.

当てはめられたコサインカーブは、一般化すると、f(θ)=A×cos{(π/2)θ+2φ}+Mで、表される。ここで、f(θ)の最大値となるA+Mは、偏光子101が無い場合の受光光量とみなすことができる。また、偏光状態は、A、M、φから決定される。したがって、上述のように、偏光子パターンが0°、45°、90°、135°の偏光子101を含めば、それぞれの偏光画素の出力から、偏光子101が設けられていない場合の受光光量と、被写体光束の偏光状態が決定される。   A generalized cosine curve is expressed as f (θ) = A × cos {(π / 2) θ + 2φ} + M. Here, A + M, which is the maximum value of f (θ), can be regarded as the amount of received light when there is no polarizer 101. The polarization state is determined from A, M, and φ. Therefore, as described above, if the polarizer 101 includes the polarizers 101 of 0 °, 45 °, 90 °, and 135 °, the received light amount when the polarizer 101 is not provided from the output of each polarization pixel. Then, the polarization state of the subject luminous flux is determined.

このようにして、被写体光束の偏光状態が決定されると、反射面である被写体表面の法線方向を推定することができる。それぞれの偏光画素の出力を寄せ集めれば、被写体像に対応する法線マップを生成することができる。法線方向に対応する色を割り当てれば、視覚化された偏光マップを生成することもできる。偏光マップは、被写体像を被写体表面の法線方向で視覚化した画像である。例えば、法線方向が不連続となる部分は、割り当てられた色の変化も急激となるので、色の急激な変化として表現される境界により互いに異なる被写体として認識できる。したがって、画像処理における被写体分離において、法線マップまたは偏光マップを活用できる。なお、本実施形態においては、法線マップを被写体表面の反射光の偏光状態を表す偏光画像データとして扱う。   When the polarization state of the subject luminous flux is determined in this way, the normal direction of the subject surface that is the reflection surface can be estimated. If the outputs of the respective polarization pixels are gathered together, a normal map corresponding to the subject image can be generated. By assigning a color corresponding to the normal direction, a visualized polarization map can also be generated. The polarization map is an image obtained by visualizing the subject image in the normal direction of the subject surface. For example, in a portion where the normal direction is discontinuous, the assigned color changes sharply, and therefore can be recognized as different subjects by a boundary expressed as a sudden change in color. Therefore, a normal map or a polarization map can be used in subject separation in image processing. In the present embodiment, the normal map is handled as polarization image data representing the polarization state of the reflected light on the subject surface.

次に視差画素について説明する。図5は、視差画素の配列パターンを説明する説明図である。ここでは、説明を簡単にすべく、カラーフィルタ102の配色については後に言及を再開するまで考慮しない。カラーフィルタ102の配色に言及しない以下の説明においては、同色のカラーフィルタ102を有する視差画素のみを寄せ集めたイメージセンサであると捉えることができる。したがって、以下に説明する繰り返しパターンは、同色のカラーフィルタ102における隣接画素として考えても良い。なお、本実施形態においては、偏向画素と視差画素は排他的に配列される。すなわち、視差を生じさせる開口部104を持つ画素は、方位角を有する偏光子101を有さない。   Next, the parallax pixel will be described. FIG. 5 is an explanatory diagram for explaining an arrangement pattern of parallax pixels. Here, in order to simplify the explanation, the color arrangement of the color filter 102 is not considered until the reference is resumed later. In the following description that does not refer to the color arrangement of the color filter 102, it can be considered that the image sensor is a collection of only parallax pixels having the color filter 102 of the same color. Therefore, the repetitive pattern described below may be considered as an adjacent pixel in the color filter 102 of the same color. In the present embodiment, the deflection pixels and the parallax pixels are exclusively arranged. That is, a pixel having the opening 104 that causes parallax does not have the polarizer 101 having an azimuth angle.

図5に示すように、開口マスク103の開口部104は、それぞれの画素の中心に対して相対的にシフトして設けられている。そして、隣接する画素同士を比較しても、それぞれの開口部104は互いに変位した位置に設けられている。   As shown in FIG. 5, the opening 104 of the opening mask 103 is provided so as to be shifted relative to the center of each pixel. Even when adjacent pixels are compared, the openings 104 are provided at positions displaced from each other.

図の例においては、それぞれの画素に対する開口部104の位置として、互いに左右方向にシフトした6種類の開口マスク103が用意されている。そして、撮像素子100の全体は、紙面左側から右側へ徐々にシフトする開口マスク103をそれぞれ有する6つの視差画素を一組とする光電変換素子群が、二次元的かつ周期的に配列されている。つまり、撮像素子100は、一組の光電変換素子群を含む繰り返しパターン110が、周期的に敷き詰められて構成されていると言える。   In the example shown in the drawing, six types of opening masks 103 that are shifted in the left-right direction are prepared as the positions of the openings 104 for the respective pixels. The entire image sensor 100 has a two-dimensional and periodic array of photoelectric conversion element groups each including a set of six parallax pixels each having an aperture mask 103 that gradually shifts from the left side to the right side of the drawing. . That is, it can be said that the image sensor 100 is configured by periodically repeating a repeating pattern 110 including a set of photoelectric conversion element groups.

なお、例えば左右方向にシフトした3種類の開口マスク103をそれぞれ有する3つの視差画素を一組とする場合、真ん中の画素の開口部104は、画素の中心に対してシフトしない。しかし、このような場合も、隣接する開口部104と開口面積を一致させるなどにより、後述の手法によって互いに視差を与える視差画像を生成することができる。したがって、このように奇数種類の開口マスク103に対応する組み合わせに対しても、繰り返しパターン110を定義することができる。   For example, when one set of three parallax pixels each having three types of opening masks 103 shifted in the left-right direction is set, the opening 104 of the middle pixel does not shift with respect to the center of the pixel. However, also in such a case, parallax images that give parallax to each other can be generated by a method described later, for example, by matching the opening area with the adjacent opening 104. Therefore, the repeating pattern 110 can be defined for combinations corresponding to the odd types of opening masks 103 as described above.

図6は、視差画素と被写体の関係を説明する概念図である。特に図6(a)は撮像素子100のうち撮影光軸21と直交する中心に配列されている繰り返しパターン110tの光電変換素子群を示し、図6(b)は周辺部分に配列されている繰り返しパターン110uの光電変換素子群を模式的に示している。図6(a)、(b)における被写体30は、撮影レンズ20に対して合焦位置に存在する。図6(c)は、図6(a)に対応して、撮影レンズ20に対して非合焦位置に存在する被写体31を捉えた場合の関係を模式的に示している。   FIG. 6 is a conceptual diagram illustrating the relationship between the parallax pixels and the subject. In particular, FIG. 6A shows a photoelectric conversion element group of a repetitive pattern 110t arranged at the center orthogonal to the photographing optical axis 21 in the image sensor 100, and FIG. 6B shows a repetitive array arranged in the peripheral portion. The photoelectric conversion element group of the pattern 110u is typically shown. The subject 30 in FIGS. 6A and 6B is in the in-focus position with respect to the photographic lens 20. FIG. 6C schematically shows a relationship when the subject 31 existing at the out-of-focus position with respect to the photographing lens 20 is captured corresponding to FIG.

まず、撮影レンズ20が合焦状態に存在する被写体30を捉えている場合の、視差画素と被写体の関係を説明する。被写体光束は、撮影レンズ20の瞳を通過して撮像素子100へ導かれるが、被写体光束が通過する全体の断面領域に対して、6つの部分領域Pa〜Pfが規定されている。そして、例えば繰り返しパターン110t、110uを構成する光電変換素子群の紙面左端の画素は、拡大図からもわかるように、部分領域Pfから射出された被写体光束のみが光電変換素子108へ到達するように、開口マスク103の開口部104fの位置が定められている。同様に、右端の画素に向かって、部分領域Peに対応して開口部104eの位置が、部分領域Pdに対応して開口部104dの位置が、部分領域Pcに対応して開口部104cの位置が、部分領域Pbに対応して開口部104bの位置が、部分領域Paに対応して開口部104aの位置がそれぞれ定められている。   First, the relationship between the parallax pixels and the subject when the photographing lens 20 captures the subject 30 that is in focus will be described. The subject luminous flux passes through the pupil of the photographic lens 20 and is guided to the image sensor 100. Six partial areas Pa to Pf are defined for the entire cross-sectional area through which the subject luminous flux passes. For example, in the pixel at the left end of the sheet of the photoelectric conversion element group constituting the repetitive patterns 110t and 110u, only the subject luminous flux emitted from the partial region Pf reaches the photoelectric conversion element 108 as can be seen from the enlarged view. The position of the opening 104f of the opening mask 103 is determined. Similarly, toward the rightmost pixel, the position of the opening 104e corresponding to the partial area Pe, the position of the opening 104d corresponding to the partial area Pd, and the position of the opening 104c corresponding to the partial area Pc. However, the position of the opening 104b is determined corresponding to the partial area Pb, and the position of the opening 104a is determined corresponding to the partial area Pa.

別言すれば、例えば部分領域Pfと左端画素の相対的な位置関係によって定義される、部分領域Pfから射出される被写体光束の主光線Rfの傾きにより、開口部104fの位置が定められていると言っても良い。そして、合焦位置に存在する被写体30からの被写体光束を、開口部104fを介して光電変換素子108が受光する場合、その被写体光束は、点線で図示するように、光電変換素子108上で結像する。同様に、右端の画素に向かって、主光線Reの傾きにより開口部104eの位置が、主光線Rdの傾きにより開口部104dの位置が、主光線Rcの傾きにより開口部104cの位置が、主光線Rbの傾きにより開口部104bの位置が、主光線Raの傾きにより開口部104aの位置がそれぞれ定められていると言える。   In other words, the position of the opening 104f is determined by the inclination of the principal ray Rf of the subject light beam emitted from the partial region Pf, which is defined by the relative positional relationship between the partial region Pf and the leftmost pixel, for example. You can say. Then, when the photoelectric conversion element 108 receives the subject luminous flux from the subject 30 existing at the in-focus position via the opening 104f, the subject luminous flux is coupled on the photoelectric conversion element 108 as shown by the dotted line. Image. Similarly, toward the rightmost pixel, the position of the opening 104e is determined by the inclination of the principal ray Re, the position of the opening 104d is determined by the inclination of the principal ray Rd, and the position of the opening 104c is determined by the inclination of the principal ray Rc. It can be said that the position of the opening 104b is determined by the inclination of the light ray Rb, and the position of the opening 104a is determined by the inclination of the principal ray Ra.

図6(a)で示すように、合焦位置に存在する被写体30のうち、光軸21と交差する被写体30上の微小領域Otから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110tを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110tを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Otから放射される光束を受光している。微小領域Otは、繰り返しパターン110tを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。同様に、図6(b)で示すように、合焦位置に存在する被写体30のうち、光軸21から離間した被写体30上の微小領域Ouから放射される光束は、撮影レンズ20の瞳を通過して、繰り返しパターン110uを構成する光電変換素子群の各画素に到達する。すなわち、繰り返しパターン110uを構成する光電変換素子群の各画素は、それぞれ6つの部分領域Pa〜Pfを介して、一つの微小領域Ouから放射される光束を受光している。微小領域Ouも、微小領域Otと同様に、繰り返しパターン110uを構成する光電変換素子群の各画素の位置ずれに対応する分だけの広がりを有するが、実質的には、ほぼ同一の物点と近似することができる。   As shown in FIG. 6A, the light beam emitted from the minute region Ot on the subject 30 that intersects the optical axis 21 among the subject 30 existing at the in-focus position passes through the pupil of the photographing lens 20. Then, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t is reached. That is, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t receives a light beam emitted from one minute region Ot through each of the six partial regions Pa to Pf. Although the minute region Ot has an extent corresponding to the positional deviation of each pixel of the photoelectric conversion element group constituting the repetitive pattern 110t, it can be approximated to substantially the same object point. Similarly, as shown in FIG. 6B, the light beam emitted from the minute region Ou on the subject 30 that is separated from the optical axis 21 among the subject 30 that exists at the in-focus position passes through the pupil of the photographing lens 20. It passes through and reaches each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u. That is, each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u receives a light beam emitted from one minute region Ou through each of the six partial regions Pa to Pf. Similarly to the micro area Ot, the micro area Ou has an extent corresponding to the positional deviation of each pixel of the photoelectric conversion element group constituting the repetitive pattern 110u, but substantially the same object point. Can be approximated.

つまり、被写体30が合焦位置に存在する限りは、撮像素子100上における繰り返しパターン110の位置に応じて、光電変換素子群が捉える微小領域が異なり、かつ、光電変換素子群を構成する各画素は互いに異なる部分領域を介して同一の微小領域を捉えている。そして、それぞれの繰り返しパターン110において、対応する画素同士は同じ部分領域からの被写体光束を受光している。つまり、図においては、例えば繰り返しパターン110t、110uのそれぞれの左端の画素は、同じ部分領域Pfからの被写体光束を受光している。   In other words, as long as the subject 30 exists at the in-focus position, the minute area captured by the photoelectric conversion element group differs according to the position of the repetitive pattern 110 on the image sensor 100, and each pixel constituting the photoelectric conversion element group Captures the same minute region through different partial regions. In each repetitive pattern 110, corresponding pixels receive the subject luminous flux from the same partial area. That is, in the figure, for example, the leftmost pixel of each of the repeated patterns 110t and 110u receives the subject light flux from the same partial region Pf.

撮影光軸21と直交する中心に配列されている繰り返しパターン110tにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置と、周辺部分に配列されている繰り返しパターン110uにおいて左端画素が部分領域Pfからの被写体光束を受光する開口部104fの位置は厳密には異なる。しかしながら、機能的な観点からは、部分領域Pfからの被写体光束を受光するための開口マスクという点で、これらを同一種類の開口マスクとして扱うことができる。したがって、図6の例では、撮像素子100上に配列される視差画素のそれぞれは、6種類の開口マスクの一つを備えると言える。   In the repetitive pattern 110t arranged in the center orthogonal to the photographing optical axis 21, the left end pixel in the repetitive pattern 110u arranged in the peripheral portion and the position of the opening 104f where the left end pixel receives the subject light beam from the partial region Pf. However, the position of the opening 104f that receives the subject luminous flux from the partial region Pf is strictly different. However, from a functional point of view, these can be treated as the same type of aperture mask in terms of an aperture mask for receiving the subject light flux from the partial region Pf. Therefore, in the example of FIG. 6, it can be said that each of the parallax pixels arranged on the image sensor 100 includes one of six types of aperture masks.

次に、撮影レンズ20が非合焦状態に存在する被写体31を捉えている場合の、視差画素と被写体の関係を説明する。この場合も、非合焦位置に存在する被写体31からの被写体光束は、撮影レンズ20の瞳の6つの部分領域Pa〜Pfを通過して、撮像素子100へ到達する。ただし、非合焦位置に存在する被写体31からの被写体光束は、光電変換素子108上ではなく他の位置で結像する。例えば、図6(c)に示すように、被写体31が被写体30よりも撮像素子100に対して遠い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31側で結像する。逆に、被写体31が被写体30よりも撮像素子100に対して近い位置に存在すると、被写体光束は、光電変換素子108よりも被写体31とは反対側で結像する。   Next, the relationship between the parallax pixels and the subject when the photographing lens 20 captures the subject 31 existing in the out-of-focus state will be described. Also in this case, the subject luminous flux from the subject 31 present at the out-of-focus position passes through the six partial areas Pa to Pf of the pupil of the photographing lens 20 and reaches the image sensor 100. However, the subject light flux from the subject 31 existing at the out-of-focus position forms an image at another position, not on the photoelectric conversion element 108. For example, as illustrated in FIG. 6C, when the subject 31 exists at a position farther from the imaging element 100 than the subject 30, the subject luminous flux forms an image on the subject 31 side with respect to the photoelectric conversion element 108. Conversely, when the subject 31 is present at a position closer to the image sensor 100 than the subject 30, the subject luminous flux forms an image on the opposite side of the subject 31 from the photoelectric conversion element 108.

したがって、非合焦位置に存在する被写体31のうち、微小領域Ot'から放射される被写体光束は、6つの部分領域Pa〜Pfのいずれを通過するかにより、異なる組の繰り返しパターン110における対応画素に到達する。例えば、部分領域Pdを通過した被写体光束は、図6(c)の拡大図に示すように、主光線Rd'として、繰り返しパターン110t'に含まれる、開口部104dを有する光電変換素子108へ入射する。そして、微小領域Ot'から放射された被写体光束であっても、他の部分領域を通過した被写体光束は、繰り返しパターン110t'に含まれる光電変換素子108へは入射せず、他の繰り返しパターンにおける対応する開口部を有する光電変換素子108へ入射する。換言すると、繰り返しパターン110t'を構成する各光電変換素子108へ到達する被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。すなわち、開口部104dに対応する108へは主光線をRd'とする被写体光束が入射し、他の開口部に対応する光電変換素子108へは主光線をRa、Rb、Rc、Re、Rfとする被写体光束が入射するが、これらの被写体光束は、被写体31の互いに異なる微小領域から放射された被写体光束である。このような関係は、図6(b)における周辺部分に配列されている繰り返しパターン110uにおいても同様である。 Therefore, the subject luminous flux emitted from the minute region Ot ′ among the subjects 31 existing at the out-of-focus position depends on which of the six partial regions Pa to Pf, the corresponding pixels in the different sets of repetitive patterns 110. To reach. For example, as shown in the enlarged view of FIG. 6C, the subject light flux that has passed through the partial region Pd is incident on the photoelectric conversion element 108 having the opening 104d included in the repeated pattern 110t ′ as the principal ray Rd ′. To do. Even if the subject light beam is emitted from the minute region Ot ′, the subject light beam that has passed through another partial region does not enter the photoelectric conversion element 108 included in the repetitive pattern 110t ′, and the repetitive pattern in the other repetitive pattern. The light enters the photoelectric conversion element 108 having a corresponding opening. In other words, the subject luminous flux reaching each photoelectric conversion element 108 constituting the repetitive pattern 110t ′ is a subject luminous flux radiated from different minute areas of the subject 31. That is, a subject luminous flux having a principal ray as Rd ′ is incident on 108 corresponding to the opening 104d, and the principal rays are incident on Ra + , Rb + , Rc + , Re to the photoelectric conversion elements 108 corresponding to the other openings. +, although subject light flux to Rf + is incident, these object light is a subject light flux emitted from different micro region of the object 31. Such a relationship is the same in the repeated pattern 110u arranged in the peripheral portion in FIG.

すると、撮像素子100の全体で見た場合、例えば、開口部104aに対応する光電変換素子108で捉えた被写体像Aと、開口部104dに対応する光電変換素子108で捉えた被写体像Dは、合焦位置に存在する被写体に対する像であれば互いにずれが無く、非合焦位置に存在する被写体に対する像であればずれが生じることになる。そして、そのずれは、非合焦位置に存在する被写体が合焦位置に対してどちら側にどれだけずれているかにより、また、部分領域Paと部分領域Pdの距離により、方向と量が定まる。つまり、被写体像Aと被写体像Dは、互いに視差像となる。この関係は、他の開口部に対しても同様であるので、開口部104aから104fに対応して、6つの視差像が形成されることになる。   Then, when viewed as a whole of the imaging element 100, for example, the subject image A captured by the photoelectric conversion element 108 corresponding to the opening 104a and the subject image D captured by the photoelectric conversion element 108 corresponding to the opening 104d are: If the image is for the subject present at the in-focus position, there is no shift, and if the image is for the subject present at the out-of-focus position, there is a shift. Then, the direction and amount of the shift are determined by how much the subject existing at the out-of-focus position is shifted from the focus position and by the distance between the partial area Pa and the partial area Pd. That is, the subject image A and the subject image D are parallax images. Since this relationship is the same for the other openings, six parallax images are formed corresponding to the openings 104a to 104f.

したがって、このように構成されたそれぞれの繰り返しパターン110において、互いに対応する画素の出力を寄せ集めると、視差画像が得られる。つまり、6つの部分領域Pa〜Pfうちの特定の部分領域から射出された被写体光束を受光した画素の出力は、視差画像を形成する。   Therefore, when the outputs of the pixels corresponding to each other in each of the repetitive patterns 110 configured in this way are collected, a parallax image is obtained. That is, the output of the pixel that has received the subject light beam emitted from a specific partial area among the six partial areas Pa to Pf forms a parallax image.

図7は、視差画像を生成する処理を説明する概念図である。図は、左列から順に、開口部104fに対応する視差画素の出力を集めて生成される視差画像データIm_fの生成の様子、開口部104eの出力による視差画像データIm_eの生成の様子、開口部104dの出力による視差画像データIm_dの生成の様子、開口部104cの出力による視差画像データIm_cの生成の様子、開口部104bの出力による視差画像データIm_bの生成の様子、開口部104aの出力による視差画像データIm_aの生成の様子を表す。まず開口部104fの出力による視差画像データIm_fの生成の様子について説明する。   FIG. 7 is a conceptual diagram illustrating processing for generating a parallax image. The figure shows, in order from the left column, the generation of the parallax image data Im_f generated by collecting the outputs of the parallax pixels corresponding to the opening 104f, the generation of the parallax image data Im_e by the output of the opening 104e, the opening State of generation of parallax image data Im_d by output of 104d, state of generation of parallax image data Im_c by output of opening 104c, state of generation of parallax image data Im_b by output of opening 104b, parallax by output of opening 104a This represents how the image data Im_a is generated. First, how the parallax image data Im_f is generated by the output of the opening 104f will be described.

6つの視差画素を一組とする光電変換素子群から成る繰り返しパターン110は、横一列に配列されている。したがって、開口部104fを有する視差画素は、撮像素子100上において、左右方向に6画素おき、かつ、上下方向に連続して存在する。これら各画素は、上述のようにそれぞれ異なる微小領域からの被写体光束を受光している。したがって、これらの視差画素の出力を寄せ集めて配列すると、視差画像が得られる。   A repeating pattern 110 composed of a group of photoelectric conversion elements each including six parallax pixels is arranged in a horizontal row. Accordingly, the parallax pixels having the opening 104f exist every six pixels in the left-right direction and continuously in the vertical direction on the image sensor 100. Each of these pixels receives the subject luminous flux from different microregions as described above. Therefore, when the outputs of these parallax pixels are collected and arranged, a parallax image is obtained.

しかし、本実施形態における撮像素子100の各画素は正方画素であるので、単に寄せ集めただけでは、横方向の画素数が1/6に間引かれた結果となり、縦長の画像データが生成されてしまう。そこで、このように縦横のアスペクト比が本来のアスペクト比と異なるような場合には、補間処理を施す。図の例によれば、横方向に6倍の画素数とする補間処理を施すことにより、本来のアスペクト比の画像として視差画像データIm_fを生成する。ただし、そもそも補間処理前の視差画像データが横方向に1/6に間引かれた画像であるので、横方向の解像度は、縦方向の解像度よりも低下している。つまり、生成される視差画像データの数と、解像度の向上は相反関係にあると言える。   However, since each pixel of the image sensor 100 according to the present embodiment is a square pixel, simply gathering results in the result that the number of pixels in the horizontal direction is reduced to 1/6, and vertically long image data is generated. End up. Therefore, when the aspect ratio in the vertical and horizontal directions is different from the original aspect ratio, an interpolation process is performed. According to the example in the figure, the parallax image data Im_f is generated as an image of the original aspect ratio by performing an interpolation process to make the number of pixels 6 times in the horizontal direction. However, since the parallax image data before the interpolation processing is an image that is thinned by 1/6 in the horizontal direction, the resolution in the horizontal direction is lower than the resolution in the vertical direction. That is, it can be said that the number of generated parallax image data and the improvement in resolution are in a conflicting relationship.

同様にして、視差画像データIm_e〜視差画像データIm_aが得られる。すなわち、デジタルカメラ10は、横方向に視差を有する6視点の視差画像を生成することができる。なお、上記の例では、横一列を繰り返しパターン110として周期的に配列される例を説明したが、繰り返しパターン110はこれに限らない。縦一列の繰り返しパターンであっても、斜め方向を組み合わせた繰り返しパターンであっても構わない。   Similarly, parallax image data Im_e to parallax image data Im_a are obtained. That is, the digital camera 10 can generate a six-view parallax image having parallax in the horizontal direction. In the above example, an example in which a horizontal row is periodically arranged as a repeating pattern 110 has been described, but the repeating pattern 110 is not limited to this. It may be a vertical repeating pattern or a repeating pattern combining oblique directions.

図8は、ベイヤー配列と他の配列のカラーフィルタパターンを説明する図である。図8(a)は、いわゆるベイヤー配列であり、図8(b)は、他のカラーフィルタ配列の例である。   FIG. 8 is a diagram for explaining the Bayer array and other color filter patterns. FIG. 8A shows a so-called Bayer array, and FIG. 8B shows an example of another color filter array.

図8(a)に示すように、ベイヤー配列は、緑フィルタが左上と右下の2画素に、赤フィルタが左下の1画素に、青フィルタが右上の1画素に割り当てられる配列である。ここでは、緑フィルタが割り当てられた左上の画素をGb画素とし、同じく緑色フィルタが割り当てられた右下の画素をGr画素とする。また、赤色フィルタが割り当てられた画素をR画素と、青色が割り当てられた画素をB画素とする。   As shown in FIG. 8A, the Bayer array is an array in which the green filter is assigned to the upper left and lower right two pixels, the red filter is assigned to the lower left one pixel, and the blue filter is assigned to the upper right one pixel. Here, the upper left pixel to which the green filter is assigned is the Gb pixel, and the lower right pixel to which the green filter is assigned is the Gr pixel. In addition, a pixel to which a red filter is assigned is an R pixel, and a pixel to which blue is assigned is a B pixel.

また、図8(b)に示すように、他のカラーフィルタ配列は、図8(a)で示したベイヤー配列のGr画素を緑フィルタが割り当てられるG画素として維持する一方、Gb画素をカラーフィルタが割り当てられないW画素に変更した配列である。なお、W画素は、上述のように、可視光のおよそ全ての波長帯域を透過させるように、着色を施さない透明フィルタが配列されていても良い。このようなW画素を含むカラーフィルタ配列を採用すれば、撮像素子が出力するカラー情報の精度は若干低下するものの、カラーフィルタが設けられている場合に比較して受光する光量を多くすることができる。   Further, as shown in FIG. 8B, the other color filter array maintains the Gr pixels in the Bayer array shown in FIG. 8A as G pixels to which the green filter is assigned, while the Gb pixels are used as color filters. Is an array changed to W pixels that cannot be assigned. Note that, as described above, the W pixel may be arranged with a transparent filter that is not colored so as to transmit substantially all the wavelength band of visible light. If such a color filter array including W pixels is adopted, the accuracy of the color information output from the image sensor is slightly reduced, but the amount of received light may be increased as compared with the case where a color filter is provided. it can.

このようなカラーフィルタ102の配列に対して、視差画素と視差なし画素を、および偏向画素と偏光なし画素を、何色の画素にどのような周期で割り振っていくかにより、膨大な数の繰り返しパターン110が設定され得る。撮像素子100からは、設定される繰り返しパターン110の違いにより、性質の異なる画像データが出力される。図9は、撮像素子100の出力と、生成される画像データの関係を示す概念図である。   For such an arrangement of the color filter 102, an enormous number of repetitions are performed depending on what color pixels the parallax pixels and non-parallax pixels, and the deflection pixels and non-polarization pixels are allocated to which pixels. A pattern 110 may be set. The image sensor 100 outputs image data having different properties depending on the set repeating pattern 110. FIG. 9 is a conceptual diagram showing the relationship between the output of the image sensor 100 and the generated image data.

例えば撮像素子100の有効画素が1200万画素の場合、画素出力も1200万であるが、いかなる構造の画素からの出力であるかにより、出力値の意味合いが異なる。例えばR画素であって偏光なし画素かつ視差なし画素である画素からの出力であれば、出力値は、被写体光束の赤色成分としての単独出力を表す。一方、例えばG画素であって45°の方位角を有する偏向画素かつ視差なし画素であれば、被写体光束の緑色成分と45°方向の偏光成分が重なった重畳出力を表す。更に、例えばB画素であって偏光なし画素かつ視差画素であれば、被写体光束のうち青色成分であって特定入射角成分である重畳出力を表す。   For example, when the effective pixel of the image sensor 100 is 12 million pixels, the pixel output is 12 million. However, the meaning of the output value differs depending on the structure of the pixel output. For example, in the case of an output from a pixel that is an R pixel, a non-polarized pixel, and a non-parallax pixel, the output value represents a single output as a red component of the subject luminous flux. On the other hand, for example, if it is a G pixel, a deflection pixel having an azimuth angle of 45 ° and a pixel without parallax, it represents a superimposed output in which the green component of the subject light beam and the polarization component in the 45 ° direction overlap. Further, for example, if it is a B pixel, a non-polarized pixel, and a parallax pixel, it represents a superimposed output that is a blue component and a specific incident angle component of the subject light flux.

したがって、重畳出力をその意味に即して分離したり、周辺画素の出力から補間したりする処理を施すことにより、撮像素子からの出力から、カラー2D画像データ、偏光画像データおよび視差画像データを生成することができる。カラー2D画像データは、被写体像を視差のない通常のカラー画像として捉えた画像データである。偏光画像データは、上述のように、被写体表面の反射光の偏光状態を表す画像データである。本実施形態においては、法線マップを偏光画像データとして扱う。また、視差画像データは、例えばいわゆる立体視の場合、L画像データとR画像データの2つの画像データを含む。もちろん、撮像素子100が視差画素を含まない場合は、視差画像データは生成されない。   Therefore, color 2D image data, polarized image data, and parallax image data are obtained from the output from the image sensor by performing processing for separating the superimposed output in accordance with its meaning or interpolating from the output of surrounding pixels. Can be generated. Color 2D image data is image data obtained by capturing a subject image as a normal color image without parallax. As described above, the polarization image data is image data representing the polarization state of the reflected light on the subject surface. In the present embodiment, the normal map is handled as polarization image data. Further, the parallax image data includes, for example, so-called stereoscopic vision, two image data of L image data and R image data. Of course, when the image sensor 100 does not include a parallax pixel, parallax image data is not generated.

繰り返しパターン110において、単独出力となる画素を相対的に増やせば、解像度の高いカラー2D画像を出力させることができる。この場合、偏向画素および視差画素は相対的に少ない割合となるので、偏光画像データの精度、視差画像の画質は低下する。多くのカラー画素を偏向画素とすれば、偏光画像データの精度は上がるが、受光光量低下に伴ってカラー2D画像の画質が低下する。また、視差画素の割合を増やせば、視差画像としては画質が向上するが、視差なし画素は相対的に減少するので、解像度の低い2D画像が出力される。このようなトレードオフの関係において、何れの画素を偏向画素とするか、あるいは偏光なし画素とするか、また、何れの画素を視差画素とするか、あるいは視差なし画素とするかにより、様々な特徴を有する繰り返しパターン110が設定される。   In the repetitive pattern 110, a color 2D image with high resolution can be output by relatively increasing the number of pixels to be output alone. In this case, since the deflection pixels and the parallax pixels have a relatively small ratio, the accuracy of the polarization image data and the image quality of the parallax image are lowered. If many color pixels are used as deflection pixels, the accuracy of the polarization image data increases, but the image quality of the color 2D image decreases as the amount of received light decreases. Further, if the ratio of the parallax pixels is increased, the image quality is improved as the parallax image, but the non-parallax pixels are relatively reduced, so that a 2D image with low resolution is output. In such a trade-off relationship, various pixels may be used depending on which pixel is a deflection pixel or a non-polarized pixel, and which pixel is a parallax pixel or a non-parallax pixel. A repeating pattern 110 having characteristics is set.

以下に特徴的な配列について順次説明する。なお、以下の例において視差画素を配列する場合は、開口部104が画素中心よりも左側に偏心した視差L画素と、同じく右側に偏心した視差R画素の2種類を想定する。つまり、このような視差画素から出力される2視点の視差画像は、いわゆる立体視を実現する。上述のように異なる視点による複数の視差画像を出力させたい場合には、視差画素の種類を増やせば良い。   The characteristic arrangement will be sequentially described below. In the following example, when the parallax pixels are arranged, two types of parallax L pixels in which the opening 104 is eccentric to the left side of the pixel center and parallax R pixels that are also eccentric to the right side are assumed. That is, the two viewpoint parallax images output from such parallax pixels realize so-called stereoscopic vision. As described above, when it is desired to output a plurality of parallax images from different viewpoints, the types of parallax pixels may be increased.

図10は、撮像素子100における第1配列を説明する説明図である。第1配列のカラーフィルタ配列はベイヤー配列である。そして、Rフィルタ、Gフィルタ、Bフィルタが配列されるいずれの画素にも偏光子が配列されている。また、(x,y)の画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の同一色上に設けられた各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。カラーフィルタ配列と偏光子配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。なお、第1配列は、視差画素を含まない。   FIG. 10 is an explanatory diagram illustrating a first arrangement in the image sensor 100. The first color filter array is a Bayer array. A polarizer is arranged in any pixel in which the R filter, the G filter, and the B filter are arranged. When attention is paid to the pixel (x, y), it is provided on the same color of (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, y + 1). The polarizer of each pixel thus obtained has an azimuth angle of 0 °, 45 °, 90 °, or 135 °. A repeating pattern 110, which is a minimum repeating unit composed of a combination of a color filter array and a polarizer array, is defined by 4 pixels × 4 pixels as shown in the figure. Note that the first array does not include parallax pixels.

このような配列において、画像データの生成について説明する。パターン1101は、R画素を中心とする四隅がB画素のパターンである。四隅のB画素は4種の方位角を有する偏向画素である。そこで、四隅のB画素の出力から図4を用いて説明した分離アルゴリズムにより、中心のR画素の座標における青色の光量値を算出する。なお、この座標における青色の光量値の算出には、R画素の出力を用いない。   The generation of image data in such an arrangement will be described. The pattern 1101 is a pattern in which four corners centered on the R pixel are B pixels. The B pixels at the four corners are deflection pixels having four kinds of azimuth angles. Accordingly, the blue light quantity value at the coordinates of the center R pixel is calculated from the output of the B pixel at the four corners by the separation algorithm described with reference to FIG. Note that the output of the R pixel is not used to calculate the blue light quantity value at these coordinates.

パターン1102は、G画素を中心とする四隅がG画素のパターンである。この場合も、パターン1101の場合と同様に、四隅の出力から中心座標における緑色の光量値を算出する。パターン1103は、B画素を中心とする四隅がR画素のパターンである。この場合も、パターン1101の場合と同様に、四隅の出力から中心座標における赤色の光量値を算出する。   The pattern 1102 is a pattern in which the four corners centered on the G pixel are G pixels. In this case as well, as in the case of the pattern 1101, the green light quantity value at the center coordinates is calculated from the output of the four corners. The pattern 1103 is a pattern in which the four corners centered on the B pixel are R pixels. Also in this case, as in the case of the pattern 1101, the red light quantity value at the center coordinates is calculated from the output of the four corners.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列においては、偏光画像データも、パターン1101、1102、1103の各単位において生成される。例えば、パターン1101においては、四隅のB画素の出力に分離アルゴリズムを適用することにより、中心のR画素の座標における青色の偏光情報を算出できる。このようにして、ベイヤー配列相当の偏光情報を算出できれば、さらに格子補間処理を施して、偏光画像データを生成することができる。   In such an arrangement, polarization image data is also generated in each unit of the patterns 1101, 1102, and 1103. For example, in the pattern 1101, by applying a separation algorithm to the outputs of the B pixels at the four corners, the blue polarization information at the coordinates of the center R pixel can be calculated. If the polarization information corresponding to the Bayer array can be calculated in this way, the polarization image data can be generated by further performing a lattice interpolation process.

図11は、撮像素子における第2配列を説明する説明図である。第2配列のカラーフィルタ配列は、図8(b)で示す他のカラーフィルタ配列である。そして、Wフィルタが配列される画素に偏光子が配列されている。また、Gフィルタが配列される画素に視差L画素または視差R画素が配列されている。また、パターン1201で示すように、(x,y)のG画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。カラーフィルタ配列、偏光子配列および視差画素配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。   FIG. 11 is an explanatory diagram illustrating a second arrangement in the image sensor. The second color filter array is another color filter array shown in FIG. A polarizer is arranged in the pixel in which the W filter is arranged. Moreover, the parallax L pixel or the parallax R pixel is arranged in the pixel in which the G filter is arranged. Further, as shown by a pattern 1201, when attention is paid to the G pixel of (x, y), (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, The polarizer of each pixel of y + 1) has an azimuth angle of 0 °, 45 °, 90 °, or 135 °. A repeating pattern 110 that is a minimum repeating unit composed of a combination of a color filter array, a polarizer array, and a parallax pixel array is defined by 4 pixels × 4 pixels as shown in the figure.

このような配列において、画像データの生成について説明する。パターン1202は、W画素を中心とする四隅がG画素のパターンである。四隅のG画素は視差L画素の2画素と視差R画素の2画素から成る。そこで、これらの光量値の平均を算出し、中心のW画素の座標における緑色の光量値とする。このようにしてW画素の座標における緑色の光量値を算出したら、さらに、パターン1201における中心画素の緑色の光量値として、四隅の緑色の光量値の平均を算出して適用する。   The generation of image data in such an arrangement will be described. The pattern 1202 is a pattern in which the four corners centered on the W pixel are G pixels. The G pixels at the four corners consist of two pixels of parallax L pixels and two pixels of parallax R pixels. Therefore, the average of these light quantity values is calculated and set as the green light quantity value at the coordinates of the central W pixel. When the green light quantity value at the coordinates of the W pixel is calculated in this way, the average of the green light quantity values at the four corners is further calculated and applied as the green light quantity value of the center pixel in the pattern 1201.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列において偏光画像データは、例えば、パターン1101においては、四隅のW画素の出力に分離アルゴリズムを適用することにより、中心のG画素の座標における偏光情報を算出できる。第2配列の場合、偏光画素は、W画素に重ねて配列されているので、色成分の重畳のない精度の高い偏光画像データが生成される。   In such an arrangement, for example, in the pattern 1101, in the pattern 1101, the polarization information at the coordinates of the central G pixel can be calculated by applying a separation algorithm to the outputs of the W pixels at the four corners. In the case of the second arrangement, the polarization pixels are arranged so as to overlap the W pixels, so that highly accurate polarization image data without color component superposition is generated.

図12は、撮像素子における第3配列を説明する説明図である。第3配列のカラーフィルタ配列はベイヤー配列である。そして、RフィルタおよびBフィルタが配列される画素に偏光子が配列されている。(x,y)のR画素またはB画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。また、Gフィルタが配列される画素に視差L画素または視差R画素が配列されている。カラーフィルタ配列、偏光子配列および視差画素配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。   FIG. 12 is an explanatory diagram illustrating a third arrangement in the image sensor. The third color filter array is a Bayer array. A polarizer is arranged in a pixel in which the R filter and the B filter are arranged. When attention is paid to the R pixel or B pixel of (x, y), each pixel of (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, y + 1) The polarizer has an azimuth angle of 0 °, 45 °, 90 °, or 135 °. Moreover, the parallax L pixel or the parallax R pixel is arranged in the pixel in which the G filter is arranged. A repeating pattern 110 that is a minimum repeating unit composed of a combination of a color filter array, a polarizer array, and a parallax pixel array is defined by 4 pixels × 4 pixels as shown in the figure.

このような配列において、画像データの生成について説明する。パターン1301は、R画素を中心とする四隅がB画素のパターンである。四隅のB画素は4種の方位角を有する偏向画素である。そこで、四隅のB画素の出力から図4を用いて説明した分離アルゴリズムにより、中心のR画素の座標における青色の光量値を算出する。なお、この座標における青色の光量値の算出には、R画素の出力を用いない。   The generation of image data in such an arrangement will be described. The pattern 1301 is a pattern in which four corners centered on the R pixel are B pixels. The B pixels at the four corners are deflection pixels having four kinds of azimuth angles. Accordingly, the blue light quantity value at the coordinates of the center R pixel is calculated from the output of the B pixel at the four corners by the separation algorithm described with reference to FIG. Note that the output of the R pixel is not used to calculate the blue light quantity value at these coordinates.

パターン1302は、B画素を中心とする四隅がR画素のパターンである。この場合も、パターン1301の場合と同様に、四隅の出力から中心座標における赤色の光量値を算出する。また、左上と右下の関係で隣接する視差L画素と視差R画素は、それぞれG画素であるので、それぞれの座標における緑色の光量値をこれら2画素の平均値とする。   The pattern 1302 is a pattern in which four corners centering on the B pixel are R pixels. In this case as well, as in the case of the pattern 1301, the red light quantity value at the center coordinates is calculated from the output of the four corners. In addition, since the parallax L pixel and the parallax R pixel adjacent to each other in the upper left and lower right relation are G pixels, the green light quantity value at each coordinate is set as an average value of these two pixels.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列においては、偏光画像データも、パターン1301、1302の各単位において生成される。例えば、パターン1301においては、四隅のB画素の出力に分離アルゴリズムを適用することにより、中心のR画素の座標における青色の偏光情報を算出できる。   In such an arrangement, polarization image data is also generated in each unit of the patterns 1301 and 1302. For example, in the pattern 1301, by applying a separation algorithm to the outputs of the B pixels at the four corners, the blue polarization information at the coordinates of the center R pixel can be calculated.

図13は、撮像素子における第4配列を説明する説明図である。第4配列のカラーフィルタ配列はベイヤー配列である。そして、Gフィルタが配列される画素に偏光子が配列されている。(x,y)のG画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。また、RフィルタおよびBフィルタが配列される画素にそれぞれ視差L画素および視差R画素が配列されている。カラーフィルタ配列、偏光子配列および視差画素配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。   FIG. 13 is an explanatory diagram illustrating a fourth arrangement in the image sensor. The fourth color filter array is a Bayer array. A polarizer is arranged in the pixel where the G filter is arranged. When attention is paid to the G pixel of (x, y), the polarizer of each pixel of (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, y + 1) is , 0 °, 45 °, 90 °, or 135 °. Further, the parallax L pixel and the parallax R pixel are arranged in the pixel in which the R filter and the B filter are arranged, respectively. A repeating pattern 110 that is a minimum repeating unit composed of a combination of a color filter array, a polarizer array, and a parallax pixel array is defined by 4 pixels × 4 pixels as shown in the figure.

このような配列において、画像データの生成について説明する。パターン1401は、G画素を中心とする四隅がG画素のパターンである。四隅のG画素は4種の方位角を有する偏向画素である。そこで、四隅のG画素の出力から図4を用いて説明した分離アルゴリズムにより、中心のG画素の座標における緑色の光量値を算出する。なお、この座標における緑色の光量値の算出には、中心のG画素の出力を用いない。R画素は視差画素であるので、開口サイズ分のゲイン調整を行うことにより、簡易的に視差なし画素の赤色の光量値とする。同様に、B画素も視差画素であるので、開口サイズ分のゲイン調整を行うことにより、簡易的に視差なし画素の青色の光量値とする。   The generation of image data in such an arrangement will be described. The pattern 1401 is a pattern in which the four corners centered on the G pixel are G pixels. The G pixels at the four corners are deflection pixels having four kinds of azimuth angles. Therefore, the light quantity value of green at the coordinates of the center G pixel is calculated from the output of the G pixel at the four corners by the separation algorithm described with reference to FIG. Note that the output of the central G pixel is not used to calculate the green light quantity value at this coordinate. Since the R pixel is a parallax pixel, a red light amount value of a pixel without parallax is simply obtained by performing gain adjustment corresponding to the aperture size. Similarly, since the B pixel is also a parallax pixel, the blue light amount value of the pixel without parallax is simply obtained by performing gain adjustment corresponding to the aperture size.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列においては、偏光画像データも、パターン1401の単位において生成される。例えば、パターン1401においては、四隅のG画素の出力に分離アルゴリズムを適用することにより、中心のG画素の座標における緑色の偏光情報を算出できる。   In such an arrangement, polarization image data is also generated in units of the pattern 1401. For example, in the pattern 1401, by applying a separation algorithm to the output of G pixels at the four corners, green polarization information at the coordinates of the center G pixel can be calculated.

図14は、撮像素子における第5配列を説明する説明図である。第5配列のカラーフィルタ配列はベイヤー配列である。そして、Rフィルタ、Gフィルタ、Bフィルタが配列されるいずれの画素にも偏光子が配列されている。ただし、Gフィルタについては、ベイヤー配列における2つのGフィルタの一方に偏光子が配列される。偏光子が配列されない他方には、視差L画素または視差R画素が配列される。また、パターン1501で示すように、(x,y)のR画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。同様に、パターン1502で示すように、(x,y)のG画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。同様に、パターン1503で示すように、(x,y)のB画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。カラーフィルタ配列、偏光子配列および視差画素配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。   FIG. 14 is an explanatory diagram illustrating a fifth array in the image sensor. The fifth color filter array is a Bayer array. A polarizer is arranged in any pixel in which the R filter, the G filter, and the B filter are arranged. However, for the G filter, a polarizer is arranged on one of the two G filters in the Bayer arrangement. On the other side where the polarizer is not arranged, a parallax L pixel or a parallax R pixel is arranged. Further, as shown by a pattern 1501, when focusing on the R pixel of (x, y), (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, The polarizer of each pixel of y + 1) has an azimuth angle of 0 °, 45 °, 90 °, or 135 °. Similarly, as shown by a pattern 1502, when attention is paid to the G pixel of (x, y), (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1 , Y + 1), each pixel has a azimuth angle of 0 °, 45 °, 90 °, or 135 °. Similarly, as shown by a pattern 1503, when attention is paid to the B pixel of (x, y), (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1 , Y + 1), each pixel has a azimuth angle of 0 °, 45 °, 90 °, or 135 °. A repeating pattern 110 that is a minimum repeating unit composed of a combination of a color filter array, a polarizer array, and a parallax pixel array is defined by 4 pixels × 4 pixels as shown in the figure.

このような配列において、画像データの生成について説明する。パターン1501は、R画素を中心とする四隅がB画素のパターンである。四隅のB画素は4種の方位角を有する偏向画素である。そこで、四隅のB画素の出力から図4を用いて説明した分離アルゴリズムにより、中心のR画素の座標における青色の光量値を算出する。なお、この座標における青色の光量値の算出には、R画素の出力を用いない。   The generation of image data in such an arrangement will be described. The pattern 1501 is a pattern in which the four corners centered on the R pixel are B pixels. The B pixels at the four corners are deflection pixels having four kinds of azimuth angles. Accordingly, the blue light quantity value at the coordinates of the center R pixel is calculated from the output of the B pixel at the four corners by the separation algorithm described with reference to FIG. Note that the output of the R pixel is not used to calculate the blue light quantity value at these coordinates.

パターン1502は、G画素を中心とする四隅がG画素のパターンである。この場合も、パターン1501の場合と同様に、四隅の出力から中心座標における緑色の光量値を算出する。パターン1503は、B画素を中心とする四隅がR画素のパターンである。この場合も、パターン1501の場合と同様に、四隅の出力から中心座標における赤色の光量値を算出する。また、パターン1504は、G画素を中心とする四隅がG画素のパターンである。四隅のG画素は視差L画素の2画素と視差R画素の2画素から成る。そこで、これらの光量値の平均を算出し、中心のG画素の座標における緑色の光量値とする。   The pattern 1502 is a pattern in which the four corners centered on the G pixel are G pixels. In this case as well, as in the case of the pattern 1501, the green light quantity value at the center coordinates is calculated from the output of the four corners. The pattern 1503 is a pattern in which the four corners centered on the B pixel are R pixels. In this case as well, as in the case of the pattern 1501, the red light amount value at the center coordinates is calculated from the output of the four corners. The pattern 1504 is a pattern in which the four corners centered on the G pixel are G pixels. The G pixels at the four corners consist of two pixels of parallax L pixels and two pixels of parallax R pixels. Therefore, the average of these light quantity values is calculated and set as the green light quantity value at the coordinates of the central G pixel.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列においては、偏光画像データも、パターン1501、1502、1503の各単位において生成される。例えば、パターン1501においては、四隅のB画素の出力に分離アルゴリズムを適用することにより、中心のR画素の座標における青色の偏光情報を算出できる。   In such an arrangement, polarization image data is also generated in the units of the patterns 1501, 1502, and 1503. For example, in the pattern 1501, by applying a separation algorithm to the outputs of the B pixels at the four corners, it is possible to calculate blue polarization information at the coordinates of the center R pixel.

図15は、撮像素子における第6配列を説明する説明図である。第6配列は第3配列に対して視差画素の配列が若干異なる。画像データの生成については第3配列における生成と同様であるので、説明を省略する。   FIG. 15 is an explanatory diagram illustrating a sixth arrangement in the image sensor. The sixth array is slightly different from the third array in the arrangement of parallax pixels. Since the generation of the image data is the same as the generation in the third array, the description is omitted.

図16は、撮像素子における第7配列を説明する説明図である。第7配列のカラーフィルタ配列はベイヤー配列である。そして、ベイヤー配列における2つのGフィルタの一方に偏光子が配列されている。偏光子が配列されない他方には、視差L画素または視差R画素が配列される。パターン1701で示すように、(x,y)のG画素に着目した場合、(x−1,y+1)、(x+1,y+1)、(x−1,y−1)(x−1,y+1)の各画素の偏光子は、0°、45°、90°、135°のいずれかの方位角を有する。また、Rフィルタ、Bフィルタが配列される画素にも視差L画素または視差R画素が配列されている。カラーフィルタ配列、偏光子配列および視差画素配列の組み合わせから成る、最小繰り返し単位である繰り返しパターン110は、図示するように4画素×4画素により規定される。   FIG. 16 is an explanatory diagram illustrating a seventh arrangement in the image sensor. The seventh color filter array is a Bayer array. A polarizer is arranged on one of the two G filters in the Bayer array. On the other side where the polarizer is not arranged, a parallax L pixel or a parallax R pixel is arranged. As shown by the pattern 1701, when attention is paid to the G pixel of (x, y), (x-1, y + 1), (x + 1, y + 1), (x-1, y-1) (x-1, y + 1) Each pixel has a azimuth angle of 0 °, 45 °, 90 °, or 135 °. Further, the parallax L pixel or the parallax R pixel is also arranged in the pixel in which the R filter and the B filter are arranged. A repeating pattern 110 that is a minimum repeating unit composed of a combination of a color filter array, a polarizer array, and a parallax pixel array is defined by 4 pixels × 4 pixels as shown in the figure.

このような配列において、画像データの生成について説明する。パターン1701は、G画素を中心とする四隅がG画素のパターンである。四隅のG画素は4種の方位角を有する偏向画素である。そこで、四隅のG画素の出力から図4を用いて説明した分離アルゴリズムにより、中心のG画素の座標における緑色の光量値を算出する。なお、この座標における緑色の光量値の算出には、中心のG画素の出力を用いない。(x,y)におけるR画素は視差画素であるが、(x−2,y)および(x+2,y)のR画素の出力と平均処理を行うことにより、(x,y)の赤色の光量値を算出する。同様に、(x,y)におけるB画素は視差画素であるが、(x−2,y)および(x+2,y)のB画素の出力と平均処理を行うことにより、(x,y)の青色の光量値を算出する。パターン1702は、G画素を中心とする四隅がG画素のパターンである。四隅のG画素は視差L画素の2画素と視差R画素の2画素から成る。そこで、これらの光量値の平均を算出し、中心のG画素の座標における緑色の光量値とする。   The generation of image data in such an arrangement will be described. The pattern 1701 is a pattern in which the four corners centered on the G pixel are G pixels. The G pixels at the four corners are deflection pixels having four kinds of azimuth angles. Therefore, the light quantity value of green at the coordinates of the center G pixel is calculated from the output of the G pixel at the four corners by the separation algorithm described with reference to FIG. Note that the output of the central G pixel is not used to calculate the green light quantity value at this coordinate. The R pixel at (x, y) is a parallax pixel, but the red light quantity at (x, y) is obtained by performing an average process with the output of the R pixels at (x−2, y) and (x + 2, y). Calculate the value. Similarly, the B pixel in (x, y) is a parallax pixel, but by performing the averaging process with the output of the B pixel in (x−2, y) and (x + 2, y), the (x, y) The blue light amount value is calculated. The pattern 1702 is a pattern in which the four corners centered on the G pixel are G pixels. The G pixels at the four corners consist of two pixels of parallax L pixels and two pixels of parallax R pixels. Therefore, the average of these light quantity values is calculated and set as the green light quantity value at the coordinates of the central G pixel.

このようにして算出された各座標における赤色、緑色、青色のいずれかの光量値による画像データは、ベイヤー配列相当の画像データとなる。したがって、この画像データに、ベイヤー配列に対する格子補間処理を施せば、カラー2D画像データを生成することができる。   The image data based on the light quantity value of red, green, or blue at each coordinate calculated in this way is image data equivalent to the Bayer array. Therefore, color 2D image data can be generated by performing a lattice interpolation process on the Bayer array on the image data.

このような配列においては、偏光画像データも、パターン1701の単位において生成される。例えば、パターン1701においては、四隅のG画素の出力に分離アルゴリズムを適用することにより、中心のG画素の座標における緑色の偏光情報を算出できる。   In such an arrangement, polarization image data is also generated in units of the pattern 1701. For example, in the pattern 1701, by applying a separation algorithm to the output of G pixels at the four corners, green polarization information at the coordinates of the center G pixel can be calculated.

次に、上述のような撮像素子100を備えるデジタルカメラ10における画像処理について説明する。上述のように、デジタルカメラ10は、撮像素子100からの出力信号を取得して、被写体像であるカラー2D画像データと、被写体表面の反射の偏光状態を表す偏光画像データとを生成する。また、撮像素子100が視差画素を備えるのであれば、視差画像データも生成する。これらの画像処理は、画像処理部205が実行する。ここでは、特に偏光画像データを利用して被写体像の輪郭情報を抽出する画像処理について説明する。図17は、輪郭抽出処理を示すフロー図である。フローは、例えば露光動作を終え撮像素子100が画像信号を出力する時点から開始する。   Next, image processing in the digital camera 10 including the image sensor 100 as described above will be described. As described above, the digital camera 10 acquires an output signal from the image sensor 100 and generates color 2D image data that is a subject image and polarization image data that represents a polarization state of reflection on the subject surface. Further, if the image sensor 100 includes parallax pixels, parallax image data is also generated. These image processes are executed by the image processing unit 205. Here, image processing for extracting contour information of a subject image using polarization image data in particular will be described. FIG. 17 is a flowchart showing the contour extraction process. The flow starts, for example, from the time when the exposure operation is finished and the image sensor 100 outputs an image signal.

ステップS101において、画像処理部205は、撮像素子100の出力信号を取得する。そしてステップS102で、画像処理部205は、上述の手法により、カラー2D画像データおよび偏光画像データを生成する。   In step S <b> 101, the image processing unit 205 acquires an output signal of the image sensor 100. In step S102, the image processing unit 205 generates color 2D image data and polarization image data by the above-described method.

ステップS103では、画像処理部205の輪郭抽出部231は、偏光画像データに対して微分処理を実行する。偏光画像データは、上述のように、被写体表面の法線方向を示す法線マップを含み、輪郭抽出部231は、この法線マップに対して微分処理を施す。被写体の境界においては、被写体表面の法線方向が急激に変化するので、輪郭抽出部231は、微分処理を施すことにより、被写体の境界線を抽出することができる。ステップS104へ進み、輪郭抽出部231は、抽出した境界線の相互の連続性等を考慮してこれらを繋ぎ合わせ、被写体の輪郭を決定する処理を実行する。   In step S103, the contour extraction unit 231 of the image processing unit 205 performs differentiation processing on the polarization image data. As described above, the polarization image data includes a normal map indicating the normal direction of the subject surface, and the contour extraction unit 231 performs a differentiation process on the normal map. Since the normal direction of the subject surface changes abruptly at the subject boundary, the contour extraction unit 231 can extract the subject boundary line by performing a differentiation process. Proceeding to step S104, the contour extracting unit 231 performs processing for determining the contour of the subject by connecting the extracted boundary lines in consideration of the continuity of each other.

ステップS105へ進み、輪郭抽出部231は、カラー2D画像データの画像と偏光画像データの画像の間でマッチング処理を実行し、それぞれの画像間の対応関係を取得する。そして、輪郭抽出部231は、ステップS106へ進み、ステップS104で決定した被写体の輪郭をカラー2D画像に当てはめ、カラー2D画像データにおける輪郭情報を確定し、一連の処理を終了する。   Proceeding to step S105, the contour extracting unit 231 executes a matching process between the image of the color 2D image data and the image of the polarization image data, and acquires the correspondence between the images. Then, the contour extraction unit 231 proceeds to step S106, applies the contour of the subject determined in step S104 to the color 2D image, determines the contour information in the color 2D image data, and ends the series of processes.

なお、上述のフローによれば、輪郭抽出部231は、偏光画像データから被写体の輪郭を決定したが、視差画像データの情報を加味して決定しても良い。視差画像データは、被写体像間の奥行き差に応じた視差を生じているので、奥行き情報であるいわゆるデプスマップを微分処理すれば、同様に被写体の輪郭情報を取得できる。したがって、両者の輪郭情報を合成処理すれば、より精確な被写体輪郭を決定することができる。   Note that, according to the above-described flow, the contour extracting unit 231 determines the contour of the subject from the polarization image data, but may be determined in consideration of information on the parallax image data. Since the parallax image data produces a parallax corresponding to the depth difference between the subject images, the contour information of the subject can be obtained similarly by differentiating a so-called depth map that is depth information. Therefore, if the contour information of both is combined, a more accurate subject contour can be determined.

次に、AFセンサ211と撮像素子100の関係について説明する。図18は、光学ファインダから観察される被写体像および測距領域460を示す図である。AFセンサ211は、被写体空間に対して二次元的かつ離散的に配置される複数の測距領域460を有する。図の例の場合、11点の測距領域460が、全体として略菱形形状に離散的に配置されている。AFセンサ211は、それぞれの測距領域460に対応するデフォーカス量を独立に出力することができる。制御部201は、例えば近点優先等のアルゴリズムにより選択された測距領域460のデフォーカス量を検出して、合焦に至るフォーカスレンズの移動量および移動方向を決定する。さらに制御部201は、これらの情報に従ってフォーカスレンズを移動させる。   Next, the relationship between the AF sensor 211 and the image sensor 100 will be described. FIG. 18 is a diagram showing a subject image and a distance measurement area 460 observed from the optical viewfinder. The AF sensor 211 has a plurality of ranging areas 460 that are two-dimensionally and discretely arranged with respect to the subject space. In the case of the example in the figure, eleven ranging areas 460 are discretely arranged in a substantially rhombus shape as a whole. The AF sensor 211 can independently output a defocus amount corresponding to each distance measurement area 460. For example, the control unit 201 detects the defocus amount of the distance measurement area 460 selected by an algorithm such as near point priority, and determines the movement amount and movement direction of the focus lens leading to focusing. Furthermore, the control unit 201 moves the focus lens according to these pieces of information.

上述の説明においては、撮像素子100の偏光子101は、2次元的な平面上に繰り返しパターン110をもって均等に配列されていた。しかし、重要な被写体は合焦される被写体であることを考慮すれば、撮像素子100における偏光子101の配列領域を、AFセンサ211の複数の測距領域に対応する領域に限っても良い。このように構成すれば、偏光画素を削減できるので、カラー2D画像データの画質向上が望める。   In the above description, the polarizers 101 of the image sensor 100 are evenly arranged with the repeated pattern 110 on a two-dimensional plane. However, considering that an important subject is a subject to be focused, the arrangement region of the polarizer 101 in the image sensor 100 may be limited to a region corresponding to a plurality of distance measurement regions of the AF sensor 211. With this configuration, the number of polarized pixels can be reduced, so that it is possible to improve the image quality of color 2D image data.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 デジタルカメラ、20 撮影レンズ、21 光軸、30、31 被写体、100 撮像素子、101 偏光子、102 カラーフィルタ、103 開口マスク、104 開口部、105 配線層、106 配線、107 開口、108 光電変換素子、109 基板、110 繰り返しパターン、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 AFセンサ、220 メモリカード、231 輪郭抽出部、460 測距領域、1101、1102、1103、1201、1202、1301、1302、1401、1501、1502、1503、1504、1701、1702 パターン DESCRIPTION OF SYMBOLS 10 Digital camera, 20 Shooting lens, 21 Optical axis, 30, 31 Subject, 100 Image sensor, 101 Polarizer, 102 Color filter, 103 Aperture mask, 104 Aperture, 105 Wiring layer, 106 Wiring, 107 aperture, 108 Photoelectric conversion Element, 109 substrate, 110 repetitive pattern, 201 control unit, 202 A / D conversion circuit, 203 memory, 204 drive unit, 205 image processing unit, 207 memory card IF, 208 operation unit, 209 display unit, 210 LCD drive circuit, 211 AF sensor, 220 memory card, 231 contour extraction unit, 460 ranging area, 1101, 1102, 1103, 1201, 1202, 1301, 1302, 1401, 1501, 1502, 1503, 1504, 1701, 1702 pattern

Claims (9)

入射光を電気信号に光電変換する、二次元的に配列された光電変換素子と、
少なくとも一部の前記光電変換素子のそれぞれに一対一に対応して設けられたカラーフィルタと、
少なくとも一部の前記光電変換素子のそれぞれに一対一に対応して設けられたフォトニック結晶偏光子と
を備える撮像素子。
Two-dimensionally arranged photoelectric conversion elements that photoelectrically convert incident light into electrical signals;
A color filter provided in a one-to-one correspondence with each of at least some of the photoelectric conversion elements;
An imaging device comprising: a photonic crystal polarizer provided in a one-to-one correspondence with each of at least some of the photoelectric conversion devices.
前記フォトニック結晶偏光子は、前記カラーフィルタが設けられていない前記光電変換素子に対応して設けられている請求項1に記載の撮像素子。   The image sensor according to claim 1, wherein the photonic crystal polarizer is provided corresponding to the photoelectric conversion element not provided with the color filter. 前記フォトニック結晶偏光子は、同一色の前記カラーフィルタに対応して設けられている請求項1に記載の撮像素子。   The image sensor according to claim 1, wherein the photonic crystal polarizer is provided corresponding to the color filter of the same color. 隣接するn個の前記光電変換素子を一組とする光電変換素子群が、互いに異なる波長帯域を透過させる前記カラーフィルタのカラーフィルタパターンの少なくとも1パターンと、互いに異なる方位角を有する前記フォトニック結晶偏光子が少なくとも4つ組み合わせて成る偏光子パターンの少なくとも1パターンを含んで、周期的に配列されている請求項1から3のいずれか1項に記載の撮像素子。   The photonic crystal in which a group of n photoelectric conversion elements adjacent to each other has a azimuth angle different from at least one color filter pattern of the color filter that transmits different wavelength bands. The imaging device according to any one of claims 1 to 3, wherein the imaging element is periodically arranged to include at least one polarizer pattern formed by combining at least four polarizers. 少なくとも2つの視差画像データを出力するように、前記光電変換素子の少なくとも一部のそれぞれに一対一に対応して設けられた開口マスクを備え、
前記フォトニック結晶偏光子は、前記開口マスクが設けられていない前記光電変換素子に対応して設けられている請求項1から4のいずれか1項に記載の撮像素子。
An aperture mask provided in a one-to-one correspondence with each of at least a part of the photoelectric conversion element so as to output at least two parallax image data;
5. The image sensor according to claim 1, wherein the photonic crystal polarizer is provided corresponding to the photoelectric conversion element not provided with the opening mask. 6.
請求項1から5のいずれか1項に記載の撮像素子を備える撮像装置。   An imaging device provided with the imaging device according to claim 1. 前記撮像素子からの出力信号を取得して、被写体像であるカラー画像データと、被写体表面の反射の偏光状態を表す偏光画像データとを生成する画像処理部を備える請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, further comprising an image processing unit that obtains an output signal from the imaging element and generates color image data that is a subject image and polarization image data that represents a polarization state of reflection on the subject surface. . 前記偏光画像データに基づいて、前記カラー画像データにおける前記被写体像の輪郭情報を抽出する輪郭抽出部を備える請求項7に記載の撮像装置。   The imaging apparatus according to claim 7, further comprising a contour extraction unit that extracts contour information of the subject image in the color image data based on the polarization image data. 被写体空間に対して予め定められた複数の測距領域を有するAFユニットと
を備え、
前記フォトニック結晶偏光子は、前記撮像素子において前記複数の測距領域に対応した領域に設けられている請求項6から8のいずれか1項に記載の撮像装置。
An AF unit having a plurality of predetermined ranging areas with respect to the subject space,
The imaging apparatus according to claim 6, wherein the photonic crystal polarizer is provided in a region corresponding to the plurality of distance measuring regions in the imaging device.
JP2011076407A 2011-03-30 2011-03-30 Imaging element and imaging device Withdrawn JP2012212978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076407A JP2012212978A (en) 2011-03-30 2011-03-30 Imaging element and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076407A JP2012212978A (en) 2011-03-30 2011-03-30 Imaging element and imaging device

Publications (1)

Publication Number Publication Date
JP2012212978A true JP2012212978A (en) 2012-11-01

Family

ID=47266608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076407A Withdrawn JP2012212978A (en) 2011-03-30 2011-03-30 Imaging element and imaging device

Country Status (1)

Country Link
JP (1) JP2012212978A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014119257A1 (en) * 2013-01-29 2014-08-07 パナソニック株式会社 Image capture system
JP2014182299A (en) * 2013-03-19 2014-09-29 Toshiba Corp Microlens array unit and solid-state image pickup device
WO2015025676A1 (en) * 2013-08-20 2015-02-26 オリンパス株式会社 Image pickup apparatus
WO2016103607A1 (en) * 2014-12-26 2016-06-30 Ricoh Company, Ltd. Image pickup element, imaging apparatus, and image recognition system
WO2016199594A1 (en) * 2015-06-10 2016-12-15 ソニー株式会社 Solid-state imaging device and electronic device
WO2017002717A1 (en) * 2015-07-01 2017-01-05 株式会社ソニー・インタラクティブエンタテインメント Imaging element, image sensor, and information processing device
JP2017038011A (en) * 2015-08-12 2017-02-16 株式会社ソニー・インタラクティブエンタテインメント Imaging element, image sensor, imaging apparatus, and information processing device
JP2018040976A (en) * 2016-09-08 2018-03-15 国立大学法人宇都宮大学 Filter, image capturing device, and image capturing system
JP2018061124A (en) * 2016-10-04 2018-04-12 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus, information processing system, information processor, and polarization image processing method
US10038864B2 (en) 2014-01-31 2018-07-31 Sony Corporation Solid-state imaging device and electronic apparatus for phase difference autofocusing
US10805581B2 (en) 2017-04-07 2020-10-13 Canon Kabushiki Kaisha Image sensor and imaging apparatus
JP2021502004A (en) * 2018-09-10 2021-01-21 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Camera modules, processing methods, devices, electronic devices, storage media and programs

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014119257A1 (en) * 2013-01-29 2017-01-26 パナソニックIpマネジメント株式会社 Imaging system
JP5873983B2 (en) * 2013-01-29 2016-03-01 パナソニックIpマネジメント株式会社 Imaging system
WO2014119257A1 (en) * 2013-01-29 2014-08-07 パナソニック株式会社 Image capture system
JP2014182299A (en) * 2013-03-19 2014-09-29 Toshiba Corp Microlens array unit and solid-state image pickup device
WO2015025676A1 (en) * 2013-08-20 2015-02-26 オリンパス株式会社 Image pickup apparatus
JP2015041793A (en) * 2013-08-20 2015-03-02 オリンパス株式会社 Imaging apparatus
US9691802B2 (en) 2013-08-20 2017-06-27 Olympus Corporation Image-acquisition device
US10038864B2 (en) 2014-01-31 2018-07-31 Sony Corporation Solid-state imaging device and electronic apparatus for phase difference autofocusing
JP2016127333A (en) * 2014-12-26 2016-07-11 株式会社リコー Image pickup device, imaging apparatus, and imaging information recognition system
US10178361B2 (en) 2014-12-26 2019-01-08 Ricoh Company, Ltd. Image pickup element, imaging apparatus, and image recognition system using non-polarized light
WO2016103607A1 (en) * 2014-12-26 2016-06-30 Ricoh Company, Ltd. Image pickup element, imaging apparatus, and image recognition system
US10425624B2 (en) 2015-06-10 2019-09-24 Sony Corporation Solid-state image capturing device and electronic device
WO2016199594A1 (en) * 2015-06-10 2016-12-15 ソニー株式会社 Solid-state imaging device and electronic device
CN107615485A (en) * 2015-06-10 2018-01-19 索尼公司 Solid state image pickup device and electronic equipment
TWI608259B (en) * 2015-07-01 2017-12-11 Sony Interactive Entertainment Inc Image pickup device, image sensor, and information processing device
US11770940B2 (en) 2015-07-01 2023-09-26 Sony Interactive Entertainment Inc. Imaging element, image sensor, and information processing apparatus
WO2017002717A1 (en) * 2015-07-01 2017-01-05 株式会社ソニー・インタラクティブエンタテインメント Imaging element, image sensor, and information processing device
JP2017017200A (en) * 2015-07-01 2017-01-19 株式会社ソニー・インタラクティブエンタテインメント Imaging element, image sensor, and information processing apparatus
US10515999B2 (en) 2015-08-12 2019-12-24 Sony Interactive Entertainment Inc. Imaging element, image sensor, imaging apparatus, and information processing apparatus
JP2017038011A (en) * 2015-08-12 2017-02-16 株式会社ソニー・インタラクティブエンタテインメント Imaging element, image sensor, imaging apparatus, and information processing device
JP2018040976A (en) * 2016-09-08 2018-03-15 国立大学法人宇都宮大学 Filter, image capturing device, and image capturing system
WO2018066440A1 (en) * 2016-10-04 2018-04-12 株式会社ソニー・インタラクティブエンタテインメント Image capturing device, information processing system, information processing device, and polarized image processing method
JP2018061124A (en) * 2016-10-04 2018-04-12 株式会社ソニー・インタラクティブエンタテインメント Imaging apparatus, information processing system, information processor, and polarization image processing method
US10805528B2 (en) 2016-10-04 2020-10-13 Sony Interactive Entertainment Inc. Image capturing apparatus, information processing system, information processing apparatus, and polarized-image processing method
US10805581B2 (en) 2017-04-07 2020-10-13 Canon Kabushiki Kaisha Image sensor and imaging apparatus
JP2021502004A (en) * 2018-09-10 2021-01-21 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Camera modules, processing methods, devices, electronic devices, storage media and programs
US11425299B2 (en) 2018-09-10 2022-08-23 Beijing Xiaomi Mobile Software Co., Ltd. Camera module, processing method and apparatus, electronic device, and storage medium

Similar Documents

Publication Publication Date Title
JP2012212978A (en) Imaging element and imaging device
US10397547B2 (en) Stereoscopic image pickup unit, image pickup device, picture processing method, control method, and program utilizing diaphragm to form pair of apertures
JP5915537B2 (en) IMAGING ELEMENT AND IMAGING DEVICE
JP5804055B2 (en) Image processing apparatus, image processing method, and program
WO2013136819A1 (en) Image sensor, imaging device and imaging system
JP5979134B2 (en) Image processing apparatus and image processing program
WO2013114895A1 (en) Imaging device
JP5942984B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5874729B2 (en) Imaging device
JP5979137B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP5874334B2 (en) Image processing apparatus, imaging apparatus, image processing program, and imaging apparatus control program
JP6476630B2 (en) Imaging device
JP5978737B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2012212975A (en) Imaging device and control program for imaging device
JP6205770B2 (en) Imaging device and imaging system
JP2013197796A (en) Image sensor and imaging device
JP6019611B2 (en) Imaging device
JP2013090265A (en) Image processing apparatus and image processing program
JP5991461B2 (en) Imaging apparatus and imaging program thereof
JP5978735B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6051570B2 (en) Imaging device and imaging apparatus
JP6051568B2 (en) Imaging device and imaging apparatus
JP2020178158A (en) Imaging apparatus
JP2013162362A (en) Image pickup device and image pickup program
JP2013150055A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603