JP5907668B2 - Imaging device and imaging device - Google Patents

Imaging device and imaging device Download PDF

Info

Publication number
JP5907668B2
JP5907668B2 JP2011099341A JP2011099341A JP5907668B2 JP 5907668 B2 JP5907668 B2 JP 5907668B2 JP 2011099341 A JP2011099341 A JP 2011099341A JP 2011099341 A JP2011099341 A JP 2011099341A JP 5907668 B2 JP5907668 B2 JP 5907668B2
Authority
JP
Japan
Prior art keywords
image
pixels
pixel
green
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011099341A
Other languages
Japanese (ja)
Other versions
JP2012230300A (en
Inventor
後藤 尚志
尚志 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011099341A priority Critical patent/JP5907668B2/en
Publication of JP2012230300A publication Critical patent/JP2012230300A/en
Application granted granted Critical
Publication of JP5907668B2 publication Critical patent/JP5907668B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置及び撮像素子に関するものである。   The present invention relates to an imaging apparatus and an imaging element.

撮影画面全体のデフォーカス量を導出でき、かつ、画像データを得ることができる撮像装置としては、例えば特許文献1に開示された構成が知られている。
特許文献1においては、瞳を時分割で切り替えて、デフォーカス量を算出する。そして、瞳を分割しない状態で画像データを取得する。
For example, a configuration disclosed in Patent Document 1 is known as an imaging apparatus capable of deriving the defocus amount of the entire shooting screen and obtaining image data.
In Patent Literature 1, the defocus amount is calculated by switching the pupils in a time division manner. Then, image data is acquired without dividing the pupil.

特開平11−142723号公報JP 11-142723 A

特許文献1の構成の場合、例えば、撮影中に被写体が移動している場合、または撮影中に光量が変化した場合などに良好な画像を得られないという問題がある。   In the case of the configuration of Patent Document 1, there is a problem that a good image cannot be obtained, for example, when the subject is moving during shooting or when the amount of light changes during shooting.

本発明は、上記に鑑みてなされたものであって、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる撮像装置および撮像素子を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an imaging device and an imaging element that can acquire defocus information of the entire screen and can easily generate a natural image.

上述した課題を解決し、目的を達成するために、本発明の撮像装置は、撮影レンズが装着可能、または、撮影レンズを備え、
水平方向、垂直方向に画素が配列された撮像素子を備え、
撮像素子からの信号を処理する機能を備え、
撮像素子は、少なくとも共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有し、
画像形成のための画像出力がされ、
緑色画素の出力より像のデフォーカス情報を取得することを特徴とする。
In order to solve the above-described problems and achieve the object, the imaging apparatus of the present invention can be attached with a photographic lens or provided with a photographic lens.
It has an image sensor with pixels arranged in the horizontal and vertical directions,
It has a function to process signals from the image sensor,
The image sensor is composed of a blue pixel, a green pixel, and a red pixel that are projected onto an independent region at least on a conjugate plane.
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
The second direction is the reverse direction of the first direction,
The second direction has both a horizontal component and a vertical component;
The image is output for image formation.
Image defocus information is acquired from the output of the green pixel.

また、他の側面において、本発明にしたがう撮像素子は、水平方向及び垂直方向に画素が配列された撮像素子を備え、
撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有することを特徴とする。
In another aspect, an imaging device according to the present invention includes an imaging device in which pixels are arranged in a horizontal direction and a vertical direction,
Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
Second direction, Ri reverse der in the first direction,
Second direction, and wherein Rukoto to have a both horizontal and vertical components.

本発明によれば、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる撮像装置および撮像素子を提供することができるという効果を奏する。   According to the present invention, it is possible to provide an imaging device and an imaging device that can acquire defocus information of the entire screen and can easily generate a natural image.

本発明の実施形態に係るデジタルカメラの内部構成を示す図である。It is a figure which shows the internal structure of the digital camera which concerns on embodiment of this invention. 撮像素子の構成を示す平面図である。It is a top view which shows the structure of an image pick-up element. 撮像素子の他の構成を示す平面図である。It is a top view which shows the other structure of an image pick-up element. 画素の入射角度の重心を説明する図である。It is a figure explaining the gravity center of the incident angle of a pixel. 水平方向のデフォーカス量と信号強度との関係を説明する図である。It is a figure explaining the relationship between the amount of defocus of a horizontal direction, and signal strength. 垂直方向のデフォーカス量と信号強度との関係を説明する図である。It is a figure explaining the relationship between the amount of defocus of a perpendicular direction, and signal strength. 赤色画素と青色画素とに関して水平方向のデフォーカス量と信号強度との関係を説明する図である。It is a figure explaining the relationship between the amount of defocus of a horizontal direction, and signal strength regarding a red pixel and a blue pixel. 視差像を生成する方法を説明する図である。It is a figure explaining the method to produce | generate a parallax image. 撮影のおおまかな流れを示すフローチャートである。It is a flowchart which shows the rough flow of imaging | photography. 撮影サブルーチンの手順を示すフローチャートである。It is a flowchart which shows the procedure of an imaging | photography subroutine. デフォーカス量算出サブルーチンの手順を示すフローチャートである。It is a flowchart which shows the procedure of a defocus amount calculation subroutine. フォーカシングサブルーチンの手順を示すフローチャートである。It is a flowchart which shows the procedure of a focusing subroutine. 視差像生成サブルーチンの手順を示すフローチャートである。It is a flowchart which shows the procedure of a parallax image generation subroutine. 青色画素、緑色画素、赤色画素の分光感度特性曲線を示す図である。It is a figure which shows the spectral sensitivity characteristic curve of a blue pixel, a green pixel, and a red pixel. 共役面上で独立した領域に投影される、短波長領域側から、青色画素、緑色画素、赤色画素について説明する図である。It is a figure explaining a blue pixel, a green pixel, and a red pixel from the short wavelength area | region side projected on the independent area | region on a conjugate plane. 入射光束の傾きと遮光部の方向を説明する図である。It is a figure explaining the inclination of an incident light beam, and the direction of a light-shielding part. 従来の離散的にまたは一部のG色画素の開口の一部を遮光する画素配列を示す図である。It is a figure which shows the pixel arrangement | sequence which shields a part of opening of the conventional discrete or some G color pixel. 一つのオンチップレンズに対して複数の画素を配置した例を示す図である。It is a figure which shows the example which has arrange | positioned several pixel with respect to one on-chip lens.

以下、本実施形態の撮像装置及び撮像素子の構成による作用効果を説明する。なお、この実施形態によって本発明は限定されるものではない。すなわち、実施形態の説明に当たって、例示のために特定の詳細な内容が多く含まれるが、これらの詳細な内容に色々なバリエーションや変更を加えても、本発明の範囲を超えない。従って、以下で説明する本発明の例示的な実施形態は、権利請求された発明に対して、一般性を失わせることなく、また、何ら限定をすることもなく、述べられたものである。   Hereinafter, the effect by the structure of the imaging device and imaging device of this embodiment is demonstrated. In addition, this invention is not limited by this embodiment. That is, in describing the embodiment, a lot of specific details are included for the purpose of illustration, but various variations and modifications may be added to these details without exceeding the scope of the present invention. Accordingly, the exemplary embodiments of the present invention described below are set forth without loss of generality or limitation to the claimed invention.

(第1実施形態)
まず、本発明の第1実施形態に係る撮像装置を備えたカメラについて説明する。
図1は、デジタルスチルカメラ11(撮像装置)の内部構成を示している。デジタルスチルカメラ11は、交換レンズ11Aと、カメラボディ11Bと、から構成される。交換レンズ11Aは、マウント部14によりカメラボディ11Bに装着される。
(First embodiment)
First, a camera provided with an imaging apparatus according to the first embodiment of the present invention will be described.
FIG. 1 shows the internal configuration of a digital still camera 11 (imaging device). The digital still camera 11 includes an interchangeable lens 11A and a camera body 11B. The interchangeable lens 11A is attached to the camera body 11B by the mount portion 14.

交換レンズ11A(撮像光学系)は、レンズ駆動制御部15、ズーミング用レンズ16、レンズ17、フォーカシング用レンズ18、及び、絞り19を備えている。レンズ駆動制御部15は、マイクロコンピューターとメモリなどの周辺部品から構成されている。   The interchangeable lens 11 </ b> A (imaging optical system) includes a lens drive control unit 15, a zooming lens 16, a lens 17, a focusing lens 18, and a diaphragm 19. The lens drive control unit 15 is composed of peripheral components such as a microcomputer and a memory.

レンズ駆動制御部15は、フォーカシング用レンズ18と絞り19の駆動制御、絞り19、ズーミング用レンズ16およびフォーカシング用レンズ18の状態検出、並びに、ボディ駆動制御部21に対するレンズ情報の送信とカメラ情報の受信などを行う。
また、ズーミング用レンズ16、レンズ17、フォーカシング用レンズ18、及び、絞り19は、撮像光学系12を構成する。
The lens drive control unit 15 controls the driving of the focusing lens 18 and the diaphragm 19, detects the state of the diaphragm 19, the zooming lens 16 and the focusing lens 18, transmits lens information to the body drive control unit 21, and transmits camera information. Receive and so on.
Further, the zooming lens 16, the lens 17, the focusing lens 18, and the diaphragm 19 constitute an imaging optical system 12.

カメラボディ11Bは、撮像素子20、ボディ駆動制御部21、撮像素子駆動回路23、液晶表示素子駆動回路25、液晶表示素子26、メモリカード29、画素信号取得部30(演算部、画像構成部)を備えている。   The camera body 11B includes an image sensor 20, a body drive control unit 21, an image sensor drive circuit 23, a liquid crystal display element drive circuit 25, a liquid crystal display element 26, a memory card 29, and a pixel signal acquisition unit 30 (calculation unit, image configuration unit). It has.

撮像素子20には、後述する画素が二次元状に配列されている。撮像素子20は、交換レンズ11Aの予定結像面に配置されており、交換レンズ11Aにより結像される被写体像を撮像する。
また、撮像素子20は、撮像素子駆動回路23によって駆動される。そして、撮像素子駆動回路23はボディ駆動制御部21により動作を制御される。撮像素子20(イメージャ)としては、例えば、CCD(charge coupled device)、CMOS(Complementary Metal Oxide Semiconductor)、裏面照射型CMOSを用いることができる。
Pixels to be described later are arranged two-dimensionally on the image sensor 20. The imaging element 20 is disposed on the planned imaging plane of the interchangeable lens 11A, and captures a subject image formed by the interchangeable lens 11A.
The image sensor 20 is driven by the image sensor drive circuit 23. The operation of the image sensor drive circuit 23 is controlled by the body drive control unit 21. As the image pickup device 20 (imager), for example, a CCD (charge coupled device), a CMOS (Complementary Metal Oxide Semiconductor), or a back-illuminated CMOS can be used.

ボディ駆動制御部21は、マイクロコンピューターとメモリなどの周辺部品から構成されている。ボディ駆動制御部21は、上述の制御に加えて、撮像素子20からの画像信号の読み出し、画像信号の補正、像面のデフォーカス状態の検出、レンズ駆動制御部15からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルスチルカメラ全体の動作制御などを行う。   The body drive control unit 21 includes peripheral components such as a microcomputer and a memory. In addition to the above-described control, the body drive control unit 21 reads the image signal from the image sensor 20, corrects the image signal, detects the defocused state of the image plane, receives lens information from the lens drive control unit 15, and the like. Transmits camera information (defocus amount) and controls the operation of the entire digital still camera.

ボディ駆動制御部21とレンズ駆動制御部15は、マウント部14の電気接点部13を介して通信を行い、各種情報の授受(送受信)を行う。また、ボディ駆動制御部21は、後述のデフォーカス量検出サブルーチン及び撮影サブルーチンを実行する為の構成を含んでいる。   The body drive control unit 21 and the lens drive control unit 15 communicate with each other via the electrical contact unit 13 of the mount unit 14 to exchange (transmit / receive) various information. Further, the body drive control unit 21 includes a configuration for executing a defocus amount detection subroutine and an imaging subroutine described later.

液晶表示素子駆動回路25は、カメラボディ背面に配置された液晶表示素子26を駆動する。表示装置は、液晶に限らず所謂有機EL表示素子でも良い。さらに、表示装置は、表示装置に表示された像を撮影者が接眼レンズ27を介して観察する電子ビューファインダーとしても良い。メモリカード29は、カメラボディ11Bに脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display element driving circuit 25 drives a liquid crystal display element 26 disposed on the back of the camera body. The display device is not limited to liquid crystal but may be a so-called organic EL display element. Furthermore, the display device may be an electronic viewfinder in which the photographer observes the image displayed on the display device via the eyepiece 27. The memory card 29 is a portable storage medium that can be attached to and detached from the camera body 11B and that stores and stores image signals.

交換レンズ11Aを通過して撮像素子20上に形成された被写体像は、撮像素子20により光電変換される。そして、その出力は画素信号取得部30に送られる。画素信号取得部30(演算部、画像構成部)は、画素の信号を取得する。また、画像信号取得部30は、演算部として、撮像素子20上の緑色(適宜、「G色」と表記する)画素の出力データ(後述する第1像信号、第2像信号)に基づいて各像位置におけるデフォーカス量を算出する。
さらに、以下、青色を「B色」、赤色を「R色」と適宜表記する。
The subject image formed on the image sensor 20 through the interchangeable lens 11 </ b> A is photoelectrically converted by the image sensor 20. Then, the output is sent to the pixel signal acquisition unit 30. The pixel signal acquisition unit 30 (calculation unit, image configuration unit) acquires a pixel signal. Further, the image signal acquisition unit 30 serves as a calculation unit based on output data (first image signal and second image signal described later) of green (referred to as “G color” as appropriate) pixels on the image sensor 20. A defocus amount at each image position is calculated.
Further, hereinafter, blue is appropriately described as “B color” and red is appropriately described as “R color”.

算出されたデフォーカス量は、ボディ駆動制御部21に送られる。さらに、画像構成部として、取得した画素信号に基づいて基準の画像データを構成する。基準の画像データとは所謂2D画像であり、必要に応じて画像圧縮や間引き等の処理が加えられても良い。   The calculated defocus amount is sent to the body drive control unit 21. Further, as the image construction unit, reference image data is constructed based on the acquired pixel signal. The reference image data is a so-called 2D image, and processing such as image compression or thinning may be added as necessary.

構成された基準の画像データは、ボディ駆動制御部21、液晶表示素子駆動回路25及びメモリカード29へ出力される。また、ボディ駆動制御部21は、基準の画像データと各像位置におけるデフォーカス量より複数の視差画像データを生成する。複数の視差画像データの生成方法は、後述する。   The configured reference image data is output to the body drive control unit 21, the liquid crystal display element drive circuit 25, and the memory card 29. In addition, the body drive control unit 21 generates a plurality of parallax image data from the reference image data and the defocus amount at each image position. A method for generating a plurality of parallax image data will be described later.

ボディ駆動制御部21は、生成した画像データをメモリカード29に格納するとともに、画像信号を液晶表示素子駆動回路25へ送り、液晶表示素子26に画像を表示させる。表示される画像は、基準の画像データに基づく画像、または表示装置が視差画像表示可能であれば視差画像データによる画像でもよい。   The body drive control unit 21 stores the generated image data in the memory card 29 and sends an image signal to the liquid crystal display element drive circuit 25 to cause the liquid crystal display element 26 to display an image. The displayed image may be an image based on reference image data, or an image based on parallax image data if the display device can display parallax images.

カメラボディ11Bには、不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられている。これらの操作部材からの操作状態信号をボディ駆動制御部21が検出する。そして、ボディ駆動制御部21は、検出結果に応じた動作(撮像動作、デフォーカス量検出動作、レンズ駆動制御部通信動作、画像処理動作等)の制御を行う。   The camera body 11B is provided with operation members (shutter buttons, focus detection position setting members, etc.) (not shown). The body drive control unit 21 detects operation state signals from these operation members. Then, the body drive control unit 21 controls operations (imaging operation, defocus amount detection operation, lens drive control unit communication operation, image processing operation, etc.) according to the detection result.

レンズ駆動制御部15は、レンズ情報を、レンズのフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御部15は、ズームレンズ16及びフォーカシング用レンズ18の位置と、絞り19の絞り位置をモニターする。   The lens drive control unit 15 changes the lens information according to the lens focusing state, zooming state, aperture setting state, aperture opening F-number, and the like. Specifically, the lens drive control unit 15 monitors the positions of the zoom lens 16 and the focusing lens 18 and the stop position of the stop 19.

そして、レンズ駆動制御部15は、モニター情報に応じてレンズ情報を演算すること、または予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。さらに、レンズ駆動制御部15は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォーカシング用レンズ18を不図示のモータ等の駆動源により合焦点へと駆動する。   Then, the lens drive control unit 15 calculates lens information according to the monitor information or selects lens information according to the monitor information from a lookup table prepared in advance. Further, the lens drive control unit 15 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 18 to a focal point by a drive source such as a motor (not shown) based on the lens drive amount. To do.

なお、本実施形態は、図1に示した交換レンズ型撮像装置に限るものではなく、所謂コンパクトカメラと称されるものを含むレンズ固定式撮像装置にも適用できる。また、撮影レンズはズームレンズに限らず単焦点レンズでも良い。   The present embodiment is not limited to the interchangeable lens type imaging apparatus shown in FIG. 1 but can be applied to a fixed lens type imaging apparatus including what is called a compact camera. The photographing lens is not limited to a zoom lens, and may be a single focus lens.

図2は、第1実施形態における撮像素子20の画素配列を示している。
図2では、縦16画素(L01〜L16)、横16画素(F01〜F16)で合計256画素の例を示している。しかしながら、画素数はこれに限るものでなく、例えば合計画素が1000万画素を超えるものでも構わない。
以下の説明においては、特定の画素を示すときに、行番号L01〜L16と列番号F01〜F16を並べて表す。例えば、L01の行のうち、F01の列に対応する画素を「L01F01」で表す。
FIG. 2 shows a pixel array of the image sensor 20 in the first embodiment.
FIG. 2 shows an example of a total of 256 pixels with 16 vertical pixels (L01 to L16) and 16 horizontal pixels (F01 to F16). However, the number of pixels is not limited to this. For example, the total number of pixels may exceed 10 million pixels.
In the following description, row numbers L01 to L16 and column numbers F01 to F16 are shown side by side when a specific pixel is shown. For example, the pixel corresponding to the column F01 in the L01 row is represented by “L01F01”.

ここで、各画素の分光感度特性を説明する。
図14は、青色(B色)画素、緑色(G色)画素、赤色(R色)画素の分光感度特性曲線を示している。横軸は波長(nm)、縦軸は相対感度(%)を示している。青色画素は短波長領域に感度が高い。赤色画素は長波長領域に感度が高い。緑色画素は、青色画その主要な感度領域と赤色画素の主要な感度領域の中間域で感度が高い。
なお、一般的に撮影レンズと撮像素子の間に配置される赤外カットフィルタにより650nm付近から700nm付近より長波長領域の光はカットまたは減光されて撮像素子に入射する。
Here, the spectral sensitivity characteristics of each pixel will be described.
FIG. 14 shows spectral sensitivity characteristic curves of blue (B color) pixels, green (G color) pixels, and red (R color) pixels. The horizontal axis represents wavelength (nm), and the vertical axis represents relative sensitivity (%). Blue pixels are highly sensitive in the short wavelength region. Red pixels are highly sensitive in the long wavelength region. The green pixel has high sensitivity in the middle region between the main sensitivity region of the blue image and the main sensitivity region of the red pixel.
In general, light in a wavelength region longer than about 650 nm to about 700 nm is cut or attenuated by an infrared cut filter disposed between the photographing lens and the image sensor and enters the image sensor.

さらに、撮像素子と撮影レンズとの光学的な位置関係について説明する。
図15は、共役面上で独立した領域に投影される、短波長領域側から、青色画素、緑色画素、赤色画素について説明する図である。
Furthermore, the optical positional relationship between the image sensor and the photographic lens will be described.
FIG. 15 is a diagram for explaining blue pixels, green pixels, and red pixels from the short wavelength region side projected onto independent regions on the conjugate plane.

図15において、撮影レンズ201による撮像素子202の共役面204を考える。撮像素子202は、各画素203(A〜P)を有している。たとえば、画素Dに対応する共役像域は、他の画素の共役像領域から独立である。   In FIG. 15, consider the conjugate plane 204 of the image sensor 202 by the photographic lens 201. The image sensor 202 has each pixel 203 (A to P). For example, the conjugate image area corresponding to the pixel D is independent of the conjugate image areas of other pixels.

なお、この説明は、近軸的なレイアウトを想定したものである。実際には、撮影レンズ201の収差や、回折現象、撮影レンズ201と撮像素子202の間の光路中に配置されたローパスフィルター(不図示)により、共役面上で他の画素の投影領域と重なる場合もある。しかしながら、この近軸的なレイアウトで構成することで、基本的に高い解像力の画像得ることができる。   This description assumes a paraxial layout. Actually, it overlaps with the projection area of another pixel on the conjugate plane by an aberration of the photographing lens 201, a diffraction phenomenon, or a low-pass filter (not shown) disposed in the optical path between the photographing lens 201 and the image sensor 202. In some cases. However, an image with a high resolving power can be basically obtained by using this paraxial layout.

図16は、入射光束の傾きと遮光部の方向を説明する図である。図16に示す構成は、撮像素子20(図1)の画素の開口部を光電変換素子の中心に対して偏心させることによって射出瞳を分割する例である。図16は、撮像素子20の隣り合う二つの画素の構造を示す断面図である。   FIG. 16 is a diagram for explaining the inclination of the incident light beam and the direction of the light shielding portion. The configuration shown in FIG. 16 is an example in which the exit pupil is divided by decentering the opening of the pixel of the image sensor 20 (FIG. 1) with respect to the center of the photoelectric conversion element. FIG. 16 is a cross-sectional view illustrating the structure of two adjacent pixels of the image sensor 20.

画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換素子46が配置されている。画素51も画素41と同様に、最上部から、順に、マイクロレンズ52、平滑層53、遮光膜54、平滑層55、及び、光電変換素子56が配置されている。   The pixel 41 has a microlens 42, a smooth layer 43 for forming a plane for forming the microlens 42, a light shielding film 44 for preventing color mixture of color pixels, and a color filter layer in order from the top. A smoothing layer 45 for flattening the surface and a photoelectric conversion element 46 are arranged. Similarly to the pixel 41, the pixel 51 also includes a micro lens 52, a smooth layer 53, a light shielding film 54, a smooth layer 55, and a photoelectric conversion element 56 in order from the top.

さらに、これらの画素41、51においては、遮光膜44、54が、光電変換素子46、56中心部47、57から外側に偏心した開口部48、58をそれぞれ有している。   Further, in these pixels 41 and 51, the light shielding films 44 and 54 have openings 48 and 58 that are eccentric to the outside from the central portions 47 and 57 of the photoelectric conversion elements 46 and 56, respectively.

ここで、光線L41の傾き方向と光線L51の傾き方向はそれぞれ遮光部が形成されている方向であることがわかる。また、遮光部の設定の仕方によっては、入射光束の傾きと遮光部の方向が逆になる場合もある。これは、例えば、遮光部をオンチップレンズ42、52上に配置する場合である。   Here, it can be seen that the inclination direction of the light beam L41 and the inclination direction of the light beam L51 are directions in which a light shielding portion is formed. Further, depending on how the light shielding part is set, the inclination of the incident light beam and the direction of the light shielding part may be reversed. This is the case, for example, when the light shielding portion is arranged on the on-chip lenses 42 and 52.

次に、図2に戻って説明を続ける。例えば画素L05F07はG色画素であり、図上で開口部の右下が斜線部で示すように遮光されている。すなわち、この画素の入射角度の重心は右下方向、例えば、第1の方向に傾いている。これは、入射角度の重心が図4(a)に示すように水平方向においては右側に傾いており、図4(b)に示すように垂直方向においては下側に傾いていることを意味する。 Next, returning to FIG. For example, the pixel L05F07 is a G color pixel, and is shielded from light as indicated by the hatched portion in the lower right of the opening in the drawing. That is, the center of gravity of the incident angle of this pixel is inclined in the lower right direction , for example, the first direction . This means that the center of gravity of the incident angle is inclined to the right in the horizontal direction as shown in FIG. 4 (a), and is inclined downward in the vertical direction as shown in FIG. 4 (b). .

また、G色画素は、いわゆる市松模様状に配置されている。
ここで、「市松模様に配置」とは、例えば、矩形上の画素を水平方向、垂直方向ともに、他の画素と交互に配置することをいう。
The G color pixels are arranged in a so-called checkered pattern.
Here, “arranged in a checkered pattern” means, for example, that pixels on a rectangle are alternately arranged with other pixels in both the horizontal direction and the vertical direction.

画素L05F07に隣接する8つの画素に含まれる4つのG色画素は、4つの画素L04F06、L04F08、L06F06、L06F08である。これらの4つの画素は、開口部の左上が斜線部で示すように遮光されている。すなわち、この画素の入射角度の重心は左上方向、例えば、第2の方向に傾いている。ここで、第2の方向は、第1の方向の逆方向である。 The four G color pixels included in the eight pixels adjacent to the pixel L05F07 are the four pixels L04F06, L04F08, L06F06, and L06F08. These four pixels are shielded from light so that the upper left of the opening is indicated by the hatched portion. That is, the center of gravity of the incident angle of this pixel is inclined in the upper left direction , for example, the second direction . Here, the second direction is opposite to the first direction.

これは、入射角度の重心が、図4(c)、図4(d)に示すように水平方向においては左側に傾いており、垂直方向においては上側に傾いていることを意味する。このように、撮像素子20のG色画素は隣接するG色画素に対して入射角度の方向が水平方向、垂直方向いずれも同じ方向に異なるように構成される。   This means that the center of gravity of the incident angle is tilted to the left in the horizontal direction and tilted to the upper side in the vertical direction as shown in FIGS. 4 (c) and 4 (d). As described above, the G color pixel of the image sensor 20 is configured such that the direction of the incident angle is different in the horizontal direction and the vertical direction with respect to the adjacent G color pixel in the same direction.

換言すると、各G色画素の4つの隣接するG色画素の重心入射角度は、各G色画素の水平成分に関しては、中心入射角度に対して同じ方向に異なっており、各G色画素の垂直成分に関しては、中心入射角度に対して同じ方向に異なっている。   In other words, the centroid incidence angles of four adjacent G color pixels of each G color pixel are different in the same direction with respect to the center incidence angle with respect to the horizontal component of each G color pixel, and the vertical direction of each G color pixel. The components differ in the same direction with respect to the central incident angle.

なお、「重心入射角度」とは、例えば、図4(a)、(b)、(c)、(d)の各図において曲線で囲まれた領域の面積重心をいう。   The “center of gravity incident angle” refers to, for example, the area centroid of the region surrounded by the curve in each of FIGS. 4A, 4B, 4C, and 4D.

これにより、合焦状態から離れた状態のボケ像も自然になる。また、回折現象におけるボケ像も自然になり、良好が画像を得られる。このような構成をとることにより必然的に入射角度範囲は広くなり、大きなNA光束を受光できるようになり、デフォーカス検出と画質の両立をはかることができる。   As a result, the blurred image in a state away from the focused state becomes natural. Also, the blurred image in the diffraction phenomenon becomes natural, and an excellent image can be obtained. By adopting such a configuration, the incident angle range is inevitably widened so that a large NA light beam can be received, and both defocus detection and image quality can be achieved.

図5(a)〜(j)を用いて、G色画素の水平方向のデフォーカス量と信号強度との関係を説明する。図5(a)と(b)、図5(c)と(d)、図5(e)と(f)、図5(g)と(h)、図5(i)と(j)は、それぞれ水平方向の隣接する画素の信号強度を示している。   The relationship between the defocus amount in the horizontal direction of the G color pixel and the signal intensity will be described with reference to FIGS. 5 (a) and (b), FIG. 5 (c) and (d), FIG. 5 (e) and (f), FIG. 5 (g) and (h), and FIG. 5 (i) and (j) , Signal strengths of adjacent pixels in the horizontal direction are shown.

ここで、合焦時の水平方向の出力信号を図5(e)、(f)とする。デフォーカス量が変化すると図5(a)、(b)と、図5(c)、(d)と、図5(g)、(h)と、図5(i)、(j)とへと変化している。   Here, the horizontal output signals at the time of focusing are shown in FIGS. 5 (e) and 5 (f). When the defocus amount changes, FIGS. 5A and 5B, FIGS. 5C and 5D, FIGS. 5G and 5H, and FIGS. 5I and 5J. It has changed.

図5(a)〜(j)から明らかなように、信号強度曲線のピーク値の大きさとその位置とは、デフォーカス量に応じて変化している。このように、例えば、水平方向のL04、L06、L08の出力信号と、L05、L07、L09の出力信号とを相関演算等の手法により比較することによりデフォーカス量を検知することができる。   As is clear from FIGS. 5A to 5J, the magnitude of the peak value of the signal intensity curve and its position change according to the defocus amount. As described above, for example, the defocus amount can be detected by comparing the output signals of L04, L06, and L08 in the horizontal direction with the output signals of L05, L07, and L09 by a method such as correlation calculation.

図6(a)〜(j)を用いて、G色画素の垂直方向のデフォーカス量と信号強度との関係を説明する。図6(a)と(b)、図6(c)と(d)、図6(e)と(f)、図6(g)と(h)、図6(i)と(j)は、それぞれ垂直方向の信号強度を示している。   The relationship between the defocus amount in the vertical direction of the G color pixel and the signal intensity will be described with reference to FIGS. 6A and 6B, FIGS. 6C and 6D, FIGS. 6E and 6F, FIGS. 6G and 6H, and FIGS. 6I and 6J. , Each shows the signal strength in the vertical direction.

ここで、合焦時の垂直方向の出力信号を図6(e)、(f)とする。デフォーカス量が変化すると図6(a)、(b)と、図6(c)、(d)と、図6(g)、(h)と、図6(i)、(j)とへと変化している。   Here, the output signals in the vertical direction at the time of focusing are shown in FIGS. 6 (e) and 6 (f). When the defocus amount changes, FIGS. 6 (a) and 6 (b), FIGS. 6 (c) and 6 (d), FIGS. 6 (g) and 6 (h), and FIGS. 6 (i) and 6 (j). It has changed.

図6(a)〜(j)から明らかなように、信号強度曲線のピーク位置の大きさとその位置とは、デフォーカス量に応じて変化している。このように例えば、垂直方向のF04、F06、FL08の出力信号と、F05、F07、F09の出力信号とを相関演算等の手法により比較することによりデフォーカス量を検知することができる。   As is clear from FIGS. 6A to 6J, the magnitude of the peak position of the signal intensity curve and its position change according to the defocus amount. Thus, for example, the defocus amount can be detected by comparing the output signals of F04, F06, and FL08 in the vertical direction with the output signals of F05, F07, and F09 using a technique such as correlation calculation.

次に、R色画素とB色画素とに関して、図7(a)〜(j)を用いて、水平方向のデフォーカス量と信号強度との関係を説明する。図7(a)と(b)、図7(c)と(d)、図7(e)と(f)、図7(g)と(h)、図7(i)と(j)は、それぞれ水平方向の隣接する画素の信号強度を示している。   Next, regarding the R color pixel and the B color pixel, the relationship between the horizontal defocus amount and the signal intensity will be described with reference to FIGS. 7A and 7B, FIGS. 7C and 7D, FIGS. 7E and 7F, FIGS. 7G and 7H, and FIGS. 7I and 7J. , Signal strengths of adjacent pixels in the horizontal direction are shown.

図7(a)〜(j)に示すようにR色画素とB色画素は、デフォーカスしても、信号強度曲線のピーク値は変化するが、曲線の位置は変化しない。すなわち、像のコントラストは低下するが像ずれは生じない。像ずれを起こしていない画素と像ずれを起こしている画素から画像形成をするとピントのあっていない像位置の画質が劣化する。   As shown in FIGS. 7A to 7J, even if the R color pixel and the B color pixel are defocused, the peak value of the signal intensity curve changes, but the position of the curve does not change. That is, the contrast of the image is lowered, but no image shift occurs. If an image is formed from a pixel that has not caused an image shift and a pixel that has caused an image shift, the image quality at an unfocused image position deteriorates.

このように、各B色画素の重心入射角度は略同じであり、各R色画素の重心入射角度は略同じである。   Thus, the center-of-gravity incidence angle of each B color pixel is substantially the same, and the center-of-gravity incidence angle of each R color pixel is substantially the same.

本実施形態では、例えば、画像形成時に、G色成分は隣接する画素値と平均化することで、像ずれのないG色成分を少ない解像度の劣化で生成することができる。さらに、R色画素とB色画素とG色画素成分を用いて良質な画像を得ることができる。   In the present embodiment, for example, when an image is formed, the G color component is averaged with adjacent pixel values, so that a G color component without image displacement can be generated with little degradation in resolution. Further, a high-quality image can be obtained using the R color pixel, the B color pixel, and the G color pixel component.

また、本実施形態における撮像素子自体に着目すると、撮像素子は、以下の構成を有する。すなわち、撮像素子は、水平方向及び垂直方向に画素が配列された撮像素子を備え、
撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有する。
これにより、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる。
Focusing on the image sensor itself in the present embodiment, the image sensor has the following configuration. That is, the imaging device includes an imaging device in which pixels are arranged in the horizontal direction and the vertical direction,
Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
Second direction, Ri reverse der in the first direction,
Second direction, that have a both horizontal and vertical components.
Thereby, defocus information of the entire screen can be acquired, and a natural image can be easily generated.

図17は、従来の離散的にまたは一部のG色画素の開口の一部を遮光する画素配列を示している。この場合は、G色成分は隣接する画素値を参照しても像ずれの生じない画素値を生成することが困難である。   FIG. 17 shows a conventional pixel arrangement in which a part of the apertures of discrete or partial G color pixels are shielded. In this case, it is difficult for the G color component to generate a pixel value that does not cause image shift even when referring to adjacent pixel values.

このような場合は、開口の一部を遮光した画素を所謂画素欠陥のように画像形成に使わない処理方法が知られている。しかしながら、画面全体でデフォーカス量を算出する場合、遮光された画素が多くなり、画質を大きく劣化させることになってしまう。また、このような画素領域を離散的に配置すると、デフォーカス値を取得できる画面内の領域が離散的になり好ましくない。   In such a case, a processing method is known in which a pixel in which a part of the opening is shielded is not used for image formation like a so-called pixel defect. However, when the defocus amount is calculated for the entire screen, the number of light-shielded pixels increases, and the image quality is greatly degraded. In addition, it is not preferable to dispose such pixel areas discretely because the areas in the screen where defocus values can be obtained are discrete.

さらに、図18に、一つのオンチップレンズに対して複数の画素を配置した例を示す。この例は、本実施形態と比較するための参考例である。撮像素子320の光電変換部を分割することによって射出瞳を分割する構成例である。   Further, FIG. 18 shows an example in which a plurality of pixels are arranged for one on-chip lens. This example is a reference example for comparison with the present embodiment. In this configuration example, the exit pupil is divided by dividing the photoelectric conversion unit of the image sensor 320.

撮像素子320は、基板内に形成されたP型ウエル331、P型ウエル331と共に光電荷を発生させ蓄積するn型領域332α、332β、n型領域332α、332βに蓄積されている光電荷が転送される不図示のフローティングディフュージョン部(以下、「FD部」と称する。)、n型領域332α、332βに蓄積された光電荷をFD部へ効率よく転送するために光電荷を収集する表面p+層333α、333β、FD部へ光電荷を転送するための転送ゲート(不図示)、ゲート絶縁膜であるSiO膜334、ベイヤ配列のカラーフィルタ335、及び、被写体からの光を集めるマイクロレンズ336、を備える。 The imaging device 320 transfers the photocharges accumulated in the n-type regions 332α and 332β and the n-type regions 332α and 332β that generate and accumulate photocharges together with the P-type well 331 and the P-type well 331 formed in the substrate. A floating diffusion portion (not shown) (hereinafter referred to as “FD portion”), a surface p + layer that collects the photocharges in order to efficiently transfer the photocharges accumulated in the n-type regions 332α and 332β to the FD portion. 333α, 333β, a transfer gate (not shown) for transferring photocharge to the FD portion, a SiO 2 film 334 as a gate insulating film, a Bayer color filter 335, and a microlens 336 that collects light from a subject, Is provided.

マイクロレンズ336は、交換レンズ(図1)の瞳と表面p+層333α、333βとが、概略共役になるような形状及び位置に形成されている。光電荷は、模式的には、領域337で発生する。   The microlens 336 is formed in a shape and position such that the pupil of the interchangeable lens (FIG. 1) and the surface p + layers 333α and 333β are substantially conjugate. Photoelectric charges are typically generated in the region 337.

図18に示す例では、光電変換部が、n形領域332α及び表面p+層333αと、n形領域32β及び表面p+層33βと、に分割されており、これにより射出瞳が分割される。光線L31、L32は、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、にそれぞれ入射する。   In the example illustrated in FIG. 18, the photoelectric conversion unit is divided into an n-type region 332α and a surface p + layer 333α, and an n-type region 32β and a surface p + layer 33β, whereby the exit pupil is divided. Light rays L31 and L32 enter the n-type region 32α and the surface p + layer 33α, and the n-type region 32β and the surface p + layer 33β, respectively.

この構成では、容易に像ずれのない画素値を生成することができる。しかしながら、R色画素やB色画素の配置も離散的になってしまう。このため、画素数に対する解像度を得ることができないので好ましくない。   With this configuration, it is possible to easily generate pixel values with no image shift. However, the arrangement of R color pixels and B color pixels is also discrete. For this reason, the resolution for the number of pixels cannot be obtained, which is not preferable.

さらに、本実施形態と比較した場合の従来例の不具合点を以下に述べる。本実施形態は、これらの不具合点を解消していることはいうまでもない。   Furthermore, the disadvantages of the conventional example when compared with this embodiment will be described below. Needless to say, this embodiment eliminates these problems.

従来の撮像装置は、以下の問題点を有している。
・画像形成とデフォーカス量算出のための画像データ取得を同時にできないこと。
・動きのある被写体に対してデフォーカス量の算出が難しいこと。
・撮影レンズ側に瞳分割機構を配置する構成であること。
The conventional imaging device has the following problems.
-Image data acquisition and image data acquisition for defocus amount calculation cannot be performed simultaneously.
-It is difficult to calculate the defocus amount for a moving subject.
-The pupil division mechanism is arranged on the photographing lens side.

上記のような構成であると、撮像装置が交換レンズを使用する場合、各交換レンズごとに瞳分割機構を設ける必要がある。さらに、フォーカシングやズーミングで絞りの位置と絞りの径との少なくとも一方が変わる場合、瞳分割機構も移動や駆動量の調整が必要となる。
従来は、得られたデフォーカス量は、フォーカシングに用いることが提案されている。これに対して、画像データとデフォーカス量データを組み合わせ使う、または出力することは全く開示されていない。
With the configuration as described above, when the imaging apparatus uses an interchangeable lens, it is necessary to provide a pupil division mechanism for each interchangeable lens. Further, when at least one of the position of the diaphragm and the diameter of the diaphragm changes due to focusing or zooming, the pupil division mechanism also needs to be moved or adjusted in drive amount.
Conventionally, it has been proposed to use the obtained defocus amount for focusing. On the other hand, there is no disclosure of using or outputting image data and defocus amount data in combination.

このほかにも、所謂コントラストAF(オートフォーカス)と呼ばれるような、複数枚の画像データを取得してコントラスト値の変化からデフォーカス量を推定する方法もある。   In addition to this, there is a method called so-called contrast AF (autofocus), in which a plurality of pieces of image data are acquired and a defocus amount is estimated from a change in contrast value.

コントラストAF方式では、動きのある被写体に対してデフォーカス量の算出が難しいという問題がある。また、撮影レンズの駆動システムを対応させる必要がある。   The contrast AF method has a problem that it is difficult to calculate a defocus amount for a moving subject. In addition, it is necessary to correspond to a driving system for the photographing lens.

また、所謂位相差AF光学系として知られている方式は、同一物点を撮影レンズの異なる瞳位置を通過した2像として撮像する。そして、デフォーカス量を算出する。位相差AFでは、複数の画素が同一物点の共役位置となり、また、高い解像力や画質を得るのが難しくなる。   A method known as a so-called phase difference AF optical system captures the same object point as two images passing through different pupil positions of the photographing lens. Then, the defocus amount is calculated. In the phase difference AF, a plurality of pixels become conjugate positions of the same object point, and it becomes difficult to obtain high resolution and image quality.

尚、画面の一部の領域のみのデフォーカス量を算出し、フォーカシングを行う方式も知られている。当然ながら、このような方式では、画面全体のデフォーカス量分布を求めることはできない。さらに、デフォーカス算出用の画素を画像形成に用いるのは難しいとされている。   A method of calculating a defocus amount for only a partial area of the screen and performing focusing is also known. Naturally, with such a method, the defocus amount distribution of the entire screen cannot be obtained. Furthermore, it is considered difficult to use pixels for defocus calculation for image formation.

例えば、撮像面上に瞳の一部のみを受光する画素領域を離散的に配置し、デフォーカス量を算出する方式では、以下の問題がある。
・離散的な位置のデフォーカス情報しか得られないこと。これにより、視差像を形成するのが困難である。
・一般的には、デフォーカス時に異なる画像になること。これによるAF用画素を画素形成に使うのは困難とされている。
・撮像画素近傍で瞳を分割するマイクロレンズを配置し、このマイクロレンズ下に複数の画素を配置する構成では、撮像画素数に対する解像度が劣化すること、という課題がある。また、入射NA(開口数)が小さくなり回折の影響で画質が劣化する場合もある。
For example, a method of discretely arranging pixel regions that receive only a part of the pupil on the imaging surface and calculating the defocus amount has the following problems.
-Only defocus information at discrete positions can be obtained. Thereby, it is difficult to form a parallax image.
-Generally, the image will be different during defocusing. Thus, it is difficult to use the AF pixel for pixel formation.
In the configuration in which a microlens that divides the pupil is arranged near the imaging pixel and a plurality of pixels are arranged under the microlens, there is a problem that the resolution with respect to the number of imaging pixels is deteriorated. In addition, the incident NA (numerical aperture) may become small, and the image quality may deteriorate due to the influence of diffraction.

さらに、立体撮影の可能な撮影システムの従来例の課題を説明する。
一般的にステレオカメラと呼ばれる従来の2眼式立体撮影システムがある。
2眼式立体撮影システムの問題点を以下に掲げる。
・近距離被写体の場合は、視差が大きくなる。このため、撮影ができなくなること。
・近距離被写体を撮影できるように2眼の光学系の光軸を内向させると、遠距離被写体の撮影が難しくなること。
・一般的な2D(2次元)撮影用の撮像システムに対して撮像素子の総画素数を同じとすると、ステレオ撮影装置での一方の光学系に対応する画素数は半分となる。このため、画質が劣化すること。
・一般的な2D撮影用の撮像システムと同じ画質を得るためには、2倍の画素数の撮像素子が必要となること。
・さらに、2眼にするため、撮影システムが大型になること。
Furthermore, the problem of the conventional example of the imaging system capable of stereoscopic imaging will be described.
There is a conventional binocular stereoscopic imaging system generally called a stereo camera.
The problems of the binocular stereoscopic imaging system are listed below.
・ In the case of a short-distance subject, the parallax increases. This makes it impossible to shoot.
• If the optical axis of the two-lens optical system is directed inward so that a short-distance subject can be photographed, it becomes difficult to photograph a long-distance subject.
If the total number of pixels of the image sensor is the same as that of a general 2D (two-dimensional) imaging system, the number of pixels corresponding to one optical system in the stereo imaging apparatus is halved. Therefore, the image quality is degraded.
In order to obtain the same image quality as an image pickup system for general 2D shooting, an image pickup device having twice the number of pixels is required.
・ Furthermore, the shooting system becomes large in order to use two eyes.

また、撮像装置から光を対象に投射し、対象から反射してきた情報を用いて、立体形状を取得するシステムが知られている。このようなシステムは、以下の問題点を有している。
・遠距離被写体の情報取得が難しいこと。
・パララックス(視差)の問題で近距離被写体の取得が難しいこと。
・被写体側の照度が高いと、立体形状の取得が難しいこと。
・撮像素子の構造上、画面全体の立体情報を得る場合、カラー画像の取得が難しいこと。
There is also known a system that obtains a three-dimensional shape using information that is projected from an imaging device onto a target and reflected from the target. Such a system has the following problems.
・ It is difficult to obtain information on long-distance subjects.
-It is difficult to obtain a short-distance subject due to parallax problems.
-It is difficult to obtain a three-dimensional shape when the illuminance on the subject side is high.
-Due to the structure of the image sensor, it is difficult to obtain a color image when obtaining three-dimensional information of the entire screen.

さらに、所謂1枚の平面画像からデフォーカス情報無しに、立体画像に自動的に変換する手法も知られている。
この手法の問題点は、立体像に変換する手がかりが想定外の状態であると、不自然な立体画像に変換される場合があることである。例えば、具体的には以下の問題を生ずるおそれがある。
・平面画像内に撮影された平面ポスターまで立体像に変換してしまうこと。
・色情報を手がかりにして立体像に変換している場合、被写体内の信号やネオン等の光源が不自然に変換される現象がおきること。
Furthermore, a method of automatically converting a so-called single plane image into a stereoscopic image without defocus information is also known.
The problem with this method is that if the clue to convert to a stereoscopic image is in an unexpected state, it may be converted to an unnatural stereoscopic image. For example, specifically, the following problems may occur.
-Converting a flat poster photographed in a flat image into a three-dimensional image.
-When color information is converted into a three-dimensional image as a clue, a phenomenon occurs in which a signal in a subject or a light source such as neon is unnaturally converted.

上述したように、本実施形態は、これらの不具合点を解消している。   As described above, the present embodiment solves these problems.

(変形例)
次に、本実施形態の変形例の画素配列について説明する。図3は、変形例に係る画素配列を示している。画素を左右に分割することで、縦成分に対するデフォーカス検出精度を向上できる。一般的な被写体は、縦線方向のデフォーカスを検出する場合が多い。このため、本変形例のように、縦線方向にデフォーカス検出精度が高い構成は有利である。
(Modification)
Next, a pixel array according to a modification of the present embodiment will be described. FIG. 3 shows a pixel array according to the modification. By dividing the pixel into left and right, the defocus detection accuracy for the vertical component can be improved. A general subject often detects defocus in the vertical line direction. For this reason, a configuration with high defocus detection accuracy in the vertical line direction as in the present modification is advantageous.

上記第1実施形態では、例えば、L02F02画素のように画素の右上、右下、左下を開口させている。このため、本変形例のように左半分遮光するより、十分な光量が得られ、また、回折の影響による画質劣化が少なくすることができる。   In the first embodiment, for example, the upper right, lower right, and lower left of the pixel are opened like the L02F02 pixel. For this reason, it is possible to obtain a sufficient amount of light as compared with the case where the left half is shielded as in this modification, and it is possible to reduce image quality deterioration due to the influence of diffraction.

次に視差像の生成方法の例について説明する。
図8は、視差像を生成する方法を説明する図である。
任意の想定視差量(2・P)と想定観察距離dを設定する。これらの数値はカメラボディに対して固定値とすること、撮影レンズの焦点距離情報を用いて決定すること、または、観察機材を想定して入力する形にすることの何れでも良い。
Next, an example of a parallax image generation method will be described.
FIG. 8 is a diagram illustrating a method for generating a parallax image.
An arbitrary assumed amount of parallax (2 · P) and an assumed observation distance d are set. These numerical values may be fixed values with respect to the camera body, determined using the focal length information of the photographing lens, or input assuming the observation equipment.

面101は、取得した基準画像(2D)と想定し、図8で示されている場合では水平方向の断面とする。
仮想線103は、取得した基準画像(2D)の中心102を通る垂線(仮想線)であり、撮影時の撮影レンズの光軸と対応すると考えても良い。また、中心点102の座標を(0、0)とする。
The surface 101 is assumed to be the acquired reference image (2D), and has a horizontal cross section in the case shown in FIG.
The virtual line 103 is a perpendicular (virtual line) passing through the center 102 of the acquired reference image (2D), and may be considered to correspond to the optical axis of the photographing lens at the time of photographing. In addition, the coordinates of the center point 102 are (0, 0).

与える視差量を2×Pとしたとき、仮想線103に対し、水平方向に−Pだけずらした位置に平行な仮想線104を想定する。仮想線104と基準画像の交わる点を点106とする。   When the amount of parallax to be given is 2 × P, a virtual line 104 parallel to a position shifted by −P in the horizontal direction with respect to the virtual line 103 is assumed. A point where the virtual line 104 and the reference image intersect is defined as a point 106.

同様に水平方向にPだけずらした位置に平行な仮想線105を想定する。仮想線105と基準画像の交わる点を点107とする。このときそれぞれの座標は(−P、0)と(P、0)となる。   Similarly, a virtual line 105 parallel to the position shifted by P in the horizontal direction is assumed. A point where the virtual line 105 and the reference image intersect is defined as a point 107. At this time, the respective coordinates are (−P, 0) and (P, 0).

基準画像の任意の位置(x、y)の点108に対応する左側画像の点111、L(x、y)の位置を求める方法の例を説明する。基準画像の任意の点108を通る仮想線104に平行な線を想定する。この線上に基準画像の任意の点108のデフォーカス量Δd(x、y)ずれた点109を想定する。   An example of a method for obtaining the positions of the points 111 and L (x, y) of the left image corresponding to the point 108 at an arbitrary position (x, y) of the reference image will be described. A line parallel to the virtual line 104 passing through an arbitrary point 108 of the reference image is assumed. Assume a point 109 on this line that is deviated by the defocus amount Δd (x, y) of an arbitrary point 108 in the reference image.

点106から仮想観察距離d離れた点112と点109を結ぶ仮想線110を想定し、この線と基準画像の交わる点を求める。この点の水平方向成分が点111の水平方向成分となる。垂直方向成分は、点108と同じである。   Assuming a virtual line 110 connecting the point 112 and the point 109 that are separated from the point 106 by the virtual observation distance d, the point where this line and the reference image intersect is obtained. The horizontal component at this point becomes the horizontal component at point 111. The vertical component is the same as the point 1008.

このことを条件式(1)、(2)で示す。ΔLH(x、y)は、基準画像の像点(x、y)に対して左側画像での水平方向の偏移量である。同様に、ΔRH(x、y)は、基準画像の像点(x、y)に対して右側画像での水平方向の偏移量である。
ΔLH(x、y)=(d/(d+Δd(x、y)))×(x+P) (1)
ΔRH(x、y)=(d/(d+Δd(x、y)))×(x−P) (2)
This is shown by conditional expressions (1) and (2). ΔLH (x, y) is a horizontal shift amount in the left image with respect to the image point (x, y) of the reference image. Similarly, ΔRH (x, y) is a horizontal shift amount in the right image with respect to the image point (x, y) of the reference image.
ΔLH (x, y) = (d / (d + Δd (x, y))) × (x + P) (1)
ΔRH (x, y) = (d / (d + Δd (x, y))) × (x−P) (2)

このようにして、基準画像から視差画像である左側画像、右側画像を生成することができる。
図8で示したのは、視差像生成の一つの例示である。被写体のデフォーカス量の分布状況、3D観察時の見えやすさや、立体感の強調や立体感の抑制等目的に応じて、各像点のデフォーカス量を用いて、他の生成方法を使ってもよい。また、仮想パラメータとして、想定クロスポイントを設定してもよい。
In this way, a left image and a right image that are parallax images can be generated from the reference image.
FIG. 8 shows one example of parallax image generation. Depending on the distribution of the defocus amount of the subject, the visibility during 3D observation, the emphasis of the stereoscopic effect, the suppression of the stereoscopic effect, etc., using the defocus amount of each image point, using other generation methods Also good. Further, an assumed cross point may be set as a virtual parameter.

また、撮影時のカメラ姿勢によっては(縦位置取りの場合)、上下(垂直方向)の視差像を生成するようにしてもよい。尚、観察機材に表示するときには、例えば上側画像を左側画像として、下側画像は右側画像として表示することにしても良い。   Depending on the camera posture at the time of shooting (in the case of vertical positioning), a vertical (vertical) parallax image may be generated. When displaying on the observation equipment, for example, the upper image may be displayed as the left image, and the lower image may be displayed as the right image.

本実施形態では、デフォーカス量情報を使い視差像を生成している。これに限られず、デフォーカス量情報を使い他の画像処理を行っても良い。また、デフォーカス量を画像データと合わせて記録し、この記録を用いて外部装置で必要な画像処理を行っても良い。   In the present embodiment, a parallax image is generated using defocus amount information. However, the present invention is not limited to this, and other image processing may be performed using the defocus amount information. Further, the defocus amount may be recorded together with the image data, and necessary image processing may be performed by an external device using this recording.

次に、上述した構成を用いて、フォーカシングと撮影とを行なう手順をフローチャートを用いて説明する。
図9は、撮影のおおまかな流れを示すフローチャートである。
Next, a procedure for performing focusing and photographing using the above-described configuration will be described using a flowchart.
FIG. 9 is a flowchart showing a general flow of shooting.

ステップS101において、撮影が開始される。ステップS102においてフォーカシングサブルーチンが呼び出される。ステップS103において、撮影サブルーチンが実行される。ステップS105において、デフォーカス量算出サブルーチンが実行される。そして、ステップS104において、視差像生成サブルーチンが実行される。   In step S101, shooting is started. In step S102, the focusing subroutine is called. In step S103, a shooting subroutine is executed. In step S105, a defocus amount calculation subroutine is executed. In step S104, a parallax image generation subroutine is executed.

各サブルーチンの手順について、さらに説明を続ける。
図10は、撮影サブルーチンの手順を示すフローチャートである。
ステップS201において、画像信号取得部30は、撮影用画素からの信号を読み出す。ステップS202において、ボディ駆動制御部21は、画像信号をメモリカード29などに記録する。ステップS203において、液晶表示素子26は、記録画像を表示する。
Further explanation of the procedure of each subroutine will be continued.
FIG. 10 is a flowchart showing the procedure of the photographing subroutine.
In step S201, the image signal acquisition unit 30 reads a signal from the imaging pixel. In step S202, the body drive control unit 21 records the image signal on the memory card 29 or the like. In step S203, the liquid crystal display element 26 displays a recorded image.

図11は、デフォーカス量算出サブルーチンの手順を示すフローチャートである。
ステップS301において、画像信号取得部30は、G色画素からの信号を読み出す。ステップS302において、画像信号取得部30は、奇数画素列と偶数画素列とで相関演算を行なう。
FIG. 11 is a flowchart showing the procedure of the defocus amount calculation subroutine.
In step S301, the image signal acquisition unit 30 reads a signal from the G color pixel. In step S <b> 302, the image signal acquisition unit 30 performs a correlation operation between the odd pixel column and the even pixel column.

ステップS303において、画像信号取得部30は、奇数画素行と偶数画素行とで相関演算を行なう。ステップS304において、画像信号取得部30は、各像点におけるデフォーカス量を算出する。そして、ボディ駆動制御部21は、各像点のデフォーカス量をメモリカード29などに記録する。   In step S303, the image signal acquisition unit 30 performs a correlation operation between the odd-numbered pixel rows and the even-numbered pixel rows. In step S304, the image signal acquisition unit 30 calculates the defocus amount at each image point. Then, the body drive control unit 21 records the defocus amount of each image point on the memory card 29 or the like.

図12は、フォーカシングサブルーチンの手順を示すフローチャートである。
ステップS401において、画像信号取得部30は、測距領域であるG色画素の信号を読み出す。ステップS402において、画像信号取得部30は、奇数画素列と偶数画素列とで相関演算を行なう。
FIG. 12 is a flowchart showing the procedure of the focusing subroutine.
In step S401, the image signal acquisition unit 30 reads a signal of a G color pixel that is a distance measurement area. In step S <b> 402, the image signal acquisition unit 30 performs a correlation operation between the odd pixel column and the even pixel column.

また、ステップS402に並行して、ステップS403において、画像信号取得部30は、奇数画素行と偶数画素行とで相関演算を行なう。そして、ステップS404において、画像信号取得部30は、演算部として、撮像素子20上の緑(適宜、「G」と表記する)色画素の出力データ(後述する第1像信号、第2像信号)に基づいて各像位置におけるデフォーカス量を算出する。   In parallel with step S402, in step S403, the image signal acquisition unit 30 performs correlation calculation between the odd-numbered pixel rows and the even-numbered pixel rows. In step S <b> 404, the image signal acquisition unit 30 functions as a calculation unit and outputs data (first image signal and second image signal described later) of green (referred to as “G” as appropriate) color pixels on the image sensor 20. ) To calculate the defocus amount at each image position.

ステップS404において、算出されたデフォーカス量は、焦点深度内であるか、否かが判断される。ステップS405の判断結果がYes(真)の場合、サブルーチンを終了する。   In step S404, it is determined whether or not the calculated defocus amount is within the depth of focus. If the determination result in step S405 is Yes (true), the subroutine is terminated.

ステップS405の判断結果がNo(偽)の場合、ステップS406へ進む。ステップS406において、画像信号取得部30は、撮影レンズのうちのフォーカシングレンズ18の駆動信号を出力する。レンズ駆動制御部15は、撮影レンズのうちのフォーカシングレンズ18の駆動を行なう。そして、ステップS401を繰り返す。   If the determination result of step S405 is No (false), the process proceeds to step S406. In step S <b> 406, the image signal acquisition unit 30 outputs a driving signal for the focusing lens 18 among the photographing lenses. The lens drive control unit 15 drives the focusing lens 18 of the photographic lens. Then, step S401 is repeated.

図13は、視差像生成サブルーチンの手順を示すフローチャートである。本サブルーチンは、図8で説明した内容を実行するものである。
ステップS501において、想定視差量、想定観察距離、想定クロスポイント位置の設定を行う。
ステップS502において、ボディ駆動制御部21は、画像信号をメモリカード29などに画像信号記録データと各像点のデフォーカス量とを記録する。
FIG. 13 is a flowchart showing the procedure of the parallax image generation subroutine. This subroutine executes the contents described in FIG.
In step S501, an assumed parallax amount, an assumed observation distance, and an assumed crosspoint position are set.
In step S502, the body drive control unit 21 records the image signal on the memory card 29 or the like and the image signal recording data and the defocus amount of each image point.

ステップS503において、視差方向が設定されているか、否かが判断される。ステップS503において、水平方向に視差方向が設定されていると判断された場合、ステップS504、ステップS505へ進む。そして、ステップS504において、右側画像が生成される。ステップS505において、左側画像が生成される。   In step S503, it is determined whether or not a parallax direction is set. If it is determined in step S503 that the parallax direction is set in the horizontal direction, the process proceeds to steps S504 and S505. In step S504, the right image is generated. In step S505, the left image is generated.

ステップS503において、上下方向に視差方向が設定されていると判断された場合、ステップS506、ステップS507へ進む。そして、ステップS506において、上側画像が生成される。ステップS507において、下側画像が生成される。   If it is determined in step S503 that the parallax direction is set in the vertical direction, the process proceeds to step S506 and step S507. In step S506, an upper image is generated. In step S507, a lower image is generated.

そして、水平方向の視差設定、上下方向の視差設定のいずれの場合でも、ステップS508において視差画像が記録される。
このように、デフォーカス情報と画像出力とにより、複数の視差画像を形成することができる。
In either case of the horizontal parallax setting and the vertical parallax setting, the parallax image is recorded in step S508.
Thus, a plurality of parallax images can be formed by the defocus information and the image output.

以上の説明をまとめると、本実施形態およびその変形例のデジタルカメラ11は、撮影レンズが装着可能、または、撮影レンズを備え、
水平方向、垂直方向に画素が配列された撮像素子20を備え、
撮像素子20からの信号を処理する機能を有する画像信号取得部30を備えている。
さらに、撮像素子20は、少なくとも共役面204上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成されている。
これにより、近軸的な共役面上で重ならない構成にすることで、撮影画像の解像度を確保することができる。これは、リフォーカスタイプや図18の様にデフォーカス情報の取得ができるかわりに解像度を低下させる複数の画素の上に一つのオンチップレンズを配置するタイプに対する対策となっている。さらに、B色画素、G色画素、R色画素は、カラー画像取得を可能とし、主にモノクロタイプの撮像装置に比較して有利である。
緑色画素が市松模様に配置されている。
ここで、青色画素同士、赤色画素同士は、隣接しないように配置されている。
これにより、所謂ベイヤー配列を規定している。G色画素を連続的に配置する構成が特徴的である。
また、上述したように各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、第2の方向は、第1の方向の逆方向である
これにより水平成分、垂直成分のいずれかで、画面全体で相関演算を行うことができる。また、画面全体のデフォーカス情報を取得できる。なお、ここでは特に絶対量でなく、周辺像点との奥行き関係が取得できれば良い。
さらに、隣接する画素同士で補間することで、撮影レンズの瞳全体の情報を得ることができる。この結果、合焦点近傍から非合焦点まで、自然な画像に形成できる。
また、各画素からは、画像形成のための画像出力がされる。
上述の画素構成により、自然な画像を容易に生成できる信号が出力される。
そして、画像信号取得部20は、緑色画素の出力より像のデフォーカス情報を算出し、取得する。
これにより、位相差検出等でデフォーカス情報や輪郭情報を取得できる。
また、デフォーカス情報と画像出力により複数の視差画像を形成する。これにより、デフォーカス情報に基づいて、複数の視差画像を形成できる。
To summarize the above description, the digital camera 11 of the present embodiment and its modification example can be mounted with a photographic lens or provided with a photographic lens.
It includes an image sensor 20 in which pixels are arranged in a horizontal direction and a vertical direction,
An image signal acquisition unit 30 having a function of processing a signal from the image sensor 20 is provided.
Further, the image sensor 20 is configured by blue pixels, green pixels, and red pixels projected onto independent regions at least on the conjugate plane 204.
Thereby, the resolution of a picked-up image is securable by making it the structure which does not overlap on a paraxial conjugate plane. This is a countermeasure against a refocus type or a type in which one on-chip lens is arranged on a plurality of pixels that lower the resolution instead of acquiring defocus information as shown in FIG. Further, the B color pixel, the G color pixel, and the R color pixel enable acquisition of a color image, which is advantageous compared to a monochrome type imaging apparatus.
Green pixels are arranged in a checkered pattern.
Here, the blue pixels and the red pixels are arranged so as not to be adjacent to each other.
This defines a so-called Bayer array. The configuration in which the G color pixels are continuously arranged is characteristic.
In addition, as described above, the center-of-gravity incidence angle of each green pixel is shifted in the first direction with respect to the center incidence angle, and the center-of-gravity incidence of four green pixels included in the eight pixels adjacent to each green pixel. The angles are all shifted in the second direction with respect to the central incident angle, and the second direction is the opposite direction of the first direction .
As a result, the correlation calculation can be performed on the entire screen with either the horizontal component or the vertical component. Also, defocus information for the entire screen can be acquired. Here, it is only necessary to obtain the depth relationship with the peripheral image point, not the absolute amount.
Furthermore, by interpolating between adjacent pixels, information on the entire pupil of the photographing lens can be obtained. As a result, a natural image can be formed from the vicinity of the in-focus point to the non-in-focus point.
Each pixel outputs an image for image formation.
With the above-described pixel configuration, a signal that can easily generate a natural image is output.
Then, the image signal acquisition unit 20 calculates and acquires image defocus information from the output of the green pixel.
Thereby, defocus information and contour information can be acquired by phase difference detection or the like.
Further, a plurality of parallax images are formed by defocus information and image output. Thereby, a plurality of parallax images can be formed based on the defocus information.

以上説明した実施形態の構成により、1回の撮影から、良質なカラー画像情報と画面全体のデフォーカス情報を得ることができる。また、この画像情報とデフォーカス情報を合わせた画像処理を行うことで、視差像の生成等により撮影の表現を豊かにできるなどの効果を奏する。   With the configuration of the embodiment described above, it is possible to obtain good color image information and defocus information of the entire screen from one shooting. In addition, by performing image processing that combines the image information and the defocus information, there is an effect that the expression of shooting can be enriched by generating a parallax image or the like.

このように上述の実施形態では、画面全体のデフォーカス量を導出でき、かつ、良好な画質を得ることができる撮像装置およびこれに適用される撮像素子を提供する。更に、このような装置で、例えば良質な立体撮影の可能な撮影システムに適用することについても提供できる。ここで、「良質」とは、例えば小型で近距離から遠距離まで同時に撮影可能であることをいう。このように、良質な立体撮影システムを提供することや、被写体や撮影レンズの条件により生成する視差像を容易に調製することによって、良質の立体撮影システムを構成できる。   As described above, the above-described embodiment provides an imaging device that can derive the defocus amount of the entire screen and that can obtain good image quality, and an imaging device applied to the imaging device. Furthermore, the present invention can also be provided for application to an imaging system capable of high-quality stereoscopic imaging, for example. Here, “good quality” means, for example, that it is small and can be photographed simultaneously from a short distance to a long distance. As described above, a high-quality stereoscopic imaging system can be configured by providing a high-quality stereoscopic imaging system or by easily preparing a parallax image generated according to the conditions of the subject and the imaging lens.

以上のように、本発明は、位相差AF方式の撮像装置に適している。   As described above, the present invention is suitable for a phase difference AF type imaging apparatus.

11 デジタルスチルカメラ
11A 交換レンズ
11B カメラボディ
12 撮像光学系
14 マウント部
15 レンズ駆動制御部
16 ズーミング用レンズ
17 レンズ
18 フォーカシング用レンズ
19 絞り
20 撮像素子
21 ボディ駆動制御部
23 撮像素子駆動回路
25 液晶表示素子駆動回路
26 液晶表示素子
29 メモリカード
30 画素信号取得部(演算部、画像構成部)
41 画素
42 マイクロレンズ
43 平滑層
44 遮光膜
45 平滑層
46 光電変換素子
47 中心部、57
48 開口部
52 マイクロレンズ
53 平滑層
54 遮光膜
55 平滑層
56 光電変換素子
57 中心部
58 開口部
L41 光線
L51 光線
331 p形ウエル
332α、332β n形領域
333α、333β 表面p+層
SiO膜334
335 カラーフィルタ
336 マイクロレンズ

11 Digital Still Camera 11A Interchangeable Lens
DESCRIPTION OF SYMBOLS 11B Camera body 12 Imaging optical system 14 Mount part 15 Lens drive control part 16 Zooming lens 17 Lens 18 Focusing lens 19 Aperture 20 Imaging element 21 Body drive control part 23 Imaging element drive circuit 25 Liquid crystal display element drive circuit 26 Liquid crystal display element 29 Memory card 30 Pixel signal acquisition unit (calculation unit, image configuration unit)
41 Pixel 42 Microlens 43 Smoothing layer 44 Light-shielding film 45 Smoothing layer 46 Photoelectric conversion element 47 Center part, 57
48 Opening 52 Microlens 53 Smoothing Layer 54 Light-shielding Film 55 Smoothing Layer 56 Photoelectric Conversion Element 57 Center 58 Opening L41 Ray L51 Ray 331 P-type Well 332α, 332β n-type Region 333α, 333β Surface p + Layer SiO 2 Film 334
335 Color filter 336 Micro lens

Claims (4)

撮影レンズが装着可能、または、撮影レンズを備え、
水平方向、垂直方向に画素が配列された撮像素子を備え、
撮像素子からの信号を処理する機能を備え、
前記撮像素子は、少なくとも共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
前記緑色画素が市松模様に配置され、
前記青色画素同士、前記赤色画素同士は、隣接しないように配置され、
前記各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
前記各緑色画素に隣接する8つの画素に含まれる4つの前記緑色画素の重心入射角度は、全て前記中心入射角度に対して、第2の方向にずれており、
前記第2の方向は、前記第1の方向の逆方向であり、
前記第2の方向は、水平成分と垂直成分の両方を有し、
画像形成のための画像出力がされ、
前記緑色画素の出力より像のデフォーカス情報を取得することを特徴とする撮像装置。
A photographic lens can be attached or equipped with a photographic lens.
It has an image sensor with pixels arranged in the horizontal and vertical directions,
It has a function to process signals from the image sensor,
The image sensor is composed of a blue pixel, a green pixel, and a red pixel projected onto an independent region on at least a conjugate plane,
The green pixels are arranged in a checkered pattern,
The blue pixels and the red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The centroid incident angles of the four green pixels included in the eight pixels adjacent to the green pixels are all shifted in the second direction with respect to the central incident angle.
The second direction is opposite to the first direction;
The second direction has both a horizontal component and a vertical component;
The image is output for image formation.
An image pickup apparatus that acquires image defocus information from an output of the green pixel.
前記デフォーカス情報と前記画像出力とにより、複数の視差画像を形成することを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein a plurality of parallax images are formed by the defocus information and the image output. 前記各青色画素の重心入射角度は略同じであり、The blue pixels have substantially the same center-of-gravity incidence angle,
各赤色画素の重心入射角度は略同じであることを特徴とする請求項1または2に記載の撮像装置。  The imaging apparatus according to claim 1, wherein the red pixels have substantially the same center-of-gravity incidence angle.
水平方向及び垂直方向に画素が配列された撮像素子を備え、An image sensor in which pixels are arranged in a horizontal direction and a vertical direction,
前記撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
緑色画素が市松模様に配置され、Green pixels are arranged in a checkered pattern,
前記青色画素同士、前記赤色画素同士は、隣接しないように配置され、The blue pixels and the red pixels are arranged not to be adjacent to each other,
前記各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
前記各緑色画素に隣接する8つの画素に含まれる4つの前記緑色画素の重心入射角度は、全て前記中心入射角度に対して、第2の方向にずれており、The centroid incident angles of the four green pixels included in the eight pixels adjacent to the green pixels are all shifted in the second direction with respect to the central incident angle.
前記第2の方向は、前記第1の方向の逆方向であり、The second direction is opposite to the first direction;
前記第2の方向は、水平成分と垂直成分の両方を有することを特徴とする撮像素子。The image sensor according to claim 2, wherein the second direction has both a horizontal component and a vertical component.
JP2011099341A 2011-04-27 2011-04-27 Imaging device and imaging device Active JP5907668B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011099341A JP5907668B2 (en) 2011-04-27 2011-04-27 Imaging device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099341A JP5907668B2 (en) 2011-04-27 2011-04-27 Imaging device and imaging device

Publications (2)

Publication Number Publication Date
JP2012230300A JP2012230300A (en) 2012-11-22
JP5907668B2 true JP5907668B2 (en) 2016-04-26

Family

ID=47431883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099341A Active JP5907668B2 (en) 2011-04-27 2011-04-27 Imaging device and imaging device

Country Status (1)

Country Link
JP (1) JP5907668B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015045375A1 (en) * 2013-09-26 2015-04-02 株式会社ニコン Image pickup element and image pickup device
JP6363857B2 (en) * 2014-03-24 2018-07-25 キヤノン株式会社 IMAGING ELEMENT, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003007994A (en) * 2001-06-27 2003-01-10 Konica Corp Solid-state image pickup element, stereoscopic camera apparatus, and range finder
JP5211590B2 (en) * 2007-09-10 2013-06-12 株式会社ニコン Image sensor and focus detection apparatus
JP5374862B2 (en) * 2007-11-16 2013-12-25 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5398346B2 (en) * 2009-05-19 2014-01-29 キヤノン株式会社 Imaging apparatus and signal processing apparatus

Also Published As

Publication number Publication date
JP2012230300A (en) 2012-11-22

Similar Documents

Publication Publication Date Title
JP5515396B2 (en) Imaging device
JP5547349B2 (en) Digital camera
CN107249097B (en) Image pickup apparatus and control method thereof
US9826139B2 (en) Image processing apparatus, image processing method, program, and image pickup apparatus having the image processing apparatus
US20150358593A1 (en) Imaging apparatus and image sensor
US8902349B2 (en) Image pickup apparatus
JP2009003122A (en) Imaging device and its control method
JP5591851B2 (en) Solid-state imaging device and portable information terminal
JP2011176715A (en) Back-illuminated image sensor and imaging apparatus
JP2011197080A (en) Image pickup apparatus and camera
JP2012027390A (en) Imaging apparatus
JP2012015819A (en) Stereoscopic image imaging apparatus
JP5829018B2 (en) Imaging device
JP5348258B2 (en) Imaging device
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP5907668B2 (en) Imaging device and imaging device
JP6929511B2 (en) Image sensor and image sensor
JP2017032978A (en) Control device, imaging device, control method, program, and storage medium
JP2012124650A (en) Imaging apparatus, and imaging method
WO2013042606A1 (en) Digital camera and solid-state image capturing device
JP5949893B2 (en) Imaging device
JP6476630B2 (en) Imaging device
JP7238896B2 (en) Focus detection device, imaging device, and interchangeable lens
JP2012042856A (en) Imaging apparatus
JP5691440B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160322

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250