JP5907668B2 - Imaging device and imaging device - Google Patents
Imaging device and imaging device Download PDFInfo
- Publication number
- JP5907668B2 JP5907668B2 JP2011099341A JP2011099341A JP5907668B2 JP 5907668 B2 JP5907668 B2 JP 5907668B2 JP 2011099341 A JP2011099341 A JP 2011099341A JP 2011099341 A JP2011099341 A JP 2011099341A JP 5907668 B2 JP5907668 B2 JP 5907668B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixels
- pixel
- green
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、撮像装置及び撮像素子に関するものである。 The present invention relates to an imaging apparatus and an imaging element.
撮影画面全体のデフォーカス量を導出でき、かつ、画像データを得ることができる撮像装置としては、例えば特許文献1に開示された構成が知られている。
特許文献1においては、瞳を時分割で切り替えて、デフォーカス量を算出する。そして、瞳を分割しない状態で画像データを取得する。
For example, a configuration disclosed in Patent Document 1 is known as an imaging apparatus capable of deriving the defocus amount of the entire shooting screen and obtaining image data.
In Patent Literature 1, the defocus amount is calculated by switching the pupils in a time division manner. Then, image data is acquired without dividing the pupil.
特許文献1の構成の場合、例えば、撮影中に被写体が移動している場合、または撮影中に光量が変化した場合などに良好な画像を得られないという問題がある。 In the case of the configuration of Patent Document 1, there is a problem that a good image cannot be obtained, for example, when the subject is moving during shooting or when the amount of light changes during shooting.
本発明は、上記に鑑みてなされたものであって、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる撮像装置および撮像素子を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an imaging device and an imaging element that can acquire defocus information of the entire screen and can easily generate a natural image.
上述した課題を解決し、目的を達成するために、本発明の撮像装置は、撮影レンズが装着可能、または、撮影レンズを備え、
水平方向、垂直方向に画素が配列された撮像素子を備え、
撮像素子からの信号を処理する機能を備え、
撮像素子は、少なくとも共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有し、
画像形成のための画像出力がされ、
緑色画素の出力より像のデフォーカス情報を取得することを特徴とする。
In order to solve the above-described problems and achieve the object, the imaging apparatus of the present invention can be attached with a photographic lens or provided with a photographic lens.
It has an image sensor with pixels arranged in the horizontal and vertical directions,
It has a function to process signals from the image sensor,
The image sensor is composed of a blue pixel, a green pixel, and a red pixel that are projected onto an independent region at least on a conjugate plane.
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
The second direction is the reverse direction of the first direction,
The second direction has both a horizontal component and a vertical component;
The image is output for image formation.
Image defocus information is acquired from the output of the green pixel.
また、他の側面において、本発明にしたがう撮像素子は、水平方向及び垂直方向に画素が配列された撮像素子を備え、
撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有することを特徴とする。
In another aspect, an imaging device according to the present invention includes an imaging device in which pixels are arranged in a horizontal direction and a vertical direction,
Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
Second direction, Ri reverse der in the first direction,
Second direction, and wherein Rukoto to have a both horizontal and vertical components.
本発明によれば、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる撮像装置および撮像素子を提供することができるという効果を奏する。 According to the present invention, it is possible to provide an imaging device and an imaging device that can acquire defocus information of the entire screen and can easily generate a natural image.
以下、本実施形態の撮像装置及び撮像素子の構成による作用効果を説明する。なお、この実施形態によって本発明は限定されるものではない。すなわち、実施形態の説明に当たって、例示のために特定の詳細な内容が多く含まれるが、これらの詳細な内容に色々なバリエーションや変更を加えても、本発明の範囲を超えない。従って、以下で説明する本発明の例示的な実施形態は、権利請求された発明に対して、一般性を失わせることなく、また、何ら限定をすることもなく、述べられたものである。 Hereinafter, the effect by the structure of the imaging device and imaging device of this embodiment is demonstrated. In addition, this invention is not limited by this embodiment. That is, in describing the embodiment, a lot of specific details are included for the purpose of illustration, but various variations and modifications may be added to these details without exceeding the scope of the present invention. Accordingly, the exemplary embodiments of the present invention described below are set forth without loss of generality or limitation to the claimed invention.
(第1実施形態)
まず、本発明の第1実施形態に係る撮像装置を備えたカメラについて説明する。
図1は、デジタルスチルカメラ11(撮像装置)の内部構成を示している。デジタルスチルカメラ11は、交換レンズ11Aと、カメラボディ11Bと、から構成される。交換レンズ11Aは、マウント部14によりカメラボディ11Bに装着される。
(First embodiment)
First, a camera provided with an imaging apparatus according to the first embodiment of the present invention will be described.
FIG. 1 shows the internal configuration of a digital still camera 11 (imaging device). The
交換レンズ11A(撮像光学系)は、レンズ駆動制御部15、ズーミング用レンズ16、レンズ17、フォーカシング用レンズ18、及び、絞り19を備えている。レンズ駆動制御部15は、マイクロコンピューターとメモリなどの周辺部品から構成されている。
The
レンズ駆動制御部15は、フォーカシング用レンズ18と絞り19の駆動制御、絞り19、ズーミング用レンズ16およびフォーカシング用レンズ18の状態検出、並びに、ボディ駆動制御部21に対するレンズ情報の送信とカメラ情報の受信などを行う。
また、ズーミング用レンズ16、レンズ17、フォーカシング用レンズ18、及び、絞り19は、撮像光学系12を構成する。
The lens
Further, the
カメラボディ11Bは、撮像素子20、ボディ駆動制御部21、撮像素子駆動回路23、液晶表示素子駆動回路25、液晶表示素子26、メモリカード29、画素信号取得部30(演算部、画像構成部)を備えている。
The
撮像素子20には、後述する画素が二次元状に配列されている。撮像素子20は、交換レンズ11Aの予定結像面に配置されており、交換レンズ11Aにより結像される被写体像を撮像する。
また、撮像素子20は、撮像素子駆動回路23によって駆動される。そして、撮像素子駆動回路23はボディ駆動制御部21により動作を制御される。撮像素子20(イメージャ)としては、例えば、CCD(charge coupled device)、CMOS(Complementary Metal Oxide Semiconductor)、裏面照射型CMOSを用いることができる。
Pixels to be described later are arranged two-dimensionally on the
The
ボディ駆動制御部21は、マイクロコンピューターとメモリなどの周辺部品から構成されている。ボディ駆動制御部21は、上述の制御に加えて、撮像素子20からの画像信号の読み出し、画像信号の補正、像面のデフォーカス状態の検出、レンズ駆動制御部15からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルスチルカメラ全体の動作制御などを行う。
The body
ボディ駆動制御部21とレンズ駆動制御部15は、マウント部14の電気接点部13を介して通信を行い、各種情報の授受(送受信)を行う。また、ボディ駆動制御部21は、後述のデフォーカス量検出サブルーチン及び撮影サブルーチンを実行する為の構成を含んでいる。
The body
液晶表示素子駆動回路25は、カメラボディ背面に配置された液晶表示素子26を駆動する。表示装置は、液晶に限らず所謂有機EL表示素子でも良い。さらに、表示装置は、表示装置に表示された像を撮影者が接眼レンズ27を介して観察する電子ビューファインダーとしても良い。メモリカード29は、カメラボディ11Bに脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。
The liquid crystal display
交換レンズ11Aを通過して撮像素子20上に形成された被写体像は、撮像素子20により光電変換される。そして、その出力は画素信号取得部30に送られる。画素信号取得部30(演算部、画像構成部)は、画素の信号を取得する。また、画像信号取得部30は、演算部として、撮像素子20上の緑色(適宜、「G色」と表記する)画素の出力データ(後述する第1像信号、第2像信号)に基づいて各像位置におけるデフォーカス量を算出する。
さらに、以下、青色を「B色」、赤色を「R色」と適宜表記する。
The subject image formed on the
Further, hereinafter, blue is appropriately described as “B color” and red is appropriately described as “R color”.
算出されたデフォーカス量は、ボディ駆動制御部21に送られる。さらに、画像構成部として、取得した画素信号に基づいて基準の画像データを構成する。基準の画像データとは所謂2D画像であり、必要に応じて画像圧縮や間引き等の処理が加えられても良い。
The calculated defocus amount is sent to the body
構成された基準の画像データは、ボディ駆動制御部21、液晶表示素子駆動回路25及びメモリカード29へ出力される。また、ボディ駆動制御部21は、基準の画像データと各像位置におけるデフォーカス量より複数の視差画像データを生成する。複数の視差画像データの生成方法は、後述する。
The configured reference image data is output to the body
ボディ駆動制御部21は、生成した画像データをメモリカード29に格納するとともに、画像信号を液晶表示素子駆動回路25へ送り、液晶表示素子26に画像を表示させる。表示される画像は、基準の画像データに基づく画像、または表示装置が視差画像表示可能であれば視差画像データによる画像でもよい。
The body
カメラボディ11Bには、不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられている。これらの操作部材からの操作状態信号をボディ駆動制御部21が検出する。そして、ボディ駆動制御部21は、検出結果に応じた動作(撮像動作、デフォーカス量検出動作、レンズ駆動制御部通信動作、画像処理動作等)の制御を行う。
The
レンズ駆動制御部15は、レンズ情報を、レンズのフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ駆動制御部15は、ズームレンズ16及びフォーカシング用レンズ18の位置と、絞り19の絞り位置をモニターする。
The lens
そして、レンズ駆動制御部15は、モニター情報に応じてレンズ情報を演算すること、または予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。さらに、レンズ駆動制御部15は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、このレンズ駆動量に基づいてフォーカシング用レンズ18を不図示のモータ等の駆動源により合焦点へと駆動する。
Then, the lens
なお、本実施形態は、図1に示した交換レンズ型撮像装置に限るものではなく、所謂コンパクトカメラと称されるものを含むレンズ固定式撮像装置にも適用できる。また、撮影レンズはズームレンズに限らず単焦点レンズでも良い。 The present embodiment is not limited to the interchangeable lens type imaging apparatus shown in FIG. 1 but can be applied to a fixed lens type imaging apparatus including what is called a compact camera. The photographing lens is not limited to a zoom lens, and may be a single focus lens.
図2は、第1実施形態における撮像素子20の画素配列を示している。
図2では、縦16画素(L01〜L16)、横16画素(F01〜F16)で合計256画素の例を示している。しかしながら、画素数はこれに限るものでなく、例えば合計画素が1000万画素を超えるものでも構わない。
以下の説明においては、特定の画素を示すときに、行番号L01〜L16と列番号F01〜F16を並べて表す。例えば、L01の行のうち、F01の列に対応する画素を「L01F01」で表す。
FIG. 2 shows a pixel array of the
FIG. 2 shows an example of a total of 256 pixels with 16 vertical pixels (L01 to L16) and 16 horizontal pixels (F01 to F16). However, the number of pixels is not limited to this. For example, the total number of pixels may exceed 10 million pixels.
In the following description, row numbers L01 to L16 and column numbers F01 to F16 are shown side by side when a specific pixel is shown. For example, the pixel corresponding to the column F01 in the L01 row is represented by “L01F01”.
ここで、各画素の分光感度特性を説明する。
図14は、青色(B色)画素、緑色(G色)画素、赤色(R色)画素の分光感度特性曲線を示している。横軸は波長(nm)、縦軸は相対感度(%)を示している。青色画素は短波長領域に感度が高い。赤色画素は長波長領域に感度が高い。緑色画素は、青色画その主要な感度領域と赤色画素の主要な感度領域の中間域で感度が高い。
なお、一般的に撮影レンズと撮像素子の間に配置される赤外カットフィルタにより650nm付近から700nm付近より長波長領域の光はカットまたは減光されて撮像素子に入射する。
Here, the spectral sensitivity characteristics of each pixel will be described.
FIG. 14 shows spectral sensitivity characteristic curves of blue (B color) pixels, green (G color) pixels, and red (R color) pixels. The horizontal axis represents wavelength (nm), and the vertical axis represents relative sensitivity (%). Blue pixels are highly sensitive in the short wavelength region. Red pixels are highly sensitive in the long wavelength region. The green pixel has high sensitivity in the middle region between the main sensitivity region of the blue image and the main sensitivity region of the red pixel.
In general, light in a wavelength region longer than about 650 nm to about 700 nm is cut or attenuated by an infrared cut filter disposed between the photographing lens and the image sensor and enters the image sensor.
さらに、撮像素子と撮影レンズとの光学的な位置関係について説明する。
図15は、共役面上で独立した領域に投影される、短波長領域側から、青色画素、緑色画素、赤色画素について説明する図である。
Furthermore, the optical positional relationship between the image sensor and the photographic lens will be described.
FIG. 15 is a diagram for explaining blue pixels, green pixels, and red pixels from the short wavelength region side projected onto independent regions on the conjugate plane.
図15において、撮影レンズ201による撮像素子202の共役面204を考える。撮像素子202は、各画素203(A〜P)を有している。たとえば、画素Dに対応する共役像域は、他の画素の共役像領域から独立である。
In FIG. 15, consider the
なお、この説明は、近軸的なレイアウトを想定したものである。実際には、撮影レンズ201の収差や、回折現象、撮影レンズ201と撮像素子202の間の光路中に配置されたローパスフィルター(不図示)により、共役面上で他の画素の投影領域と重なる場合もある。しかしながら、この近軸的なレイアウトで構成することで、基本的に高い解像力の画像得ることができる。
This description assumes a paraxial layout. Actually, it overlaps with the projection area of another pixel on the conjugate plane by an aberration of the photographing
図16は、入射光束の傾きと遮光部の方向を説明する図である。図16に示す構成は、撮像素子20(図1)の画素の開口部を光電変換素子の中心に対して偏心させることによって射出瞳を分割する例である。図16は、撮像素子20の隣り合う二つの画素の構造を示す断面図である。
FIG. 16 is a diagram for explaining the inclination of the incident light beam and the direction of the light shielding portion. The configuration shown in FIG. 16 is an example in which the exit pupil is divided by decentering the opening of the pixel of the image sensor 20 (FIG. 1) with respect to the center of the photoelectric conversion element. FIG. 16 is a cross-sectional view illustrating the structure of two adjacent pixels of the
画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換素子46が配置されている。画素51も画素41と同様に、最上部から、順に、マイクロレンズ52、平滑層53、遮光膜54、平滑層55、及び、光電変換素子56が配置されている。
The
さらに、これらの画素41、51においては、遮光膜44、54が、光電変換素子46、56中心部47、57から外側に偏心した開口部48、58をそれぞれ有している。
Further, in these
ここで、光線L41の傾き方向と光線L51の傾き方向はそれぞれ遮光部が形成されている方向であることがわかる。また、遮光部の設定の仕方によっては、入射光束の傾きと遮光部の方向が逆になる場合もある。これは、例えば、遮光部をオンチップレンズ42、52上に配置する場合である。
Here, it can be seen that the inclination direction of the light beam L41 and the inclination direction of the light beam L51 are directions in which a light shielding portion is formed. Further, depending on how the light shielding part is set, the inclination of the incident light beam and the direction of the light shielding part may be reversed. This is the case, for example, when the light shielding portion is arranged on the on-
次に、図2に戻って説明を続ける。例えば画素L05F07はG色画素であり、図上で開口部の右下が斜線部で示すように遮光されている。すなわち、この画素の入射角度の重心は右下方向、例えば、第1の方向に傾いている。これは、入射角度の重心が図4(a)に示すように水平方向においては右側に傾いており、図4(b)に示すように垂直方向においては下側に傾いていることを意味する。 Next, returning to FIG. For example, the pixel L05F07 is a G color pixel, and is shielded from light as indicated by the hatched portion in the lower right of the opening in the drawing. That is, the center of gravity of the incident angle of this pixel is inclined in the lower right direction , for example, the first direction . This means that the center of gravity of the incident angle is inclined to the right in the horizontal direction as shown in FIG. 4 (a), and is inclined downward in the vertical direction as shown in FIG. 4 (b). .
また、G色画素は、いわゆる市松模様状に配置されている。
ここで、「市松模様に配置」とは、例えば、矩形上の画素を水平方向、垂直方向ともに、他の画素と交互に配置することをいう。
The G color pixels are arranged in a so-called checkered pattern.
Here, “arranged in a checkered pattern” means, for example, that pixels on a rectangle are alternately arranged with other pixels in both the horizontal direction and the vertical direction.
画素L05F07に隣接する8つの画素に含まれる4つのG色画素は、4つの画素L04F06、L04F08、L06F06、L06F08である。これらの4つの画素は、開口部の左上が斜線部で示すように遮光されている。すなわち、この画素の入射角度の重心は左上方向、例えば、第2の方向に傾いている。ここで、第2の方向は、第1の方向の逆方向である。 The four G color pixels included in the eight pixels adjacent to the pixel L05F07 are the four pixels L04F06, L04F08, L06F06, and L06F08. These four pixels are shielded from light so that the upper left of the opening is indicated by the hatched portion. That is, the center of gravity of the incident angle of this pixel is inclined in the upper left direction , for example, the second direction . Here, the second direction is opposite to the first direction.
これは、入射角度の重心が、図4(c)、図4(d)に示すように水平方向においては左側に傾いており、垂直方向においては上側に傾いていることを意味する。このように、撮像素子20のG色画素は隣接するG色画素に対して入射角度の方向が水平方向、垂直方向いずれも同じ方向に異なるように構成される。
This means that the center of gravity of the incident angle is tilted to the left in the horizontal direction and tilted to the upper side in the vertical direction as shown in FIGS. 4 (c) and 4 (d). As described above, the G color pixel of the
換言すると、各G色画素の4つの隣接するG色画素の重心入射角度は、各G色画素の水平成分に関しては、中心入射角度に対して同じ方向に異なっており、各G色画素の垂直成分に関しては、中心入射角度に対して同じ方向に異なっている。 In other words, the centroid incidence angles of four adjacent G color pixels of each G color pixel are different in the same direction with respect to the center incidence angle with respect to the horizontal component of each G color pixel, and the vertical direction of each G color pixel. The components differ in the same direction with respect to the central incident angle.
なお、「重心入射角度」とは、例えば、図4(a)、(b)、(c)、(d)の各図において曲線で囲まれた領域の面積重心をいう。 The “center of gravity incident angle” refers to, for example, the area centroid of the region surrounded by the curve in each of FIGS. 4A, 4B, 4C, and 4D.
これにより、合焦状態から離れた状態のボケ像も自然になる。また、回折現象におけるボケ像も自然になり、良好が画像を得られる。このような構成をとることにより必然的に入射角度範囲は広くなり、大きなNA光束を受光できるようになり、デフォーカス検出と画質の両立をはかることができる。 As a result, the blurred image in a state away from the focused state becomes natural. Also, the blurred image in the diffraction phenomenon becomes natural, and an excellent image can be obtained. By adopting such a configuration, the incident angle range is inevitably widened so that a large NA light beam can be received, and both defocus detection and image quality can be achieved.
図5(a)〜(j)を用いて、G色画素の水平方向のデフォーカス量と信号強度との関係を説明する。図5(a)と(b)、図5(c)と(d)、図5(e)と(f)、図5(g)と(h)、図5(i)と(j)は、それぞれ水平方向の隣接する画素の信号強度を示している。 The relationship between the defocus amount in the horizontal direction of the G color pixel and the signal intensity will be described with reference to FIGS. 5 (a) and (b), FIG. 5 (c) and (d), FIG. 5 (e) and (f), FIG. 5 (g) and (h), and FIG. 5 (i) and (j) , Signal strengths of adjacent pixels in the horizontal direction are shown.
ここで、合焦時の水平方向の出力信号を図5(e)、(f)とする。デフォーカス量が変化すると図5(a)、(b)と、図5(c)、(d)と、図5(g)、(h)と、図5(i)、(j)とへと変化している。 Here, the horizontal output signals at the time of focusing are shown in FIGS. 5 (e) and 5 (f). When the defocus amount changes, FIGS. 5A and 5B, FIGS. 5C and 5D, FIGS. 5G and 5H, and FIGS. 5I and 5J. It has changed.
図5(a)〜(j)から明らかなように、信号強度曲線のピーク値の大きさとその位置とは、デフォーカス量に応じて変化している。このように、例えば、水平方向のL04、L06、L08の出力信号と、L05、L07、L09の出力信号とを相関演算等の手法により比較することによりデフォーカス量を検知することができる。 As is clear from FIGS. 5A to 5J, the magnitude of the peak value of the signal intensity curve and its position change according to the defocus amount. As described above, for example, the defocus amount can be detected by comparing the output signals of L04, L06, and L08 in the horizontal direction with the output signals of L05, L07, and L09 by a method such as correlation calculation.
図6(a)〜(j)を用いて、G色画素の垂直方向のデフォーカス量と信号強度との関係を説明する。図6(a)と(b)、図6(c)と(d)、図6(e)と(f)、図6(g)と(h)、図6(i)と(j)は、それぞれ垂直方向の信号強度を示している。 The relationship between the defocus amount in the vertical direction of the G color pixel and the signal intensity will be described with reference to FIGS. 6A and 6B, FIGS. 6C and 6D, FIGS. 6E and 6F, FIGS. 6G and 6H, and FIGS. 6I and 6J. , Each shows the signal strength in the vertical direction.
ここで、合焦時の垂直方向の出力信号を図6(e)、(f)とする。デフォーカス量が変化すると図6(a)、(b)と、図6(c)、(d)と、図6(g)、(h)と、図6(i)、(j)とへと変化している。 Here, the output signals in the vertical direction at the time of focusing are shown in FIGS. 6 (e) and 6 (f). When the defocus amount changes, FIGS. 6 (a) and 6 (b), FIGS. 6 (c) and 6 (d), FIGS. 6 (g) and 6 (h), and FIGS. 6 (i) and 6 (j). It has changed.
図6(a)〜(j)から明らかなように、信号強度曲線のピーク位置の大きさとその位置とは、デフォーカス量に応じて変化している。このように例えば、垂直方向のF04、F06、FL08の出力信号と、F05、F07、F09の出力信号とを相関演算等の手法により比較することによりデフォーカス量を検知することができる。 As is clear from FIGS. 6A to 6J, the magnitude of the peak position of the signal intensity curve and its position change according to the defocus amount. Thus, for example, the defocus amount can be detected by comparing the output signals of F04, F06, and FL08 in the vertical direction with the output signals of F05, F07, and F09 using a technique such as correlation calculation.
次に、R色画素とB色画素とに関して、図7(a)〜(j)を用いて、水平方向のデフォーカス量と信号強度との関係を説明する。図7(a)と(b)、図7(c)と(d)、図7(e)と(f)、図7(g)と(h)、図7(i)と(j)は、それぞれ水平方向の隣接する画素の信号強度を示している。 Next, regarding the R color pixel and the B color pixel, the relationship between the horizontal defocus amount and the signal intensity will be described with reference to FIGS. 7A and 7B, FIGS. 7C and 7D, FIGS. 7E and 7F, FIGS. 7G and 7H, and FIGS. 7I and 7J. , Signal strengths of adjacent pixels in the horizontal direction are shown.
図7(a)〜(j)に示すようにR色画素とB色画素は、デフォーカスしても、信号強度曲線のピーク値は変化するが、曲線の位置は変化しない。すなわち、像のコントラストは低下するが像ずれは生じない。像ずれを起こしていない画素と像ずれを起こしている画素から画像形成をするとピントのあっていない像位置の画質が劣化する。 As shown in FIGS. 7A to 7J, even if the R color pixel and the B color pixel are defocused, the peak value of the signal intensity curve changes, but the position of the curve does not change. That is, the contrast of the image is lowered, but no image shift occurs. If an image is formed from a pixel that has not caused an image shift and a pixel that has caused an image shift, the image quality at an unfocused image position deteriorates.
このように、各B色画素の重心入射角度は略同じであり、各R色画素の重心入射角度は略同じである。 Thus, the center-of-gravity incidence angle of each B color pixel is substantially the same, and the center-of-gravity incidence angle of each R color pixel is substantially the same.
本実施形態では、例えば、画像形成時に、G色成分は隣接する画素値と平均化することで、像ずれのないG色成分を少ない解像度の劣化で生成することができる。さらに、R色画素とB色画素とG色画素成分を用いて良質な画像を得ることができる。 In the present embodiment, for example, when an image is formed, the G color component is averaged with adjacent pixel values, so that a G color component without image displacement can be generated with little degradation in resolution. Further, a high-quality image can be obtained using the R color pixel, the B color pixel, and the G color pixel component.
また、本実施形態における撮像素子自体に着目すると、撮像素子は、以下の構成を有する。すなわち、撮像素子は、水平方向及び垂直方向に画素が配列された撮像素子を備え、
撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
緑色画素が市松模様に配置され、
青色画素同士、赤色画素同士は、隣接しないように配置され、
各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、
第2の方向は、第1の方向の逆方向であり、
第2の方向は、水平成分と垂直成分の両方を有する。
これにより、画面全体のデフォーカス情報を取得できると共に、自然な画像を容易に生成できる。
Focusing on the image sensor itself in the present embodiment, the image sensor has the following configuration. That is, the imaging device includes an imaging device in which pixels are arranged in the horizontal direction and the vertical direction,
Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
Green pixels are arranged in a checkered pattern,
Blue pixels and red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The gravity center incident angles of the four green pixels included in the eight pixels adjacent to each green pixel are all shifted in the second direction with respect to the central incident angle,
Second direction, Ri reverse der in the first direction,
Second direction, that have a both horizontal and vertical components.
Thereby, defocus information of the entire screen can be acquired, and a natural image can be easily generated.
図17は、従来の離散的にまたは一部のG色画素の開口の一部を遮光する画素配列を示している。この場合は、G色成分は隣接する画素値を参照しても像ずれの生じない画素値を生成することが困難である。 FIG. 17 shows a conventional pixel arrangement in which a part of the apertures of discrete or partial G color pixels are shielded. In this case, it is difficult for the G color component to generate a pixel value that does not cause image shift even when referring to adjacent pixel values.
このような場合は、開口の一部を遮光した画素を所謂画素欠陥のように画像形成に使わない処理方法が知られている。しかしながら、画面全体でデフォーカス量を算出する場合、遮光された画素が多くなり、画質を大きく劣化させることになってしまう。また、このような画素領域を離散的に配置すると、デフォーカス値を取得できる画面内の領域が離散的になり好ましくない。 In such a case, a processing method is known in which a pixel in which a part of the opening is shielded is not used for image formation like a so-called pixel defect. However, when the defocus amount is calculated for the entire screen, the number of light-shielded pixels increases, and the image quality is greatly degraded. In addition, it is not preferable to dispose such pixel areas discretely because the areas in the screen where defocus values can be obtained are discrete.
さらに、図18に、一つのオンチップレンズに対して複数の画素を配置した例を示す。この例は、本実施形態と比較するための参考例である。撮像素子320の光電変換部を分割することによって射出瞳を分割する構成例である。
Further, FIG. 18 shows an example in which a plurality of pixels are arranged for one on-chip lens. This example is a reference example for comparison with the present embodiment. In this configuration example, the exit pupil is divided by dividing the photoelectric conversion unit of the
撮像素子320は、基板内に形成されたP型ウエル331、P型ウエル331と共に光電荷を発生させ蓄積するn型領域332α、332β、n型領域332α、332βに蓄積されている光電荷が転送される不図示のフローティングディフュージョン部(以下、「FD部」と称する。)、n型領域332α、332βに蓄積された光電荷をFD部へ効率よく転送するために光電荷を収集する表面p+層333α、333β、FD部へ光電荷を転送するための転送ゲート(不図示)、ゲート絶縁膜であるSiO2膜334、ベイヤ配列のカラーフィルタ335、及び、被写体からの光を集めるマイクロレンズ336、を備える。
The
マイクロレンズ336は、交換レンズ(図1)の瞳と表面p+層333α、333βとが、概略共役になるような形状及び位置に形成されている。光電荷は、模式的には、領域337で発生する。
The
図18に示す例では、光電変換部が、n形領域332α及び表面p+層333αと、n形領域32β及び表面p+層33βと、に分割されており、これにより射出瞳が分割される。光線L31、L32は、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、にそれぞれ入射する。 In the example illustrated in FIG. 18, the photoelectric conversion unit is divided into an n-type region 332α and a surface p + layer 333α, and an n-type region 32β and a surface p + layer 33β, whereby the exit pupil is divided. Light rays L31 and L32 enter the n-type region 32α and the surface p + layer 33α, and the n-type region 32β and the surface p + layer 33β, respectively.
この構成では、容易に像ずれのない画素値を生成することができる。しかしながら、R色画素やB色画素の配置も離散的になってしまう。このため、画素数に対する解像度を得ることができないので好ましくない。 With this configuration, it is possible to easily generate pixel values with no image shift. However, the arrangement of R color pixels and B color pixels is also discrete. For this reason, the resolution for the number of pixels cannot be obtained, which is not preferable.
さらに、本実施形態と比較した場合の従来例の不具合点を以下に述べる。本実施形態は、これらの不具合点を解消していることはいうまでもない。 Furthermore, the disadvantages of the conventional example when compared with this embodiment will be described below. Needless to say, this embodiment eliminates these problems.
従来の撮像装置は、以下の問題点を有している。
・画像形成とデフォーカス量算出のための画像データ取得を同時にできないこと。
・動きのある被写体に対してデフォーカス量の算出が難しいこと。
・撮影レンズ側に瞳分割機構を配置する構成であること。
The conventional imaging device has the following problems.
-Image data acquisition and image data acquisition for defocus amount calculation cannot be performed simultaneously.
-It is difficult to calculate the defocus amount for a moving subject.
-The pupil division mechanism is arranged on the photographing lens side.
上記のような構成であると、撮像装置が交換レンズを使用する場合、各交換レンズごとに瞳分割機構を設ける必要がある。さらに、フォーカシングやズーミングで絞りの位置と絞りの径との少なくとも一方が変わる場合、瞳分割機構も移動や駆動量の調整が必要となる。
従来は、得られたデフォーカス量は、フォーカシングに用いることが提案されている。これに対して、画像データとデフォーカス量データを組み合わせ使う、または出力することは全く開示されていない。
With the configuration as described above, when the imaging apparatus uses an interchangeable lens, it is necessary to provide a pupil division mechanism for each interchangeable lens. Further, when at least one of the position of the diaphragm and the diameter of the diaphragm changes due to focusing or zooming, the pupil division mechanism also needs to be moved or adjusted in drive amount.
Conventionally, it has been proposed to use the obtained defocus amount for focusing. On the other hand, there is no disclosure of using or outputting image data and defocus amount data in combination.
このほかにも、所謂コントラストAF(オートフォーカス)と呼ばれるような、複数枚の画像データを取得してコントラスト値の変化からデフォーカス量を推定する方法もある。 In addition to this, there is a method called so-called contrast AF (autofocus), in which a plurality of pieces of image data are acquired and a defocus amount is estimated from a change in contrast value.
コントラストAF方式では、動きのある被写体に対してデフォーカス量の算出が難しいという問題がある。また、撮影レンズの駆動システムを対応させる必要がある。 The contrast AF method has a problem that it is difficult to calculate a defocus amount for a moving subject. In addition, it is necessary to correspond to a driving system for the photographing lens.
また、所謂位相差AF光学系として知られている方式は、同一物点を撮影レンズの異なる瞳位置を通過した2像として撮像する。そして、デフォーカス量を算出する。位相差AFでは、複数の画素が同一物点の共役位置となり、また、高い解像力や画質を得るのが難しくなる。 A method known as a so-called phase difference AF optical system captures the same object point as two images passing through different pupil positions of the photographing lens. Then, the defocus amount is calculated. In the phase difference AF, a plurality of pixels become conjugate positions of the same object point, and it becomes difficult to obtain high resolution and image quality.
尚、画面の一部の領域のみのデフォーカス量を算出し、フォーカシングを行う方式も知られている。当然ながら、このような方式では、画面全体のデフォーカス量分布を求めることはできない。さらに、デフォーカス算出用の画素を画像形成に用いるのは難しいとされている。 A method of calculating a defocus amount for only a partial area of the screen and performing focusing is also known. Naturally, with such a method, the defocus amount distribution of the entire screen cannot be obtained. Furthermore, it is considered difficult to use pixels for defocus calculation for image formation.
例えば、撮像面上に瞳の一部のみを受光する画素領域を離散的に配置し、デフォーカス量を算出する方式では、以下の問題がある。
・離散的な位置のデフォーカス情報しか得られないこと。これにより、視差像を形成するのが困難である。
・一般的には、デフォーカス時に異なる画像になること。これによるAF用画素を画素形成に使うのは困難とされている。
・撮像画素近傍で瞳を分割するマイクロレンズを配置し、このマイクロレンズ下に複数の画素を配置する構成では、撮像画素数に対する解像度が劣化すること、という課題がある。また、入射NA(開口数)が小さくなり回折の影響で画質が劣化する場合もある。
For example, a method of discretely arranging pixel regions that receive only a part of the pupil on the imaging surface and calculating the defocus amount has the following problems.
-Only defocus information at discrete positions can be obtained. Thereby, it is difficult to form a parallax image.
-Generally, the image will be different during defocusing. Thus, it is difficult to use the AF pixel for pixel formation.
In the configuration in which a microlens that divides the pupil is arranged near the imaging pixel and a plurality of pixels are arranged under the microlens, there is a problem that the resolution with respect to the number of imaging pixels is deteriorated. In addition, the incident NA (numerical aperture) may become small, and the image quality may deteriorate due to the influence of diffraction.
さらに、立体撮影の可能な撮影システムの従来例の課題を説明する。
一般的にステレオカメラと呼ばれる従来の2眼式立体撮影システムがある。
2眼式立体撮影システムの問題点を以下に掲げる。
・近距離被写体の場合は、視差が大きくなる。このため、撮影ができなくなること。
・近距離被写体を撮影できるように2眼の光学系の光軸を内向させると、遠距離被写体の撮影が難しくなること。
・一般的な2D(2次元)撮影用の撮像システムに対して撮像素子の総画素数を同じとすると、ステレオ撮影装置での一方の光学系に対応する画素数は半分となる。このため、画質が劣化すること。
・一般的な2D撮影用の撮像システムと同じ画質を得るためには、2倍の画素数の撮像素子が必要となること。
・さらに、2眼にするため、撮影システムが大型になること。
Furthermore, the problem of the conventional example of the imaging system capable of stereoscopic imaging will be described.
There is a conventional binocular stereoscopic imaging system generally called a stereo camera.
The problems of the binocular stereoscopic imaging system are listed below.
・ In the case of a short-distance subject, the parallax increases. This makes it impossible to shoot.
• If the optical axis of the two-lens optical system is directed inward so that a short-distance subject can be photographed, it becomes difficult to photograph a long-distance subject.
If the total number of pixels of the image sensor is the same as that of a general 2D (two-dimensional) imaging system, the number of pixels corresponding to one optical system in the stereo imaging apparatus is halved. Therefore, the image quality is degraded.
In order to obtain the same image quality as an image pickup system for general 2D shooting, an image pickup device having twice the number of pixels is required.
・ Furthermore, the shooting system becomes large in order to use two eyes.
また、撮像装置から光を対象に投射し、対象から反射してきた情報を用いて、立体形状を取得するシステムが知られている。このようなシステムは、以下の問題点を有している。
・遠距離被写体の情報取得が難しいこと。
・パララックス(視差)の問題で近距離被写体の取得が難しいこと。
・被写体側の照度が高いと、立体形状の取得が難しいこと。
・撮像素子の構造上、画面全体の立体情報を得る場合、カラー画像の取得が難しいこと。
There is also known a system that obtains a three-dimensional shape using information that is projected from an imaging device onto a target and reflected from the target. Such a system has the following problems.
・ It is difficult to obtain information on long-distance subjects.
-It is difficult to obtain a short-distance subject due to parallax problems.
-It is difficult to obtain a three-dimensional shape when the illuminance on the subject side is high.
-Due to the structure of the image sensor, it is difficult to obtain a color image when obtaining three-dimensional information of the entire screen.
さらに、所謂1枚の平面画像からデフォーカス情報無しに、立体画像に自動的に変換する手法も知られている。
この手法の問題点は、立体像に変換する手がかりが想定外の状態であると、不自然な立体画像に変換される場合があることである。例えば、具体的には以下の問題を生ずるおそれがある。
・平面画像内に撮影された平面ポスターまで立体像に変換してしまうこと。
・色情報を手がかりにして立体像に変換している場合、被写体内の信号やネオン等の光源が不自然に変換される現象がおきること。
Furthermore, a method of automatically converting a so-called single plane image into a stereoscopic image without defocus information is also known.
The problem with this method is that if the clue to convert to a stereoscopic image is in an unexpected state, it may be converted to an unnatural stereoscopic image. For example, specifically, the following problems may occur.
-Converting a flat poster photographed in a flat image into a three-dimensional image.
-When color information is converted into a three-dimensional image as a clue, a phenomenon occurs in which a signal in a subject or a light source such as neon is unnaturally converted.
上述したように、本実施形態は、これらの不具合点を解消している。 As described above, the present embodiment solves these problems.
(変形例)
次に、本実施形態の変形例の画素配列について説明する。図3は、変形例に係る画素配列を示している。画素を左右に分割することで、縦成分に対するデフォーカス検出精度を向上できる。一般的な被写体は、縦線方向のデフォーカスを検出する場合が多い。このため、本変形例のように、縦線方向にデフォーカス検出精度が高い構成は有利である。
(Modification)
Next, a pixel array according to a modification of the present embodiment will be described. FIG. 3 shows a pixel array according to the modification. By dividing the pixel into left and right, the defocus detection accuracy for the vertical component can be improved. A general subject often detects defocus in the vertical line direction. For this reason, a configuration with high defocus detection accuracy in the vertical line direction as in the present modification is advantageous.
上記第1実施形態では、例えば、L02F02画素のように画素の右上、右下、左下を開口させている。このため、本変形例のように左半分遮光するより、十分な光量が得られ、また、回折の影響による画質劣化が少なくすることができる。 In the first embodiment, for example, the upper right, lower right, and lower left of the pixel are opened like the L02F02 pixel. For this reason, it is possible to obtain a sufficient amount of light as compared with the case where the left half is shielded as in this modification, and it is possible to reduce image quality deterioration due to the influence of diffraction.
次に視差像の生成方法の例について説明する。
図8は、視差像を生成する方法を説明する図である。
任意の想定視差量(2・P)と想定観察距離dを設定する。これらの数値はカメラボディに対して固定値とすること、撮影レンズの焦点距離情報を用いて決定すること、または、観察機材を想定して入力する形にすることの何れでも良い。
Next, an example of a parallax image generation method will be described.
FIG. 8 is a diagram illustrating a method for generating a parallax image.
An arbitrary assumed amount of parallax (2 · P) and an assumed observation distance d are set. These numerical values may be fixed values with respect to the camera body, determined using the focal length information of the photographing lens, or input assuming the observation equipment.
面101は、取得した基準画像(2D)と想定し、図8で示されている場合では水平方向の断面とする。
仮想線103は、取得した基準画像(2D)の中心102を通る垂線(仮想線)であり、撮影時の撮影レンズの光軸と対応すると考えても良い。また、中心点102の座標を(0、0)とする。
The
The
与える視差量を2×Pとしたとき、仮想線103に対し、水平方向に−Pだけずらした位置に平行な仮想線104を想定する。仮想線104と基準画像の交わる点を点106とする。
When the amount of parallax to be given is 2 × P, a
同様に水平方向にPだけずらした位置に平行な仮想線105を想定する。仮想線105と基準画像の交わる点を点107とする。このときそれぞれの座標は(−P、0)と(P、0)となる。
Similarly, a
基準画像の任意の位置(x、y)の点108に対応する左側画像の点111、L(x、y)の位置を求める方法の例を説明する。基準画像の任意の点108を通る仮想線104に平行な線を想定する。この線上に基準画像の任意の点108のデフォーカス量Δd(x、y)ずれた点109を想定する。
An example of a method for obtaining the positions of the
点106から仮想観察距離d離れた点112と点109を結ぶ仮想線110を想定し、この線と基準画像の交わる点を求める。この点の水平方向成分が点111の水平方向成分となる。垂直方向成分は、点108と同じである。
Assuming a virtual line 110 connecting the
このことを条件式(1)、(2)で示す。ΔLH(x、y)は、基準画像の像点(x、y)に対して左側画像での水平方向の偏移量である。同様に、ΔRH(x、y)は、基準画像の像点(x、y)に対して右側画像での水平方向の偏移量である。
ΔLH(x、y)=(d/(d+Δd(x、y)))×(x+P) (1)
ΔRH(x、y)=(d/(d+Δd(x、y)))×(x−P) (2)
This is shown by conditional expressions (1) and (2). ΔLH (x, y) is a horizontal shift amount in the left image with respect to the image point (x, y) of the reference image. Similarly, ΔRH (x, y) is a horizontal shift amount in the right image with respect to the image point (x, y) of the reference image.
ΔLH (x, y) = (d / (d + Δd (x, y))) × (x + P) (1)
ΔRH (x, y) = (d / (d + Δd (x, y))) × (x−P) (2)
このようにして、基準画像から視差画像である左側画像、右側画像を生成することができる。
図8で示したのは、視差像生成の一つの例示である。被写体のデフォーカス量の分布状況、3D観察時の見えやすさや、立体感の強調や立体感の抑制等目的に応じて、各像点のデフォーカス量を用いて、他の生成方法を使ってもよい。また、仮想パラメータとして、想定クロスポイントを設定してもよい。
In this way, a left image and a right image that are parallax images can be generated from the reference image.
FIG. 8 shows one example of parallax image generation. Depending on the distribution of the defocus amount of the subject, the visibility during 3D observation, the emphasis of the stereoscopic effect, the suppression of the stereoscopic effect, etc., using the defocus amount of each image point, using other generation methods Also good. Further, an assumed cross point may be set as a virtual parameter.
また、撮影時のカメラ姿勢によっては(縦位置取りの場合)、上下(垂直方向)の視差像を生成するようにしてもよい。尚、観察機材に表示するときには、例えば上側画像を左側画像として、下側画像は右側画像として表示することにしても良い。 Depending on the camera posture at the time of shooting (in the case of vertical positioning), a vertical (vertical) parallax image may be generated. When displaying on the observation equipment, for example, the upper image may be displayed as the left image, and the lower image may be displayed as the right image.
本実施形態では、デフォーカス量情報を使い視差像を生成している。これに限られず、デフォーカス量情報を使い他の画像処理を行っても良い。また、デフォーカス量を画像データと合わせて記録し、この記録を用いて外部装置で必要な画像処理を行っても良い。 In the present embodiment, a parallax image is generated using defocus amount information. However, the present invention is not limited to this, and other image processing may be performed using the defocus amount information. Further, the defocus amount may be recorded together with the image data, and necessary image processing may be performed by an external device using this recording.
次に、上述した構成を用いて、フォーカシングと撮影とを行なう手順をフローチャートを用いて説明する。
図9は、撮影のおおまかな流れを示すフローチャートである。
Next, a procedure for performing focusing and photographing using the above-described configuration will be described using a flowchart.
FIG. 9 is a flowchart showing a general flow of shooting.
ステップS101において、撮影が開始される。ステップS102においてフォーカシングサブルーチンが呼び出される。ステップS103において、撮影サブルーチンが実行される。ステップS105において、デフォーカス量算出サブルーチンが実行される。そして、ステップS104において、視差像生成サブルーチンが実行される。 In step S101, shooting is started. In step S102, the focusing subroutine is called. In step S103, a shooting subroutine is executed. In step S105, a defocus amount calculation subroutine is executed. In step S104, a parallax image generation subroutine is executed.
各サブルーチンの手順について、さらに説明を続ける。
図10は、撮影サブルーチンの手順を示すフローチャートである。
ステップS201において、画像信号取得部30は、撮影用画素からの信号を読み出す。ステップS202において、ボディ駆動制御部21は、画像信号をメモリカード29などに記録する。ステップS203において、液晶表示素子26は、記録画像を表示する。
Further explanation of the procedure of each subroutine will be continued.
FIG. 10 is a flowchart showing the procedure of the photographing subroutine.
In step S201, the image
図11は、デフォーカス量算出サブルーチンの手順を示すフローチャートである。
ステップS301において、画像信号取得部30は、G色画素からの信号を読み出す。ステップS302において、画像信号取得部30は、奇数画素列と偶数画素列とで相関演算を行なう。
FIG. 11 is a flowchart showing the procedure of the defocus amount calculation subroutine.
In step S301, the image
ステップS303において、画像信号取得部30は、奇数画素行と偶数画素行とで相関演算を行なう。ステップS304において、画像信号取得部30は、各像点におけるデフォーカス量を算出する。そして、ボディ駆動制御部21は、各像点のデフォーカス量をメモリカード29などに記録する。
In step S303, the image
図12は、フォーカシングサブルーチンの手順を示すフローチャートである。
ステップS401において、画像信号取得部30は、測距領域であるG色画素の信号を読み出す。ステップS402において、画像信号取得部30は、奇数画素列と偶数画素列とで相関演算を行なう。
FIG. 12 is a flowchart showing the procedure of the focusing subroutine.
In step S401, the image
また、ステップS402に並行して、ステップS403において、画像信号取得部30は、奇数画素行と偶数画素行とで相関演算を行なう。そして、ステップS404において、画像信号取得部30は、演算部として、撮像素子20上の緑(適宜、「G」と表記する)色画素の出力データ(後述する第1像信号、第2像信号)に基づいて各像位置におけるデフォーカス量を算出する。
In parallel with step S402, in step S403, the image
ステップS404において、算出されたデフォーカス量は、焦点深度内であるか、否かが判断される。ステップS405の判断結果がYes(真)の場合、サブルーチンを終了する。 In step S404, it is determined whether or not the calculated defocus amount is within the depth of focus. If the determination result in step S405 is Yes (true), the subroutine is terminated.
ステップS405の判断結果がNo(偽)の場合、ステップS406へ進む。ステップS406において、画像信号取得部30は、撮影レンズのうちのフォーカシングレンズ18の駆動信号を出力する。レンズ駆動制御部15は、撮影レンズのうちのフォーカシングレンズ18の駆動を行なう。そして、ステップS401を繰り返す。
If the determination result of step S405 is No (false), the process proceeds to step S406. In step S <b> 406, the image
図13は、視差像生成サブルーチンの手順を示すフローチャートである。本サブルーチンは、図8で説明した内容を実行するものである。
ステップS501において、想定視差量、想定観察距離、想定クロスポイント位置の設定を行う。
ステップS502において、ボディ駆動制御部21は、画像信号をメモリカード29などに画像信号記録データと各像点のデフォーカス量とを記録する。
FIG. 13 is a flowchart showing the procedure of the parallax image generation subroutine. This subroutine executes the contents described in FIG.
In step S501, an assumed parallax amount, an assumed observation distance, and an assumed crosspoint position are set.
In step S502, the body
ステップS503において、視差方向が設定されているか、否かが判断される。ステップS503において、水平方向に視差方向が設定されていると判断された場合、ステップS504、ステップS505へ進む。そして、ステップS504において、右側画像が生成される。ステップS505において、左側画像が生成される。 In step S503, it is determined whether or not a parallax direction is set. If it is determined in step S503 that the parallax direction is set in the horizontal direction, the process proceeds to steps S504 and S505. In step S504, the right image is generated. In step S505, the left image is generated.
ステップS503において、上下方向に視差方向が設定されていると判断された場合、ステップS506、ステップS507へ進む。そして、ステップS506において、上側画像が生成される。ステップS507において、下側画像が生成される。 If it is determined in step S503 that the parallax direction is set in the vertical direction, the process proceeds to step S506 and step S507. In step S506, an upper image is generated. In step S507, a lower image is generated.
そして、水平方向の視差設定、上下方向の視差設定のいずれの場合でも、ステップS508において視差画像が記録される。
このように、デフォーカス情報と画像出力とにより、複数の視差画像を形成することができる。
In either case of the horizontal parallax setting and the vertical parallax setting, the parallax image is recorded in step S508.
Thus, a plurality of parallax images can be formed by the defocus information and the image output.
以上の説明をまとめると、本実施形態およびその変形例のデジタルカメラ11は、撮影レンズが装着可能、または、撮影レンズを備え、
水平方向、垂直方向に画素が配列された撮像素子20を備え、
撮像素子20からの信号を処理する機能を有する画像信号取得部30を備えている。
さらに、撮像素子20は、少なくとも共役面204上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成されている。
これにより、近軸的な共役面上で重ならない構成にすることで、撮影画像の解像度を確保することができる。これは、リフォーカスタイプや図18の様にデフォーカス情報の取得ができるかわりに解像度を低下させる複数の画素の上に一つのオンチップレンズを配置するタイプに対する対策となっている。さらに、B色画素、G色画素、R色画素は、カラー画像取得を可能とし、主にモノクロタイプの撮像装置に比較して有利である。
緑色画素が市松模様に配置されている。
ここで、青色画素同士、赤色画素同士は、隣接しないように配置されている。
これにより、所謂ベイヤー配列を規定している。G色画素を連続的に配置する構成が特徴的である。
また、上述したように各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、各緑色画素に隣接する8つの画素に含まれる4つの緑色画素の重心入射角度は、全て中心入射角度に対して、第2の方向にずれており、第2の方向は、第1の方向の逆方向である。
これにより水平成分、垂直成分のいずれかで、画面全体で相関演算を行うことができる。また、画面全体のデフォーカス情報を取得できる。なお、ここでは特に絶対量でなく、周辺像点との奥行き関係が取得できれば良い。
さらに、隣接する画素同士で補間することで、撮影レンズの瞳全体の情報を得ることができる。この結果、合焦点近傍から非合焦点まで、自然な画像に形成できる。
また、各画素からは、画像形成のための画像出力がされる。
上述の画素構成により、自然な画像を容易に生成できる信号が出力される。
そして、画像信号取得部20は、緑色画素の出力より像のデフォーカス情報を算出し、取得する。
これにより、位相差検出等でデフォーカス情報や輪郭情報を取得できる。
また、デフォーカス情報と画像出力により複数の視差画像を形成する。これにより、デフォーカス情報に基づいて、複数の視差画像を形成できる。
To summarize the above description, the
It includes an
An image
Further, the
Thereby, the resolution of a picked-up image is securable by making it the structure which does not overlap on a paraxial conjugate plane. This is a countermeasure against a refocus type or a type in which one on-chip lens is arranged on a plurality of pixels that lower the resolution instead of acquiring defocus information as shown in FIG. Further, the B color pixel, the G color pixel, and the R color pixel enable acquisition of a color image, which is advantageous compared to a monochrome type imaging apparatus.
Green pixels are arranged in a checkered pattern.
Here, the blue pixels and the red pixels are arranged so as not to be adjacent to each other.
This defines a so-called Bayer array. The configuration in which the G color pixels are continuously arranged is characteristic.
In addition, as described above, the center-of-gravity incidence angle of each green pixel is shifted in the first direction with respect to the center incidence angle, and the center-of-gravity incidence of four green pixels included in the eight pixels adjacent to each green pixel. The angles are all shifted in the second direction with respect to the central incident angle, and the second direction is the opposite direction of the first direction .
As a result, the correlation calculation can be performed on the entire screen with either the horizontal component or the vertical component. Also, defocus information for the entire screen can be acquired. Here, it is only necessary to obtain the depth relationship with the peripheral image point, not the absolute amount.
Furthermore, by interpolating between adjacent pixels, information on the entire pupil of the photographing lens can be obtained. As a result, a natural image can be formed from the vicinity of the in-focus point to the non-in-focus point.
Each pixel outputs an image for image formation.
With the above-described pixel configuration, a signal that can easily generate a natural image is output.
Then, the image
Thereby, defocus information and contour information can be acquired by phase difference detection or the like.
Further, a plurality of parallax images are formed by defocus information and image output. Thereby, a plurality of parallax images can be formed based on the defocus information.
以上説明した実施形態の構成により、1回の撮影から、良質なカラー画像情報と画面全体のデフォーカス情報を得ることができる。また、この画像情報とデフォーカス情報を合わせた画像処理を行うことで、視差像の生成等により撮影の表現を豊かにできるなどの効果を奏する。 With the configuration of the embodiment described above, it is possible to obtain good color image information and defocus information of the entire screen from one shooting. In addition, by performing image processing that combines the image information and the defocus information, there is an effect that the expression of shooting can be enriched by generating a parallax image or the like.
このように上述の実施形態では、画面全体のデフォーカス量を導出でき、かつ、良好な画質を得ることができる撮像装置およびこれに適用される撮像素子を提供する。更に、このような装置で、例えば良質な立体撮影の可能な撮影システムに適用することについても提供できる。ここで、「良質」とは、例えば小型で近距離から遠距離まで同時に撮影可能であることをいう。このように、良質な立体撮影システムを提供することや、被写体や撮影レンズの条件により生成する視差像を容易に調製することによって、良質の立体撮影システムを構成できる。 As described above, the above-described embodiment provides an imaging device that can derive the defocus amount of the entire screen and that can obtain good image quality, and an imaging device applied to the imaging device. Furthermore, the present invention can also be provided for application to an imaging system capable of high-quality stereoscopic imaging, for example. Here, “good quality” means, for example, that it is small and can be photographed simultaneously from a short distance to a long distance. As described above, a high-quality stereoscopic imaging system can be configured by providing a high-quality stereoscopic imaging system or by easily preparing a parallax image generated according to the conditions of the subject and the imaging lens.
以上のように、本発明は、位相差AF方式の撮像装置に適している。 As described above, the present invention is suitable for a phase difference AF type imaging apparatus.
11 デジタルスチルカメラ
11A 交換レンズ
11B カメラボディ
12 撮像光学系
14 マウント部
15 レンズ駆動制御部
16 ズーミング用レンズ
17 レンズ
18 フォーカシング用レンズ
19 絞り
20 撮像素子
21 ボディ駆動制御部
23 撮像素子駆動回路
25 液晶表示素子駆動回路
26 液晶表示素子
29 メモリカード
30 画素信号取得部(演算部、画像構成部)
41 画素
42 マイクロレンズ
43 平滑層
44 遮光膜
45 平滑層
46 光電変換素子
47 中心部、57
48 開口部
52 マイクロレンズ
53 平滑層
54 遮光膜
55 平滑層
56 光電変換素子
57 中心部
58 開口部
L41 光線
L51 光線
331 p形ウエル
332α、332β n形領域
333α、333β 表面p+層
SiO2 膜334
335 カラーフィルタ
336 マイクロレンズ
11
DESCRIPTION OF
41
48
335
Claims (4)
水平方向、垂直方向に画素が配列された撮像素子を備え、
撮像素子からの信号を処理する機能を備え、
前記撮像素子は、少なくとも共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、
前記緑色画素が市松模様に配置され、
前記青色画素同士、前記赤色画素同士は、隣接しないように配置され、
前記各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、
前記各緑色画素に隣接する8つの画素に含まれる4つの前記緑色画素の重心入射角度は、全て前記中心入射角度に対して、第2の方向にずれており、
前記第2の方向は、前記第1の方向の逆方向であり、
前記第2の方向は、水平成分と垂直成分の両方を有し、
画像形成のための画像出力がされ、
前記緑色画素の出力より像のデフォーカス情報を取得することを特徴とする撮像装置。 A photographic lens can be attached or equipped with a photographic lens.
It has an image sensor with pixels arranged in the horizontal and vertical directions,
It has a function to process signals from the image sensor,
The image sensor is composed of a blue pixel, a green pixel, and a red pixel projected onto an independent region on at least a conjugate plane,
The green pixels are arranged in a checkered pattern,
The blue pixels and the red pixels are arranged not to be adjacent to each other,
The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
The centroid incident angles of the four green pixels included in the eight pixels adjacent to the green pixels are all shifted in the second direction with respect to the central incident angle.
The second direction is opposite to the first direction;
The second direction has both a horizontal component and a vertical component;
The image is output for image formation.
An image pickup apparatus that acquires image defocus information from an output of the green pixel.
各赤色画素の重心入射角度は略同じであることを特徴とする請求項1または2に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the red pixels have substantially the same center-of-gravity incidence angle.
前記撮像素子の各画素は、少なくとも撮影レンズ装着時の近軸的な共役面上で独立した領域に投影される青色画素、緑色画素、赤色画素で構成され、Each pixel of the image sensor is composed of at least a blue pixel, a green pixel, and a red pixel projected onto an independent region on a paraxial conjugate plane when the photographing lens is mounted,
緑色画素が市松模様に配置され、Green pixels are arranged in a checkered pattern,
前記青色画素同士、前記赤色画素同士は、隣接しないように配置され、The blue pixels and the red pixels are arranged not to be adjacent to each other,
前記各緑色画素の重心入射角度は、中心入射角度に対して、第1の方向にずれており、The center-of-gravity incident angle of each green pixel is shifted in the first direction with respect to the center incident angle,
前記各緑色画素に隣接する8つの画素に含まれる4つの前記緑色画素の重心入射角度は、全て前記中心入射角度に対して、第2の方向にずれており、The centroid incident angles of the four green pixels included in the eight pixels adjacent to the green pixels are all shifted in the second direction with respect to the central incident angle.
前記第2の方向は、前記第1の方向の逆方向であり、The second direction is opposite to the first direction;
前記第2の方向は、水平成分と垂直成分の両方を有することを特徴とする撮像素子。The image sensor according to claim 2, wherein the second direction has both a horizontal component and a vertical component.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011099341A JP5907668B2 (en) | 2011-04-27 | 2011-04-27 | Imaging device and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011099341A JP5907668B2 (en) | 2011-04-27 | 2011-04-27 | Imaging device and imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012230300A JP2012230300A (en) | 2012-11-22 |
JP5907668B2 true JP5907668B2 (en) | 2016-04-26 |
Family
ID=47431883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011099341A Active JP5907668B2 (en) | 2011-04-27 | 2011-04-27 | Imaging device and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5907668B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015045375A1 (en) * | 2013-09-26 | 2015-04-02 | 株式会社ニコン | Image pickup element and image pickup device |
JP6363857B2 (en) * | 2014-03-24 | 2018-07-25 | キヤノン株式会社 | IMAGING ELEMENT, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003007994A (en) * | 2001-06-27 | 2003-01-10 | Konica Corp | Solid-state image pickup element, stereoscopic camera apparatus, and range finder |
JP5211590B2 (en) * | 2007-09-10 | 2013-06-12 | 株式会社ニコン | Image sensor and focus detection apparatus |
JP5374862B2 (en) * | 2007-11-16 | 2013-12-25 | 株式会社ニコン | Focus detection apparatus and imaging apparatus |
JP5398346B2 (en) * | 2009-05-19 | 2014-01-29 | キヤノン株式会社 | Imaging apparatus and signal processing apparatus |
-
2011
- 2011-04-27 JP JP2011099341A patent/JP5907668B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012230300A (en) | 2012-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5515396B2 (en) | Imaging device | |
JP5547349B2 (en) | Digital camera | |
CN107249097B (en) | Image pickup apparatus and control method thereof | |
US9826139B2 (en) | Image processing apparatus, image processing method, program, and image pickup apparatus having the image processing apparatus | |
US20150358593A1 (en) | Imaging apparatus and image sensor | |
US8902349B2 (en) | Image pickup apparatus | |
JP2009003122A (en) | Imaging device and its control method | |
JP5591851B2 (en) | Solid-state imaging device and portable information terminal | |
JP2011176715A (en) | Back-illuminated image sensor and imaging apparatus | |
JP2011197080A (en) | Image pickup apparatus and camera | |
JP2012027390A (en) | Imaging apparatus | |
JP2012015819A (en) | Stereoscopic image imaging apparatus | |
JP5829018B2 (en) | Imaging device | |
JP5348258B2 (en) | Imaging device | |
JP2016111678A (en) | Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof | |
JP5907668B2 (en) | Imaging device and imaging device | |
JP6929511B2 (en) | Image sensor and image sensor | |
JP2017032978A (en) | Control device, imaging device, control method, program, and storage medium | |
JP2012124650A (en) | Imaging apparatus, and imaging method | |
WO2013042606A1 (en) | Digital camera and solid-state image capturing device | |
JP5949893B2 (en) | Imaging device | |
JP6476630B2 (en) | Imaging device | |
JP7238896B2 (en) | Focus detection device, imaging device, and interchangeable lens | |
JP2012042856A (en) | Imaging apparatus | |
JP5691440B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160322 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |