JP2012113064A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012113064A
JP2012113064A JP2010260578A JP2010260578A JP2012113064A JP 2012113064 A JP2012113064 A JP 2012113064A JP 2010260578 A JP2010260578 A JP 2010260578A JP 2010260578 A JP2010260578 A JP 2010260578A JP 2012113064 A JP2012113064 A JP 2012113064A
Authority
JP
Japan
Prior art keywords
image
pixel
focus
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010260578A
Other languages
Japanese (ja)
Other versions
JP5829018B2 (en
Inventor
Keigo Matsuo
圭悟 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010260578A priority Critical patent/JP5829018B2/en
Publication of JP2012113064A publication Critical patent/JP2012113064A/en
Application granted granted Critical
Publication of JP5829018B2 publication Critical patent/JP5829018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device having focus assisting means of simple configuration.SOLUTION: The imaging device includes: an imaging element 22 having a plurality of pixels arranged in a two dimensional manner, photoelectrically converting a first object image signal formed by a light flux from an imaging optical system and second and third object images formed by pupil division among the light fluxes from the imaging optical system, and outputting second and third object image signals; a correlation calculation part that calculates the distance between two images on the basis of the second and third object image signals output from the imaging element 22; a focus assisting figure generation part for generating a focus assisting figure on the basis of the distance between the two images calculated by the correlation calculation part and the first object image signal output from the imaging element 22; and a display image configuration part for configuring a display image on the basis of the first object image output from the imaging element 22 and the focus assisting figure generated by the focus assisting figure generation part.

Description

本発明は、撮像装置に関するものである。   The present invention relates to an imaging apparatus.

従来、撮像用画素と焦点検出用画素が2次元的に配列された撮像素子を用いた撮像装置において、マニュアルフォーカス(MF)時に、フォーカスを補助するためのガイドイメージとして、例えばスプリットイメージを表示する。例えば、特許文献1には、ガイドイメージにより、使い勝手の良い撮像装置が提案されている。   2. Description of the Related Art Conventionally, in an imaging apparatus using an imaging device in which imaging pixels and focus detection pixels are two-dimensionally arranged, for example, a split image is displayed as a guide image for assisting focus during manual focus (MF). . For example, Patent Document 1 proposes an imaging device that is easy to use based on a guide image.

特許文献1には、フォーカシングに際して、視覚的に理解しやすいフォーカスガイド画像を表示する構成が開示されている。この構成では、画像取得手段は、瞳分割手段によって分割された光束により形成された第1の被写体像及び第2の被写体像をそれぞれ光電変換して第1の画像及び第2の画像を生成する。また、表示手段は、画像を表示する。処理手段は、第1の画像及び第2の画像を重畳させた重畳画像を表示手段に表示させる。   Patent Document 1 discloses a configuration for displaying a focus guide image that is easy to understand visually during focusing. In this configuration, the image acquisition unit generates a first image and a second image by photoelectrically converting the first subject image and the second subject image formed by the light beams divided by the pupil division unit, respectively. . The display means displays an image. The processing means causes the display means to display a superimposed image in which the first image and the second image are superimposed.

特開2009−163220号公報JP 2009-163220 A

特許文献1の構成では、瞳分割部によって分割された光束により形成された少なくとも第2及び第3の被写体像よりスプリットイメージを生成するため、処理が複雑になってしまうという問題がある。
また、撮影者にとっては、フォーカシングの際、使い勝手が良いことが望ましい。
In the configuration of Patent Document 1, since a split image is generated from at least the second and third subject images formed by the light beam divided by the pupil dividing unit, there is a problem that the processing becomes complicated.
In addition, it is desirable for the photographer to be easy to use during focusing.

本発明は、上記に鑑みてなされたものであって、処理が簡易で、構成が簡易なフォーカス補助手段を有する撮像装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an imaging apparatus having focus assisting means that is simple in processing and simple in configuration.

上述した課題を解決し、目的を達成するために、本発明の撮像装置は、
2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、並びに、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する撮像素子と、
撮像素子が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
相関演算部が演算する2像の間隔と、撮像素子が出力する第1の被写体像信号に基づいて、フォーカス補助図を生成するフォーカス補助図生成部と、
撮像素子が出力する第1の被写体像及びフォーカス補助図生成部が生成するフォーカス補助図に基づいて表示用画像を構成する表示画像構成部と、を有することを特徴とする。
In order to solve the above-described problems and achieve the object, the imaging apparatus of the present invention includes:
A first subject image signal formed by a light beam from the imaging optical system and a second light beam divided from the pupil of the light beam from the imaging optical system, which has a plurality of pixels arranged two-dimensionally. An image sensor that photoelectrically converts each of the subject image and the third subject image and outputs a second subject image signal and a third subject image signal;
A correlation calculation unit that calculates the interval between the two images based on the second subject image signal and the third subject image signal output by the image sensor;
A focus auxiliary diagram generation unit that generates a focus auxiliary diagram based on the interval between the two images calculated by the correlation calculation unit and the first subject image signal output by the image sensor;
And a display image configuration unit configured to form a display image based on the first subject image output from the image sensor and the focus auxiliary diagram generated by the focus auxiliary diagram generation unit.

また、本発明の好ましい態様によれば、さらに、2像の間隔が所定の値よりも大きいとき、フォーカス補助図の代わりに、第1の被写体像信号に対応する画像を表示する表示部を有することが望ましい。   Further, according to a preferred aspect of the present invention, there is further provided a display unit for displaying an image corresponding to the first subject image signal instead of the focus assisting diagram when the interval between the two images is larger than a predetermined value. It is desirable.

また、本発明の好ましい態様によれば、複数の補正値を格納する補正値格納部をさらに有し、
フォーカス補助図生成部は、補正値格納部に格納されている複数の補正値の中から選択した補正値により相関演算部が演算する2像の間隔を補正し、補正した2像間隔に基づいて、フォーカス補助図を生成することが望ましい。
Further, according to a preferred aspect of the present invention, it further includes a correction value storage unit that stores a plurality of correction values,
The focus auxiliary diagram generation unit corrects the interval between the two images calculated by the correlation calculation unit with a correction value selected from a plurality of correction values stored in the correction value storage unit, and based on the corrected two image interval It is desirable to generate a focus assistance diagram.

また、本発明の好ましい態様によれば、撮影光学系の光路内に配置され開口径が調節可能な絞り部をさらに有し、
フォーカス補助図生成部は、撮影時の絞り部の開口径に基づいて、相関演算部が演算する2像の間隔を補正することが望ましい。
Further, according to a preferred aspect of the present invention, the optical system further includes a diaphragm portion that is arranged in the optical path of the photographing optical system and the aperture diameter is adjustable.
It is desirable that the focus auxiliary diagram generation unit corrects the interval between the two images calculated by the correlation calculation unit based on the aperture diameter of the diaphragm unit at the time of shooting.

本発明によれば、処理が簡易で、構成が簡易なフォーカス補助手段を有する撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus having focus assisting means that is simple in processing and simple in configuration.

本発明の第1実施形態に係るデジタルカメラの内部構成を示す図である。It is a figure which shows the internal structure of the digital camera which concerns on 1st Embodiment of this invention. 本実施形態に係るデジタルカメラの射出瞳の構成を示す図である。It is a figure which shows the structure of the exit pupil of the digital camera which concerns on this embodiment. 本実施形態における撮像素子の光電変換部の構成を示す図である。It is a figure which shows the structure of the photoelectric conversion part of the image pick-up element in this embodiment. 本実施形態における撮像素子の隣り合う二つの画素の構造を示す断面図である。It is sectional drawing which shows the structure of two adjacent pixels of the image pick-up element in this embodiment. 本実施形態における撮像素子の内部構成を示す図である。It is a figure which shows the internal structure of the image pick-up element in this embodiment. 本実施形態における撮像素子の内部構成を示す図である。It is a figure which shows the internal structure of the image pick-up element in this embodiment. 撮像素子の構成(バリエーション1)を示す平面図である。It is a top view which shows the structure (variation 1) of an image pick-up element. 撮像素子の構成(バリエーション2)を示す平面図である。It is a top view which shows the structure (variation 2) of an image pick-up element. 撮像素子の構成(バリエーション3)を示す平面図である。It is a top view which shows the structure (variation 3) of an image pick-up element. 撮像素子の構成(バリエーション4)を示す平面図である。It is a top view which shows the structure (variation 4) of an image pick-up element. 本実施形態に係るデジタルカメラの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the digital camera which concerns on this embodiment. 画像撮影時のフォーカシングの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of focusing at the time of image photography. 2像間隔を算出する流れを示すフローチャートである。It is a flowchart which shows the flow which calculates 2 image interval. 撮影サブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of an imaging | photography subroutine. フォーカス補助図を説明する図である。It is a figure explaining a focus auxiliary | assistant figure. スプリットイメージと絞りとの関係を説明する図である。It is a figure explaining the relationship between a split image and an aperture stop. 重み付けした相関演算結果を説明する図である。It is a figure explaining the weighted correlation calculation result.

以下に、本発明に係る撮像装置の実施形態を図面に基づいて詳細に説明する。なお、以下の実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the following embodiment.

(第1実施形態)
(デジタルカメラ)
まず、本発明の実施形態に係る撮像装置を備えたカメラについて説明する。
図1は、本発明の実施形態に係るデジタルカメラ11の内部構成を示す図である。
デジタルカメラ11は、交換レンズ12と、カメラボディ13と、から構成され、交換レンズ12はマウント部14によりカメラボディ13に装着される。
(First embodiment)
(Digital camera)
First, a camera including an imaging device according to an embodiment of the present invention will be described.
FIG. 1 is a diagram showing an internal configuration of a digital camera 11 according to an embodiment of the present invention.
The digital camera 11 includes an interchangeable lens 12 and a camera body 13, and the interchangeable lens 12 is attached to the camera body 13 by a mount unit 14.

交換レンズ12は、レンズ制御部30、レンズ駆動部16、絞り駆動部15、ズーミング用レンズ18、レンズ19、フォーカシング用レンズ20、及び、絞り21を備えている。レンズ制御部30は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ20と絞り21の駆動制御、絞り21、ズーミング用レンズ18およびフォーカシング用レンズ20の状態検出、並びに、ボディ制御部24に対するレンズ情報の送信とカメラ情報の受信などを行う。
また、レンズの状態の他に、レンズデータそのものに関する諸元値は、レンズデータ格納部32に格納されている。
The interchangeable lens 12 includes a lens control unit 30, a lens driving unit 16, a diaphragm driving unit 15, a zooming lens 18, a lens 19, a focusing lens 20, and a diaphragm 21. The lens control unit 30 includes peripheral components such as a microcomputer and a memory. The lens control unit 30 controls driving of the focusing lens 20 and the aperture 21, detects the state of the aperture 21, the zooming lens 18 and the focusing lens 20, and the body control unit 24. Lens information and camera information are received.
In addition to the lens state, specification values relating to the lens data itself are stored in the lens data storage unit 32.

絞り駆動部15は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、絞り21の開口径を制御する。また、レンズ駆動部16は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、ズーミング用レンズ18、フォーカシング用レンズ20を駆動する。   The aperture driving unit 15 controls the aperture diameter of the aperture 21 via the lens control unit 30 based on the signal from the body control unit 24. Further, the lens driving unit 16 drives the zooming lens 18 and the focusing lens 20 via the lens control unit 30 based on the signal from the body control unit 24.

カメラボディ13は撮像素子22、ボディ制御部24、液晶表示素子駆動回路25、液晶表示素子26、接眼レンズ27、メモリカード29などを備えている。撮像素子22には後述する画素が二次元状に配列されており、交換レンズ12の予定結像面に配置されて交換レンズ12により結像される被写体像を撮像する。撮像素子22の所定の焦点検出位置には焦点検出用画素(以下、AF用画素という)が配列される。   The camera body 13 includes an imaging element 22, a body control unit 24, a liquid crystal display element driving circuit 25, a liquid crystal display element 26, an eyepiece lens 27, a memory card 29, and the like. Pixels to be described later are arrayed two-dimensionally on the image sensor 22, and the subject image formed by the interchangeable lens 12 is captured by being arranged on the planned image formation surface of the interchangeable lens 12. Focus detection pixels (hereinafter referred to as AF pixels) are arranged at predetermined focus detection positions of the image sensor 22.

ここで、交換レンズ12は撮像光学系に対応し、撮像素子22は撮像素子に対応する。   Here, the interchangeable lens 12 corresponds to an imaging optical system, and the imaging element 22 corresponds to an imaging element.

ボディ制御部24はマイクロコンピューターとメモリなどの周辺部品から構成され、撮像素子駆動回路28を介して、撮像素子22からの画像信号の読み出し、画像信号の補正、交換レンズ12の焦点調節状態の検出、レンズ制御部30からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルカメラ全体の動作制御などを行う。ボディ制御部24とレンズ制御部30は、マウント部14の電気接点部23を介して通信を行い、各種情報の授受を行う。   The body control unit 24 includes peripheral components such as a microcomputer and a memory, and reads out an image signal from the image sensor 22, corrects the image signal, and detects the focus adjustment state of the interchangeable lens 12 via the image sensor drive circuit 28. In addition, it receives lens information from the lens control unit 30, transmits camera information (defocus amount), and controls the operation of the entire digital camera. The body control unit 24 and the lens control unit 30 communicate via the electrical contact unit 23 of the mount unit 14 to exchange various information.

液晶表示素子駆動回路25は、液晶ビューファインダーの液晶表示素子26を駆動する。撮影者は接眼レンズ27を介して液晶表示素子26に表示された像を観察する。メモリカード29はカメラボディ13に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display element driving circuit 25 drives the liquid crystal display element 26 of the liquid crystal viewfinder. The photographer observes an image displayed on the liquid crystal display element 26 through the eyepiece lens 27. The memory card 29 is removable from the camera body 13 and is a portable storage medium that stores and stores image signals.

交換レンズ12を通過して撮像素子22上に形成された被写体像は、撮像素子22により光電変換され、その出力はボディ制御部24へ送られる。ボディ制御部24は、撮像素子22上のAF用画素の出力データ(第1像信号、第2像信号)に基づいて所定の焦点検出位置におけるデフォーカス量に基づきレンズ駆動量を算出し、このレンズ駆動量をレンズ制御部30を介して、レンズ駆動部16へ送る。また、ボディ制御部24は、撮像素子22の出力に基づいて生成した画像信号をメモリカード29に格納するとともに、画像信号を液晶表示素子駆動回路25へ送り、液晶表示素子26に画像を表示させる。   The subject image formed on the image sensor 22 through the interchangeable lens 12 is photoelectrically converted by the image sensor 22, and the output is sent to the body controller 24. The body control unit 24 calculates the lens drive amount based on the defocus amount at a predetermined focus detection position based on the output data (first image signal, second image signal) of the AF pixels on the image sensor 22. The lens driving amount is sent to the lens driving unit 16 via the lens control unit 30. The body control unit 24 stores the image signal generated based on the output of the image sensor 22 in the memory card 29 and sends the image signal to the liquid crystal display element drive circuit 25 to cause the liquid crystal display element 26 to display an image. .

カメラボディ13には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられており、これらの操作部材からの操作状態信号をボディ制御部24が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。   The camera body 13 is provided with operation members (not shown) (shutter buttons, focus detection position setting members, etc.), and the body control unit 24 detects operation state signals from these operation members, and according to the detection results. The following operations (imaging operation, focus detection position setting operation, image processing operation) are controlled.

レンズ制御部30は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ制御部30は、レンズ18及びフォーカシング用レンズ20の位置と絞り21の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算すること、あるいは予め用意されたルックアップテーブル、例えばレンズデータ格納部32からモニター情報に応じたレンズ情報を選択する。レンズ制御部30は、受信したレンズ駆動量に基づいてフォーカシング用レンズ20を不図示のモーター等の駆動源により合焦点へと駆動する。   The lens control unit 30 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens control unit 30 monitors the positions of the lens 18 and the focusing lens 20 and the aperture position of the aperture 21 and calculates lens information according to the monitor information, or a lookup table prepared in advance. For example, lens information corresponding to the monitor information is selected from the lens data storage unit 32. The lens control unit 30 drives the focusing lens 20 to a focal point by a driving source such as a motor (not shown) based on the received lens driving amount.

(撮像素子の構成)
上述したデジタルカメラ11の構成は、同一の符号を用いる構成は、以下の全ての実施例において共通する。次に、デジタルカメラ11が有する撮像装置の撮像素子22の構成について説明する。
(Configuration of image sensor)
As for the configuration of the digital camera 11 described above, the configuration using the same reference numerals is common to all the following embodiments. Next, the configuration of the imaging element 22 of the imaging device included in the digital camera 11 will be described.

図2(a)〜(e)は、本発明の実施形態に係る撮像装置の射出瞳の構成を示す図である。デジタルスチルカメラ11における射出瞳Pは、図2(a)〜(e)に示すように、左右上下のうちの少なくとも2種類の瞳領域に対応する焦点検出用画素を有する。
具体例としては次の(1)〜(5)のとおりである。
2A to 2E are diagrams illustrating the configuration of the exit pupil of the imaging apparatus according to the embodiment of the present invention. As shown in FIGS. 2A to 2E, the exit pupil P in the digital still camera 11 has focus detection pixels corresponding to at least two types of pupil regions of left, right, upper and lower.
Specific examples are as follows (1) to (5).

(1)射出瞳Pを縦に2分割して、左側瞳検出用画素Lと右側瞳検出用画素Rを配置したもの(図2(a))
(2)射出瞳Pを横に2分割して、上側瞳検出用画素Uと下側瞳検出用画素Dを配置したもの(図2(b))
(3)左側瞳検出用画素Lと右側瞳検出用画素Rを左右に配置して、その一部を重ねたもの(図2(c))
(4)上側瞳検出用画素Uと下側瞳検出用画素Dを上下に配置して、その一部を重ねたもの(図2(d))
(5)左側瞳検出用画素Lと下側瞳検出用画素Dを任意の位置に配置して、その一部を重ねたもの(図2(e))
(1) The exit pupil P is vertically divided into two, and the left pupil detection pixel L and the right pupil detection pixel R are arranged (FIG. 2A).
(2) The exit pupil P is horizontally divided into two, and the upper pupil detection pixel U and the lower pupil detection pixel D are arranged (FIG. 2B)
(3) The left pupil detection pixel L and the right pupil detection pixel R are arranged on the left and right, and a part of them is overlapped (FIG. 2C).
(4) Upper pupil detection pixel U and lower pupil detection pixel D are arranged one above the other and partially overlapped (FIG. 2D)
(5) The left pupil detection pixel L and the lower pupil detection pixel D are arranged at arbitrary positions and a part thereof is overlapped (FIG. 2 (e)).

なお、測距用瞳の形状は、半円形状、楕円形状としたが、これに限定されず、他の形状、例えば矩形状、多角形状にすることもできる。
また、図2(a)と(b)を組み合わせて上下左右の焦点検出用画素を配置してもよい、図2(c)と(d)を組み合わせて上下左右の焦点検出用画素を配置してもよい、さらに、図2(c)と(e)を組み合わせて左右、斜め線検出の焦点検出用画素を配置してもよいが、これに限定されるものではない。
The shape of the distance measuring pupil is a semicircular shape or an elliptical shape. However, the shape is not limited to this, and other shapes such as a rectangular shape or a polygonal shape may be used.
2 (a) and 2 (b) may be combined to arrange the vertical and horizontal focus detection pixels, or FIG. 2 (c) and 2 (d) may be combined to arrange the vertical and horizontal focus detection pixels. Further, the focus detection pixels for detecting left and right and diagonal lines may be arranged by combining FIGS. 2C and 2E, but the present invention is not limited to this.

本実施形態の撮像装置では、瞳が異なる領域を有し、その領域の1つを透過した光束を受光する光電変換部の出力から得られる第1像信号と、もう1つの領域を透過した光束を受光する光電変換部の出力から得られる第2像信号と、に基づいて位相差を検出し、撮影レンズの焦点状態を検出する。
以下、図3〜図6を参照して、具体的な射出瞳の分割例について説明する。
In the imaging apparatus according to the present embodiment, the first image signal obtained from the output of the photoelectric conversion unit that receives a light beam having a different pupil area and transmitted through one of the regions, and the light beam transmitted through the other region. The phase difference is detected based on the second image signal obtained from the output of the photoelectric conversion unit that receives the light, and the focus state of the photographing lens is detected.
A specific example of exit pupil division will be described below with reference to FIGS.

(光電変換部の分割)
まず、図3を参照して、撮像素子22の光電変換部を分割することによって射出瞳を分割する例を説明する。
図3は、撮像素子22の光電変換部の構成を示す図である。
撮像素子22は、基板内に形成されたP型ウエル31、P型ウエル31と共に光電荷を発生させ蓄積するn型領域32α、32β、n型領域32α、32βに蓄積されている光電荷が転送される不図示のフローティングディフュージョン部(以下、「FD部」と称する。)、n型領域32α、32βに蓄積された光電荷をFD部へ効率よく転送するために光電荷を収集する表面p+層33α、33β、FD部へ光電荷を転送するための転送ゲート(不図示)、ゲート絶縁膜であるSiO膜34、ベイヤ配列のカラーフィルタ35、及び、被写体からの光を集めるマイクロレンズ36、を備える。
(Division of photoelectric conversion part)
First, an example in which the exit pupil is divided by dividing the photoelectric conversion unit of the image sensor 22 will be described with reference to FIG.
FIG. 3 is a diagram illustrating a configuration of the photoelectric conversion unit of the image sensor 22.
The imaging device 22 transfers the photocharges accumulated in the n-type regions 32α and 32β and the n-type regions 32α and 32β that generate and accumulate photocharges together with the p-type well 31 and the p-type well 31 formed in the substrate. Floating diffusion portion (not shown) (hereinafter referred to as “FD portion”), a surface p + layer that collects photocharges in order to efficiently transfer the photocharges accumulated in the n-type regions 32α and 32β to the FD portion. 33α, 33β, a transfer gate (not shown) for transferring photoelectric charges to the FD portion, a SiO 2 film 34 as a gate insulating film, a Bayer array color filter 35, and a microlens 36 for collecting light from a subject, Is provided.

マイクロレンズ36は、交換レンズ12(図1)の瞳と表面p+層33α、33βとが、概略共役になるような形状及び位置に形成されている。光電荷は、模式的には、領域37で発生する。   The microlens 36 is formed in a shape and position so that the pupil of the interchangeable lens 12 (FIG. 1) and the surface p + layers 33α and 33β are substantially conjugate. Photoelectric charges are typically generated in the region 37.

図3に示す例では、光電変換部が、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、に分割されており、これにより射出瞳が分割される。光線L31、L32は、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、にそれぞれ入射する。   In the example shown in FIG. 3, the photoelectric conversion unit is divided into an n-type region 32α and a surface p + layer 33α, and an n-type region 32β and a surface p + layer 33β, thereby dividing the exit pupil. Light rays L31 and L32 enter the n-type region 32α and the surface p + layer 33α, and the n-type region 32β and the surface p + layer 33β, respectively.

(開口部を偏心)
次に、図4を参照して、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させることによって射出瞳を分割する例を説明する。
図4は、撮像素子22の隣り合う二つの画素の構造を示す断面図である。
(Eccentric opening)
Next, an example in which the exit pupil is divided by decentering the opening of the pixel of the image sensor 22 with respect to the center of the photoelectric conversion element will be described with reference to FIG.
FIG. 4 is a cross-sectional view showing the structure of two adjacent pixels of the image sensor 22.

画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換素子46が配置されている。画素51も画素41と同様に、最上部から、順に、マイクロレンズ52、平滑層53、遮光膜54、平滑層55、及び、光電変換素子56が配置されている。   The pixel 41 has a microlens 42, a smooth layer 43 for forming a plane for forming the microlens 42, a light shielding film 44 for preventing color mixture of color pixels, and a color filter layer in order from the top. A smoothing layer 45 for flattening the surface and a photoelectric conversion element 46 are arranged. Similarly to the pixel 41, the pixel 51 also includes a micro lens 52, a smooth layer 53, a light shielding film 54, a smooth layer 55, and a photoelectric conversion element 56 in order from the top.

さらに、これらの画素41、51においては、遮光膜44、54が、光電変換素子46、56中心部47、57から外側に偏心した開口部48、58をそれぞれ有している。   Further, in these pixels 41 and 51, the light shielding films 44 and 54 have openings 48 and 58 that are eccentric to the outside from the central portions 47 and 57 of the photoelectric conversion elements 46 and 56, respectively.

図4に示す例では、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させている。このため、光線L41、L51は、光電変換素子46、56にそれぞれ入射することから、射出瞳が分割される。   In the example shown in FIG. 4, the opening of the pixel of the image sensor 22 is decentered with respect to the center of the photoelectric conversion element. For this reason, since the light rays L41 and L51 are incident on the photoelectric conversion elements 46 and 56, respectively, the exit pupil is divided.

つづいて、図5を参照して、レンズを偏心させることによって射出瞳を分割する例を説明する。図5は、撮像素子の内部構成を示す図である。
図5の撮像素子においては、それぞれの画素の上のオンチップレンズ61、62、63、64が独立して構成されている。
図5においては、画素集合Aの画素のオンチップレンズ61、63の光軸61a、63aは、画素の中心から左側にずれている。また、画素集合Bの画素のオンチップレンズ62、64の光軸62a、64aは画素の中心から右側にずれている。
2つの画素集合A、Bからの出力を比較することで、レンズ18のフォーカス量を算出することができる。
Next, an example in which the exit pupil is divided by decentering the lens will be described with reference to FIG. FIG. 5 is a diagram illustrating an internal configuration of the image sensor.
In the image sensor of FIG. 5, on-chip lenses 61, 62, 63, and 64 on each pixel are configured independently.
In FIG. 5, the optical axes 61a and 63a of the on-chip lenses 61 and 63 of the pixels in the pixel set A are shifted to the left from the center of the pixels. Further, the optical axes 62a and 64a of the on-chip lenses 62 and 64 of the pixels in the pixel set B are shifted to the right from the center of the pixels.
By comparing the outputs from the two pixel sets A and B, the focus amount of the lens 18 can be calculated.

オンチップレンズ61、62、63、64では、屈折力と光軸61a、62a、63a、64aの位置等の形状という2つのパラメータを独立してコントロールすることができる。画素数が十分多ければ、画素集合Aと画素集合Bは、同様の光の強度分布を得ることができ、これを利用して位相差AFを行うことができる。この時、画面全体でのデフォーカス量を検出できるので、被写体の3次元情報を取得することができる。   In the on-chip lenses 61, 62, 63, and 64, two parameters such as the refractive power and the shapes of the optical axes 61a, 62a, 63a, and 64a can be controlled independently. If the number of pixels is sufficiently large, the pixel set A and the pixel set B can obtain the same light intensity distribution, and the phase difference AF can be performed using this. At this time, since the defocus amount in the entire screen can be detected, the three-dimensional information of the subject can be acquired.

図5に示す例では、撮像素子22のオンチップレンズを画素の中心に対して偏心させている。このため、光線L61、L62は、オンチップレンズ61、62にそれぞれ入射し、これにより射出瞳が分割される。   In the example shown in FIG. 5, the on-chip lens of the image sensor 22 is decentered with respect to the center of the pixel. For this reason, the light rays L61 and L62 are incident on the on-chip lenses 61 and 62, respectively, thereby dividing the exit pupil.

次に、図6を参照しつつ、DML(デジタルマイクロレンズ)を用いて射出瞳を分割する例を説明する。図6は、撮像素子の内部構造を示す断面図である。
図6に示す撮像素子では、オンチップレンズをDMLで構成している。画素70と画素80はそれぞれ異なる領域からの光束を受光する隣り合った画素である。
Next, an example of dividing the exit pupil using DML (digital microlens) will be described with reference to FIG. FIG. 6 is a cross-sectional view showing the internal structure of the image sensor.
In the imaging device shown in FIG. 6, the on-chip lens is configured by DML. The pixel 70 and the pixel 80 are adjacent pixels that receive light beams from different regions.

図6において、撮像素子は、DML71、81、カラーフィルタ72、アルミニウム配線73、信号伝送部74、平坦化層75、受光素子76、86(例えばSiフォトダイオード)、及び、Si基板77を備える。図6に示すように、アルミニウム配線73、信号伝送部74、平滑化層75、受光素子76、86、及び、Si基板77は、半導体集積回路78を構成する。ここで、画素70と画素80の構成は、DML71、81以外は同様である。   In FIG. 6, the imaging device includes DMLs 71 and 81, a color filter 72, an aluminum wiring 73, a signal transmission unit 74, a planarization layer 75, light receiving elements 76 and 86 (for example, Si photodiodes), and a Si substrate 77. As shown in FIG. 6, the aluminum wiring 73, the signal transmission unit 74, the smoothing layer 75, the light receiving elements 76 and 86, and the Si substrate 77 constitute a semiconductor integrated circuit 78. Here, the configurations of the pixel 70 and the pixel 80 are the same except for the DMLs 71 and 81.

図6は、入射光束全体のうち、受光素子76、86にそれぞれ入射する光束の様子を示している。DML71、81を用いることにより、光束L71、L81は、画素70の受光素子76と画素80の受光素子86にそれぞれ入射し、射出瞳が分割される。   FIG. 6 shows a state of light beams incident on the light receiving elements 76 and 86, respectively, out of the entire incident light beam. By using the DMLs 71 and 81, the light beams L71 and L81 enter the light receiving element 76 of the pixel 70 and the light receiving element 86 of the pixel 80, respectively, and the exit pupil is divided.

撮像素子(イメージャ)としては、例えば、CCD(charge coupled device)、CMOS(Complementary Metal Oxide Semiconductor)、裏面照射型CMOS、1画素中でR、G、B全色を3層で取り込むことのできるセンサー(Forveon X3)を用いることができる。   As an imaging device (imager), for example, a CCD (charge coupled device), a CMOS (Complementary Metal Oxide Semiconductor), a back-illuminated CMOS, a sensor that can capture all three colors of R, G, and B in one pixel. (Forveon X3) can be used.

以下の実施例では、焦点検出用画素は、光電変換部の撮影レンズ側に形成されたオンチップレンズを画素の中心から偏心させることによって、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成されている。瞳分割の手段としては、上述のように、画素中心に対して遮光部材を用いて開口部を偏心させたものや、DMLを用いたもの、1画素中に光電変換部を2つ設けたものでもよい。   In the following embodiments, the focus detection pixel receives a light beam transmitted through a different position of the pupil of the photographing lens by decentering an on-chip lens formed on the photographing lens side of the photoelectric conversion unit from the center of the pixel. It is configured as follows. As described above, pupil division means uses a light shielding member for the center of the pixel to decenter the opening, uses DML, or provides two photoelectric conversion units in one pixel. But you can.

焦点検出用画素は、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成している。このため、焦点検出用画素からの信号レベルは、焦点検出用画素近傍の撮像用画素から出力される信号レベルと異なってしまうおそれがある。焦点検出用画素の位置における画像用の信号を得る為には、以下の(1)又は(2)の方法をとることが好ましい。
(1)焦点検出用画素の信号を周囲の撮像用画素の信号レベルと同等となるようにゲインを調整し、焦点検出用画素の位置における画像用信号とする。
(2)焦点検出用画素の信号および焦点検出用画素近傍の撮像用画素の信号に基づいて画素補間を行い、焦点検出用画素の位置における画像用信号とする。
The focus detection pixels are configured to receive light beams transmitted through different positions of the pupil of the photographing lens. For this reason, the signal level from the focus detection pixel may be different from the signal level output from the imaging pixel in the vicinity of the focus detection pixel. In order to obtain an image signal at the position of the focus detection pixel, it is preferable to adopt the following method (1) or (2).
(1) The gain is adjusted so that the signal of the focus detection pixel is equivalent to the signal level of the surrounding imaging pixels, and the signal is used as the image signal at the position of the focus detection pixel.
(2) Pixel interpolation is performed based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel to obtain an image signal at the position of the focus detection pixel.

ゲイン調整の方法については、次のように行う。
まず、焦点検出用画素から出力されたままの信号レベルと、焦点検出用画素近傍の撮像用画素から出力されたままの信号レベルと、を比較する。つづいて、焦点検出用画素から出力される信号レベルを近傍の撮像用画素から出力される信号レベルに近づけるようにゲインを調整する。その後、焦点検出用画素の信号をゲイン調整し得られた信号を画像信号としてデモザイキングを行い、最終画像を得る。
The gain adjustment method is performed as follows.
First, the signal level output from the focus detection pixel is compared with the signal level output from the imaging pixel in the vicinity of the focus detection pixel. Subsequently, the gain is adjusted so that the signal level output from the focus detection pixel approaches the signal level output from a nearby imaging pixel. Thereafter, demosaicing is performed by using the signal obtained by adjusting the gain of the focus detection pixel signal as an image signal to obtain a final image.

画素補間の方法については、以下の(a)〜(c)のいずれかが好ましいが、これらに限定されず、単純平均演算(重み付きも含む)だけでなく、線形補間、2次以上の多項式で補間、メディアン処理などで求めてもよい。
(a)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(b)焦点検出用画素の位置における信号を、焦点検出用画素の信号と焦点検出用画素近傍の撮像用画素の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(c)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号と焦点検出用画素の位置の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
The pixel interpolation method is preferably any one of the following (a) to (c), but is not limited to these, and is not limited to simple average calculation (including weighting), but also linear interpolation, quadratic or higher order polynomials It may be obtained by interpolation or median processing.
(A) The signal at the position of the focus detection pixel is interpolated based on the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used as the image signal at the position of the focus detection pixel. Perform mosaicing to get the final image.
(B) The signal at the position of the focus detection pixel is interpolated based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used for focus detection. Demosaicing is performed as an image signal at the pixel position to obtain a final image.
(C) Interpolate the signal at the position of the focus detection pixel based on the signal of the imaging pixel near the focus detection pixel, and based on the signal obtained by the interpolation and the signal of the position of the focus detection pixel Then, the signal obtained by the interpolation is demosaiced as an image signal at the position of the focus detection pixel to obtain a final image.

撮像素子の複数の画素には、複数の色フィルタがそれぞれ配置されている。後述する実施例3、4では、複数の色フィルタの透過特性は、R(赤)、G(緑)、B(青)の3通りとしている。
Bフィルタは、R、G、Bの異なる透過特性のうち、最も短波長側の透過特性をもつ色フィルタであり、Rフィルタは、最も長波長側の透過特性を持つ色フィルタであり、Gフィルタは、それ以外の透過特性を持つものである。
なお、複数の色フィルタは、少なくとも可視域の一部を含み、異なる透過特性を少なくとも3通り有していれば、ほかの組合せでも良い。
A plurality of color filters are respectively disposed in the plurality of pixels of the image sensor. In Examples 3 and 4 to be described later, the transmission characteristics of the plurality of color filters are R (red), G (green), and B (blue).
The B filter is a color filter having the transmission characteristic on the shortest wavelength side among the transmission characteristics having different R, G, and B, and the R filter is a color filter having the transmission characteristic on the longest wavelength side. Has other transmission characteristics.
The plurality of color filters may include other combinations as long as they include at least a part of the visible region and have at least three different transmission characteristics.

焦点検出用画素は、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタとして、Gフィルタを用いて、入射する光束の入射方向を制限している。
なお、焦点検出用画素は、Gフィルタに限らず、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタ、又は、最も透過率が高い色フィルタが配置される画素のうち少なくとも1部が、入射する光束の入射方向を制限するよう構成することができる。
The focus detection pixel uses the G filter as a color filter that weights the luminance signal most among the plurality of color filters, and restricts the incident direction of the incident light beam.
Note that the focus detection pixel is not limited to the G filter, and at least a part of the color filter that weights the luminance signal most among the plurality of color filters or the pixel in which the color filter having the highest transmittance is arranged. The incident direction of the incident light beam can be limited.

(画素配列のバリエーション1)
図7は、第1実施形態のイメージャにおける画素配置を概念的に示す平面図である。
図7に示すイメージャ(撮像装置)は、図3、図4、図5、図6で示した画素において、各画素中心と各光電変換領域の瞳の中心、または面積重心とを上方向、下方向、右側方向、左側方向にずらした画素、の組合せで構成されている。
(Pixel array variation 1)
FIG. 7 is a plan view conceptually showing a pixel arrangement in the imager of the first embodiment.
The imager (imaging device) illustrated in FIG. 7 has the pixel center illustrated in FIGS. 3, 4, 5, and 6 with the center of each pixel and the center of the pupil or the area center of gravity of each photoelectric conversion region in the upward direction and the downward direction. It is composed of a combination of pixels shifted in the direction, right direction, and left direction.

図7は、各画素の光軸方向から望んだときの光電変換領域を示したものである。
図7では、縦10画素(L01〜L10)、横10画素(F01〜F10)で合計100画素の例を示している。しかしながら、画素数はこれに限るものでなく、例えば合計画素が1000万画素を超えるものでも構わない。
FIG. 7 shows a photoelectric conversion region as desired from the optical axis direction of each pixel.
FIG. 7 shows an example of 10 pixels in the vertical direction (L01 to L10) and 10 pixels in the horizontal direction (F01 to F10), for a total of 100 pixels. However, the number of pixels is not limited to this. For example, the total number of pixels may exceed 10 million pixels.

図7に示す例では、画素中心に対し光電変換領域の面積中心のずれている方向が右側と左側と上側と下側の4種類がある。以下の説明では、それぞれを右画素120R、左画素120L、上画素120U、下画素120Dと称することとする。   In the example shown in FIG. 7, there are four types of directions in which the area center of the photoelectric conversion region is shifted with respect to the pixel center: right side, left side, upper side, and lower side. In the following description, they are referred to as a right pixel 120R, a left pixel 120L, an upper pixel 120U, and a lower pixel 120D, respectively.

図7において、L01の行では、左から(F01から)順に、左画素120L、撮像用画素121、左画素120L、撮像用画素121、が繰り返し配置されている。
L02の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L03の行では、左から順に、右画素120R、撮像用画素121、右画素120R、撮像用画素121、が繰り返し配置されている。
L04の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L05以降の行は、L01、L02、L03、L04のパターンを繰り返す配置になっている。
In FIG. 7, in the row L01, the left pixel 120L, the imaging pixel 121, the left pixel 120L, and the imaging pixel 121 are repeatedly arranged in order from the left (from F01).
In the row L02, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the lower pixel 120D are repeatedly arranged in order from the left.
In the row L03, the right pixel 120R, the imaging pixel 121, the right pixel 120R, and the imaging pixel 121 are repeatedly arranged in order from the left.
In the row L04, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the lower pixel 120D are repeatedly arranged in order from the left.
The rows after L05 are arranged to repeat the patterns of L01, L02, L03, and L04.

図7の配置をF01〜10の列から見ると次のようになる。
F01の列では、上から(L01から)順に、左画素120L、撮影用画素121、右画素120R、撮影用画素121、が繰り返し配置されている。
F02の列では、上から順に、撮影用画素121、上画素120U、撮影用画素121、上画素120U、が繰り返し配置されている。
F03以降の列は、F01、F02のパターンを繰り返す配置になっている。
The arrangement in FIG. 7 is viewed as follows from the columns F01 to F10.
In the column F01, the left pixel 120L, the shooting pixel 121, the right pixel 120R, and the shooting pixel 121 are repeatedly arranged in order from the top (from L01).
In the column F02, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the upper pixel 120U are repeatedly arranged in order from the top.
The columns after F03 are arranged to repeat the patterns F01 and F02.

以下の説明においては、特定の画素を示すときに、行番号L01〜L10と列番号F01〜F10を並べて表す。例えば、L01の行のうち、F01の列に対応する画素を「L01F01」で表す。   In the following description, row numbers L01 to L10 and column numbers F01 to F10 are shown side by side when a specific pixel is shown. For example, the pixel corresponding to the column F01 in the L01 row is represented by “L01F01”.

図7に示す例では、例えば、L01F01(左画素120L)と、L02F02(上画素120U)とL03F01(右画素120R)とL02F04(下画素120D)とのいずれかの画素とは、画素ピッチから算出される画素間距離より、瞳の中心間距離または重心間距離が狭い構成となる。   In the example illustrated in FIG. 7, for example, one of L01F01 (left pixel 120L), L02F02 (upper pixel 120U), L03F01 (right pixel 120R), and L02F04 (lower pixel 120D) is calculated from the pixel pitch. The distance between the centers of the pupils or the distance between the centers of gravity is smaller than the distance between the pixels.

第1実施形態の撮像装置では、左画素120Lから構成されるセル群と、右画素120Rから構成される別のセル群と、のそれぞれの出力信号(測距のための信号)から、位相差情報を算出して光学系のフォーカスを調整させることができる。   In the imaging apparatus according to the first embodiment, the phase difference is determined from the output signals (signals for ranging) of the cell group including the left pixel 120L and another cell group including the right pixel 120R. Information can be calculated to adjust the focus of the optical system.

例えば、L01の行の左画素120LであるL01F01、L01F03、L01F05、L01F07、L01F09から得られる出力波形と、L03の行の右画素120Rである、L03F01、L03F03、L03F05、L03F07、L03F09から得られる出力波形と、を比較することで、所謂位相差検出式によりデフォーカス情報や合焦点位置情報が取得できる。   For example, the output waveform obtained from L01F01, L01F03, L01F05, L01F07, and L01F09, which are the left pixels 120L in the L01 row, and the output obtained from L03F01, L03F03, L03F05, L03F07, and L03F09 that are the right pixels 120R in the L03 row By comparing the waveforms with each other, defocus information and in-focus position information can be acquired by a so-called phase difference detection formula.

(画素配列のバリエーション2)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 2)
Next, another configuration example of the imaging element included in the imaging device will be described.

図8の配置において、L05F01画素とL05F05画素とは、左側瞳検出用画素である。また、L05F03画素は、右側瞳検出用画素である。   In the arrangement of FIG. 8, the L05F01 pixel and the L05F05 pixel are left pupil detection pixels. The L05F03 pixel is a right pupil detection pixel.

これにより、精度の高い焦点検出を行うことができる。   Thereby, focus detection with high accuracy can be performed.

(画素配列のバリエーション3)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 3)
Next, another configuration example of the imaging element included in the imaging device will be described.

図9のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。   The arrangement of the color filters in FIG. 9 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.

また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.

ここで、緑色のフィルタGが配置されている、L05F01画素とL05F09画素とは、左側瞳検出用画素である。また、L05F05画素は、右側瞳検出用画素である。   Here, the L05F01 pixel and the L05F09 pixel in which the green filter G is disposed are the left pupil detection pixels. The L05F05 pixel is a right pupil detection pixel.

これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要ない。   This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.

(画素配列のバリエーション4)
次に、撮像装置が備える撮像素子のさらに他の構成例について説明する。
(Pixel array variation 4)
Next, still another configuration example of the imaging element included in the imaging device will be described.

図10のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。   The arrangement of the color filters in FIG. 10 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.

また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.

ここで、緑色のフィルタGが配置されている、L01F01画素と、L01F09画素と、L09F01画素と、L09F09画素とは、左側瞳検出用画素である。
また、L05F01画素と、L05F09画素とは、右側瞳検出用画素である。
また、L01F05画素と、L09F05画素とは、上側瞳検出用画素である。
さらに、L05F05画素は、下側瞳検出用画素である。
Here, the L01F01 pixel, the L01F09 pixel, the L09F01 pixel, and the L09F09 pixel in which the green filter G is arranged are left pupil detection pixels.
The L05F01 pixel and the L05F09 pixel are right pupil detection pixels.
The L01F05 pixel and the L09F05 pixel are upper pupil detection pixels.
Further, the L05F05 pixel is a lower pupil detection pixel.

これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要ない。   This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.

図11は、撮像装置11のボディ制御部24の機能ブロックを示す図である。
撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がラインaを経由してA/D変換部131へ入力する。
FIG. 11 is a diagram illustrating functional blocks of the body control unit 24 of the imaging device 11.
From the image sensor 22, a signal for identifying which signal is a signal from the imaging pixel, a signal from the focus detection pixel, the first image signal, or the second image signal passes through the line a. To the A / D converter 131.

撮像素子22は、2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、並びに、前記撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する。詳細は後述する。   The imaging element 22 has a plurality of pixels arranged two-dimensionally and is pupil-divided among the first subject image signal formed by the light beam from the imaging optical system and the light beam from the imaging optical system. The second subject image and the third subject image formed in this manner are photoelectrically converted, and the second subject image signal and the third subject image signal are output. Details will be described later.

像信号取得部133は、信号処理部132を経由した信号を取得する。撮影用画素からの信号は、表示画像構成部134により、液晶表示素子駆動回路25へ出力される。液晶表示素子26は、撮影用の画像を表示する。   The image signal acquisition unit 133 acquires a signal that has passed through the signal processing unit 132. A signal from the imaging pixel is output to the liquid crystal display element driving circuit 25 by the display image forming unit 134. The liquid crystal display element 26 displays an image for photographing.

表示画像構成部134は、撮像素子22が出力する第1の被写体像及びフォーカス補助図生成部139が生成するフォーカス補助図に基づいて表示用画像を構成する。
撮影者は、接眼レンズ27を通して撮影用の画像を観察できる。
The display image configuration unit 134 configures a display image based on the first subject image output from the image sensor 22 and the focus auxiliary diagram generated by the focus auxiliary diagram generation unit 139.
The photographer can observe an image for photographing through the eyepiece lens 27.

記録画像構成部139は、撮影用画素からの信号に基づいて記録画像データを構成する。記録画像データは、メモリーカード29に格納される。   The recorded image configuration unit 139 configures recorded image data based on signals from the imaging pixels. The recorded image data is stored in the memory card 29.

また、焦点検出用画素からの信号は、像信号取得部133から相関演算部136へ出力される。
相関演算部136は、第1像信号、及び第2像信号に基づいて相関演算を行う。つまり、相関演算部136は、撮像素子22が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する。
A signal from the focus detection pixel is output from the image signal acquisition unit 133 to the correlation calculation unit 136.
The correlation calculation unit 136 performs a correlation calculation based on the first image signal and the second image signal. That is, the correlation calculation unit 136 calculates the interval between the two images based on the second subject image signal and the third subject image signal output from the image sensor 22.

また、補正値格納部138には、後述する重み付けの係数が格納されている。フォーカス補助図生成部139は、相関演算部136の演算結果と、補正値格納部138に格納されている補正値(=重み付けの係数)と、に基づいてフォーカス補助図を生成する。
即ち、フォーカス補助図生成部139は、相関演算部136が演算する前記2像の間隔と、撮像素子22が出力する第1の被写体像信号に基づいて、フォーカス補助図を生成する。
The correction value storage unit 138 stores a weighting coefficient described later. The focus auxiliary diagram generation unit 139 generates a focus auxiliary diagram based on the calculation result of the correlation calculation unit 136 and the correction value (= weighting coefficient) stored in the correction value storage unit 138.
That is, the focus auxiliary diagram generation unit 139 generates a focus auxiliary diagram based on the interval between the two images calculated by the correlation calculation unit 136 and the first subject image signal output by the image sensor 22.

これら、相関演算部136〜制御部137により、レンズ駆動してフォーカシングするフローチャート、及びフォーカス補助図の詳細に関しては、後述する。   The details of the flowchart for focusing by driving the lens by the correlation calculation unit 136 to the control unit 137 and the details of the focus auxiliary diagram will be described later.

オートフォーカスが可能なレンズにおいて、マニュアルフォーカスを行う場合は、上述した構成をそのまま用いることができる。
これに対して、オートフォーカスが不可能なレンズを用いる場合、上記図のe、d、fの信号線が接続されていない状態となる。
When performing manual focusing on a lens capable of autofocusing, the above-described configuration can be used as it is.
On the other hand, when a lens that cannot be autofocused is used, the signal lines e, d, and f in the above figure are not connected.

次に、フローチャートを用いて、本実施例におけるフォーカシング動作をさらに詳細に説明する。
図12は、撮影の大まかな流れを示すフローチャートである。ステップS101において、撮影が開始される。ステップS102において、撮影者はマニュアルフォーカスにおいて、フォーカス補助を必要とするか否かを選択する。
Next, the focusing operation in the present embodiment will be described in more detail using a flowchart.
FIG. 12 is a flowchart showing a rough flow of shooting. In step S101, shooting is started. In step S102, the photographer selects whether or not focus assistance is required in manual focus.

ステップS102において、フォーカス補助の必要が無い場合、ステップS103において、表示画像構成部134は、表示画像を構成する。   If there is no need for focus assistance in step S102, the display image construction unit 134 constructs a display image in step S103.

フォーカス補助図を必要としない場合、撮影者は接眼レンズ27を介して液晶表示素子26に表示された像を観察し、マニュアルフォーカシング操作を行う。ステップS104において、レンズ駆動部16は、レンズ駆動量に基づいてフォーカシング用レンズ20を不図示のモーター等の駆動源により合焦点へと駆動する。   When the focus assist diagram is not required, the photographer observes the image displayed on the liquid crystal display element 26 through the eyepiece lens 27 and performs a manual focusing operation. In step S104, the lens driving unit 16 drives the focusing lens 20 to a focal point by a driving source such as a motor (not shown) based on the lens driving amount.

ステップS105において、撮影を行うか否かが判断される。ステップS105の判断結果がYesのとき、ステップS106において、撮影サブルーチンが実行される。   In step S105, it is determined whether to perform shooting. When the determination result in step S105 is Yes, a shooting subroutine is executed in step S106.

次に、ステップS102において、フォーカス補助が必要であるとき、撮影者は、さらにピント確認優先モードにすること、または写り確認優先モードにすることを選択する。   Next, in step S102, when the focus assistance is necessary, the photographer further selects to set the focus confirmation priority mode or to the shooting confirmation priority mode.

ステップS107において、ピント確認優先モードが選択された場合、ステップS108へ進む。ステップS108において、2像間隔算出サブルーチンが実行される。ステップS109において、レンズ制御部30は、撮像状態のレンズのFナンバーを読取る。   If the focus confirmation priority mode is selected in step S107, the process proceeds to step S108. In step S108, a two-image interval calculation subroutine is executed. In step S109, the lens control unit 30 reads the F number of the lens in the imaging state.

そして、フォーカス補助図作成部139は、補正値格納部138に格納されている複数の補正値の中から適切な補正値を選択する。ここで、補正値は、上述したように「重み付け」に対応している。
相関演算部の結果に重み付けを行うことで、2像のズレ量に強弱をつけることが可能となる。また、重み付け量は、撮影者が外部から入力することでも良い。これにより、撮影者の使いやすい条件を設定することができる。
Then, the focus auxiliary diagram creation unit 139 selects an appropriate correction value from among a plurality of correction values stored in the correction value storage unit 138. Here, the correction value corresponds to “weighting” as described above.
By weighting the results of the correlation calculation unit, it is possible to increase or decrease the amount of deviation between the two images. The weighting amount may be input from the outside by the photographer. Thereby, conditions easy for the photographer to use can be set.

フォーカス補助図生成部139は、後述する内容のフォーカス補助図を作成する。そして、ステップS103へ進み、撮影が行われる。   The focus auxiliary diagram generation unit 139 creates a focus auxiliary diagram having contents to be described later. Then, the process proceeds to step S103 and photographing is performed.

また、ステップS107において、写り確認優先モードが選択された場合、ステップS113へ進む。ステップS113において、2像間隔算出サブルーチンが実行される。ステップS114において、フォーカス補助部生成部139は、フォーカス補助図を生成する。そして、ステップS103へ進み、撮影が行われる。   In step S107, if the image capture priority mode is selected, the process proceeds to step S113. In step S113, a two-image interval calculation subroutine is executed. In step S114, the focus assisting unit generating unit 139 generates a focus assisting diagram. Then, the process proceeds to step S103 and photographing is performed.

図13は、2像間隔算出サブルーチンの手順を示すフローチャートである。ステップS201において、2像間隔算出サブルーチンが呼び出される。ステップS202において、像信号取得部133は、第1信号と第2信号との2像の信号を読み出す。   FIG. 13 is a flowchart showing the procedure of the two-image interval calculation subroutine. In step S201, a two-image interval calculation subroutine is called. In step S202, the image signal acquisition unit 133 reads out two image signals of the first signal and the second signal.

ステップS203において、相関演算部136は、2像信号の相関演算を行う。ステップS204において、相関演算の結果、2像の間隔が算出される。   In step S203, the correlation calculation unit 136 performs a correlation calculation of the two image signals. In step S204, the interval between the two images is calculated as a result of the correlation calculation.

図14は、撮影サブルーチンの手順を示すフローチャートである。ステップS301において、撮影サブルーチンが呼び出される。ステップS302において、像信号取得部133は、第1の被写体像の信号を読み出す。   FIG. 14 is a flowchart showing the procedure of the photographing subroutine. In step S301, a shooting subroutine is called. In step S302, the image signal acquisition unit 133 reads the signal of the first subject image.

ステップS303において、画像構成部135は、記憶画像の構成を行う。ステップS304において、メモリーカード29などへ記録画像を記録する。ステップS305において、液晶表示素子26は、表示画像構成部134により構成された画像を表示する。   In step S303, the image constructing unit 135 constructs a stored image. In step S304, the recorded image is recorded on the memory card 29 or the like. In step S <b> 305, the liquid crystal display element 26 displays the image configured by the display image configuration unit 134.

画素読出しは、全画素読出し、間引き読出しの処理を行うように構成してもよい。画像構成には、欠陥画素の補間処理が含まれている。また、画素加算や画素補間により、焦点検出対象画素の位置の画素信号を求めるようにしてもよい。   The pixel readout may be configured to perform all pixel readout and thinning readout processing. The image configuration includes interpolation processing of defective pixels. Alternatively, the pixel signal at the position of the focus detection target pixel may be obtained by pixel addition or pixel interpolation.

また、上記図のフローに限定されない。
例えば、電源ON後、初期状態検出、撮像素子駆動、プレビュー画像表示などをおこなってもよい。また、撮影開始をシャッターボタン半押し後、焦点検出サブルーチンに移り、合焦後、確認画像を表示し、シャッターボタン全押し後に、撮影サブルーチンに移るフローでもよい。
Moreover, it is not limited to the flow of the said figure.
For example, after the power is turned on, initial state detection, image sensor driving, preview image display, and the like may be performed. Alternatively, the flow of starting shooting may be shifted to the focus detection subroutine after half-pressing the shutter button, the confirmation image may be displayed after focusing, and the flow may be shifted to the shooting subroutine after the shutter button is fully pressed.

次に、フォーカス補助について説明する。図15は、フォーカス補助図について説明する図である。
図15(a)、(b)、(c)、(d)は、従来のマニュアルフォーカスにおけるフォーカス補助、即ちスプリットイメージを説明する図である。
図15(e)、(f)は、本実施形態のマニュアルフォーカスにおけるフォーカス補助を説明する図である。
Next, focus assistance will be described. FIG. 15 is a diagram for explaining a focus assistance diagram.
FIGS. 15A, 15B, 15C, and 15D are diagrams for explaining focus assistance, that is, a split image in conventional manual focus.
FIGS. 15E and 15F are diagrams for explaining the focus assist in the manual focus according to the present embodiment.

まず、従来のマニュアルフォーカスにおけるフォーカス補助図について説明する。
図15(a)において、像信号取得部は、撮像光学系からの光束により形成された第1の被写体像信号401aを取り込む。
First, a focus assist diagram in the conventional manual focus will be described.
In FIG. 15A, the image signal acquisition unit takes in the first subject image signal 401a formed by the light flux from the imaging optical system.

図15(b)おいて、像信号取得部133は、第2の被写体像信号401bを取り込む。さらに、図15(c)において、像信号取得部133は、第3の被写体像信号401cを取り込む。
ここでは、瞳分割している測距用画素のうち、1ラインの情報ではなく、対象領域400a、400bにおいて画像構成が可能となる信号量の読出しが必要となる。このため、処理が複雑になってしまう。さらに、画像を構成するために、第2、第3の画像構成部が必要となってしまう。
In FIG. 15B, the image signal acquisition unit 133 captures the second subject image signal 401b. Further, in FIG. 15C, the image signal acquisition unit 133 captures the third subject image signal 401c.
Here, it is necessary to read out not only one line of information for distance measurement pixels that are pupil-divided but also a signal amount that enables image construction in the target areas 400a and 400b. This complicates processing. Furthermore, in order to construct an image, second and third image construction units are required.

フォーカス補助図生成部は、第2の被写体像401b、第3の被写体像401cに基づいて、フォーカス補助図を生成する。そして、図15(d)に示すように、表示画像構成部は、第1の被写体像信号401aとフォーカス補助図より、スプリットイメージである表示画像を構成する。
このように、従来のマニュアルフォーカスにおけるフォーカス補助では、処理が複雑になること、第2、第3の画像構成部が必要になること、などの問題点を有している。
The focus auxiliary diagram generation unit generates a focus auxiliary diagram based on the second subject image 401b and the third subject image 401c. And as shown in FIG.15 (d), a display image structure part comprises the display image which is a split image from the 1st object image signal 401a and a focus auxiliary | assistant figure.
As described above, the conventional focus assist in manual focus has problems such as complicated processing and the necessity of the second and third image constructing units.

次に、本実施形態のフォーカス補助について説明する。図15(e)において、像信号取得部133は、撮像光学系からの光束により形成された第1の被写体像信号501aを取り込む。   Next, focus assistance of this embodiment will be described. In FIG. 15E, the image signal acquisition unit 133 captures the first subject image signal 501a formed by the light flux from the imaging optical system.

そして、第2の被写体像信号、第3の被写体像信号より、2像間隔が算出できればよいので、原理的には、1ラインの読出しでよい。このため、被写体像の全体を取り込み、構成する必要がない。従って、処理が簡易になる。   Since it is sufficient that the interval between two images can be calculated from the second subject image signal and the third subject image signal, in principle, one line may be read out. For this reason, it is not necessary to capture and configure the entire subject image. Therefore, the process is simplified.

相関演算部136は、例えば、1ラインの読み出し結果に基づいて、2像間隔を算出する。   For example, the correlation calculation unit 136 calculates the interval between two images based on the readout result of one line.

フォーカス補助図生成部139は、フォーカス補助図を生成する。図15(f)に示すように、表示画像構成部134は、第1の被写体像信号501aとフォーカス補助図(点線で示す領域500a、500bの部分)より、スプリットイメージである表示画像を構成する。   The focus auxiliary diagram generation unit 139 generates a focus auxiliary diagram. As shown in FIG. 15 (f), the display image configuration unit 134 configures a display image that is a split image from the first subject image signal 501 a and a focus assisting diagram (parts of regions 500 a and 500 b indicated by dotted lines). .

本実施形態では、異なる瞳領域からの1ラインの信号に基づいて相関演算を行う。そして、2像の紙面内におけるズレ量を算出する。例えば、本実施形態では、紙面左右方向に各々xだけずれているとする。   In the present embodiment, correlation calculation is performed based on one line of signals from different pupil regions. Then, the amount of deviation of the two images in the paper is calculated. For example, in the present embodiment, it is assumed that each is shifted by x in the horizontal direction of the paper.

つまり、図15(f)の画像は、表示画像構成部134は、対象領域500aを左方向へ距離x移動したものと、対象領域500bを右方向へ距離x移動したものと、全く移動していない状態の像信号501aとを組み合わせることで得ることができる。   That is, in the image of FIG. 15 (f), the display image configuration unit 134 has moved completely, that is, the object region 500a moved by the distance x to the left and the object region 500b moved to the right by the distance x. It can be obtained by combining with the image signal 501a in the absence.

次に、絞りの変化とスプリットイメージとの関係について説明する。
図16(a)、(d)は、それぞれ従来の構成において、絞り21が開放のときの光路図とスプリットイメージを示している。
図16(b)、(e)は、それぞれ従来の構成において、絞り21を絞ったときの光路図とスプリットイメージを示している。
これらの図から明らかなように、絞り21を絞り込むことで、2像間隔Daは、より短い間隔Dbへと変化する。このように、絞りを変化させることで、フォーカシングのための2像間隔が変化してしまう。
Next, the relationship between the change in aperture and the split image will be described.
FIGS. 16A and 16D show an optical path diagram and a split image when the diaphragm 21 is opened in the conventional configuration, respectively.
FIGS. 16B and 16E respectively show an optical path diagram and a split image when the diaphragm 21 is stopped in the conventional configuration.
As is apparent from these drawings, the two-image interval Da is changed to a shorter interval Db by narrowing the stop 21. Thus, by changing the aperture, the interval between two images for focusing changes.

従来のスプリットイメージは、瞳分割手段によって分割された光束により形成された第1及び第2の被写体像より生成される。第1と第2の被写体像の像ズレ量は、絞り径によって異なる。このため、同じ焦点距離の撮影状態において絞り径を変化させるとスプリットイメージの位置が変化してしまい、使い勝手が悪い。   The conventional split image is generated from the first and second subject images formed by the light beams divided by the pupil dividing means. The amount of image shift between the first and second subject images varies depending on the aperture diameter. For this reason, if the aperture diameter is changed in the shooting state with the same focal length, the position of the split image changes, which is inconvenient.

そこで、本実施例では、開放時の開口径と撮影時の開口径応じた2像間隔の乖離量を補正する補正値を算出し、補正値を用いてスプリットイメージを生成し表示する。   Therefore, in this embodiment, a correction value for correcting the deviation amount between the two image intervals corresponding to the opening diameter at the time of opening and the opening diameter at the time of photographing is calculated, and a split image is generated and displayed using the correction value.

絞り21は、撮影光学系の光路内に配置され開口径が調節可能である。
フォーカス補助図生成部134は、撮影時の絞り21の開口径に基づいて、相関演算部136が演算する2像の間隔を補正する。
The diaphragm 21 is disposed in the optical path of the photographing optical system, and the aperture diameter can be adjusted.
The focus auxiliary diagram generation unit 134 corrects the interval between the two images calculated by the correlation calculation unit 136 based on the aperture diameter of the diaphragm 21 at the time of shooting.

図16(c)、(f)は、それぞれ本実施形態の構成において、絞り21を絞ったときの光路図とスプリットイメージを示している。ここでも、従来例と同様に、絞りを変化させると2像間隔が変化している。   FIGS. 16C and 16F show an optical path diagram and a split image when the diaphragm 21 is stopped in the configuration of the present embodiment, respectively. Here, as in the conventional example, when the aperture is changed, the interval between the two images changes.

デフォーカス量と2像間隔との関係は、基本的には、線形関係を有している。つまり、横軸にデフォーカス量、縦軸に2像間隔をとると、両者は直線で示される関係を有する。
そして、フォーカスを一定の状態に維持しておいて、絞りだけ変化させたとき、この直線の傾きが変化する。
The relationship between the defocus amount and the interval between two images is basically a linear relationship. That is, when the defocus amount is taken on the horizontal axis and the two-image interval is taken on the vertical axis, the two have a relationship indicated by a straight line.
When the focus is kept constant and only the aperture is changed, the slope of this straight line changes.

したがって、本実施形態では、フォーカスを一定の状態に維持しておいて、絞りだけ変化させたとき、直線の傾きが変わらない、すなわち2像間隔が変わらないように補正を行っている。
これにより、撮影者は、絞り21を変化させたときでも、2像間隔が一定の状態を得ることができる。この結果、撮影者にとって使い勝手が良いという効果が得られる。
Therefore, in this embodiment, when the focus is maintained in a constant state and only the aperture is changed, correction is performed so that the inclination of the straight line does not change, that is, the interval between two images does not change.
Thus, the photographer can obtain a state in which the interval between the two images is constant even when the diaphragm 21 is changed. As a result, there is an effect that the photographer is easy to use.

補正値(=重み付け)は、予め複数の値が補正値格納部138に格納されている。そして、それらの複数の値の中から最適な補正値を選択する。   A plurality of correction values (= weighting) are stored in the correction value storage unit 138 in advance. Then, an optimum correction value is selected from the plurality of values.

次に、デフォーカス量と2像間隔との関係(=相関演算結果)において、データに補正を行う構成について説明する。
図17は、3種類の相関演算結果を示す図である。本図は、重み付けが無い場合(実線)、重み付け1の場合(破線)、重み付け2の場合(一点破線)の3つの場合を示す。以下、各場合について説明する。
Next, a configuration for correcting data in relation to the relationship between the defocus amount and the interval between two images (= correlation calculation result) will be described.
FIG. 17 is a diagram showing three types of correlation calculation results. This figure shows three cases: no weighting (solid line), weighting 1 (dashed line), and weighting 2 (one-dot broken line). Hereinafter, each case will be described.

補正値格納部138は、複数の補正値を格納するをさらに有する。
フォーカス補助図生成部139は、補正値格納部138に格納されている複数の前記補正値の中から選択した前記補正値により相関演算部136が演算する2像の間隔を補正し、補正した2像間隔に基づいて、フォーカス補助図を生成する。
The correction value storage unit 138 further includes a plurality of correction values.
The focus auxiliary diagram generation unit 139 corrects the interval between the two images calculated by the correlation calculation unit 136 based on the correction value selected from the plurality of correction values stored in the correction value storage unit 138 and corrects the corrected two values. A focus assist map is generated based on the image interval.

フォーカス補助図生成部139の処理について説明する。まず、相関演算部136は、2つの被写体像から2像間隔Lを算出する。上述したように、デフォーカス量と2像間隔の関係は線形である。   The processing of the focus auxiliary diagram generation unit 139 will be described. First, the correlation calculation unit 136 calculates a two-image interval L from two subject images. As described above, the relationship between the defocus amount and the interval between two images is linear.

スプリットイメージ像のずれ量xは、2像間隔Lに重み付けを行い、求めることができる。例えば、次式(1)で示すような重み付けの方法がある。   The split image image shift amount x can be obtained by weighting the interval L between two images. For example, there is a weighting method as shown in the following equation (1).

x=α×L(1/k)+β (1)
ここで、
0<α、k=2×n+1 (n=0,1,2,3・・・)、
βは、補正量である
x = α × L (1 / k) + β (1)
here,
0 <α, k = 2 × n + 1 (n = 0, 1, 2, 3...),
β is the correction amount

例えば、パラメータα、kが以下の時、図17の「重み付け1」に示すようなズレ量を表すことができる。これは、2像間隔に対して、係数倍したスプリットイメージ像のずれ量を与える例である。
0<α
1=k
For example, when the parameters α and k are as follows, a deviation amount as shown in “weighting 1” in FIG. 17 can be expressed. This is an example in which the shift amount of the split image image multiplied by a coefficient is given to the interval between two images.
0 <α
1 = k

この場合、図17の破線で示す直線のように、ピントがぼけている時に、よりぼけているように強調する表示により、撮影者にピントぼけを認識しやすくことができるという効果を奏する。   In this case, as shown by the straight line shown by the broken line in FIG. 17, when the image is out of focus, it is possible to make it easier for the photographer to recognize the out-of-focus by displaying the image so as to be more blurred.

さらに、例えば、パラメータα、kが以下の時、図17の「重み付け2」に示すようなズレ量を表すことができる。2像間隔Lが0付近ではxが大きく、2像間隔Lが大きくなるとxが小さくなる関数の例である。
0<α
1<k
Further, for example, when the parameters α and k are as follows, a deviation amount as shown in “weighting 2” in FIG. 17 can be expressed. This is an example of a function in which x is large when the two-image interval L is near 0, and x decreases as the two-image interval L increases.
0 <α
1 <k

この場合、図17の一点破線で示す曲線のように、ピントが合ってくると(原点近傍になると)、フォーカスリングの駆動量とぼけ具合の変化量が大きくなる(曲線の傾きが大きくなる)。これにより、撮影者にとって、よりフォーカシングの操作性が向上するという効果を奏する。   In this case, as shown by the dashed line in FIG. 17, when the focus is achieved (near the origin), the amount of change in the focus ring drive amount and the degree of blur increases (the slope of the curve increases). This brings about an effect that the operability of focusing is further improved for the photographer.

以上説明したように、本実施形態では、記録画像を生成する手段のみを有することで、処理が簡便な構成としている。即ち、構成が簡易なフォーカス補助手段を有する撮像装置を提供することができる。
また、旧型のオールドレンズはオートフォーカスが不可能である。このため、本実施形態を用いることで、フォーカス時の補助として効果がある。
さらに、オートフォーカス可能なレンズでは、主要被写体の判別についてはマニュアルフォーカスを用いたほうがフォーカシングが早いという利点もある。この場合、本実施形態を用いることで使い勝手が向上する。
As described above, in the present embodiment, only the means for generating a recorded image is provided, so that the processing is simple. That is, it is possible to provide an imaging apparatus having a focus assisting unit with a simple configuration.
In addition, the old type old lens cannot be autofocused. For this reason, using this embodiment is effective as an assist during focusing.
Further, in the case of a lens capable of autofocusing, there is an advantage that focusing is quicker when manual focus is used for discrimination of a main subject. In this case, usability is improved by using this embodiment.

また、上記実施例の構成において、表示部26は、2像の間隔が所定の値よりも大きいとき、フォーカス補助図の代わりに、撮像された画像を表示することもできる。
換言すると、表示部26は、2像の間隔が所定の値よりも大きいとき、フォーカス補助図の代わりに、第1の被写体像信号に対応する画像を表示する。
In the configuration of the above-described embodiment, the display unit 26 can display a captured image instead of the focus assistance diagram when the interval between the two images is larger than a predetermined value.
In other words, when the interval between the two images is larger than the predetermined value, the display unit 26 displays an image corresponding to the first subject image signal instead of the focus assistance diagram.

2像の間隔が所定の値よりも大きい、つまりぼけが大きい場合は、フォーカシングによるぼけの変化が認識しやすいので、ライブビュー画像を表示し、2像の間隔が所定の値よりも小さい、つまりぼけが小さい場合は、スプリットイメージで詳細なピント調整が容易にできる。
これにより、撮影者にとって、よりフォーカシングの操作性が向上するという効果を奏する。
When the interval between two images is larger than a predetermined value, that is, when the blur is large, the blur change due to focusing is easily recognized, so a live view image is displayed and the interval between the two images is smaller than the predetermined value. When the blur is small, detailed focus adjustment can be easily performed with the split image.
This brings about an effect that the operability of focusing is further improved for the photographer.

以上のように、本発明は、マニュアルフォーカスの撮像装置に適している。   As described above, the present invention is suitable for a manual focus imaging apparatus.

11 デジタルスチルカメラ
12 交換レンズ
13 カメラボディ
15 絞り駆動部
16 レンズ駆動部
18 ズーミング用レンズ
19 レンズ
20 フォーカシング用レンズ
21 可変絞り
22 撮像素子
24 ボディ制御部
25 液晶表示素子駆動回路
26 液晶表示素子
27 接眼レンズ
28 撮像素子駆動回路
29 メモリカード
30 レンズ制御部
31a 外部入力部
31 p形ウエル
32α、32β n形領域
33α、33β 表面p+層
35 カラーフィルタ
36 マイクロレンズ
41 画素
42、52 マイクロレンズ
44、54 遮光膜
48、58 開口部
61、62、63、64 オンチップレンズ
61a、62a、63a、64a 光軸
70、80 画素
71、81 屈折率分布レンズ
72 カラーフィルタ
76、86 受光素子
90 移動・駆動部
91 減光素子
120L 左側瞳検出用画素
120R 右側瞳検出用画素
120U 上側瞳検出用画素
120D 下側瞳検出用画素
121 撮影用画素
131 A/D変換部
132 信号処理部
133 像信号取得部
134 表示画像構成部
135 演算部/相関演算部
136 相関演算部
137 制御部
138 補正値格納部
139 フォーカス補助図生成部
DESCRIPTION OF SYMBOLS 11 Digital still camera 12 Interchangeable lens 13 Camera body 15 Aperture drive part 16 Lens drive part 18 Zooming lens 19 Lens 20 Focusing lens 21 Variable aperture 22 Imaging element 24 Body control part 25 Liquid crystal display element drive circuit 26 Liquid crystal display element
27 eyepiece 28 image pickup device drive circuit 29 memory card 30 lens control unit 31a external input unit 31 p-type well 32α, 32β n-type region 33α, 33β surface p + layer 35 color filter 36 micro lens 41 pixel 42, 52 micro lens 44, 54 Light shielding film 48, 58 Aperture 61, 62, 63, 64 On-chip lens 61a, 62a, 63a, 64a Optical axis 70, 80 Pixel 71, 81 Refractive index distribution lens 72 Color filter 76, 86 Light receiving element 90 Moving / driving Unit 91 Dimming element 120L Left pupil detection pixel 120R Right pupil detection pixel 120U Upper pupil detection pixel 120D Lower pupil detection pixel 121 Imaging pixel 131 A / D conversion unit 132 Signal processing unit 133 Image signal acquisition unit 134 Display image component 135 Calculation unit / Correlation calculation unit 36 correlation calculation section 137 the control unit 138 correction value storing section 139 Focus Auxiliary diagram generation unit

Claims (4)

2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、並びに、前記撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する撮像素子と、
前記撮像素子が出力する前記第2の被写体像信号及び前記第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
前記相関演算部が演算する前記2像の間隔と、前記撮像素子が出力する前記第1の被写体像信号に基づいて、フォーカス補助図を生成するフォーカス補助図生成部と、
前記撮像素子が出力する前記第1の被写体像及び前記フォーカス補助図生成部が生成する前記フォーカス補助図に基づいて表示用画像を構成する表示画像構成部と、を有することを特徴とする撮像装置。
The first subject image signal formed by the light beam from the imaging optical system, and the first light beam divided from the light beam from the imaging optical system, which has a plurality of pixels arrayed two-dimensionally, is formed. An image sensor that photoelectrically converts each of the second subject image and the third subject image and outputs a second subject image signal and a third subject image signal;
A correlation calculation unit that calculates an interval between two images based on the second subject image signal and the third subject image signal output by the imaging device;
A focus auxiliary diagram generation unit that generates a focus auxiliary diagram based on the interval between the two images calculated by the correlation calculation unit and the first subject image signal output by the image sensor;
An image pickup apparatus comprising: a display image configuration unit configured to form a display image based on the first subject image output from the image sensor and the focus auxiliary diagram generated by the focus auxiliary diagram generation unit. .
さらに、前記2像の間隔が所定の値よりも大きいとき、前記フォーカス補助図の代わりに、前記第1の被写体像信号に対応する画像を表示する表示部を有することを特徴とする請求項1に記載の撮像装置。   2. The display apparatus according to claim 1, further comprising a display unit that displays an image corresponding to the first subject image signal instead of the focus assisting diagram when the interval between the two images is larger than a predetermined value. The imaging device described in 1. 複数の補正値を格納する補正値格納部をさらに有し、
前記フォーカス補助図生成部は、前記補正値格納部に格納されている複数の前記補正値の中から選択した前記補正値により前記相関演算部が演算する前記2像の間隔を補正し、前記補正した前記2像間隔に基づいて、前記フォーカス補助図を生成することを特徴とする請求項1または2に撮像装置。
A correction value storage unit for storing a plurality of correction values;
The focus auxiliary diagram generation unit corrects an interval between the two images calculated by the correlation calculation unit based on the correction value selected from the plurality of correction values stored in the correction value storage unit, and corrects the correction. The imaging apparatus according to claim 1, wherein the focus auxiliary diagram is generated based on the two-image interval.
前記撮影光学系の光路内に配置され開口径が調節可能な絞り部をさらに有し、
前記フォーカス補助図生成部は、撮影時の前記絞り部の開口径に基づいて、前記相関演算部が演算する前記2像の間隔を補正することを特徴とする請求項3に記載の撮像装置。
It further has a diaphragm part that is arranged in the optical path of the photographing optical system and whose aperture diameter is adjustable,
The imaging apparatus according to claim 3, wherein the focus auxiliary diagram generation unit corrects an interval between the two images calculated by the correlation calculation unit based on an aperture diameter of the diaphragm unit at the time of photographing.
JP2010260578A 2010-11-22 2010-11-22 Imaging device Active JP5829018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010260578A JP5829018B2 (en) 2010-11-22 2010-11-22 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010260578A JP5829018B2 (en) 2010-11-22 2010-11-22 Imaging device

Publications (2)

Publication Number Publication Date
JP2012113064A true JP2012113064A (en) 2012-06-14
JP5829018B2 JP5829018B2 (en) 2015-12-09

Family

ID=46497359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010260578A Active JP5829018B2 (en) 2010-11-22 2010-11-22 Imaging device

Country Status (1)

Country Link
JP (1) JP5829018B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130121537A1 (en) * 2011-05-27 2013-05-16 Yusuke Monobe Image processing apparatus and image processing method
WO2014046039A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device, and focus-confirmation display method
WO2014069228A1 (en) * 2012-11-05 2014-05-08 富士フイルム株式会社 Image processing device, imaging device, image processing method, and program
WO2014106916A1 (en) * 2013-01-04 2014-07-10 富士フイルム株式会社 Image processing device, imaging device, program, and image processing method
WO2014155813A1 (en) * 2013-03-29 2014-10-02 富士フイルム株式会社 Image processing device, imaging device, image processing method and image processing program
JP5931206B2 (en) * 2012-09-19 2016-06-08 富士フイルム株式会社 Image processing apparatus, imaging apparatus, program, and image processing method
WO2019123600A1 (en) * 2017-12-21 2019-06-27 オリンパス株式会社 Image capture device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (en) * 2000-04-27 2001-11-02 Minolta Co Ltd Digital camera
JP2004212891A (en) * 2003-01-08 2004-07-29 Canon Inc Electronic camera
JP2005080093A (en) * 2003-09-02 2005-03-24 Minolta Co Ltd Imaging device and display method for focusing confirmation
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus
JP2009237214A (en) * 2008-03-27 2009-10-15 Canon Inc Imaging apparatus
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2010085922A (en) * 2008-10-02 2010-04-15 Nikon Corp Focus detector and imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (en) * 2000-04-27 2001-11-02 Minolta Co Ltd Digital camera
JP2004212891A (en) * 2003-01-08 2004-07-29 Canon Inc Electronic camera
JP2005080093A (en) * 2003-09-02 2005-03-24 Minolta Co Ltd Imaging device and display method for focusing confirmation
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus
JP2009237214A (en) * 2008-03-27 2009-10-15 Canon Inc Imaging apparatus
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2010085922A (en) * 2008-10-02 2010-04-15 Nikon Corp Focus detector and imaging device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9068831B2 (en) * 2011-05-27 2015-06-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US20130121537A1 (en) * 2011-05-27 2013-05-16 Yusuke Monobe Image processing apparatus and image processing method
US9485430B2 (en) 2012-09-19 2016-11-01 Fujifilm Corporation Image processing device, imaging device, computer readable medium and image processing method
WO2014046039A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device, and focus-confirmation display method
US9436064B2 (en) 2012-09-19 2016-09-06 Fujifilm Corporation Imaging device, and focus-confirmation display method
JP5931206B2 (en) * 2012-09-19 2016-06-08 富士フイルム株式会社 Image processing apparatus, imaging apparatus, program, and image processing method
JP5753321B2 (en) * 2012-09-19 2015-07-22 富士フイルム株式会社 Imaging apparatus and focus confirmation display method
WO2014069228A1 (en) * 2012-11-05 2014-05-08 富士フイルム株式会社 Image processing device, imaging device, image processing method, and program
US9386228B2 (en) 2012-11-05 2016-07-05 Fujifilm Corporation Image processing device, imaging device, image processing method, and non-transitory computer-readable medium
WO2014106916A1 (en) * 2013-01-04 2014-07-10 富士フイルム株式会社 Image processing device, imaging device, program, and image processing method
CN105051600A (en) * 2013-03-29 2015-11-11 富士胶片株式会社 Image processing device, imaging device, image processing method and image processing program
WO2014155813A1 (en) * 2013-03-29 2014-10-02 富士フイルム株式会社 Image processing device, imaging device, image processing method and image processing program
JP6000446B2 (en) * 2013-03-29 2016-09-28 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
JPWO2014155813A1 (en) * 2013-03-29 2017-02-16 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN105051600B (en) * 2013-03-29 2018-02-02 富士胶片株式会社 Image processing apparatus, camera device and image processing method
WO2019123600A1 (en) * 2017-12-21 2019-06-27 オリンパス株式会社 Image capture device
US11172174B2 (en) 2017-12-21 2021-11-09 Olympus Corporation Imaging apparatus

Also Published As

Publication number Publication date
JP5829018B2 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP5677800B2 (en) Imaging device
JP5092685B2 (en) Imaging device and imaging apparatus
JP5225151B2 (en) Imaging apparatus and image processing method
JP6317548B2 (en) Imaging apparatus and control method thereof
JP6264284B2 (en) Imaging device
JP4967296B2 (en) Imaging device, focus detection apparatus, and imaging system
JP5829018B2 (en) Imaging device
JP5361535B2 (en) Imaging device
JP5619294B2 (en) Imaging apparatus and focusing parameter value calculation method
JP2012027390A (en) Imaging apparatus
JP2011197080A (en) Image pickup apparatus and camera
JP2013025144A (en) Focus adjustment device and imaging apparatus
JP5381472B2 (en) Imaging device
JP6642628B2 (en) Imaging device and imaging device
JP5966267B2 (en) Focus adjustment device and imaging device
JP5866760B2 (en) Imaging device
JP2013003486A (en) Focus detector and imaging apparatus
JP2017151458A (en) Imaging device
JP2012128101A (en) Imaging apparatus
JP5907668B2 (en) Imaging device and imaging device
JP6349624B2 (en) Image sensor and focus detection apparatus
JP2012042863A (en) Imaging device
JP5597273B2 (en) Imaging apparatus and image processing method
JP2018046563A (en) Imaging element
JP2014235211A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151021

R151 Written notification of patent or utility model registration

Ref document number: 5829018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250